CN113052194A - 一种基于深度学习的服装色彩认知系统及其认知方法 - Google Patents
一种基于深度学习的服装色彩认知系统及其认知方法 Download PDFInfo
- Publication number
- CN113052194A CN113052194A CN201911379637.5A CN201911379637A CN113052194A CN 113052194 A CN113052194 A CN 113052194A CN 201911379637 A CN201911379637 A CN 201911379637A CN 113052194 A CN113052194 A CN 113052194A
- Authority
- CN
- China
- Prior art keywords
- color
- garment
- clothing
- space
- cognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000019771 cognition Effects 0.000 title claims abstract description 20
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 210000005079 cognition system Anatomy 0.000 title description 7
- 239000003086 colorant Substances 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims abstract description 11
- 238000005516 engineering process Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 238000011176 pooling Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 abstract description 9
- 238000004458 analytical method Methods 0.000 description 18
- 230000000007 visual effect Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的服装色彩认知方法及其认知方法,包括以下步骤:(a)给定一张图片,首先通过构建卷积神经网络模型,像素级分割得到图片中所包含的服装主体;(b)将服装主体的分割掩码进行二值化处理后,以得到每个服装主体的RGB区域;(c)利用图像颜色空间技术,由RGB颜色空间转换到对光照等影响更不敏感的HSV颜色空间;(d)对于HSV空间的颜色区域,采用EM聚类算法,得到服装的色彩分布情况;(e)利用构建的大规模标准服装颜色色卡体系,对提取的颜色色块映射得到颜色名,实现了对图片中各服装主体色彩的精确认知。实现了更精确的服装主体定位以及颜色提取,基于构建的更全面的颜色色卡对照表,最终达到服装色彩精确认知的目的。
Description
技术领域
本发明涉及深度学习领域,特别涉及一种基于深度学习的服装色彩认知系统及其认知方法。
背景技术
数字化时代智能设备的普及、亚马逊、阿里、京东等电商平台的发展以及微信、Facebook、Instagram等社交网站和时尚平台的流行,服装及服装相关时尚类、商品类图像快速增长。对于这些仅包含图片或附属少量文本信息的非结构化数据,如何快速获取海量图片中能直观表达出视觉特征,是商品图片语义理解分析的一项基础但又很具有挑战性的问题。而颜色特征作为服装图像的智能分析中最能直观呈现的视觉特征之一,是服装及服装相关领域中表达视觉特征的重要语言之一,是服装图像分析的重要组成部分,具有十分重要的行业意义。
现有技术方案往往只是采用传统图像处理方法,很难精确识别服装主体的色彩。比如,对整张图片采用像素值统计分析,根据RGB值的均值比例情况,来作为颜色结果;或者仅采用传统k-means聚类方法,对整张图片聚类分析,根据各聚类占据的分布情况,判断服装区域的色彩比例;另外,也有些方法采用服装检测技术裁剪出服装矩形框区域,再结合k-means聚类,分析服装区域的颜色。此外,还有一些利用传统图像处理算法的颜色分析方法。
但是,由于颜色特征是对于服装等相关领域的图像理解的最直观的视觉特征,以往的分析方法大多借助传统图像算法,如RGB颜色空间,统计分析各像素值数量,判断整张图像的颜色情况;或者利用颜色直方图分析方法以及其它机器学习算法来认知服装图像的色彩信息。这种分析方法实际上是对整张图像进行分析,同时提取了服装区域和非服装区域的像素信息,难以准确的服装区域进行色块提取和色彩认知。而且采用RGB颜色空间的服装色彩提取方法,很容易受光照等外界因素的影响。此外,传统方案的颜色色卡较为受限,一般基于通用色卡,而并非完全适用于服装领域。
发明内容
本发明要解决的技术问题是提供一种基于深度学习的服装色彩认知系统及其认知方法,能够结合传统图像处理与机器学习技术,实现了更精确的服装主体定位以及颜色提取,基于构建的更全面的颜色色卡对照表,最终达到服装色彩精确认知的目的,进而推动服装认知分析、服装与肤色的搭配等应用领域的进一步发展。
为了解决上述技术问题,本发明的技术方案为:
一种基于深度学习的服装色彩认知方法,包括以下步骤:
(a)给定一张图片,首先通过构建卷积神经网络模型,像素级分割得到图片中所包含的服装主体;
(b)将服装主体的分割掩码进行二值化处理后,结合原图以得到每个服装主体的RGB区域;
(c)利用图像颜色空间技术,由RGB颜色空间转换到对光照等影响更不敏感的HSV颜色空间;
(d)对于HSV空间的颜色区域,采用EM聚类算法,得到服装的色彩分布情况;
(e)利用构建的大规模标准服装颜色色卡体系,对提取的颜色色块映射得到颜色名,最终,实现了对图片中各服装主体色彩的精确认知。
根据上述方法,在步骤(a)中,构建卷积神经网络模型还包括以下步骤:
(a1)编码器部分采用了预训练的深度残差(ResNet)网络和空洞空间金字塔池化(Atrous Spatial Pyramid Pooling),后者为模型提供了多尺度信息,提取辨别性特征(通常是低分辨率的);
(a2)解码器部分将解码器所学习的低分辨率特征,语义地映射到对应的高分辨率像素空间;
(a3)网络模型训练采用多任务的最小化交叉熵目标损失函数,计算预测图片的每个服装像素的预测概率分布与标注的真实概率分布之间的距离,最终采用优化训练完成的卷积神经网络模型。
根据上述方法,在步骤(c)还包括以下步骤:
(c1)将原始输入图像分为服装区域和非服装区域,以进行背景滤除,得到仅包含服装区域的RGB图像;
(c2)再结合传统图像颜色空间原理,将图片由RGB颜色空间转换到HSV颜色空间,最终得到服装区域的HSV空间表征。
根据上述方法,在步骤(c1)之后,对于已去除非服装区域的RGB图像,将其颜色表达转换到HSV颜色空间,具体公式如下:
V=max{R,G,B} (3)
其中,H是角度的色相角,S表示饱和度。
根据上述方法,在步骤(d)还包括以下步骤:
(d1)首先采用EM聚类算法对HSV服装区域进行聚类,得到多个聚类中心;接着计算各聚类中心间的距离,评估聚类中心的颜色相似度;
(d2)如果聚类中心间的聚类小于阈值,则合并该聚类;否则保留该聚类作为一个颜色色块提取结果。
根据上述方法,在步骤(e)所构建的大规模标准服装颜色色卡体系可以映射到至少2700种标准颜色色卡及颜色名体系。
采用上述技术方案,基于编码器解码器网络服装主体定位,像素级定位服装区域,去除非服装区域的影响;基于HSV空间的服装区域颜色提取,可实现更鲁棒的色彩分析,避免光照等外界因素的影响;较大规模的服装颜色标准色卡名,更全面的覆盖了服装色彩体系。
附图说明
图1为本发明中基于深度学习的服装色彩认知系统的原理图;
图2为本发明中服装掩码与颜色空间转换流程图;
图3为本发明中颜色色块提取及颜色名映射技术流程图;
图4为本发明中系统整体设计框架图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明。在此需要说明的是,对于这些实施方式的说明用于帮助理解本发明,但并不构成对本发明的限定。此外,下面所描述的本发明各个实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明提供一种实施原理。具体的实施原理如下所示:
给定一张服装图片,首先通过构建卷积神经网络模型(CNN),像素级分割得到图片中所包含的服装主体;
然后,将服装主体的分割掩码进行二值化处理后,结合原图以得到每个服装主体的RGB区域;
接着,利用图像颜色空间技术,由RGB颜色空间转换到对光照等影响更不敏感的HSV颜色空间;对于HSV空间的颜色区域,采用EM聚类算法,得到服装的色彩分布情况;利用构建的大规模标准服装颜色色卡体系,对提取的颜色色块映射得到颜色名;
最终,实现了对图片中各服装主体色彩的精确认知。
根据上述实施原理,本发明提供了一种具体的实施例。上述原理应用于服装主体定位系统中,其中所述服装定位主要基于深度学习技术,构建类似于UNet的编码器-解码器(encoder-decoder)卷积网络模型,通过模型训练,实现图片中服装区域的像素级定位。
其中,网络主要采用卷积操作、池化操作、转置卷积操作。编码器部分采用了预训练的ResNet网络和空洞空间金字塔池化(Atrous Spatial Pyramid Pooling),后者为模型提供了多尺度信息,提取辨别性特征(通常是低分辨率的);解码器部分将解码器所学习的低分辨率特征,语义地映射到对应的高分辨率像素空间。网络模型训练采用多任务的最小化交叉熵目标损失函数,计算预测图片的每个服装像素的预测概率分布与标注的真实概率分布之间的距离。采用优化训练完成的卷积模型,给定一张服装图片,有效的实现了对图片服装像素级定位识别的效果,得到服装区域的分割掩码图(mask)。
进一步地,如图2所示的服装掩码与颜色空间转换的流程。具体地,该部分主要利用了传统图像处理技术。一般情况下,数字图像是基于传统RGB颜色空间的,但是其可肉眼分辨的眼色具有非线性,且R、G、B三个颜色分量容易受到光照变化等因素的影响而改变,两个相近的颜色,其R、G、B值可能相差非常大。因此,RGB颜色空间并不适用于描述颜色的直观的可辨别特征,进行颜色分析。
相比较而言,根据颜色的直观特性所提出HSV(Hue,Saturation,Value)颜色空间,三个颜色分量分别独立表示色调(H)、饱和度(S)和明度(V),更接近于人类视觉感官系统以及对色彩的认知;而且,HSV颜色空间对光照等外部因素具有不敏感性的特点,更适宜于对服装颜色的可靠分析。
基于此,首先利用基于深度学习的服装定位系统得到的服装主体区域掩码图,将原始输入图像分为服装区域和非服装区域,以进行背景滤除,得到仅包含服装区域的RGB图像;再结合传统图像颜色空间原理,将图片由RGB颜色空间转换到HSV颜色空间,最终得到服装区域的HSV空间表征。
具体地,对于已去除非服装区域的RGB图像,将其颜色表达转换到HSV颜色空间如下:
V=max{R,G,B} (3)
其中,H∈[0,360)是角度的色相角.S∈[0,1]表示饱和度.
如图3所示的HSV服装区域颜色色块提取及颜色名映射模块的流程,其主要利用了机器学习中的EM聚类算法。具体的是,首先采用EM聚类算法对HSV服装区域进行聚类,得到K个聚类中心;接着计算各聚类中心间的距离,评估聚类中心的颜色相似度;如果聚类中心间的聚类小于阈值,则合并该聚类;否则保留该聚类作为一个颜色色块提取结果。
基于图像处理技术和数据采集及标注技术,本服装色彩认知系统构建了囊括现阶段最全的标准颜色色卡比对库,颜色色块可以映射到超过2700种标准颜色色卡及颜色名体系。对于颜色色块聚类所提取的颜色色块结果,采用KNN机器学习算法,在HSV空间寻找与之最解决的RGB颜色映射,并最终输出颜色RGB色块及颜色名。全面、精确地描述服装色彩。
根据上述系统内容,使用本服装颜色认知系统进行服装视觉分析,具有智能化、自动化、操作简单的优点,使用人员只需要给定待分析的服装图片,即可自动、准确地得到其对应的色彩分析结果。本系统对于光照、背景等影响具有不敏感性,更适宜于真实场景中服装图片的色彩分析。
本系统有针对性的更适用于时尚领域、电商领域以及服饰相关领域,但也具有泛化能力,能够快速迁移到其它目标主体的色彩认知分析,如箱包、肤色等。本色彩分析系统,对于图片中的服装定位、色块提取以及色卡等精度方面,都相比于以往方法提升了数倍,更加准确的提取了服装的色彩信息,最终让颜色分析的工业使用更加高效、精准、更贴近人类视觉系统对色彩的感知。
根据如图4所示的系统架构,本发明进一步地提供了一种基于深度学习的服装色彩认知方法,包括以下步骤:
(a)给定一张图片,首先通过构建卷积神经网络模型,像素级分割得到图片中所包含的服装主体;
(b)将服装主体的分割掩码进行二值化处理后,结合原图以得到每个服装主体的RGB区域;
(c)利用图像颜色空间技术,由RGB颜色空间转换到对光照等影响更不敏感的HSV颜色空间;
(d)对于HSV空间的颜色区域,采用EM聚类算法,得到服装的色彩分布情况;
(e)利用构建的大规模标准服装颜色色卡体系,对提取的颜色色块映射得到颜色名,最终,实现了对图片中各服装主体色彩的精确认知。
根据上述方法,在步骤(a)中,构建卷积神经网络模型还包括以下步骤:
(a1)编码器部分采用了预训练的深度残差(ResNet)网络和空洞空间金字塔池化(Atrous Spatial Pyramid Pooling),后者为模型提供了多尺度信息,提取辨别性特征(通常是低分辨率的);
(a2)解码器部分将解码器所学习的低分辨率特征,语义地映射到对应的高分辨率像素空间;
(a3)网络模型训练采用多任务的最小化交叉熵目标损失函数,计算预测图片的每个服装像素的预测概率分布与标注的真实概率分布之间的距离,最终采用优化训练完成的卷积神经网络模型。
根据上述方法,在步骤(c)还包括以下步骤:
(c1)将原始输入图像分为服装区域和非服装区域,以进行背景滤除,得到仅包含服装区域的RGB图像;
(c2)再结合传统图像颜色空间原理,将图片由RGB颜色空间转换到HSV颜色空间,最终得到服装区域的HSV空间表征。
根据上述方法,在步骤(c1)之后,对于已去除非服装区域的RGB图像,将其颜色表达转换到HSV颜色空间,具体公式如下:
V=max{R,G,B} (3)
其中,H是角度的色相角,S表示饱和度。
根据上述方法,在步骤(d)还包括以下步骤:
(d1)首先采用EM聚类算法对HSV服装区域进行聚类,得到多个聚类中心;接着计算各聚类中心间的距离,评估聚类中心的颜色相似度;
(d2)如果聚类中心间的聚类小于阈值,则合并该聚类;否则保留该聚类作为一个颜色色块提取结果。
根据上述方法,在步骤(e)所构建的大规模标准服装颜色色卡体系可以映射到至少2700种标准颜色色卡及颜色名体系。
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。
Claims (6)
1.一种基于深度学习的服装色彩认知方法,其特征在于,包括以下步骤:
(a)给定一张图片,首先通过构建卷积神经网络模型,像素级分割得到图片中所包含的服装主体;
(b)将服装主体的分割掩码进行二值化处理后,结合原图以得到每个服装主体的RGB区域;
(c)利用图像颜色空间技术,由RGB颜色空间转换到HSV颜色空间;
(d)对于HSV空间的颜色区域,采用EM聚类算法,得到服装的色彩分布情况;
(e)利用构建的大规模标准服装颜色色卡体系,对提取的颜色色块映射得到颜色名,最终,实现了对图片中各服装主体色彩的精确认知。
2.根据权利要求1所述的基于深度学习的服装色彩认知方法,其特征在于,在步骤(a)中,构建卷积神经网络模型还包括以下步骤:
(a1)编码器部分采用了预训练的深度残差(ResNet)网络和空洞空间金字塔池化(Atrous Spatial Pyramid Pooling),后者为模型提供了多尺度信息,提取辨别性特征(通常是低分辨率的);
(a2)解码器部分将解码器所学习的低分辨率特征,语义地映射到对应的高分辨率像素空间;
(a3)网络模型训练采用多任务的最小化交叉熵目标损失函数,计算预测图片的每个服装像素的预测概率分布与标注的真实概率分布之间的距离,最终采用优化训练完成的卷积神经网络模型。
3.根据权利要求1所述的基于深度学习的服装色彩认知方法,其特征在于,在步骤(c)还包括以下步骤:
(c1)将原始输入图像分为服装区域和非服装区域,以进行背景滤除,得到仅包含服装区域的RGB图像;
(c2)再结合传统图像颜色空间原理,将图片由RGB颜色空间转换到HSV颜色空间,最终得到服装区域的HSV空间表征。
5.根据权利要求1所述的基于深度学习的服装色彩认知方法,其特征在于,在步骤(d)还包括以下步骤:
(d1)首先采用EM聚类算法对HSV服装区域进行聚类,得到多个聚类中心;接着计算各聚类中心间的距离,评估聚类中心的颜色相似度;
(d2)如果聚类中心间的聚类小于阈值,则合并该聚类;否则保留该聚类作为一个颜色色块提取结果。
6.根据权利要求1所述的基于深度学习的服装色彩认知方法,其特征在于,在步骤(e)所构建的大规模标准服装颜色色卡体系可以映射到至少2700种标准颜色色卡及颜色名体系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911379637.5A CN113052194A (zh) | 2019-12-27 | 2019-12-27 | 一种基于深度学习的服装色彩认知系统及其认知方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911379637.5A CN113052194A (zh) | 2019-12-27 | 2019-12-27 | 一种基于深度学习的服装色彩认知系统及其认知方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113052194A true CN113052194A (zh) | 2021-06-29 |
Family
ID=76506725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911379637.5A Pending CN113052194A (zh) | 2019-12-27 | 2019-12-27 | 一种基于深度学习的服装色彩认知系统及其认知方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113052194A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461931B2 (en) * | 2019-04-23 | 2022-10-04 | L'oreal | Machine image colour extraction and machine image construction using an extracted colour |
CN116824511A (zh) * | 2023-08-03 | 2023-09-29 | 行为科技(北京)有限公司 | 一种基于深度学习和颜色空间的工装识别方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105118058A (zh) * | 2015-08-18 | 2015-12-02 | 江南大学 | 一种色织物经纱区域自动分割方法 |
CN106778622A (zh) * | 2016-12-19 | 2017-05-31 | 宇龙计算机通信科技(深圳)有限公司 | 识别颜色的方法、装置和移动终端 |
CN109215091A (zh) * | 2018-08-02 | 2019-01-15 | 浙江理工大学 | 一种基于图表示的服装流行色彩自动提取方法 |
CN109543685A (zh) * | 2018-10-16 | 2019-03-29 | 深圳大学 | 图像语义分割方法、装置和计算机设备 |
CN109919206A (zh) * | 2019-02-25 | 2019-06-21 | 武汉大学 | 一种基于全空洞卷积神经网络的遥感影像地表覆盖分类方法 |
CN110555464A (zh) * | 2019-08-06 | 2019-12-10 | 高新兴科技集团股份有限公司 | 一种基于深度学习模型的车辆颜色识别方法 |
-
2019
- 2019-12-27 CN CN201911379637.5A patent/CN113052194A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105118058A (zh) * | 2015-08-18 | 2015-12-02 | 江南大学 | 一种色织物经纱区域自动分割方法 |
CN106778622A (zh) * | 2016-12-19 | 2017-05-31 | 宇龙计算机通信科技(深圳)有限公司 | 识别颜色的方法、装置和移动终端 |
CN109215091A (zh) * | 2018-08-02 | 2019-01-15 | 浙江理工大学 | 一种基于图表示的服装流行色彩自动提取方法 |
CN109543685A (zh) * | 2018-10-16 | 2019-03-29 | 深圳大学 | 图像语义分割方法、装置和计算机设备 |
CN109919206A (zh) * | 2019-02-25 | 2019-06-21 | 武汉大学 | 一种基于全空洞卷积神经网络的遥感影像地表覆盖分类方法 |
CN110555464A (zh) * | 2019-08-06 | 2019-12-10 | 高新兴科技集团股份有限公司 | 一种基于深度学习模型的车辆颜色识别方法 |
Non-Patent Citations (3)
Title |
---|
宋建辉等: "基于深度卷积网络的无人机地物场景语义分割", 《沈阳理工大学学报》 * |
李承珊等: "基于编解码和局部增强的光电图像分割算法", 《半导体光电》 * |
郑婷月 等: "基于全卷积神经网络的多尺度视网膜血管分割", 《光学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461931B2 (en) * | 2019-04-23 | 2022-10-04 | L'oreal | Machine image colour extraction and machine image construction using an extracted colour |
CN116824511A (zh) * | 2023-08-03 | 2023-09-29 | 行为科技(北京)有限公司 | 一种基于深度学习和颜色空间的工装识别方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Deep networks for saliency detection via local estimation and global search | |
Oh et al. | Approaching the computational color constancy as a classification problem through deep learning | |
CN103699532B (zh) | 图像颜色检索方法和系统 | |
KR20160143494A (ko) | 현저성 정보 취득 장치 및 현저성 정보 취득 방법 | |
CN111739027B (zh) | 一种图像处理方法、装置、设备及可读存储介质 | |
Buza et al. | Skin detection based on image color segmentation with histogram and k-means clustering | |
CN110032932B (zh) | 一种基于视频处理和决策树设定阈值的人体姿态识别方法 | |
Ferreira et al. | On the role of multimodal learning in the recognition of sign language | |
Mu et al. | Salient object detection using a covariance-based CNN model in low-contrast images | |
CN112906550B (zh) | 一种基于分水岭变换的静态手势识别方法 | |
CN110866900A (zh) | 水体颜色识别方法及装置 | |
CN109920018A (zh) | 基于神经网络的黑白照片色彩恢复方法、装置及存储介质 | |
CN113052194A (zh) | 一种基于深度学习的服装色彩认知系统及其认知方法 | |
Khan et al. | Comparitive study of tree counting algorithms in dense and sparse vegetative regions | |
Goyal et al. | On solving leaf classification using linear regression | |
Wang | Robust segmentation of the colour image by fusing the SDD clustering results from different colour spaces | |
Hosny et al. | Refined color texture classification using CNN and local binary pattern | |
Youlian et al. | Face detection method using template feature and skin color feature in rgb color space | |
Belhedi et al. | Adaptive scene‐text binarisation on images captured by smartphones | |
CN110633666A (zh) | 一种基于手指颜色贴片的手势轨迹识别方法 | |
CN110647889A (zh) | 医学图像识别方法、医学图像识别装置、终端设备及介质 | |
Awotunde et al. | Multiple colour detection of RGB images using machine learning algorithm | |
Lin et al. | Predicting salient object via multi-level features | |
Sruthi et al. | Double-handed dynamic gesture recognition using contour-based hand tracking and maximum mean probability ensembling (MMPE) for Indian Sign language | |
Chen et al. | Saliency prediction by Mahalanobis distance of topological feature on deep color components |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210629 |
|
RJ01 | Rejection of invention patent application after publication |