CN117689768A - 一种自然场景驱动的服装模板着色方法和系统 - Google Patents
一种自然场景驱动的服装模板着色方法和系统 Download PDFInfo
- Publication number
- CN117689768A CN117689768A CN202311566248.XA CN202311566248A CN117689768A CN 117689768 A CN117689768 A CN 117689768A CN 202311566248 A CN202311566248 A CN 202311566248A CN 117689768 A CN117689768 A CN 117689768A
- Authority
- CN
- China
- Prior art keywords
- color
- layer
- data
- palette
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004040 coloring Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 56
- 239000003086 colorant Substances 0.000 claims abstract description 37
- 238000010801 machine learning Methods 0.000 claims abstract description 34
- 238000013461 design Methods 0.000 claims abstract description 16
- 239000011159 matrix material Substances 0.000 claims description 66
- 230000004927 fusion Effects 0.000 claims description 41
- 238000000605 extraction Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000002474 experimental method Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 9
- 238000007621 cluster analysis Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 4
- 230000006872 improvement Effects 0.000 claims description 4
- 238000003491 array Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 claims description 3
- 238000013075 data extraction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 3
- 238000005429 filling process Methods 0.000 abstract description 2
- 238000005457 optimization Methods 0.000 abstract description 2
- 238000007500 overflow downdraw method Methods 0.000 abstract description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004456 color vision Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- XOFYZVNMUHMLCC-ZPOLXVRWSA-N prednisone Chemical compound O=C1C=C[C@]2(C)[C@H]3C(=O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 XOFYZVNMUHMLCC-ZPOLXVRWSA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
Abstract
本发明为一种自然场景驱动的服装模板着色设计方法和系统,包括基于自然场景颜色生成调色板以及通过调色板进行服装模板着色这两个阶段,前一个阶段设计了机器学习聚类算法生成调色板的优化方法,第二个阶段提出了服装线稿与调色板颜色图层的自然融合方法。本发明克服了传统服装设计中繁琐的调色板设计和人工填色过程,提高了效率。通过将不同的自然场景图像颜色输入一套服装模板,可以快速生成基于各种风格调色板的多样化服装着色设计图,有效避免了以往的复杂性和低效率。
Description
技术领域
本发明属于计算机数字图像处理技术领域,具体涉及一种自然场景驱动的服装模板着色方法。
背景技术
颜色是服装的重要外观属性,依据中国流行色协会相关色彩附加价值的有关市场调研数据显示,在不增加成本的基础上,合适的色彩设计能提高产品10%~25%的附加价值。广泛的颜色和颜色组合存在于自然美好景观和画像中,这些颜色以及颜色的组合(调色板)可以提取出来用于服务纺织服装生产设计。实现这一过程,面临两个挑战:一是符合人类视觉感知的图像调色板的生成,二是调色板到服装模板映射的实现。人工构建调色板关乎个体色彩理论知识储备、直觉和经验,而这些个体差异会导致主观性和人为误差的风险,并存在手动管理调色板的复杂性相对大的问题;而主流的像素聚类算法提取颜色也存在提取结果不稳定的问题,如K-means聚类算法,主要问题是它对原型初始化的依赖,如果没有谨慎的选择初始化原型,计算将有可能收敛到局部最小值,而不是全局最小值。因此,适当地初始化原型可以对K-Means产生很大影响。对于调色板到服装模板的映射,现存的一些方法存在颜色填充过程中服装线稿的轮廓难以准确检测和保留,导致颜色溢出、纹理及阴影处理不自然的问题。目前国内外的学术界和工业界均未提出很好的应对解决方法。
发明内容
本发明的目的是为了解决背景技术中所述问题,提出一种自然场景驱动的服装模板着色方法,用计算机生成调色板,可以确保颜色在整个项目中保持一致性,容易控制不同部分之间的视觉协调性,且对于大规模项目(如品牌季节系列服装设计),计算生成调色板可以更轻松地应对颜色管理和维护的挑战。为应对挑战一,设计了机器学习聚类算法生成调色板的优化方法;为应对挑战二,提出了服装线稿与调色板颜色图层的自然融合方法。
对于挑战一,首先进行了自然场景图像数据集的构建,接着建立了数字图像颜色提取系统。随后,通过设计心理物理学实验,完成了人工选色经验数据集的构建。进一步,利用传统机器学习算法对采集的自然场景图像进行聚类分析。再通过充分分析人工选色经验数据与机器学习算法计算数据的差异性及规律性,优化改进了传统机器学习算法,使其结果尽可能接近于人工选色数据,从而确定了优选的颜色提取方法。最后,将调色板数据转换为RGB值,并保存在.mat文件中。
对于挑战二,首先构建了服装模板线稿数据集。接下来,读取了模块一中生成的调色板,并从中随机选取了5个颜色组合。再将服装模板的图层背景设置为白色,将5个颜色图层中的颜色值替换为调色板中的颜色,并将这些颜色图层进行融合。最后,依次融合了模板中的纹理图层、阴影图层和线条图层,得到了不同颜色排列方式的服装模板的着色结果。整个过程通过逐步的操作,实现了对自然场景和服装模板的有效处理和颜色着色。
本发明的技术方案为一种自然场景驱动的服装模板着色方法,包括基于自然场景颜色生成调色板以及通过调色板进行服装模板着色这两个阶段,其中生成调色板阶段包括如下步骤:
步骤11,构建自然场景图像数据集;
步骤12,搭建数字图像颜色提取系统;
步骤13,设计心理物理学实验,利于数字图像颜色提取系统,获得人工选色经验数据;
步骤14,利用传统机器学习算法对所收集的自然场景图像进行聚类分析,得到聚类的颜色数据;
步骤15,对比步骤13中人工选色经验数据与步骤14中机器学习算法计算数据的差异性、以及差异的规律性,利用数据差异性规律对传统机器学习算法进行优化改进,使传统机器学习算法更接近于人工选色经验数据的结果,确定优选的颜色提取方法,进而提取得到调色板数据;
步骤16,将调色板数据转换为RGB值,并保存在.mat文件中;
服装模板着色阶段包括如下步骤:
步骤21,构建服装模板线稿数据集;
步骤22,读取调色板数据,从中随机选取n个颜色组合,共有种颜色组合方式,N表示调色板中颜色的个数;
步骤23,设置图层背景,并将服装模板中的n个颜色图层中的颜色值换为任意一种颜色组合,并将换色后的颜色图层融合;
步骤24,将服装模板中的纹理图层与22中得到的颜色图层进行融合;
步骤25,将服装模板中的阴影图层与23中得到的图层进行融合;
步骤26,将服装模板中的线条图层与24中得到的图层进行融合;
步骤27,重复上述步骤23-26,得到所有不同颜色排列方式的服装模板的着色结果。
进一步的,步骤14中采用传统机器学习算法K-Means对所收集的自然场景图像进行聚类分析,其具体实现方式如下:
首先,将图像从RGB颜色空间转换到CIEL*a*b*;
然后,随机选择K个像素点作为初始的聚类中心;对于每个像素,将其分配到最近的聚类中心所代表的簇,并更新每个簇的聚类中心为该簇中所有点的平均值;
最后,检查聚类中心的变化是否小于一个预定的阈值,如果满足条件,则算法收敛,即可提取最终的K个聚类中心作为主要颜色。
进一步的,步骤15中,利用CIEDE2000色差公式ΔE00计算步骤13中人工选色经验数据与步骤14中机器学习算法计算数据的差异性,具体计算公式如下:
a′=(1+G)×a* (3)
b′=b* (4)
ΔL′=L′1-L′2 (8)
ΔC′ab=C′ab,1-C′ab,2 (9)
RT=-sin(2Δθ)Rc (15)
其中,KL、KC、KH为实际情况中亮度、色度和色相的权重,SL、SC、SH分别为亮度权重函数、色度权重函数和色相权重函数,RT为转换函数;ΔL′为亮度差,ΔC′ab为色度差,ΔH′ab为色相差;为CIELAB色度,a*、b*为CIELAB坐标,a′、b′为CIEDE2000坐标,G为CIEL*a*b*颜色空间的轴的调整因子,h′ab为CIEDE2000色相角,/>为CIEDE2000两种颜色刺激色度的均值,/>为CIEDE2000两种颜色刺激亮度的均值,Δh′ab为CIEDE2000色相角差,/>为CIEDE2000两种颜色刺激亮度的均值色相角均值,T为色相加权T函数,RC为转换函数与色度的关系,Δθ为转换函数与色相的关系。
进一步的,步骤5中确定优选的颜色提取方法为K-Means算法的改进,具体改进方法如下:
step1,将图像从RGB颜色空间转换到CIEL*a*b*,过程如下式:
其中,Xn、Yn、Zn是CIE XYZ模型中白色的三刺激参考值;CIE XYZ和CIE RGB是通过使用物理表示颜色的光波长来计算的,而CIELab是间接从CIE XYZ获得的,L*表示亮度,a*表示红绿色度,b*表示蓝黄色度;
step2,使用K-Means++算法初始化种子簇中心,具体方法:
step2.1,在像素点中随机选择一个中心c[1];
step2.2,对于每个尚未选择的像素点x,计算D(x),即x与已选择的最近中心之间的距离,采用公式(1)即CIEDE2000色差公式作为自定义的两像素值之间的距离公式;
step2.3,使用加权概率分布随机选择一个概率最大的新像素点作为新中心c[k],其中像素点被选择的概率与D(x)2成比例,定义为:
其中,∑x′∈XD(x′)2表示所有样本点到最近的已选聚类中心的距离的平方和,c[k]=x′∈X,X表示所有样本像素点的集合,α是一个常数;
step2.4,初始化两个聚类中心后,重复step2.2-2.3,直到选择了N个中心;
step3,初始化中心后,使用改进色差距离的K-Means算法,对所有像素点进行聚类,具体方法是:
step3.1,将每个像素点分配给具有最接近色差的簇:色差计算采用公式(1)即CIEDE2000色差公式;
step3.2,重新计算分配给每个簇的像素值的平均值,即质心,定义为:
其中xj为簇内第j个像素点的像素值,mi为第i个簇的像素值的平均值,代表第i个簇,/>代表第i个簇的像素点数量;
step3.3,重复步骤step3.2-3.3,直到质心停止变化,表示算法收敛,最终得到的N个聚类中心即为生成的调色板的像素值。
进一步的,步骤23中,背景和颜色图层的处理步骤如下:
Step231,读取背景图层的图像,转换为RGB矩阵,并将矩阵中像素值数据进行归一化,矩阵维度为[长,宽,3];
step232,将背景图层矩阵降维为[长*宽,3],以便后续对背景图层进行数据处理;
step233,读取颜色图层的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该颜色图层矩阵降维为[长*宽,3];
step234,在颜色图层矩阵中搜索不等于0的像素点,即为需要的填色像素点,记录需要填色像素点的位置和数量;
step235,将步骤22中得到的颜色组合中的某种颜色的RGB矩阵复制扩维为[m,3],以便后续进行填色,m表示需要填色像素点;
step236,将背景图层中需要填色的像素点的像素值替换成step235中矩阵的像素值,得到填色后的融合图层;
step237,将step236中得到的融合图层作为背景图层,重复step 233-236,直到所有颜色图层全部完成填色和融合。
进一步的,步骤24中,纹理图层的处理方式如下:
Step241,读取纹理图层1的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该纹理图层矩阵降维为[长*宽,3],以便后续对纹理图层1进行数据处理;
step242,将纹理图层1与步骤23得到的图层融合结果进行进一步融合;
C=A+B–255 (24)
此处,A代表颜色图层融合结果,B代表纹理图层1,C代表线性加深后的融合图层,用各图层三维数组进行计算,三维分别记录RGB三个通道值;
step243,读取纹理图层2的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该纹理图层矩阵降维为[长*宽,3],以便后续对纹理图层2进行数据处理;
step244,将纹理图层2与step242中得到的融合图层结果进一步融合;
step245,针对其他纹理图层,重复step243-step244完成所有纹理图层的处理。
进一步的,步骤25中,阴影图层的处理方式如下:
Step251,读取阴影图层的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该阴影图层矩阵降维为[长*宽,3],以便后续对阴影图层进行数据处理;
Step252,将阴影图层与步骤24得到的图层进一步融合;
C=(A×B)/255 (26)
此处,A代表步骤24得到的图层,B代表阴影图层,C代表正片叠底后的融合图层。
进一步的,步骤26中,线条图层的处理方式如下:
step261,读取线条图层的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该线条图层矩阵降维为[长*宽,3],以便后续对线条图层进行数据处理;
step262,线条图层与步骤25得到的图层进一步融合;
C=A+B–255 (27)
此处,A代表步骤25得到的图层,B代表线条图层,C代表线性加深后的融合图层。
本发明提供一种自然场景驱动的服装模板着色系统,包括基于自然场景颜色生成调色板以及通过调色板进行服装模板着色这两个模块,其中生成调色板模块包括如下子模块:
图像数据集构建子模块,用于构建自然场景图像数据集;
颜色提取系统搭建子模块,用于搭建数字图像颜色提取系统;
人工选色子模块,用于设计心理物理学实验,利于数字图像颜色提取系统,获得人工选色经验数据;
颜色聚类子模块,用于利用传统机器学习算法对所收集的自然场景图像进行聚类分析,得到聚类的颜色数据;
调色板数据提取子模块,用于对比人工选色经验数据与机器学习算法计算数据的差异性、以及差异的规律性,利用数据差异性规律对传统机器学习算法进行优化改进,使传统机器学习算法更接近于人工选色经验数据的结果,确定优选的颜色提取方法,进而提取得到调色板数据;
数据转换子模块,用于将调色板数据转换为RGB值,并保存在.mat文件中;
服装模板着色模块包括如下子模块:
线稿数据集子模块,用于构建服装模板线稿数据集;
选色子模块,用于读取调色板数据,从中随机选取n个颜色组合,共有种颜色组合方式,N表示调色板中颜色的个数;
颜色融合子模块,用于设置图层背景,并将服装模板中的n个颜色图层中的颜色值换为任意一种颜色组合,并将换色后的颜色图层融合;
纹理图层融合子模块,用于将服装模板中的纹理图层与颜色融合子模块得到的颜色图层进行融合;
阴影图层融合子模块,用于将服装模板中的阴影图层与纹理图层融合子模块得到的图层进行融合;
线条图层子模块,用于将服装模板中的线条图层与阴影图层融合子模块得到的图层进行融合;
着色结果显示子模块,用于重复服装模板着色模块中的子模块,得到所有不同颜色排列方式的服装模板的着色结果。
本发明可以确保算法捕捉图像中符合人类视觉感知的主要颜色。将提取的调色板应用到服装线稿时,确保颜色转换是自然且符合设计感的是关键,本发明的方法可以避免出现不协调或不适应的颜色组合,使得服装设计在不同场景下看起来自然和谐。本方法设计过程中有效地将提取的调色板与服装线稿融合在一起,确保了服装的轮廓和设计特征得以保留。融合过程平衡了色彩的丰富性与线稿的清晰度,以产生视觉上令人满意的结果。对于大规模的服装设计或需要实时处理的场景,算法的效率和速度变得至关重要,本发明确保了算法能够在合理的时间内生成结果,以满足设计师和用户的需求。
附图说明
图1为本发明实施例流程图。
图2为本发明数字图像颜色提取软件图。
图3为本发明实施例使用的服装模板示例图。
图4为本发明实施例服装着色结果示例图。
具体实现方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
如图1所示,本发明提出了一种自然场景驱动的服装模板着色方法,包括基于自然场景颜色生成调色板以及通过调色板进行服装模板着色这两个阶段,其中生成调色板阶段包括如下步骤:
步骤11,构建自然场景图像数据集;
步骤12,搭建数字图像颜色提取系统;
步骤13,设计心理物理学实验,利于数字图像颜色提取系统,获得人工选色经验数据;
步骤14,利用传统机器学习算法对所收集的自然场景图像进行聚类分析,得到聚类的颜色数据;
步骤15,对比步骤13中人工选色经验数据与步骤14中机器学习算法计算数据的差异性、以及差异的规律性,利用数据差异性规律对传统机器学习算法进行优化改进,使传统机器学习算法更接近于人工选色经验数据的结果,确定优选的颜色提取方法,进而提取得到调色板数据;
步骤16,将调色板数据转换为RGB值,并保存在.mat文件中;
服装模板着色阶段包括如下步骤:
步骤21,构建服装模板线稿数据集;
步骤22,读取调色板数据,从中随机选取n个颜色组合,共有种颜色组合方式,N表示调色板中颜色的个数;
步骤23,将图层背景设置为白色,将服装模板中的n个颜色图层中的颜色值换为任意一种颜色组合,并将换色后的颜色图层融合;
步骤24,将服装模板中的纹理图层与22中得到的颜色图层进行融合;
步骤25,将服装模板中的阴影图层与23中得到的图层进行融合;
步骤26,将服装模板中的线条图层与24中得到的图层进行融合;
步骤27,重复上述步骤23-26,得到所有不同颜色排列方式的服装模板的着色结果。
步骤13中,调色板提取的心理物理学实验设计如下:
实验是在一个黑暗房间的笔记本电脑(ASUS TUF Gaming A15 FA507RM_FA507RM,分辨率1920×1080)上进行的。40名参与者在使用MATLAB编程环境编写的GUI中使用鼠标点击图像区域来完成选色。每个参与者被要求在黑暗的环境中坐5分钟,以适应环境。在实验中,每个参与者都被要求为每张图像选择6种关键颜色,以代表图像调色板,这些图像一次显示一张,总共有20张数字图像(每张图像代表一个自然景观,其中5张为重复图像)。参与者完成实验没有严格时间限制,但整个实验需要每个参与者大约15-25分钟。结果由软件自动保存为视觉调色板数据。五个重复图像选色结果被排除在主要结果之外,用于评估参与者内部的可重复性。
步骤14中,传统机器学习算法(K-Means)对所收集的自然场景图像进行聚类分析的具体实现方式如下:
首先,将图像从RGB颜色空间转换到CIEL*a*b*,以便更好地表示颜色。将图像中的每个像素点表示为一个特征向量。对于RGB颜色空间,一个像素点的特征向量可以是一个包含红、绿、蓝通道值的三维向量,将其转成CIEL*a*b*颜色空间的过程如下式:
其中,Xn=95.047,Yn=100.0,Zn=108.883是CIE XYZ模型中白色的三刺激参考值;CIE XYZ和CIE RGB是通过使用物理表示颜色的光波长来计算的,而CIELab是间接从CIEXYZ获得的。L*表示亮度,a*表示红绿色度,b*表示蓝黄色度。
其次,决定要提取的主要颜色数量K,随机选择K个像素点作为初始的聚类中心;对于每个像素,将其分配到最近的聚类中心所代表的簇,并更新每个簇的聚类中心为该簇中所有点的平均值。
最后,检查聚类中心的变化是否小于一个预定的阈值,如果满足条件,则算法收敛,即可提取最终的K个聚类中心作为主要颜色。
步骤15中,利用CIEDE2000色差公式计算人工选色和机器选色的色差(基于上述步骤得出的L*a*b*值):
a′=(1+G)×a* (3)
b′=b* (4)
ΔL′=L′1-L′2 (8)
ΔC′ab=C′ab,1-C′ab,2 (9)
RT=-sin(2Δθ)RC (15)
其中,KL、KC、KH为实际情况中亮度、色度和色相的权重,SL、SC、SH分别为亮度权重函数、色度权重函数和色相权重函数,RT为转换函数;ΔL′为亮度差,ΔC′ab为色度差,ΔH′ab为色相差;为CIELAB色度,a*、b*为CIELAB坐标,a′、b′为CIEDE2000坐标,G为CIEL*a*b*颜色空间的轴的调整因子,h′ab为CIEDE2000色相角,/>为CIEDE2000两种颜色刺激色度的均值,/>为CIEDE2000两种颜色刺激亮度的均值,Δh′ab为CIEDE2000色相角差,/>为CIEDE2000两种颜色刺激亮度的均值色相角均值,T为色相加权T函数,R为转换函数与色度的关系,Δθ为转换函数与色相的关系。
步骤15中,K-means算法的改进方式:
step1,将图像从RGB颜色空间转换到CIEL*a*b*,以便更好近似人类色觉,并在感知上保持一致;将图像中的每个像素点表示为一个特征向量,对于RGB颜色空间,一个像素点的特征向量是一个包含红、绿、蓝通道值的三维向量,将其转成CIEL*a*b*颜色空间的过程如下式:
其中,Xn、Yn、Zn是CIE XYZ模型中白色的三刺激参考值;CIE XYZ和CIE RGB是通过使用物理表示颜色的光波长来计算的,而CIELab是间接从CIE XYZ获得的,L*表示亮度,a*表示红绿色度,b*表示蓝黄色度;
step2,使用K-Means++算法初始化种子簇中心,避免标准K-Means算法可能发现的不良聚类,具体方法:
step2.1,在像素点中使用随机选择一个中心c[1];
step2.2,对于每个尚未选择的像素点x,计算D(x),即x与已选择的最近中心之间的距离,默认情况下,该算法使用欧几里德距离确定空间中两点之间的距离,CIELab色彩空间的欧几里德距离Delta E定义为:
Delta E试图统一量化两种颜色之间的差异以适应人类的感知;然而,与其他颜色相比,这个原始公式对饱和区域等区域的评分过高,为了避免这一问题,我们采用公式(1)即CIEDE2000色差公式作为自定义的两像素值之间的距离公式;
step2.3,使用加权概率分布随机选择一个概率最大的新像素点作为新中心c[k],其中像素点的概率与D(x)2成比例,定义为:
其中,∑x′∈XD(x′)2表示所有样本点到最近的已选聚类中心的距离的平方和,c[k]=x′∈X,X表示所有样本像素点的集合,α是一个常数,用来调整概率分布的形状,一般取1。
step2.4,重复step2.2-2.3,直到选择了6个中心;
step3,初始化中心后,使用改进色差距离的K-Means算法,对所有像素点进行聚类,具体方法是:
step3.1,将每个像素点分配给具有最接近色差的簇:采用公式(1)即CIEDE2000色差公式计算色差;
step3.2,重新计算分配给每个簇的像素值的平均值,即质心,定义为:
其中xj为簇内第j个像素点的像素值,mi为第i个簇的像素值的平均值,代表第i个簇,/>代表第i个簇的像素点数量;
step3.3,重复步骤step3.2-3.3,直到质心停止变化,表示算法收敛,最终得到的6个聚类中心即为生成的调色板的像素值。
步骤23中,背景(纯白色)和颜色图层(含5个颜色图层,颜色图层的个数由客户自定义,依次处理并叠加融合)的处理步骤如下:
Step231,读取背景图层的图像,转换为RGB矩阵,并将矩阵中像素值数据进行归一化,矩阵维度为[长,宽,3];
step232,将背景图层矩阵降维为[长*宽,3],以便后续对背景图层进行数据处理;
step233,读取颜色图层的图像(如图3中(a),(b),(c),(d),(e)所示),并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该颜色图层矩阵降维为[长*宽,3];
step234,在颜色图层矩阵中搜索不等于0的像素点,即为需要的填色像素点,记录需要填色像素点的位置和数量;
step235,将步骤22中得到的颜色组合中的某种颜色的RGB矩阵repeat复制扩维为[m,3],以便后续进行填色,m表示需要填色像素点;
step236,将背景图层中需要填色的像素点的像素值替换成上步中矩阵的像素值,得到填色后的融合图层;
step237,将上步中得到的融合图层作为背景图层,重复step 233-236,直到所有颜色图层全部完成填色和融合;
步骤24中,步骤24中,纹理图层(纹理图层的个数与使用的服装模板有关,此处示例服装模板中的纹理图层的数量为2)的处理方式如下:
Step241,读取纹理图层1的图像(如图3中(f)所示),并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该纹理图层矩阵降维为[长*宽,3],以便后续对纹理图层1进行数据处理;
step242,将纹理图层1与步骤23得到的图层融合结果进行进一步融合;
C=A+B–255 (24)
此处,A代表颜色图层融合结果,B代表纹理图层1,C代表线性加深后的融合图层,用各图层三维数组进行计算,三维分别记录RGB三个通道值;
step243,读取纹理图层2的图像(如图3中(g)所示),并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该纹理图层矩阵降维为[长*宽,3],以便后续对纹理图层2进行数据处理;;
step244,将纹理图层2与步骤242得到的图层融合结果进一步融合;
C=A+B (25)
此处,A代表前述步骤得到的图层融合结果,B代表纹理图层2,C代表线性减淡后的融合图层。
步骤25中,阴影图层(阴影图层的个数与使用的服装模板有关,此处示例服装模板中的阴影图层的数量为1)的处理方式如下:
Step251,读取阴影图层的图像(如图3中(h)所示),并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该阴影图层矩阵降维为[长*宽,3],以便后续对阴影图层进行数据处理;;
Step252,将阴影图层与步骤24得到的图层融合结果进一步融合;
C=(A×B)/255 (26)
此处,A代表步骤24得到的图层融合结果,B代表阴影图层,C代表正片叠底后的融合图层;
步骤26中,线条图层的处理方式如下:
step261,读取线条图层的图像(如图3中(i)所示),并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该线条图层矩阵降维为[长*宽,3],以便后续对线条图层进行数据处理;
step262,线条图层与步骤25得到的图层融合结果进一步融合;
C=A+B–255 (27)
此处,A代表步骤25得到的图层融合结果,B代表线条图层,C代表线性加深后的融合图层。
最后,生成了本发明的服装模板着色结果图,如图4所示。
本发明实施例还提供一种自然场景驱动的服装模板着色系统,包括基于自然场景颜色生成调色板以及通过调色板进行服装模板着色这两个模块,其中生成调色板模块包括如下子模块:
图像数据集构建子模块,用于构建自然场景图像数据集;
颜色提取系统搭建子模块,用于搭建数字图像颜色提取系统;
人工选色子模块,用于设计心理物理学实验,利于数字图像颜色提取系统,获得人工选色经验数据;
颜色聚类子模块,用于利用传统机器学习算法对所收集的自然场景图像进行聚类分析,得到聚类的颜色数据;
调色板数据提取子模块,用于对比人工选色经验数据与机器学习算法计算数据的差异性、以及差异的规律性,利用数据差异性规律对传统机器学习算法进行优化改进,使传统机器学习算法更接近于人工选色经验数据的结果,确定优选的颜色提取方法,进而提取得到调色板数据;
数据转换子模块,用于将调色板数据转换为RGB值,并保存在.mat文件中;
服装模板着色模块包括如下子模块:
线稿数据集子模块,用于构建服装模板线稿数据集;
选色子模块,用于读取调色板数据,从中随机选取n个颜色组合,共有种颜色组合方式,N表示调色板中颜色的个数;
颜色融合子模块,用于设置图层背景,并将服装模板中的n个颜色图层中的颜色值换为任意一种颜色组合,并将换色后的颜色图层融合;
纹理图层融合子模块,用于将服装模板中的纹理图层与颜色融合子模块得到的颜色图层进行融合;
阴影图层融合子模块,用于将服装模板中的阴影图层与纹理图层融合子模块得到的图层进行融合;
线条图层子模块,用于将服装模板中的线条图层与阴影图层融合子模块得到的图层进行融合;
着色结果显示子模块,用于重复服装模板着色模块中的子模块,得到所有不同颜色排列方式的服装模板的着色结果。
各模块的具体实现方式与各步骤相同,本发明不予撰述。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (9)
1.一种自然场景驱动的服装模板着色方法,其特征在于,包括基于自然场景颜色生成调色板以及通过调色板进行服装模板着色这两个阶段,其中生成调色板阶段包括如下步骤:
步骤11,构建自然场景图像数据集;
步骤12,搭建数字图像颜色提取系统;
步骤13,设计心理物理学实验,利于数字图像颜色提取系统,获得人工选色经验数据;
步骤14,利用传统机器学习算法对所收集的自然场景图像进行聚类分析,得到聚类的颜色数据;
步骤15,对比步骤13中人工选色经验数据与步骤14中机器学习算法计算数据的差异性、以及差异的规律性,利用数据差异性规律对传统机器学习算法进行优化改进,使传统机器学习算法更接近于人工选色经验数据的结果,确定优选的颜色提取方法,进而提取得到调色板数据;
步骤16,将调色板数据转换为RGB值,并保存在.mat文件中;
服装模板着色阶段包括如下步骤:
步骤21,构建服装模板线稿数据集;
步骤22,读取调色板数据,从中随机选取n个颜色组合,共有种颜色组合方式,N表示调色板中颜色的个数;
步骤23,设置图层背景,并将服装模板中的n个颜色图层中的颜色值换为任意一种颜色组合,并将换色后的颜色图层融合;
步骤24,将服装模板中的纹理图层与22中得到的颜色图层进行融合;
步骤25,将服装模板中的阴影图层与23中得到的图层进行融合;
步骤26,将服装模板中的线条图层与24中得到的图层进行融合;
步骤27,重复上述步骤23-26,得到所有不同颜色排列方式的服装模板的着色结果。
2.如权利要求1所述的一种自然场景驱动的服装模板着色方法,其特征在于:步骤14中采用传统机器学习算法K-Means对所收集的自然场景图像进行聚类分析,其具体实现方式如下:
首先,将图像从RGB颜色空间转换到CIEL*a*b*;
然后,随机选择K个像素点作为初始的聚类中心;对于每个像素,将其分配到最近的聚类中心所代表的簇,并更新每个簇的聚类中心为该簇中所有点的平均值;
最后,检查聚类中心的变化是否小于一个预定的阈值,如果满足条件,则算法收敛,即可提取最终的K个聚类中心作为主要颜色。
3.如权利要求1所述的一种自然场景驱动的服装模板着色方法,其特征在于:步骤15中,利用CIEDE2000色差公式ΔE00计算步骤13中人工选色经验数据与步骤14中机器学习算法计算数据的差异性,具体计算公式如下:
a′=(1+G)×a* (3)
b′=b* (4)
ΔL′=L′1-L′2 (8)
ΔC′ab=C′ab,1-C′ab,2 (9)
RT=-sin(2Δθ)RC (15)
其中,KL、KC、KH为实际情况中亮度、色度和色相的权重,SL、SC、SH分别为亮度权重函数、色度权重函数和色相权重函数,RT为转换函数;ΔL′为亮度差,ΔC′ab为色度差,ΔH′ab为色相差;为CIELAB色度,a*、b*为CIELAB坐标,a′、b′为CIEDE2000坐标,G为CIEL*a*b*颜色空间的轴的调整因子,h′ab为CIEDE2000色相角,/>为CIEDE2000两种颜色刺激色度的均值,/>为CIEDE2000两种颜色刺激亮度的均值,Δh′ab为CIEDE2000色相角差,/>为CIEDE2000两种颜色刺激亮度的均值色相角均值,T为色相加权T函数,RC为转换函数与色度的关系,Δθ为转换函数与色相的关系。
4.如权利要求3所述的一种自然场景驱动的服装模板着色方法,其特征在于:步骤5中确定优选的颜色提取方法为K-Means算法的改进,具体改进方法如下:
step1,将图像从RGB颜色空间转换到CIEL*a*b*,过程如下式:
其中,Xn、Yn、Zn是CIE XYZ模型中白色的三刺激参考值;CIE XYZ和CIE RGB是通过使用物理表示颜色的光波长来计算的,而CIELab是间接从CIE XYZ获得的,L*表示亮度,a*表示红绿色度,b*表示蓝黄色度;
step2,使用K-Means++算法初始化种子簇中心,具体方法:
step2.1,在像素点中随机选择一个中心c[1];
step2.2,对于每个尚未选择的像素点x,计算D(x),即x与已选择的最近中心之间的距离,采用公式(1)即CIEDE2000色差公式作为自定义的两像素值之间的距离公式;
step2.3,使用加权概率分布随机选择一个概率最大的新像素点作为新中心c[k],其中像素点被选择的概率与D(x)2成比例,定义为:
其中,∑x′∈XD(x′)2表示所有样本点到最近的已选聚类中心的距离的平方和,c[k]=x′∈X,X表示所有样本像素点的集合,α是一个常数;
step2.4,初始化两个聚类中心后,重复step2.2-2.3,直到选择了N个中心;
step3,初始化中心后,使用改进色差距离的K-Means算法,对所有像素点进行聚类,具体方法是:
step3.1,将每个像素点分配给具有最接近色差的簇:色差计算采用公式(1)即CIEDE2000色差公式;
step3.2,重新计算分配给每个簇的像素值的平均值,即质心,定义为:
其中xj为簇内第j个像素点的像素值,mi为第i个簇的像素值的平均值,代表第i个簇,/>代表第i个簇的像素点数量;
step3.3,重复步骤step3.2-3.3,直到质心停止变化,表示算法收敛,最终得到的N个聚类中心即为生成的调色板的像素值。
5.如权利要求1所述的一种自然场景驱动的服装模板着色方法,其特征在于:步骤23中,背景和颜色图层的处理步骤如下:
Step231,读取背景图层的图像,转换为RGB矩阵,并将矩阵中像素值数据进行归一化,矩阵维度为[长,宽,3];
step232,将背景图层矩阵降维为[长*宽,3],以便后续对背景图层进行数据处理;
step233,读取颜色图层的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该颜色图层矩阵降维为[长*宽,3];
step234,在颜色图层矩阵中搜索不等于0的像素点,即为需要的填色像素点,记录需要填色像素点的位置和数量;
step235,将步骤22中得到的颜色组合中的某种颜色的RGB矩阵复制扩维为[m,3],以便后续进行填色,m表示需要填色像素点;
step236,将背景图层中需要填色的像素点的像素值替换成step235中矩阵的像素值,得到填色后的融合图层;
step237,将step236中得到的融合图层作为背景图层,重复step 233-236,直到所有颜色图层全部完成填色和融合。
6.如权利要求1所述的一种自然场景驱动的服装模板着色方法,其特征在于:步骤24中,纹理图层的处理方式如下:
Step241,读取纹理图层1的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该纹理图层矩阵降维为[长*宽,3],以便后续对纹理图层1进行数据处理;
step242,将纹理图层1与步骤23得到的图层融合结果进行进一步融合;
C = A + B – 255 (24)
此处,A代表颜色图层融合结果,B代表纹理图层1,C代表线性加深后的融合图层,用各图层三维数组进行计算,三维分别记录RGB三个通道值;
step243,读取纹理图层2的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该纹理图层矩阵降维为[长*宽,3],以便后续对纹理图层2进行数据处理;
step244,将纹理图层2与step242中得到的融合图层结果进一步融合;
step245,针对其他纹理图层,重复step243-step244完成所有纹理图层的处理。
7.如权利要求1所述的一种自然场景驱动的服装模板着色设计方法,其特征在于:步骤25中,阴影图层的处理方式如下:
Step251,读取阴影图层的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该阴影图层矩阵降维为[长*宽,3],以便后续对阴影图层进行数据处理;
Step252,将阴影图层与步骤24得到的图层进一步融合;
C = ( A × B ) / 255 (26)
此处,A代表步骤24得到的图层,B代表阴影图层,C代表正片叠底后的融合图层。
8.如权利要求1所述的一种自然场景驱动的服装模板着色设计方法,其特征在于:步骤26中,线条图层的处理方式如下:
step261,读取线条图层的图像,并转换为RGB矩阵,对矩阵中像素值数据进行归一化,将该线条图层矩阵降维为[长*宽,3],以便后续对线条图层进行数据处理;
step262,线条图层与步骤25得到的图层进一步融合;
C = A + B – 255 (27)
此处,A代表步骤25得到的图层,B代表线条图层,C代表线性加深后的融合图层。
9.一种自然场景驱动的服装模板着色系统,其特征在于,包括基于自然场景颜色生成调色板以及通过调色板进行服装模板着色这两个模块,其中生成调色板模块包括如下子模块:
图像数据集构建子模块,用于构建自然场景图像数据集;
颜色提取系统搭建子模块,用于搭建数字图像颜色提取系统;
人工选色子模块,用于设计心理物理学实验,利于数字图像颜色提取系统,获得人工选色经验数据;
颜色聚类子模块,用于利用传统机器学习算法对所收集的自然场景图像进行聚类分析,得到聚类的颜色数据;
调色板数据提取子模块,用于对比人工选色经验数据与机器学习算法计算数据的差异性、以及差异的规律性,利用数据差异性规律对传统机器学习算法进行优化改进,使传统机器学习算法更接近于人工选色经验数据的结果,确定优选的颜色提取方法,进而提取得到调色板数据;
数据转换子模块,用于将调色板数据转换为RGB值,并保存在.mat文件中;
服装模板着色模块包括如下子模块:
线稿数据集子模块,用于构建服装模板线稿数据集;
选色子模块,用于读取调色板数据,从中随机选取n个颜色组合,共有Cn N种颜色组合方式,N表示调色板中颜色的个数;
颜色融合子模块,用于设置图层背景,并将服装模板中的n个颜色图层中的颜色值换为任意一种颜色组合,并将换色后的颜色图层融合;
纹理图层融合子模块,用于将服装模板中的纹理图层与颜色融合子模块得到的颜色图层进行融合;
阴影图层融合子模块,用于将服装模板中的阴影图层与纹理图层融合子模块得到的图层进行融合;
线条图层子模块,用于将服装模板中的线条图层与阴影图层融合子模块得到的图层进行融合;
着色结果显示子模块,用于重复服装模板着色模块中的子模块,得到所有不同颜色排列方式的服装模板的着色结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311566248.XA CN117689768B (zh) | 2023-11-22 | 2023-11-22 | 一种自然场景驱动的服装模板着色方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311566248.XA CN117689768B (zh) | 2023-11-22 | 2023-11-22 | 一种自然场景驱动的服装模板着色方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117689768A true CN117689768A (zh) | 2024-03-12 |
CN117689768B CN117689768B (zh) | 2024-05-07 |
Family
ID=90125491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311566248.XA Active CN117689768B (zh) | 2023-11-22 | 2023-11-22 | 一种自然场景驱动的服装模板着色方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117689768B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114423896A (zh) * | 2019-07-23 | 2022-04-29 | 利惠商业有限公司 | 对激光精加工服装的三维渲染预览 |
CN115496816A (zh) * | 2022-10-18 | 2022-12-20 | 浙江理工大学 | 一种序列服饰图像主题色自适应提取方法 |
CN115713634A (zh) * | 2023-01-05 | 2023-02-24 | 武汉纺织大学 | 一种联合相似性度量与视觉感知的色彩搭配评价方法 |
WO2023108933A1 (zh) * | 2021-12-14 | 2023-06-22 | 江苏航天大为科技股份有限公司 | 一种基于聚类算法的车辆检测方法 |
-
2023
- 2023-11-22 CN CN202311566248.XA patent/CN117689768B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114423896A (zh) * | 2019-07-23 | 2022-04-29 | 利惠商业有限公司 | 对激光精加工服装的三维渲染预览 |
WO2023108933A1 (zh) * | 2021-12-14 | 2023-06-22 | 江苏航天大为科技股份有限公司 | 一种基于聚类算法的车辆检测方法 |
CN115496816A (zh) * | 2022-10-18 | 2022-12-20 | 浙江理工大学 | 一种序列服饰图像主题色自适应提取方法 |
CN115713634A (zh) * | 2023-01-05 | 2023-02-24 | 武汉纺织大学 | 一种联合相似性度量与视觉感知的色彩搭配评价方法 |
Non-Patent Citations (1)
Title |
---|
郭鑫鹏等: "融合颜色与纹理的复杂场景下的服装图像分割算法", 计算机科学, no. 2, 15 November 2017 (2017-11-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN117689768B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9047804B1 (en) | Lexical-based processing of color images | |
WO2021135887A1 (zh) | 页面配色的方法、装置、存储介质和芯片 | |
CN1475969B (zh) | 用于增强人像图像的方法和系统 | |
CN102833555B (zh) | 颜色处理设备和颜色处理方法 | |
CN109783182A (zh) | 一种页面主题色调的调整方法、装置、设备及介质 | |
KR20000068697A (ko) | 화상 데이터 처리 장치와 방법, 및 전송 매체 | |
CN108846869B (zh) | 一种基于自然图像色彩的服装自动配色方法 | |
Hristova et al. | Style-aware robust color transfer. | |
CN1036279A (zh) | 彩色图象增强的系统与方法 | |
CN103065357A (zh) | 基于普通三维模型的皮影模型制作方法 | |
CN108921932A (zh) | 一种基于卷积神经网络的黑白人物图片实时生成多种合理着色的方法 | |
CN111164563A (zh) | 一种智能终端的图像色彩调节系统及色彩调节方法 | |
CN113139557B (zh) | 一种基于二维多元经验模态分解的特征提取方法 | |
CN117689768B (zh) | 一种自然场景驱动的服装模板着色方法和系统 | |
JP6915483B2 (ja) | 画像処理装置、画像処理システムおよびプログラム | |
Chen et al. | Dental shade matching method based on hue, saturation, value color model with machine learning and fuzzy decision | |
CN108418996B (zh) | 一种美术作品数字化展示的颜色控制方法 | |
US7532759B2 (en) | Method, system and computer software product for selecting elements of a digital image | |
JP6915482B2 (ja) | 画像処理装置、画像処理システムおよびプログラム | |
TW200930045A (en) | Method for color transformation and prospect transfer of image device | |
CN110490945B (zh) | 一种图像色彩的调整方法 | |
CN115239885A (zh) | 一种基于关键点识别的人脸重建方法及设备 | |
CN112017169A (zh) | 一种马赛克图片的处理方法 | |
CN115018696B (zh) | 基于OpenCV仿射变换的人脸口罩数据生成方法 | |
JP2003078773A (ja) | 色調整方法、色調整方法の実行のためのプログラム及びプログラムを格納した媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |