CN104504734B - 一种基于语义的图像颜色传输方法 - Google Patents
一种基于语义的图像颜色传输方法 Download PDFInfo
- Publication number
- CN104504734B CN104504734B CN201410472612.0A CN201410472612A CN104504734B CN 104504734 B CN104504734 B CN 104504734B CN 201410472612 A CN201410472612 A CN 201410472612A CN 104504734 B CN104504734 B CN 104504734B
- Authority
- CN
- China
- Prior art keywords
- mrow
- color
- region
- msub
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
基于语义的图像颜色传输方法,输入为一张参考图像R和一张目标图像T,输出为和参考图像具有相似色彩风格的图O;本发明主要分为三个步骤:图像分割;训练区域语义标记分类器;基于语义的颜色传输;改进原有的Normalized Cut方法对目标图像和参考图像进行分割,得到图像区域子块;根据预先定义好的语义层次结构,建立图像区域级别的训练集,基于MPEG‑7描述符提取区域的颜色、纹理和形状特征,训练得到分类器;根据训练得到的区域语义分类器,对目标图像和参考图像的区域子块标记,从而将图像区域归入相应的语义概念类别,然后在具有相似语义的区域间传输颜色,得到结果图像。
Description
技术领域
本发明属于数字图像处理领域。
背景技术
图像的颜色传输能将参考图像的颜色传输给目标图像,使得目标图像与参考图像具有相似的色彩风格,即在目标图像不改变它自身所表达的形状信息的前提下,学习和继承了参考图像的颜色基调。
颜色传输方法大致可分为基于统计的、基于交互的和基于内容的传输三大类。
自动的颜色传输方法通过匹配参考图像和目标图像间的颜色统计信息来实现。Reinhard等人提出的全局颜色传输方法(Reinhard E,Adhikhmin M,Gooch B,et al.Colortransfer between images.Computer Graphics and Applications,2001,21(5):34-41.)利用图像的全局统计信息将源图像的颜色传输给目标图像。由于全局颜色传输方法对于目标图像和参考图像较为相似、颜色统计信息较为简单的图像取得了较好的效果,但不适用于场景复杂的图像。Tai等人提出的基于区域的传输方法(Tai Y W,Jia J,Tang C K.Localcolor transfer via probabilistic segmentation by expectation-maximization[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2005,1:747-754.)采用自动的图像分割技术将图像分为不同的区域,找到区域间的映射,在对应的区域间传输颜色。Normalized Cut(Ncut)方法(Shi J,Malik J.Normalized cutsand image segmentation.IEEE Transactions on Pattern Analysis and MachineIntelligence,2000,22(8):888-905.)是一种基于图论的分割方法。Ncut的分割结果需要对正则化的权值矩阵进行谱分解求到,若图像的像素点较多,需要求解大权值矩阵的特征值与特征向量,计算非常费时。由于自动计算得到的区域间映射关系可能不准确,基于交互的颜色传输方法通过让用户绘制swatches或画笔来标记出参考图像和目标图像区域间的关联,对于每个关联对传输颜色。基于交互的方法利用用户定义的颜色画笔来确保不同图像区域间映射的正确性,但普通用户如何正确放置合适的画笔是一个比较棘手的问题。
上述两类方法只考虑了图像底层的颜色统计信息,而忽略了图像本身的内容。Wu等人提出了基于内容的颜色传输(Fuzhang Wu,Weiming Dong,Yan Kong,Xing Mei,Jean-Claude Paul,Xiaopeng Zhang.Content-Based Color Transfer.Computer GraphicsForum,2013,32(1),190-203.),通过分析图像高层次的场景内容,自动抽取前景物体和背景场景,建立参考图像和目标图像区域间的关联,然后对目标图像重新着色,对于不同区域具有明显不同的颜色模式的目标图像有较好的传输效果。但是该方法仅将图像分割成主题区和背景区,背景区包括天、地、天和地中间的区域三个部分,对图像内容的分析较为简单,如果地面区域、天和地中间的区域中同时包含多个具有独立语义的小区域,该方法只能大致的根据区域的位置分布传输颜色,而无法针对小区域的语义进行精确的颜色传输。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于语义的图像颜色传输方法,对图像场景进行更为细致的分析,根据训练得到的区域语义分类器对参考图像和目标图像的子区域进行标记,得到子区域的语义,在具有相似语义的区域间传输颜色,生成更精确的颜色传输结果。
一种基于语义的图像颜色传输方法,输入为一张参考图像R和一张目标图像T,输出为和参考图像具有相似色彩风格的图O;本发明主要分为三个步骤:图像分割;训练区域语义标记分类器;基于语义的颜色传输;改进原有的Normalized Cut方法对目标图像和参考图像进行分割,得到图像区域子块;根据预先定义好的语义层次结构,建立图像区域级别的训练集,基于MPEG-7描述符提取区域的颜色、纹理和形状特征,训练得到分类器;根据训练得到的区域语义分类器,对目标图像和参考图像的区域子块标记,从而将图像区域归入相应的语义概念类别,然后在具有相似语义的区域间传输颜色,得到结果图像;
具体步骤是:
步骤1,为了更精确地分割图像子区域,本发明对Normalized Cut方法进行改进;首先提取出图像的超像素,以超像素作为节点表示图结构,然后采用Ncut方法对超像素进行分割,最后根据分割子块的颜色直方图属性对相似区域合并,得到分割区域;超像素的图结构表示不但包含节点较少,而且捕获了图像的冗余信息;基于超像素的分割不仅能降低计算复杂度,而且能降低分割结果对噪声的敏感程度,比直接对图像的像素点分割鲁棒性更强;采用改进后的方法分割目标图像和参考图像;
改进的Ncut方法包括以下四个步骤:
步骤1.1:采用简单线性迭代聚类方法聚类得到图像的超像素,SLIC在分割时能保持图像中物体的边界,分割速度快、内存占用少,生成的超像素具有较好的紧凑性和边界贴合度;然后计算每个超像素包含的所有像素点在CIELAB空间中的颜色均值和质心,用于表示该超像素;
步骤1.2:以超像素为节点,建立带权的无向图G={S,E};
其中S表示图中所有超像素点的集合,E为连接两个超像素边的集合;计算超像素间的权重矩阵W;矩阵W的每一项w(i,j)定义为:
w(i,j)度量了两个超像素i,j间可信的局部相似性;xi表示超像素i在CIELAB空间的颜色均值特征向量,dist(i,j)为两个超像素xi和xj质心之间的距离,当超像素i和j的质心距离大于给定阈值时threshold时,权重赋值为0,认为它们不相似;threshold通常取70,σr为一个常数,一般取σr∈[0.1,0.3];
步骤1.3:采用Normalized Cut方法对超像素聚类,图的归一化割Ncut(As,Bs)定义为:
cut(As,Bs)=∑i∈As,j∈Bsw(i,j);
assoc(As,S)=∑i∈As,j∈Sw(i,j);assoc(Bs,S)=∑i∈Bs,j∈Sw(i,j);
其中As,Bs表示整个超像素集合S中的一个子集,且满足Bs=S-As;assoc(As,S)表示超像素子集As与整个超像素集合S的权重和,asso(c B,s)S表示超像素子集Bs与整个超像素集合S的权重和,cut(As,Bs)计算了超像素集合As和Bs之间所有边的权值之和;计算得到使Ncut值最小的最优的分割方案;
步骤1.4:计算分割后区域的颜色直方图,根据区域直方图的相似性及相邻关系对分割区域进行合并,对两个相邻的且颜色直方图距离小于给定阈值的区域进行合并;
步骤2,对于训练区域语义标记分类器步骤:
首先定义一个语义层次结构图,将自然场景分为不同的类别;层次性的词汇组织对图像区域的语义进行了自顶向下的划分,能减少在标记相似区域时的歧义,提高标记的准确性;深色的框表示父类别,每个父类别下有相应的子类别;属于同一父类别的区域具有相似的语义,可以进行颜色传输;从包含各类别场景的图片中,分割出相应的区域,进行人工语义标记,构建得到训练集;
采用MPEG-7描述子中的颜色、纹理和形状描述子来表征图像区域的色彩、纹理、形状特征,将组合后的特征用于训练分类器;
其中采用可伸缩颜色描述子(Scalable Color Descriptor,SCD)、颜色布局描述子(Color Layout Descriptor,CLD)和颜色结构描述子(Color Structure Descriptor,CSD)来表征色彩特征;可伸缩颜色描述子SCD测量了图像的全局颜色分布情况,用SCDx(i)表示区域x的第i个SCD特征,系数个数取64;颜色结构描述子CSD利用结构元素来描述图像颜色内容在空间中的结构关系,在反映图像色彩信息的同时描绘了颜色的空间分布,用CSDx(i)表示区域x的第i个CSD特征,颜色量化等级参数取64;颜色布局描述子CLD可以描述任意形状区域的颜色空间分布,分别取Y,Cb,Cr三个分量系数为6,3,3,得到描述子CLD={Yx(i),Cbx(i),Crx(i)},Yx(i),Cbx(i),Crx(i)表示区域x各颜色分量的第i个DCT系数,每个分量的第一个值为直流系数,剩余为交流系数;综合三种描述子定义颜色特征的度量准则Dcolor=DSCD+DCLD+DCSD,用欧式距离来度量SCD、CSD特征的相似性,相应的距离计算公式用DSCD和DCSD表示:
CLD特征的相似性DCLD定义如下,其中为DCT系数的权重:
采用同质纹理描述子(Homogeneous Texture descriptor,HTD)和边缘直方图描述子(Edge Histogram descriptor,EHD)来提取图像区域的纹理特征;HTD描述子通过在频域中计算能量和能量方差来提供对纹理的量化描述,用HTDx(i)表示区域x的第i个HTD特征,得到62个特征;EHD描述子捕获了边界的空间分布,当纹理不均匀时,仍然可以提供有效的边界描述,用EHDx(i)表示区域x的第i个EHD特征,得到一个具有80个bin的代表区域边界的直方图;纹理特征的相似性度量准则定义为:
采用区域形状描述子(Region Shape Descriptor,RSD)计算图像区域的形状特征;RSD描述子既可以表示单个区域,也可以描述多个不相连的区域,用RSDx(i)表示区域x的第i个RSD特征,可得35个系数;形状特征的相似性度量准则定义为:
对于训练集中的每个图像区域,计算得到它们的颜色、纹理和形状特征,从而计算图像区域间的总相似度并基于此相似度采用支持向量机训练得到区域级别的语义标注分类器;
步骤3,对于基于语义的颜色传输步骤:
将分割得到的参考图像和目标图像的子区域作为输入,采用训练得到的语义标注分类器将每个区域归类到语义层次结构中的一个类别,从而得到区域的语义标记词;然后基于图2中的语义层次结构图来传输颜色,即若参考图像和目标图像中两个区域的语义相同,则建立区域映射关联,若语义不相同,但属于语义层次结构中同一个深色节点,则表示它们有相似的语义,也建立区域映射关联,在有映射关联的区域间进行颜色传输;若目标图像中的待处理区域找不到相关联的参考区域,则保持其颜色不变;
在传输颜色时,对每个像素点计算其属于目标图像中各个区域的概率,根据概率加权求和后得到最终的颜色值,防止在不同区域连接处出现颜色突变;
令N(x,y)表示点(x,y)邻域所包含的区域集合,I(x,y)表示点(x,y)的颜色值,Ti表示目标图像中的一个区域i,则点(x,y)属于Ti区域的概率iPxy为:
iPxy=d(I(x,y),Ti)/Z其中,Z=∑i∈N(x,y)d(I(x,y),Ti)是归一化因子,d(I(x,y),Ti)度量了点(x,y)和区域Ti之间的距离;
根据(x,y)点和区域Ti之间的颜色差异和相邻程度来定义其距离:
其中μi表示区域Ti的颜色均值,(xi,yi)表示区域Ti的质心,δc=0.05,δs=4,用于保证区域边界处的平滑;
在计算得到每个像素点所属邻域区域的概率后,根据由相似语义定义的映射关联来计算传输后的颜色值:
其中Io(x,y)、IT(x,y)分别表示输出图O和目标图T中像素点(x,y)的颜色值,分别表示参考图像R和目标图像T中第i个区域的颜色均值和方差;φ(·)代表区域间的映射关联,即φ(i)表示将目标图像中的第i个区域与参考图像第φ(i)个区域相关联。
本发明的优点是:本发明方法的特色和创新在于,改进的图像分割方法能更快速准确地分割得到图像中的同质纹理区域,采用训练学习的方法对图像区域进行了细致的语义标记,并根据区域语义间的相似程度来定义区域间的映射关联,将参考图像区域的颜色传递给目标图像区域,得到更精确的颜色传输结果。
附图说明
图1为本发明的方法流程图
图2为本发明的语义层次结构图
图3为基于语义的图像颜色传输例子,图3a、图3c为参考图像和目标图像,图3b、图3d为相应的图像分割及语义标记结果,图3e为本发明方法得到的颜色传输结果。
具体实施方式
参照附图1-3:
本发明提出了一种基于语义的图像颜色传输方法,输入为一张参考图像R和一张目标图像T,输出为和参考图像具有相似色彩风格的图O。本发明主要分为三个步骤:图像分割;训练区域语义标记分类器;基于语义的颜色传输。改进原有的Normalized Cut方法对目标图像和参考图像进行分割,得到图像区域子块;根据预先定义好的语义层次结构,建立图像区域级别的训练集,基于MPEG-7描述符提取区域的颜色、纹理和形状特征,训练得到分类器;根据训练得到的区域语义分类器,对目标图像和参考图像的区域子块标记,从而将图像区域归入相应的语义概念类别,然后在具有相似语义的区域间传输颜色,得到结果图像。
针对每个步骤的具体算法以下将详细说明。
步骤1,为了更精确地分割图像子区域,本发明对Normalized Cut方法进行改进。首先提取出图像的超像素,以超像素作为节点表示图结构,然后采用Ncut方法对超像素进行分割,最后根据分割子块的颜色直方图属性对相似区域合并,得到分割区域。超像素的图结构表示不但包含节点较少,而且捕获了图像的冗余信息。基于超像素的分割不仅能降低计算复杂度,而且能降低分割结果对噪声的敏感程度,比直接对图像的像素点分割鲁棒性更强。采用改进后的方法分割目标图像和参考图像。
改进的Ncut方法包括以下四个步骤:
步骤1.1:采用简单线性迭代聚类得到图像的超像素,SLIC在分割时能保持图像中物体的边界,分割速度快、内存占用少,生成的超像素具有较好的紧凑性和边界贴合度。然后计算每个超像素包含的所有像素点在CIELAB空间中的颜色均值和质心,用于表示该超像素。
步骤1.2:以超像素为节点,建立带权的无向图G={S,E}。
其中S表示图中所有超像素点的集合,E为连接两个超像素边的集合。计算超像素间的权重矩阵W。矩阵W的每一项w(i,j)定义为:
w(i,j)度量了两个超像素i,j间可信的局部相似性。xi表示超像素i在CIELAB空间的颜色均值特征向量,dist(i,j)为两个超像素xi和xj质心之间的距离,当超像素i和j的质心距离大于给定阈值时threshold时,权重赋值为0,认为它们不相似。threshold通常取70,σr为一个常数,一般取σr∈[0.1,0.3]。
步骤1.3:采用Normalized Cut方法对超像素聚类,图的归一化割Ncut(As,Bs)定义为:
cut(As,Bs)=∑i∈As,j∈Bsw(i,j);
assoc(As,S)=∑i∈As,j∈Sw(i,j);assoc(Bs,S)=∑i∈Bs,j∈Sw(i,j);
其中As,Bs表示整个超像素集合S中的一个子集,且满足Bs=S-As。assoc(As,S)表示超像素子集As与整个超像素集合S的权重和,asso(c B,s)S表示超像素子集Bs与整个超像素集合S的权重和,cut(As,Bs)计算了超像素集合As和Bs之间所有边的权值之和。计算得到使Ncut值最小的最优的分割方案。
步骤1.4:计算分割后区域的颜色直方图,根据区域直方图的相似性及相邻关系对分割区域进行合并,对两个相邻的且颜色直方图距离小于给定阈值的区域进行合并。
步骤2,对于训练区域语义标记分类器步骤:
首先定义一个语义层次结构图(图2),将自然场景分为不同的类别。层次性的词汇组织对图像区域的语义进行了自顶向下的划分,能减少在标记相似区域时的歧义,提高标记的准确性。在图2中,深色的框表示父类别,每个父类别下有相应的子类别。属于同一父类别的区域具有相似的语义,可以进行颜色传输。本发明从包含各类别场景的图片中,分割出相应的区域,进行人工语义标记,构建得到训练集。
本发明采用MPEG-7描述子(Sikora T.The MPEG-7visual standard for contentdescription-an overview.IEEE Transactions on Circuits and Systems for VideoTechnology,2001,11(6):696-702.)中的颜色、纹理和形状描述子来表征图像区域的色彩、纹理、形状特征,将组合后的特征用于训练分类器。
其中采用可伸缩颜色描述子(Scalable Color Descriptor,SCD)、颜色布局描述子(Color Layout Descriptor,CLD)和颜色结构描述子(Color Structure Descriptor,CSD)来表征色彩特征。可伸缩颜色描述子SCD测量了图像的全局颜色分布情况,用SCDx(i)表示区域x的第i个SCD特征,系数个数取64;颜色结构描述子CSD利用结构元素来描述图像颜色内容在空间中的结构关系,在反映图像色彩信息的同时描绘了颜色的空间分布,用CSDx(i)表示区域x的第i个CSD特征,颜色量化等级参数取64;颜色布局描述子CLD可以描述任意形状区域的颜色空间分布,分别取Y,Cb,Cr三个分量系数为6,3,3,得到描述子CLD={Yx(i),Cbx(i),Crx(i)},Yx(i),Cbx(i),Crx(i)表示区域x各颜色分量的第i个DCT系数,每个分量的第一个值为直流系数,剩余为交流系数。综合三种描述子定义颜色特征的度量准则Dcolor=DSCD+DCLD+DCSD,用欧式距离来度量SCD、CSD特征的相似性,相应的距离计算公式用DSCD和DCSD表示:
CLD特征的相似性DCLD定义如下,其中为DCT系数的权重:
本发明采用同质纹理描述子(Homogeneous Texture descriptor,HTD)和边缘直方图描述子(Edge Histogram descriptor,EHD)来提取图像区域的纹理特征。HTD描述子通过在频域中计算能量和能量方差来提供对纹理的量化描述,用HTDx(i)表示区域x的第i个HTD特征,得到62个特征;EHD描述子捕获了边界的空间分布,当纹理不均匀时,仍然可以提供有效的边界描述,用EHDx(i)表示区域x的第i个EHD特征,得到一个具有80个bin的代表区域边界的直方图。纹理特征的相似性度量准则定义为:
本发明采用区域形状描述子(Region Shape Descriptor,RSD)计算图像区域的形状特征。RSD描述子既可以表示单个区域,也可以描述多个不相连的区域,用RSDx(i)表示区域x的第i个RSD特征,可得35个系数。形状特征的相似性度量准则定义为:
对于训练集中的每个图像区域,计算得到它们的颜色、纹理和形状特征,从而计算图像区域间的总相似度并基于此相似度采用支持向量机训练得到区域级别的语义标注分类器。
步骤3,对于基于语义的颜色传输步骤:
将分割得到的参考图像和目标图像的子区域作为输入,采用训练得到的语义标注分类器将每个区域归类到语义层次结构中的一个类别,从而得到区域的语义标记词。然后基于图2中的语义层次结构图来传输颜色,即若参考图像和目标图像中两个区域的语义相同,则建立区域映射关联,若语义不相同,但属于语义层次结构中同一个深色节点,则表示它们有相似的语义,也建立区域映射关联,在有映射关联的区域间进行颜色传输。若目标图像中的待处理区域找不到相关联的参考区域,则保持其颜色不变。
在传输颜色时,对每个像素点计算其属于目标图像中各个区域的概率,根据概率加权求和后得到最终的颜色值,防止在不同区域连接处出现颜色突变。
令N(x,y)表示点(x,y)邻域所包含的区域集合,I(x,y)表示点(x,y)的颜色值,Ti表示目标图像中的一个区域i,则点(x,y)属于Ti区域的概率iPxy为:
iPxy=d(I(x,y),Ti)/Z
其中,Z=∑i∈N(x,y)d(I(x,y),Ti)是归一化因子,d(I(x,y),Ti)度量了点(x,y)和区域Ti之间的距离。
根据(x,y)点和区域Ti之间的颜色差异和相邻程度来定义其距离:
其中μi表示区域Ti的颜色均值,(xi,yi)表示区域Ti的质心,δc=0.05,δs=4,用于保证区域边界处的平滑。
在计算得到每个像素点所属邻域区域的概率后,根据由相似语义定义的映射关联来计算传输后的颜色值:
其中Io(x,y)、IT(x,y)分别表示输出图O和目标图T中像素点(x,y)的颜色值,分别表示参考图像R和目标图像T中第i个区域的颜色均值和方差。φ(·)代表区域间的映射关联,即φ(i)表示将目标图像中的第i个区域与参考图像第φ(i)个区域相关联。
从图3中可以看出,本发明能够较好地分割出图像中的同质纹理区域,精确地传输颜色。
本发明所述的简单线性迭代聚类方法参见:(Simple Linear IterativeClustering,SLIC)(Radhakrishna Achanta,Appu Shaji,Kevin Smith,Aurelien Lucchi,Pascal Fua,Sabine Susstrunk,SLIC Superpixels Compared to State-of-the-artSuperpixel Methods.IEEE Transactions on Pattern Analysis and MachineIntelligence,2012,34(11):2274-2282.)
本发明所述的MPEG-7描述子参见:(Sikora T.The MPEG-7visual standard forcontent description-an overview.IEEE Transactions on Circuits and Systems forVideo Technology,2001,11(6):696-702.)
本发明所述的可伸缩颜色描述子(Scalable Color Descriptor,SCD)、颜色布局描述子(Color Layout Descriptor,CLD)和颜色结构描述子(Color StructureDescriptor,CSD)、同质纹理描述子(Homogeneous Texture descriptor,HTD)和边缘直方图描述子(Edge Histogram descriptor,EHD)、区域形状描述子(Region ShapeDescriptor,RSD)均具有本技术领域常规的含义。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (1)
1.一种基于语义的图像颜色传输方法,输入为一张参考图像R和一张目标图像T,输出为和参考图像具有相似色彩风格的图O;分为三个步骤:图像分割;训练区域语义标记分类器;基于语义的颜色传输;改进原有的Normalized Cut方法对目标图像和参考图像进行分割,得到图像区域子块;根据预先定义好的语义层次结构,建立图像区域级别的训练集,基于MPEG-7描述符提取区域的颜色、纹理和形状特征,训练得到分类器;根据训练得到的区域语义分类器,对目标图像和参考图像的区域子块标记,从而将图像区域归入相应的语义概念类别,然后在具有相似语义的区域间传输颜色,得到结果图像;
具体步骤是:
步骤1,为了更精确地分割图像子区域,对Normalized Cut方法进行改进;首先提取出图像的超像素,以超像素作为节点表示图结构,然后采用Ncut方法对超像素进行分割,最后根据分割子块的颜色直方图属性对相似区域合并,得到分割区域;超像素的图结构表示不但包含节点较少,而且捕获了图像的冗余信息;基于超像素的分割不仅能降低计算复杂度,而且能降低分割结果对噪声的敏感程度,比直接对图像的像素点分割鲁棒性更强;采用改进后的方法分割目标图像和参考图像;
改进的Ncut方法包括以下四个步骤:
步骤1.1:采用简单线性迭代聚类方法聚类得到图像的超像素,SLIC在分割时能保持图像中物体的边界,分割速度快、内存占用少,生成的超像素具有较好的紧凑性和边界贴合度;然后计算每个超像素包含的所有像素点在CIELAB空间中的颜色均值和质心,用于表示该超像素;
步骤1.2:以超像素为节点,建立带权的无向图G={S,E};
其中S表示图中所有超像素点的集合,E为连接两个超像素边的集合;计算超像素间的权重矩阵W;矩阵W的每一项w(i,j)定义为:
<mrow>
<mi>w</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>/</mo>
<mn>2</mn>
<msup>
<mi>&sigma;r</mi>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>d</mi>
<mi>i</mi>
<mi>s</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mo><</mo>
<mi>t</mi>
<mi>h</mi>
<mi>r</mi>
<mi>e</mi>
<mi>s</mi>
<mi>h</mi>
<mi>o</mi>
<mi>l</mi>
<mi>d</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>e</mi>
<mi>l</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
w(i,j)度量了两个超像素i,j间可信的局部相似性;xi表示超像素i在CIELAB空间的颜色均值特征向量,dist(i,j)为两个超像素xi和xj质心之间的距离,当超像素i和j的质心距离大于等于给定阈值时threshold时,权重赋值为0,认为它们不相似;threshold取70,σr为一个常数,取σr∈[0.1,0.3];
步骤1.3:采用Normalized Cut方法对超像素聚类,图的归一化割Ncut(As,Bs)定义为:
<mrow>
<mi>N</mi>
<mi>c</mi>
<mi>u</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>A</mi>
<mi>s</mi>
<mo>,</mo>
<mi>B</mi>
<mi>s</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>A</mi>
<mi>s</mi>
<mo>,</mo>
<mi>B</mi>
<mi>s</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>a</mi>
<mi>s</mi>
<mi>s</mi>
<mi>o</mi>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>A</mi>
<mi>s</mi>
<mo>,</mo>
<mi>S</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>+</mo>
<mfrac>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>A</mi>
<mi>s</mi>
<mo>,</mo>
<mi>B</mi>
<mi>s</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>a</mi>
<mi>s</mi>
<mi>s</mi>
<mi>o</mi>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>B</mi>
<mi>s</mi>
<mo>,</mo>
<mi>S</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
cut(As,Bs)=∑i∈As,j∈Bsw(i,j);
assoc(As,S)=∑i∈As,j∈Sw(i,j);assoc(Bs,S)=∑i∈Bs,j∈Sw(i,j);
其中As,Bs表示整个超像素集合S中的一个子集,且满足Bs=S-As;assoc(As,S)表示超像素子集As与整个超像素集合S的权重和,assoc(Bs,S)表示超像素子集Bs与整个超像素集合S的权重和,cut(As,Bs)计算了超像素集合As和Bs之间所有边的权值之和;计算得到使Ncut值最小的最优的分割方案;
步骤1.4:计算分割后区域的颜色直方图,根据区域直方图的相似性及相邻关系对分割区域进行合并,对两个相邻的且颜色直方图距离小于给定阈值的区域进行合并;
步骤2,对于训练区域语义标记分类器步骤:
首先定义一个语义层次结构图,将自然场景分为不同的类别;层次性的词汇组织对图像区域的语义进行了自顶向下的划分,能减少在标记相似区域时的歧义,提高标记的准确性;深色的框表示父类别,每个父类别下有相应的子类别;属于同一父类别的区域具有相似的语义,可以进行颜色传输;从包含各类别场景的图片中,分割出相应的区域,进行人工语义标记,构建得到训练集;
采用MPEG-7描述子中的颜色、纹理和形状描述子来表征图像区域的色彩、纹理、形状特征,将组合后的特征用于训练分类器;
其中采用可伸缩颜色描述子(Scalable Color Descriptor,SCD)、颜色布局描述子(Color Layout Descriptor,CLD)和颜色结构描述子(Color Structure Descriptor,CSD)来表征色彩特征;可伸缩颜色描述子SCD测量了图像的全局颜色分布情况,用SCDx(i)表示区域x的第i个SCD特征,系数个数取64;颜色结构描述子CSD利用结构元素来描述图像颜色内容在空间中的结构关系,在反映图像色彩信息的同时描绘了颜色的空间分布,用CSDx(i)表示区域x的第i个CSD特征,颜色量化等级参数取64;颜色布局描述子CLD可以描述任意形状区域的颜色空间分布,分别取Y,Cb,Cr三个分量系数为6,3,3,得到描述子CLD={Yx(i),Cbx(i),Crx(i)},Yx(i),Cbx(i),Crx(i)表示区域x各颜色分量的第i个DCT系数,每个分量的第一个值为直流系数,剩余为交流系数;综合三种描述子定义颜色特征的度量准则Dcolor=DSCD+DCLD+DCSD,用欧式距离来度量SCD、CSD特征的相似性,相应的距离计算公式用DSCD和DCSD表示:
<mrow>
<msub>
<mi>D</mi>
<mrow>
<mi>S</mi>
<mi>C</mi>
<mi>D</mi>
</mrow>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mi>i</mi>
<mn>64</mn>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>SCD</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>SCD</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
<mrow>
<msub>
<mi>D</mi>
<mrow>
<mi>C</mi>
<mi>S</mi>
<mi>D</mi>
</mrow>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mi>i</mi>
<mn>64</mn>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>CSD</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>CSD</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
CLD特征的相似性DCLD定义如下,其中Wi y,Wi Cb,Wi Cr为DCT系数的权重:
<mrow>
<msub>
<mi>D</mi>
<mrow>
<mi>C</mi>
<mi>L</mi>
<mi>D</mi>
</mrow>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>6</mn>
</munderover>
<msubsup>
<mi>W</mi>
<mi>i</mi>
<mi>y</mi>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>Y</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>+</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>3</mn>
</munderover>
<msubsup>
<mi>W</mi>
<mi>i</mi>
<mrow>
<mi>C</mi>
<mi>b</mi>
</mrow>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>Cb</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>Cb</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>+</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>3</mn>
</munderover>
<msubsup>
<mi>W</mi>
<mi>i</mi>
<mrow>
<mi>C</mi>
<mi>r</mi>
</mrow>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>Cr</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>Cr</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
采用同质纹理描述子(Homogeneous Texture descriptor,HTD)和边缘直方图描述子(Edge Histogram descriptor,EHD)来提取图像区域的纹理特征;HTD描述子通过在频域中计算能量和能量方差来提供对纹理的量化描述,用HTDx(i)表示区域x的第i个HTD特征,得到62个特征;EHD描述子捕获了边界的空间分布,当纹理不均匀时,仍然可以提供有效的边界描述,用EHDx(i)表示区域x的第i个EHD特征,得到一个具有80个bin的代表区域边界的直方图;纹理特征的相似性度量准则定义为:
<mrow>
<mi>D</mi>
<mi>t</mi>
<mi>e</mi>
<mi>x</mi>
<mi>t</mi>
<mi>u</mi>
<mi>r</mi>
<mi>e</mi>
<mo>=</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>62</mn>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>HTD</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>HTD</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<mo>+</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>80</mn>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>EHD</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>EHD</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
采用区域形状描述子(Region Shape Descriptor,RSD)计算图像区域的形状特征;RSD描述子既可以表示单个区域,也可以描述多个不相连的区域,用RSDx(i)表示区域x的第i个RSD特征,可得35个系数;形状特征的相似性度量准则定义为:
<mrow>
<mi>D</mi>
<mi>s</mi>
<mi>h</mi>
<mi>a</mi>
<mi>p</mi>
<mi>e</mi>
<mo>=</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>35</mn>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>RSD</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>RSD</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
对于训练集中的每个图像区域,计算得到它们的颜色、纹理和形状特征,从而计算图像区域间的总相似度并基于此相似度采用支持向量机训练得到区域级别的语义标注分类器;
步骤3,对于基于语义的颜色传输步骤:
将分割得到的参考图像和目标图像的子区域作为输入,采用训练得到的语义标注分类器将每个区域归类到语义层次结构中的一个类别,从而得到区域的语义标记词;然后基于语义层次结构图来传输颜色,即若参考图像和目标图像中两个区域的语义相同,则建立区域映射关联,若语义不相同,但属于语义层次结构中同一个深色节点,则表示它们有相似的语义,也建立区域映射关联,在有映射关联的区域间进行颜色传输;若目标图像中的待处理区域找不到相关联的参考区域,则保持其颜色不变;
在传输颜色时,对每个像素点计算其属于目标图像中各个区域的概率,根据概率加权求和后得到最终的颜色值,防止在不同区域连接处出现颜色突变;
令N(x,y)表示点(x,y)邻域所包含的区域集合,I(x,y)表示点(x,y)的颜色值,Ti表示目标图像中的一个区域i,则点(x,y)属于Ti区域的概率iPxy为:
iPxy=d(I(x,y),Ti)/Z
其中,Z=∑i∈N(x,y)d(I(x,y),Ti)是归一化因子,d(I(x,y),Ti)度量了点(x,y)和区域Ti之间的距离;
根据(x,y)点和区域Ti之间的颜色差异和相邻程度来定义其距离:
<mrow>
<mi>d</mi>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>,</mo>
<msub>
<mi>T</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mo>-</mo>
<mo>|</mo>
<mo>|</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
<mrow>
<mi>&delta;</mi>
<mi>c</mi>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mo>-</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
<mrow>
<mi>&delta;</mi>
<mi>s</mi>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中μi表示区域Ti的颜色均值,(xi,yi)表示区域Ti的质心,δc=0.05,δs=4,用于保证区域边界处的平滑;
在计算得到每个像素点所属邻域区域的概率后,根据由相似语义定义的映射关联来计算传输后的颜色值:
<mrow>
<msup>
<mi>I</mi>
<mi>o</mi>
</msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<msub>
<mmultiscripts>
<mi>P</mi>
<mi>i</mi>
</mmultiscripts>
<mrow>
<mi>x</mi>
<mi>y</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mfrac>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>&phi;</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
<mi>R</mi>
</msubsup>
<msubsup>
<mi>&sigma;</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
</mfrac>
<mo>(</mo>
<mrow>
<msup>
<mi>I</mi>
<mi>T</mi>
</msup>
<mrow>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
</mrow>
<mo>)</mo>
<mo>+</mo>
<msubsup>
<mi>&mu;</mi>
<mrow>
<mi>&phi;</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
<mi>R</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
其中Io(x,y)、IT(x,y)分别表示输出图O和目标图T中像素点(x,y)的颜色值,分别表示参考图像R和目标图像T中第i个区域的颜色均值和方差;φ(·)代表区域间的映射关联,即φ(i)表示将目标图像中的第i个区域与参考图像第φ(i)个区域相关联。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410472612.0A CN104504734B (zh) | 2014-09-16 | 2014-09-16 | 一种基于语义的图像颜色传输方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410472612.0A CN104504734B (zh) | 2014-09-16 | 2014-09-16 | 一种基于语义的图像颜色传输方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104504734A CN104504734A (zh) | 2015-04-08 |
CN104504734B true CN104504734B (zh) | 2017-09-26 |
Family
ID=52946128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410472612.0A Active CN104504734B (zh) | 2014-09-16 | 2014-09-16 | 一种基于语义的图像颜色传输方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104504734B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105354599B (zh) * | 2015-11-25 | 2019-10-08 | 安徽创世科技股份有限公司 | 一种基于改进的slic超像素分割算法的颜色识别方法 |
CN106960457B (zh) * | 2017-03-02 | 2020-06-26 | 华侨大学 | 一种基于图像语义提取和涂鸦的彩绘画创作方法 |
CN107705256B (zh) * | 2017-09-13 | 2021-03-16 | 西南交通大学 | 一种基于接触网语义的前向车载视频图像增强方法 |
CN107862063A (zh) * | 2017-11-15 | 2018-03-30 | 广东交通职业技术学院 | 一种图像色彩传递方法及系统 |
CN108021881B (zh) * | 2017-12-01 | 2023-09-01 | 腾讯数码(天津)有限公司 | 一种肤色分割方法、装置和存储介质 |
CN108256532A (zh) * | 2018-01-10 | 2018-07-06 | 武汉斗鱼网络科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN109564684B (zh) * | 2018-01-15 | 2023-05-02 | 深圳鲲云信息科技有限公司 | 图像语义分割方法、可编程逻辑电路、系统及电子设备 |
CN109308380B (zh) * | 2018-08-24 | 2022-08-02 | 云南大学 | 基于非真实感的刺绣艺术风格模拟方法 |
CN111080746B (zh) * | 2019-12-10 | 2024-04-26 | 中国科学院计算技术研究所 | 图像处理方法、装置、电子设备和存储介质 |
CN112561949B (zh) * | 2020-12-23 | 2023-08-22 | 江苏信息职业技术学院 | 一种基于rpca和支持向量机的快速运动目标检测算法 |
CN112967293A (zh) * | 2021-03-04 | 2021-06-15 | 首都师范大学 | 一种图像语义分割方法、装置及存储介质 |
CN113822951B (zh) * | 2021-06-25 | 2023-05-30 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN113658084B (zh) * | 2021-10-20 | 2022-06-28 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像处理方法、装置、存储介质以及电子设备 |
CN115082703B (zh) * | 2022-07-19 | 2022-11-11 | 深圳大学 | 概念关联颜色提取方法、装置、计算机设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101989302A (zh) * | 2010-10-22 | 2011-03-23 | 西安交通大学 | 一种基于多层位图颜色特征的图像检索方法 |
CN102289840A (zh) * | 2011-06-18 | 2011-12-21 | 浙江大学 | 面向色盲设计颜色传输函数用于体绘制的方法 |
CN103530882A (zh) * | 2013-10-17 | 2014-01-22 | 南京大学 | 一种改进的基于图和色彩纹理特征的图像分割方法 |
CN103955952A (zh) * | 2014-05-04 | 2014-07-30 | 电子科技大学 | 一种服装图像颜色特征的提取与描述方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120133664A1 (en) * | 2010-11-29 | 2012-05-31 | Lotus Hill Institute For Computer Vision And Information Science | System and method for painterly rendering based on image parsing |
-
2014
- 2014-09-16 CN CN201410472612.0A patent/CN104504734B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101989302A (zh) * | 2010-10-22 | 2011-03-23 | 西安交通大学 | 一种基于多层位图颜色特征的图像检索方法 |
CN102289840A (zh) * | 2011-06-18 | 2011-12-21 | 浙江大学 | 面向色盲设计颜色传输函数用于体绘制的方法 |
CN103530882A (zh) * | 2013-10-17 | 2014-01-22 | 南京大学 | 一种改进的基于图和色彩纹理特征的图像分割方法 |
CN103955952A (zh) * | 2014-05-04 | 2014-07-30 | 电子科技大学 | 一种服装图像颜色特征的提取与描述方法 |
Non-Patent Citations (3)
Title |
---|
Content-Based Color Transfer;Fuzhang Wu 等;《Computer Graphics Forum》;20131231;第32卷(第2期);第4,5节,摘要 * |
Normalized Cuts and Image Segmentation;Shi J 等;《Transactions on Pattern Analysis and Machine Intelligence》;20001231;第22卷(第8期);第2-4节 * |
基于MPEG_7低层特征的视频检索系统;曾中魁;《中国优秀硕士学位论文全文数据库_信息科技辑》;20110915;第3章,第5.3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN104504734A (zh) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104504734B (zh) | 一种基于语义的图像颜色传输方法 | |
CN107862698B (zh) | 基于k均值聚类的光场前景分割方法及装置 | |
Liu et al. | Entropy-rate clustering: Cluster analysis via maximizing a submodular function subject to a matroid constraint | |
CN104408429B (zh) | 一种视频代表帧提取方法及装置 | |
CN110163239B (zh) | 一种基于超像素和条件随机场的弱监督图像语义分割方法 | |
Srivatsa et al. | Salient object detection via objectness measure | |
CN110096961B (zh) | 一种超像素级别的室内场景语义标注方法 | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
CN109255357B (zh) | 一种rgbd图像协同显著性检测方法 | |
Lim et al. | Context by region ancestry | |
CN106295460A (zh) | 人的检测方法及设备 | |
CN102663757A (zh) | 基于核传递的半自动图像分割方法 | |
CN107369158A (zh) | 基于rgb‑d图像的室内场景布局估计及目标区域提取方法 | |
CN109448015A (zh) | 基于显著图融合的图像协同分割方法 | |
CN106570874A (zh) | 一种结合图像局部约束与对象全局约束的图像标记方法 | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
Kumar et al. | Automatic image segmentation using wavelets | |
Zeeshan et al. | A newly developed ground truth dataset for visual saliency in videos | |
CN102369541A (zh) | 执行图像信息的自动分类的方法 | |
Ferri et al. | A feasibility study for a persistent homology-based k-nearest neighbor search algorithm in melanoma detection | |
Qian et al. | Spatial contextual noise removal for post classification smoothing of remotely sensed images | |
CN109191485B (zh) | 一种基于多层超图模型的多视频目标协同分割方法 | |
Quispe et al. | Automatic building change detection on aerial images using convolutional neural networks and handcrafted features | |
Hamad et al. | ALFO: Adaptive light field over-segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |