CN108171776A - 一种基于改进的卷积神经网络实现图像编辑传播的方法 - Google Patents

一种基于改进的卷积神经网络实现图像编辑传播的方法 Download PDF

Info

Publication number
CN108171776A
CN108171776A CN201711428612.0A CN201711428612A CN108171776A CN 108171776 A CN108171776 A CN 108171776A CN 201711428612 A CN201711428612 A CN 201711428612A CN 108171776 A CN108171776 A CN 108171776A
Authority
CN
China
Prior art keywords
convolution
coordinate
image
pixel
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711428612.0A
Other languages
English (en)
Other versions
CN108171776B (zh
Inventor
刘震
陈丽娟
汪家悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201711428612.0A priority Critical patent/CN108171776B/zh
Publication of CN108171776A publication Critical patent/CN108171776A/zh
Application granted granted Critical
Publication of CN108171776B publication Critical patent/CN108171776B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard

Abstract

一种基于改进的卷积神经网络实现图像编辑传播的方法,首先引入组合卷积来代替传统的卷积,通过这个结构可以提取更加合理的图像特征,并且减少模型的参数量和卷积的操作数。同时引入对错分的背景类进行加权的有偏损失函数,以防止背景类被误着色而造成颜色溢出。该方法包括以下步骤:通过交互的方式对一幅待处理的图像加以笔触;根据笔触从图像中提取训练集和测试集;利用改进的卷积神经网络进行模型训练;利用训练得到的模型进行测试,最终实现图像上色。

Description

一种基于改进的卷积神经网络实现图像编辑传播的方法
技术领域
本发明涉及一种图像编辑传播的方法,特别是一种基于改进的卷积神经网络实现图像编辑传播的方法。
背景技术
随着数字多媒体硬件的发展和软件技术的兴起,图像色彩处理的需求不断增长,在显示设备上进行快速高效的图像颜色处理变得尤其重要。编辑传播是指通过用户交互的方式,用户对图像中不同的物体给予不同的颜色笔触,进行特征提取和识别,实现图像编辑处理的过程。
目前,基于单幅图像的编辑传播算法有很多,主要分为两大类。第一类方法可以通过一些约束,将编辑传播问题转换为一个优化问题,通过解该优化问题实现编辑传播。比如在保持流行结构的约束条件下,通过保持这种流行结构来实现编辑传播。但是在处理片段的图像区域时,需要更多的笔触才能达到满意的效果,并且该类方法往往比消耗计算机的内存以及处理时间。
另一类方法是将该问题转换为一个分类问题,可以使用一些分类模型实现编辑传播。使用卷积神经网络等分类模型对笔触覆盖的像素点提取特征,根据提取到的特征将不同的像素点染为不同的颜色,从而将该问题转换为一个分类问题。然而当我们使用卷积提取特征时,也意味着我们假定了模型的几何变换是固定的。这样先验知识不利于模型的泛化,尤其是对训练集较小的数据集。
发明内容
本发明要克服图像编辑传播中对笔触要求较高、模型泛化能力不好导致图像上色不好的问题,提出一种基于改进的卷积神经网络实现图像编辑传播的方法,该方法能提取更加合理的图像特征,同时能够改善编辑传播过程中颜色溢出的问题。
本发明使用组合卷积来提取笔触覆盖的像素点的特征,并结合有偏的损失函数可以实现基于较少笔触的实现编辑传播。同时,由于本发明使用了组合卷积,使得模型的接受视野更加合理,利用该结构可以一定程度上改善编辑传播过程中颜色溢出的情况,取得较好的视觉效果。本发明使用组合卷积构建了一个双分支的卷积神经网络模型,通过该模型可以实现图像的有效上色。
本发明的一种基于改进的卷积神经网络实现单幅图像编辑传播的方法,具体步骤如下:
1)、通过交互的方式对一幅待处理的图像加以笔触;
2)、根据笔触从图像中提取训练集和测试集;
3)、利用改进的卷积神经网络进行模型训练;
4)、利用训练得到的模型进行测试,实现图像编辑传播;
进一步,所述的步骤1)中的给待处理的图像加以笔触主要包括以下步骤:
(11)对于一幅待处理的图像,通过photoshop等图像处理软件,可以对该图像加以任意颜色的笔触,效果如图1中的颜色笔触.
进一步,所述的步骤2)中数据集的提取主要包括以下步骤:
(21)训练集的提取:在笔触覆盖的所有像素点中,随机选取10%的像素点,并且以图像左上角作为坐标原点,得到这些像素点的相对坐标;然后分别以这些坐标为中心,选取9*9的邻域,得到大小为9*9的图像小片,并记录这些中心坐标的坐标值;这里在提取9*9邻域的时候,可能会发生邻域的选取超出边界的情况,处理的办法是分别对图像的四条边进行四个像素点的扩充,扩充的像素点的值用零填充;最后将这些像素点所覆盖的笔触颜色作为该图像小片的标签;
(22)测试集的提取:使用SLIC方法,将待处理的图像划分成超像素集。这里要求调整SILC方法中的参数,使得超像素划分得到的超像素在保持合理性的同时尽量接近于一个矩形。每一个超像素包含多个像素点,将多个像素点的坐标求和取平均并向下取整,得到一个新的坐标。再将此坐标作为中心坐标,选取9*9邻域,得到多个大小为9*9的图像小片,并保存这些中心坐标值。最后将这些图像小片作为测试集。
进一步,所述的步骤3)中利用改进的卷积神经网络进行模型训练主要包括以下步 骤:
(31)提出组合卷积的结构,具体步骤如下:
101)组合卷积由可变形卷积和可分离卷积组成,用来替换传统卷积神经网络中的卷积层,可以提取有效的特征。以输入特征的左上角为坐标原点,可以得到输入特征图中每一个元素的坐标值(xi,yi),xi表示某元素的x轴坐标,yi表示某元素的y轴坐标。然后对xi和yi进行随机地偏移,公式可以表示为:
x′i=xi+Δfxi,
y′i=yi+Δfyi,
这里的Δfxi表示x轴坐标随机偏移的量,xi'表示偏移后的x轴坐标,Δfyi表示y轴坐标随机偏移的量,yi'表示偏移后的y轴坐标。根据每一个元素偏移后的坐标,可以通过双线性插值得到偏移后坐标对应的像素值。至此可以得到偏移后的特征图。
102)对上述操作得到的特征图,使用可分离卷积提取图像特征。可分离卷积通过两个卷积操作来提取图像特征。若输入特征图的大小为DF×DF×M,首先使用大小为DK×DK×M的卷积核进行卷积操作,这里的DF为特征图的宽和高,DK卷积核的宽和高,M为输入特征图的数量,同时也表示第一个卷积操作使用的卷积核的数量。假设卷积操作不改变图像的大小,那么可以得到大小为DF×DF×M的输出特征图。然后再使用大小为1×1×N的卷积核进行卷积操作,这里的N表示第二个卷积的卷积核数量;得到输出大小为DF×DF×N的输出特征图。可分离卷积一共包含DF×DF×M+N个参数,以及所需的乘法操作数量为DF×DF×M×DK×DK+DF×DF×N×M。
(32)提出有偏的交叉熵损失函数的形式:
在模型的训练过程中,将有偏的损失函数作为目标函数,即在训练模型时极小化如下目标函数:
这里的p表示真实标记的分布,q表示模型的预测标记分布,x表示输入数据,α表示背景类的损失和非背景类的损失之间的偏倚程度。
(33)构造双分支的卷积神经网络模型:
该模型的第一个分支的输入时9*9的图像小片,第二个分支的输入对应该图像小片的坐标值,为一个二维的向量。第一个分支使用两层组合卷积提取图像特征,并将两层组合卷积的输出展开成一个一维向量;第二个分支使用一层全连接层提取坐标的特征,并与第一个分支连接,形成一个包含两个分支特征的一维向量。最后使用一层全连接对该一维向量提取特征并使用softmax函数进行分类。
进一步,所述的步骤4)中的用训练得到的模型进行预测实现图像编辑传播主要包 括以下步骤:
(41)使用步骤3)训练得到的模型,将测试集中的图像小片作为模型的输入做前向传播,可以得到每一个图像小片对应的每一个颜色类别的概率。选取概率值最大的颜色作为预测得到的结果,并将该图像小片对应的超像素中的每一个元素着色为预测的颜色。最终实现对图像的整体上色。
本发明的技术构思是:为了较好的实现图像编辑传播,本发明提出了一种基于改进的卷积神经网络实现图像编辑传播的方法。首先,方法通过交互式图像处理软件对待处理的图像加以颜色笔触.然后,从待处理的图像中提取训练集和测试集.接着使用结合组合卷积和有偏损失函数的双分支卷积神经网络提取图像特征,得到有效的模型参数.最后,使用训练得到的模型参数进行预测,完成图像编辑传播。
本发明的优点在于:该方法使用了更加合理的卷积结构,能够提取更有效的图像特征.并结合有偏的损失函数,使得模型训练更加合理,有效实现了图像编辑传播。
附图说明
图1为本发明的笔触图
图2为本发明的组合卷积
图3为本发明的可变性卷积
图4为本发明的典型的卷积和可分离卷积
图5为本发明的双分支网络模型结构图
图6为应用本发明的编辑传播结果图
图7为本发明的方法流程图
具体实施方式
参照附图,进一步说明本发明:
一种基于改进的卷积神经网络实现图像编辑传播的方法,包括以下步骤:
1)、对一副待处理的图像,通过交互式的方式对图像加以颜色笔触,得到图1的笔触图;
2)、对步骤1)中的图像提取训练集和测试集,分别用于模型的训练和测试;
3)、使用图2中的组合卷积结构,构造图5的双分支卷积神经网络,对训练集进行训练;其中组合卷积由图3可变形卷积和图4可分离卷积组成;
4)、对训练集进行测试,实现图6中的编辑传播效果;
该方法与现有的编辑传播方法功能基本一致,其改进在于使用了组合卷积和有偏的损失函数,使得模型能够提取更有效的特征,更有效的实现图像编辑传播,并且能改善颜色溢出的情况。
进一步,所述的步骤1)中的给待处理的图像加以笔触主要包括以下步骤:
(11)对于一幅待处理的图像,通过photoshop等图像处理软件,可以对该图像加以任意颜色的笔触,效果如图1中的颜色笔触.
进一步,所述的步骤2)中数据集的提取主要包括以下步骤:
(21)训练集的提取:在笔触覆盖的所有像素点中,随机选取10%的像素点,并且以图像左上角作为坐标原点,得到这些像素点的相对坐标。然后分别以这些坐标为中心,选取9*9的邻域,得到大小为9*9的图像小片,并记录这种中心坐标的坐标值。这里在提取9*9邻域的时候,可能会发生邻域的选取超出边界的情况,处理的办法是分别对图像的四条边进行四个像素点的扩充,扩充的像素点的值用零填充。最后将这些像素点所覆盖的笔触颜色作为该图像小片的标签。
(22)测试集的提取:使用SLIC方法,将待处理的图像划分成超像素集。这里要求调整SILC方法中的参数,使得超像素划分得到的超像素在保持合理性的同时尽量接近于一个矩形。每一个超像素包含多个像素点,将多个像素点的坐标求和取平均并向下取整,得到一个新的坐标。再将此坐标作为中心坐标,选取9*9邻域,得到多个大小为9*9的图像小片,并保存这些中心坐标值。最后将这些图像小片作为测试集。
进一步,所述的步骤3)中利用改进的卷积神经网络进行模型训练主要包括以下步骤:
(31)提出组合卷积的结构,具体步骤如下:
101)组合卷积由可变形卷积和可分离卷积组成,用来替换传统卷积神经网络中的卷积层,可以提取有效的特征。以输入特征的左上角为坐标原点,可以得到输入特征图中每一个元素的坐标值(xi,yi),xi表示某元素的x轴坐标,yi表示某元素的y轴坐标。然后对xi和yi进行随机地偏移,公式可以表示为:
x′i=xi+Δfxi,
y′i=yi+Δfyi,
这里的Δfxi表示x轴坐标随机偏移的量,xi'表示偏移后的x轴坐标,Δfyi表示y轴坐标随机偏移的量,yi'表示偏移后的y轴坐标。根据每一个元素偏移后的坐标,可以通过双线性插值得到偏移后坐标对应的像素值。至此可以得到偏移后的特征图。
102)对上述操作得到的特征图,使用可分离卷积提取图像特征。可分离卷积通过两个卷积操作来提取图像特征。若输入特征图的大小为DF×DF×M,首先使用大小为DK×DK×M的卷积核进行卷积操作,这里的DF为特征图的宽和高,DK卷积核的宽和高,M为输入特征图的数量,同时也表示第一个卷积操作使用的卷积核的数量。假设卷积操作不改变图像的大小,那么可以得到大小为DF×DF×M的输出特征图。然后再使用大小为1×1×N的卷积核进行卷积操作,这里的N表示第二个卷积的卷积核数量;得到输出大小为DF×DF×N的输出特征图。可分离卷积一共包含DF×DF×M+N个参数,以及所需的乘法操作数量为DF×DF×M×DK×DK+DF×DF×N×M。
(32)提出有偏的交叉熵损失函数的形式:
在模型的训练过程中,将有偏的损失函数作为目标函数,即在训练模型时极小化如下目标函数:
这里的p表示真实标记的分布,q表示模型的预测标记分布,x表示输入数据,α表示背景类的损失和非背景类的损失之间的偏倚程度。
(33)构造双分支的卷积神经网络模型:
该模型的第一个分支的输入时9*9的图像小片,第二个分支的输入对应该图像小片的坐标值,为一个二维的向量。第一个分支使用两层组合卷积提取图像特征,并将两层组合卷积的输出展开成一个一维向量;第二个分支使用一层全连接层提取坐标的特征,并与第一个分支连接,形成一个包含两个分支特征的一维向量。最后使用一层全连接对该一维向量提取特征并使用softmax函数进行分类。
进一步,所述的步骤4)中的用训练得到的模型进行预测实现图像编辑传播主要包括以下步骤:
(41)使用步骤3)训练得到的模型,将测试集中的图像小片作为模型的输入做前向传播,可以得到每一个图像小片对应的每一个颜色类别的概率。选取概率值最大的颜色作为预测得到的结果,并将该图像小片对应的超像素中的每一个元素着色为预测的颜色。最终实现对图像的整体上色。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (1)

1.一种基于改进的卷积神经网络实现图像编辑传播的方法,具体步骤如下:
1)、通过交互的方式对一幅待处理的图像加以笔触;具体包括:对于一幅待处理的图像,通过photoshop等图像处理软件,对该图像加以任意颜色的笔触;
2)、根据笔触从图像中提取训练集和测试集;具体包括:
(21)训练集的提取:在笔触覆盖的所有像素点中,随机选取10%的像素点,并且以图像左上角作为坐标原点,得到这些像素点的相对坐标;然后分别以这些坐标为中心,选取9*9的邻域,得到大小为9*9的图像小片,并记录这些中心坐标的坐标值;这里在提取9*9邻域的时候,可能会发生邻域的选取超出边界的情况,处理的办法是分别对图像的四条边进行四个像素点的扩充,扩充的像素点的值用零填充;最后将这些像素点所覆盖的笔触颜色作为该图像小片的标签;
(22)测试集的提取:使用SLIC方法,将待处理的图像划分成超像素集;这里要求调整SILC方法中的参数,使得超像素划分得到的超像素在保持合理性的同时尽量接近于一个矩形;每一个超像素包含多个像素点,将多个像素点的坐标求和取平均并向下取整,得到一个新的坐标;再将此坐标作为中心坐标,选取9*9邻域,得到多个大小为9*9的图像小片,并保存这些中心坐标值;最后将这些图像小片作为测试集;
3)、利用改进的卷积神经网络进行模型训练;具体包括:
(31)提出组合卷积的结构,具体步骤如下:
101)组合卷积由可变形卷积和可分离卷积组成,用来替换传统卷积神经网络中的卷积层,可以提取有效的特征;以输入特征的左上角为坐标原点,可以得到输入特征图中每一个元素的坐标值(xi,yi),xi表示某元素的x轴坐标,yi表示某元素的y轴坐标;然后对xi和yi进行随机地偏移,公式可以表示为:
xi'=xi+Δfxi,
yi'=yi+Δfyi,
这里的Δfxi表示x轴坐标随机偏移的量,xi'表示偏移后的x轴坐标,Δfyi表示y轴坐标随机偏移的量,yi'表示偏移后的y轴坐标;根据每一个元素偏移后的坐标,可以通过双线性插值得到偏移后坐标对应的像素值;至此可以得到偏移后的特征图;
102)对上述操作得到的特征图,使用可分离卷积提取图像特征;可分离卷积通过两个卷积操作来提取图像特征;若输入特征图的大小为DF×DF×M,首先使用大小为DK×DK×M的卷积核进行卷积操作,这里的DF为特征图的宽和高,DK卷积核的宽和高,M为输入特征图的数量,同时也表示第一个卷积操作使用的卷积核的数量;假设卷积操作不改变图像的大小,那么可以得到大小为DF×DF×M的输出特征图;然后再使用大小为1×1×N的卷积核进行卷积操作,这里的N表示第二个卷积的卷积核数量;得到输出大小为DF×DF×N的输出特征图;可分离卷积一共包含DF×DF×M+N个参数,以及所需的乘法操作数量为DF×DF×M×DK×DK+DF×DF×N×M;
(32)提出有偏的交叉熵损失函数的形式:
在模型的训练过程中,将有偏的损失函数作为目标函数,即在训练模型时极小化如下目标函数:
这里的p表示真实标记的分布,q表示模型的预测标记分布,x表示输入数据,α表示背景类的损失和非背景类的损失之间的偏倚程度;
(33)构造双分支的卷积神经网络模型:
该模型的第一个分支的输入时9*9的图像小片,第二个分支的输入对应该图像小片的坐标值,为一个二维的向量;第一个分支使用两层组合卷积提取图像特征,并将两层组合卷积的输出展开成一个一维向量;第二个分支使用一层全连接层提取坐标的特征,并与第一个分支连接,形成一个包含两个分支特征的一维向量;最后使用一层全连接对该一维向量提取特征并使用softmax函数进行分类;
4)、利用训练得到的模型进行测试,实现图像编辑传播;具体包括:使用步骤3)训练得到的模型,将测试集中的图像小片作为模型的输入做前向传播,得到每一个图像小片对应的每一个颜色类别的概率;选取概率值最大的颜色作为预测得到的结果,并将该图像小片对应的超像素中的每一个元素着色为预测的颜色;最终实现对图像的整体上色。
CN201711428612.0A 2017-12-26 2017-12-26 一种基于改进的卷积神经网络实现图像编辑传播的方法 Active CN108171776B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711428612.0A CN108171776B (zh) 2017-12-26 2017-12-26 一种基于改进的卷积神经网络实现图像编辑传播的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711428612.0A CN108171776B (zh) 2017-12-26 2017-12-26 一种基于改进的卷积神经网络实现图像编辑传播的方法

Publications (2)

Publication Number Publication Date
CN108171776A true CN108171776A (zh) 2018-06-15
CN108171776B CN108171776B (zh) 2021-06-08

Family

ID=62520753

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711428612.0A Active CN108171776B (zh) 2017-12-26 2017-12-26 一种基于改进的卷积神经网络实现图像编辑传播的方法

Country Status (1)

Country Link
CN (1) CN108171776B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108732550A (zh) * 2018-08-01 2018-11-02 北京百度网讯科技有限公司 用于预测雷达回波的方法和装置
CN111372084A (zh) * 2020-02-18 2020-07-03 北京大学 面向神经网络编解码工具的并行推理方法及系统
CN111881706A (zh) * 2019-11-27 2020-11-03 马上消费金融股份有限公司 活体检测、图像分类和模型训练方法、装置、设备及介质
CN116580302A (zh) * 2023-05-09 2023-08-11 湖北一方科技发展有限责任公司 一种高维水文数据处理系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104143203A (zh) * 2014-07-29 2014-11-12 清华大学深圳研究生院 一种图像编辑传播方法
CN105957124A (zh) * 2016-04-20 2016-09-21 长沙理工大学 具有重复场景元素的自然图像颜色编辑方法及装置
CN107016413A (zh) * 2017-03-31 2017-08-04 征图新视(江苏)科技有限公司 一种基于深度学习算法的烟叶在线分级方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104143203A (zh) * 2014-07-29 2014-11-12 清华大学深圳研究生院 一种图像编辑传播方法
CN105957124A (zh) * 2016-04-20 2016-09-21 长沙理工大学 具有重复场景元素的自然图像颜色编辑方法及装置
CN107016413A (zh) * 2017-03-31 2017-08-04 征图新视(江苏)科技有限公司 一种基于深度学习算法的烟叶在线分级方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ENDO, Y等: "DeepProp: Extracting Deep Features from a Single Image for Edit Propagation", 《COMPUTER GRAPHICS FORUM》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108732550A (zh) * 2018-08-01 2018-11-02 北京百度网讯科技有限公司 用于预测雷达回波的方法和装置
CN111881706A (zh) * 2019-11-27 2020-11-03 马上消费金融股份有限公司 活体检测、图像分类和模型训练方法、装置、设备及介质
CN111881706B (zh) * 2019-11-27 2021-09-03 马上消费金融股份有限公司 活体检测、图像分类和模型训练方法、装置、设备及介质
CN111372084A (zh) * 2020-02-18 2020-07-03 北京大学 面向神经网络编解码工具的并行推理方法及系统
CN111372084B (zh) * 2020-02-18 2021-07-20 北京大学 面向神经网络编解码工具的并行推理方法及系统
CN116580302A (zh) * 2023-05-09 2023-08-11 湖北一方科技发展有限责任公司 一种高维水文数据处理系统及方法
CN116580302B (zh) * 2023-05-09 2023-11-21 湖北一方科技发展有限责任公司 一种高维水文数据处理系统及方法

Also Published As

Publication number Publication date
CN108171776B (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
CN108171776A (zh) 一种基于改进的卷积神经网络实现图像编辑传播的方法
CN108830912B (zh) 一种深度特征对抗式学习的交互式灰度图像着色方法
CN101536078B (zh) 改进图像蒙板
CN101569193B (zh) 用于视频插入的方法和系统
US8286102B1 (en) System and method for image processing using multi-touch gestures
CN102903128B (zh) 基于局部特征结构保持的视频图像内容编辑传播方法
CN108701351B (zh) 一种图像显示增强方法及装置
CN109413403A (zh) 用于头戴式显示器的单通道渲染
EP2863362B1 (en) Method and apparatus for scene segmentation from focal stack images
CN105893649B (zh) 一种基于最优化模型的交互式图像重新着色方法
CN104376529A (zh) 一种基于glcm的灰度图像彩色化系统和方法
CN104580883B (zh) 图像处理装置、图像处理方法以及记录介质
CN112489164B (zh) 基于改进深度可分离卷积神经网络的图像着色方法
CN110276816A (zh) 区域填色方法、装置、电子设备及计算机可读存储介质
CN109919837A (zh) 图像数据插值
CN105719335B (zh) 一种地图图像渲染方法、装置以及车载终端
CN102184403A (zh) 基于优化的本征图像提取方法
CN106021228B (zh) 一种利用知识地形图进行文本分析的方法及系统
CN104346804A (zh) 图像处理的方法及电子设备
CN113160028B (zh) 基于彩色字符画的信息隐藏及恢复方法、设备及存储介质
Gálvez et al. Cuckoo search algorithm and K-means for IFS reconstruction of fractal colored images
CN109523588A (zh) 一种自定义拼花方法及系统
CN110689860B (zh) 一种图像表示方法、装置和计算机存储介质
EP3082106A1 (en) Image synthesis
CN107481184B (zh) 一种低多边形风格图生成交互系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20180615

Assignee: Hangzhou Ruiboqifan Enterprise Management Co.,Ltd.

Assignor: JIANG University OF TECHNOLOGY

Contract record no.: X2022330000903

Denomination of invention: A method of image editing propagation based on improved convolutional neural network

Granted publication date: 20210608

License type: Common License

Record date: 20221228

Application publication date: 20180615

Assignee: Hangzhou Anfeng Jiyue Cultural Creativity Co.,Ltd.

Assignor: JIANG University OF TECHNOLOGY

Contract record no.: X2022330000901

Denomination of invention: A method of image editing propagation based on improved convolutional neural network

Granted publication date: 20210608

License type: Common License

Record date: 20221228

Application publication date: 20180615

Assignee: Hangzhou Hibiscus Information Technology Co.,Ltd.

Assignor: JIANG University OF TECHNOLOGY

Contract record no.: X2022330000902

Denomination of invention: A method of image editing propagation based on improved convolutional neural network

Granted publication date: 20210608

License type: Common License

Record date: 20221228

Application publication date: 20180615

Assignee: Zhejiang Yu'an Information Technology Co.,Ltd.

Assignor: JIANG University OF TECHNOLOGY

Contract record no.: X2022330000897

Denomination of invention: A method of image editing propagation based on improved convolutional neural network

Granted publication date: 20210608

License type: Common License

Record date: 20221228

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20180615

Assignee: Hubei Laite Optoelectronic Power Engineering Co.,Ltd.

Assignor: JIANG University OF TECHNOLOGY

Contract record no.: X2023980035925

Denomination of invention: A Method of image editing Propagation Based on Improved Convolution Neural Network

Granted publication date: 20210608

License type: Common License

Record date: 20230525

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20180615

Assignee: Guangzhou Fangshao Technology Co.,Ltd.

Assignor: JIANG University OF TECHNOLOGY

Contract record no.: X2023980036218

Denomination of invention: A Method of Image Editing and Propagation Based on Improved Convolutional neural network

Granted publication date: 20210608

License type: Common License

Record date: 20230602

EE01 Entry into force of recordation of patent licensing contract