CN111724327A - 图像修复模型训练方法及系统及图像修复方法 - Google Patents
图像修复模型训练方法及系统及图像修复方法 Download PDFInfo
- Publication number
- CN111724327A CN111724327A CN202010602760.5A CN202010602760A CN111724327A CN 111724327 A CN111724327 A CN 111724327A CN 202010602760 A CN202010602760 A CN 202010602760A CN 111724327 A CN111724327 A CN 111724327A
- Authority
- CN
- China
- Prior art keywords
- image
- model
- training
- restoration
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003062 neural network model Methods 0.000 claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000000873 masking effect Effects 0.000 claims abstract description 5
- 238000012986 modification Methods 0.000 claims description 12
- 230000004048 modification Effects 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 7
- 238000003491 array Methods 0.000 claims description 5
- 230000008447 perception Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 18
- 238000005516 engineering process Methods 0.000 abstract description 11
- 230000008439 repair process Effects 0.000 description 24
- 230000007547 defect Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 101000928335 Homo sapiens Ankyrin repeat and KH domain-containing protein 1 Proteins 0.000 description 4
- 101000701393 Homo sapiens Serine/threonine-protein kinase 26 Proteins 0.000 description 4
- 102100030617 Serine/threonine-protein kinase 26 Human genes 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了图像修复模型训练方法及系统及图像修复方法,包括:对若干原图图像进行随机掩膜处理,生成训练数据集用于训练图像修复深度神经网络模型;构建图像修复深度神经网络模型,图像修复深度神经网络模型包括:生成模型与判别模型,生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断生成模型的修复结果是否符合预设要求;利用训练数据集训练图像修复深度神经网络模型,得到训练后的图像修复深度神经网络模型;本发明能更有效的修复图像,满足人们对高质量图像的需求,本发明能够解决传统图像修复技术在修复区域大、图像颜色差异大的情况下难以修复、修复效果不好,修复后的区域不自然等问题。
Description
技术领域
本发明涉及图像修复处理领域,具体地,涉及一种基于先验知识的图像修复深度神经网络模型训练方法及系统及图像修复方法。
背景技术
数字图像修复技术是一项利用图像中的已知信息来填补图像中缺损区域的技术,属于计算机视觉领域的图像复原问题。在物理工程领域,专家需要解析实验产生的图像,但由于光学器件的噪声和其他噪声的影响,造成图像中本应连续、均匀的目标造成断裂、减弱。如何尽可能地还原图像中丢失的信息是目前亟待解决的问题。
传统的图像修复方法主要分为两类,基于像素的图像修复和基于块状的图像修复。基于像素的图像修复技术的基本思想是从需要进行补绘区域的边界开始,由边界到中心逐渐填充待补绘区域中的所有像素,待填充像素由其邻域中所有已知像素的加权和得到;该类修复方法的代表性算法为基于快速行进方法(Fast Marching Method)的补绘算法;当修复区域较小时,修复效果较好,但当修复区域较大时,会出现模糊效应。基于块状的图像修复技术的基本思路是通过搜索图像中与待填充补绘区域中一个小块相似的块状进行补全,其本质是用图像已知部分的信息来补全未知部分;该类方法的代表性算法为基于范例的(exampler based)补绘算法。当图像颜色单调时,修复效果较好,当图像中颜色差异较大时,修复效果很差。
随着科技与深度学习的发展,基于深度学习的图像修复技术愈来愈成为当前主流的技术之一。基于深度学习的图像修复技术能够更好适应修复区域大小不统一的问题,也能更好的解决图像颜色差异带来的修复效果较差的问题。但是目前基于深度学习的图像修复方法修复效果无法控制,容易出现违背先验知识的修复效果。例如:附图1为原图,如果残缺区域存在于图1中间,那么效果图如附图2所示。目前的方法是无法基于先验知识的,人们即便知道原图图像在中间是存在凸出,但是修复的方法是基于残缺区域图像周围信息进行修复的,这时候是无法将这种先验知识考虑在内的,修复出来的图像如附图3所示,与先验知识不符。
发明内容
为了解决传统方法和基于深度学习方法在图像修复技术中的各种缺陷,本发明提供了一种新型的、基于深度学习的、能够引入先验知识的图像修复方法,本方法能更有效的修复图像,满足人们对高质量图像的需求。本发明针对复杂情况下的图像,旨在解决传统图像修复技术在修复区域大、图像颜色差异大的情况下难以修复、修复效果不好,修复后的区域不自然等问题。
为实现上述目的,本发明提供了一种图像修复模型训练方法,所述方法包括:
对若干原图图像进行随机掩膜处理,生成训练数据集用于训练图像修复深度神经网络模型,训练数据集包括:原图图像数据、带有目标边缘信息的图像数据和只有掩膜的图像数据;
构建图像修复深度神经网络模型,图像修复深度神经网络模型包括:生成模型与判别模型,生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断生成模型的修复结果是否符合预设要求;
利用训练数据集训练图像修复深度神经网络模型,得到训练后的图像修复深度神经网络模型。
其中,本发明的原理为:传统的方法大多数采用在图像上找相似区域进行填补的方法。很容易出现同一物体在残缺区域与背景区域不自然的情况。在图像颜色差异不大或残缺区域较小的情况下效果较好,但当颜色差异过大时,将图像中其他地方的像素引入残缺区域会导致残缺区域修复后与背景不匹配,造成修复效果不好。基于神经网络的方法,通过大量的学习,提取图像上物体的本质特征,基于特征进行修复,修复后的区域更加真实地表现物体的特征,效果更加自然且贴合实际。但目前基于深度学习的图像修复方法修复效果无法控制,容易出现违背先验知识的情况。
优选的,随机掩膜的生成方式具体包括:
随机掩膜是指用随机选定的图像中的区域遮挡选定的区域,进而控制图像处理的区域或处理过程。因后续模型采用监督训练的方式,所以需要对已有数据集中的图像进行“残缺”化处理。目的是生成一批具有不同形状、不同大小带有掩膜的图像用于训练神经网络模型。
随机掩膜超参设定:
在随机掩膜生成前需要指定掩膜个数(NUM_MASK),掩膜的最大拐点个数(NUM_VER),两个像素点之间的最小距离(MIN_LEN),两个像素点之间最大距离(MAX_LEN),两个像素点之间的线段的最小宽度(MIN_BRUSH),两个像素点之间的线段的最大宽度(MAX_BRUSH)和最大拐角(MAX_ANG)。
随机掩膜背景图像创建:
在生成随机掩膜图像前,将创建一张黑色背景,分辨率与原图像相同的图像。
随机掩膜创建:
在任意一个掩膜生成过程中,首先根据设定的超参数最大拐点个数(NUM_VER)随机生成一个数值代表生成掩膜的过程中需要偏转的次数。之后根据图像的分辨率随机初始化起始坐标X,Y。
(1)根据两个像素点之间的最小距离(MIN_LEN),两个像素点之间最大距离(MAX_LEN),在最小距离与最大距离之间随机选择两个像素点之间距离。
(2)根据最大拐角(MAX_ANG)在0和最大拐角之间随机选择转向角度。
(4)根据两个像素点之间线段的最大宽度(MAX_BRUSH)和最小宽度(MIN_BRUSH),在最大宽度和最小宽度之间随机选择该条线段的宽度。
(5)根据(3)与(4)的结果,在图像上绘制出一条起始点、终止点确定、宽度已知的白色线段。
循环执行步骤(1)-(5),循环次数为此次的拐点数。
构建图像修复的深度神经网络模型:
图像修复的深度神经网络模型是利用深度神经网络模型强大的多维度特征提取能力和生成能力对残缺的图像进行修复。而图像修复的深度神经网络模型分成两个子模型,分别为生成模型与判别模型。生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断修复结果是否可靠从而“监督指导”生成模型。
图像拼接:
将原图图像、带有目标边缘信息的图像和只有掩膜的图像输入生成模型。原图图像首先和只有掩膜的图像进行布尔运算,得到带有掩膜的图像,即有部分区域残缺的图像。之后,带有掩膜的图像和带有目标边缘信息的图像进行拼接操作。如果用[H1,W1,N1]代表原图图像的数组形状,[H1,W1,N2]代表目标边缘信息的图像数组形状,[H1,W1,N3]代表只有掩膜的图像数组形状,则拼接后的数组形状为[H1,W1,N1+N2+N3]。
图像粗修复:
拼接之后的数组将经过生成模型中的两个子模块,粗修复模块和精修复模块。粗修复模块是由多个门卷积,门膨胀卷积和门反卷积组合而成。通过粗修复模块得到一张粗略修复后的图像,其形状为[H1,W1,3]。
图像精修复:
粗修复之后的图像将输入精修复模块。精修复模块有两条分支,粗修复后的图像将并行进入两条分支,其中一条分支由多个门卷积和门膨胀卷积构成,另一条分支由多个门卷积和内容感知层构成。经过两个分支,得到的两个数组形状均为[H1/4,W1/4,N4]。最后拼接得到的两个数组,输入到精修复模块的最后一部分网络结构中,最后一部分网络由多个门卷积和门反卷积构成,输出的数组形状为[H1,W1,3]。其代表被完全修复的图像。
精修复图像判断:
将经过完全修复的图像、只有掩膜的图像和带有目标边缘信息的图像共同输入到判别模型。判别模型将判断完全修复的图像是否可靠、符合视觉感知。而判别模型由多个普通卷积组合而成,其主要判断修复区域中的每一个像素是否可靠。
模型训练:
在模型训练过程中,使用随机梯度下降法分别训练生成模型与判别模型。(a)固定判别模型不进行训练,使用随机梯度下降方法训练生成模型,当任意两相邻循环结束时的生成模型的损失值小于阈值s1时,停止训练生成模型。(b)固定生成模型不进行训练,使用随机梯度下降方法训练判别模型,当任意两相邻循环结束时的判别模型的损失值小于阈值s2时,停止训练判别模型。重复上述步骤(a)(b),直至模型总损失小于阈值s3。
模型推理:
在模型推理阶段,使用如下流程:
图像收集:图像修复阶段,用户需要根据自己的需求,挑选有物体或目标不清晰或者有残缺的图像。
图像标注:在图像标注阶段,在原图上对图像中有模糊或有残缺的区域进行第一类标注,标注区域需要尽量覆盖模糊或残缺区域。之后,对标注区域中物体的边缘进行第二类标注。
生成掩膜图像与边缘信息图像。在生成掩膜图像阶段,根据第一类标注,将在一张与原图分辨率相同的白底图像上绘画出标注区域,并用黑色填充。(此处白底与填充颜色并不固定,二者的颜色只是为了区分背景与标注区域,本发明对具体的颜色使用类型不进行限定)。
在边缘信息图像生成阶段,根据第二类标注,将在一张与原图分辨率相同的白底图像上绘画出标注的物体或目标边缘,以黑色线段表示。(此处白底与线段颜色并不固定,二者的颜色只是为了区分背景与标注的边缘信息)。
模型推理:在模型推理阶段,将原图、只有掩膜图像和带有边缘信息的图像输入生成模型。图像将经过前馈神经网络,计算并修复图像,最后将得到一张修复完成的图像。
本发明还提供了一种图像修复模型训练系统,所述系统包括:
随机掩膜单元,用于对若干原图图像进行随机掩膜处理,生成训练数据集用于训练图像修复深度神经网络模型,训练数据集包括:原图图像数据、带有目标边缘信息的图像数据和只有掩膜的图像数据;
模型构建单元,用于构建图像修复深度神经网络模型,图像修复深度神经网络模型包括:生成模型与判别模型,生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断生成模型的修复结果是否符合预设要求;
模型训练单元,用于利用训练数据集训练图像修复深度神经网络模型,得到训练后的图像修复深度神经网络模型。
本发明提供的一个或多个技术方案,至少具有如下技术效果或优点:
本方法及系统能够修复图像中任意残缺、模糊的不同形状的目标,能够满足人的视觉效果。修复的目标能够根据用户提供的边缘信息的进行生成,能够满足目标图像一定程度的变化并且修复的效果更自然。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本发明的一部分,并不构成对本发明实施例的限定;
附图1为背景技术中的原图;
附图2为背景技术中的具有残缺待修复的效果图;
附图3为背景技术中的采用现有的技术手段修复后的效果图;
附图4是图像修复方法总流程示意图;
附图5是模型推理阶段流程示意图;
附图6是图像修复模型训练系统的组成示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在相互不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述范围内的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
本发明实施例提供了一种基于指导的图像修复深度神经网络训练方法,请参考附图4。
实施例一:模型训练
步骤1数据预处理。
步骤1.1指定掩膜个数(NUM_MASK),掩膜的最大拐点个数(NUM_VER),两个像素点之间的最小距离(MIN_LEN),两个像素点之间最大距离(MAX_LEN),两个像素点之间线段的最小宽度(MIN_BRUSH),两个像素点之间线段的最大宽度(MAX_BRUSH)和最大拐角(MAX_ANG)分别为3,5,50,200,10,40和20。
步骤1.1随机掩膜超参设定。
对于数据集中的每张图像,对应生成具有相同分辨率,黑色背景的图像。对于每一张图像,则从1至3中随机生成一个数代表生成的掩膜个数。对于每个掩膜生成的过程,首先将从1至5中随机生成一个数代表掩膜的出现的拐点个数。
步骤1.2在图像分辨率范围之内随机初始化一个像素点,其坐标点为X,Y。
步骤1.3根据两个像素点之间的最小距离50,两个像素点之间最大距离200,在50至200中随机生成一个数代表两个像素点之间的距离。
步骤1.4根据最大拐角20度,在0度至20度之间随机生成一个角度代表拐点的转向角度。
步骤1.6根据线段的最大宽度10,在1至10之间随机生成一个数代表所需绘制的线段宽度。
步骤1.7根据计算的线段结果,在图像上绘制出一条起始点、终止点确定、宽度已知的白色线段。
步骤1.8循环步骤1.4至步骤1.7,循环次数为此次的拐点数,得到只有掩膜的图像。
步骤1.9将原图图像、带有目标边缘信息的图像和只有掩膜的图像的数组进行最大最小值归一化。对于图像数组而言,每一个数值x进行如下操作进行归一化得到x′。其中X_min为数组中的最小值,X_max为数组中的最大值。
x′=(x-X_min)/(X_max-X_min)
步骤2构建图像修复的深度神经网络模型。图像修复的深度神经网络模型是利用深度神经网络模型强大的多维度特征提取能力和生成能力修复残缺的图像。而图像修复的深度神经网络模型分成两个子模型,分别为生成模型与判别模型。生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断修复结果是否可靠从而“监督指导”生成模型。
步骤2.1图像拼接。
将归一化后的原图图像、带有目标边缘信息的图像和只有掩膜的图像数组输入生成模型。原图图像首先和只有掩膜的图像进行布尔运算,得到带有掩膜的图像,即有部分区域残缺的图像。之后,带有掩膜的图像和带有目标边缘信息的图像进行拼接操作。如果用[256,256,3]代表原图图像的数组形状,[256,256,1]代表目标边缘信息的图像数组形状,[256,256,1]代表只有掩膜的图像数组形状,则拼接后的数组形状为[256,256,5]。
步骤2.2图像粗修复。
拼接之后的数组将经过生成模型中的两个子模块,粗修复模块和精修复模块。粗修复模块是由多个门卷积,门膨胀卷积和门反卷积组合而成。通过粗修复模块得到一张粗略修复后的图像,其形状为[256,256,3]。
步骤2.3图像精修复。
粗修复之后的图像将输入到精修复模块。精修复模块有两天分支,粗修复后的图像将并行进入两条分支,其中一条分支由多个门卷积和门膨胀卷积构成,另一条分支由多个门卷积和内容感知层构成。经过两个分支,得到的两个数组形状均为[64,64,98]。最后将得到两个数组进行拼接,输入到精修复模块的最后一部分网络结构中,最后一部分网络由多个门卷积和门反卷积构成,输出的数组形状为[256,256,3]。其代表被完全修复的图像。
步骤2.4精修复图像判断。
经过完全修复的图像、只有掩膜的图像和带有目标边缘信息的图像将共同输入判别模型。判别模型将判断完全修复的图像是否可靠。而判别模型由多个普通卷积组合而成,其主要判断修复区域中的每一个像素是否可靠。
步骤2.5图像修复深度神经网络模型训练。
在模型训练过程中,使用随机梯度下降法分别训练生成模型与判别模型。(1)固定判别模型不进行训练,使用随机梯度下降方法训练生成模型,当任意两相邻循环结束时的生成模型的损失值小于阈值s1时,停止训练生成模型。(2)固定生成模型不进行训练,使用随机梯度下降方法训练判别模型,当任意两相邻循环结束时的判别模型的损失值小于阈值s2时,停止训练判别模型。重复上述步骤(1)、(2),直至模型总损失小于阈值s3。
本发明实施例提供了一种基于指导的图像修复深度神经网络使用方法。
实施例二:模型推理
在模型推理阶段,使用流程如附图5所示。
步骤1图像收集。图像修复阶段,用户需要根据自己的需求,挑选有物体或目标不清晰或者有残缺的图像。
步骤2先验信息。在先验信息阶段,用户需要在原图上对图像中有模糊或有残缺的区域进行第一类标注,标注区域需要尽量覆盖模糊或残缺区域。之后,用户需要对标注区域中原物体的边缘进行第二类标注。如果物体边缘模糊或残缺,用户可以根据自己的理解进行边缘标注。
步骤3生成掩膜图像与边缘信息图像。在生成掩膜图像阶段,根据用户的第一类标注,将在一张与原图分辨率相同的白底图像上绘画出用户标注区域,并用黑色填充。(此处白底与填充颜色并不固定,二者的颜色只是为了区分背景与标注区域)。
步骤4在边缘信息图像生成阶段,根据用户的第二类标注,将在一张与原图分辨率相同的白底图像上绘画出用户标注的物体或目标边缘,以黑色线段表示。(此处白底与线段颜色并不固定,二者的颜色只是为了区分背景与标注的边缘信息)。
步骤5模型推理。在模型推理阶段。将原图、只有掩膜的图像和带有边缘信息的图像输入到生成模型中。图像将经过前馈神经网络,计算并修复,最后将得到一张修复完成的图像。
请参考附图6,与本发明实施例中的方法对应,本实施例还提供了一种图像修复模型训练系统,所述系统包括:
随机掩膜单元,用于对若干原图图像进行随机掩膜处理,生成训练数据集用于训练图像修复深度神经网络模型,训练数据集包括:原图图像数据、带有目标边缘信息的图像数据和只有掩膜的图像数据;
模型构建单元,用于构建图像修复深度神经网络模型,图像修复深度神经网络模型包括:生成模型与判别模型,生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断生成模型的修复结果是否符合预设要求;
模型训练单元,用于利用训练数据集训练图像修复深度神经网络模型,得到训练后的图像修复深度神经网络模型。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.图像修复模型训练方法,其特征在于,所述方法包括:
对若干原图图像进行随机掩膜处理,生成训练数据集用于训练图像修复深度神经网络模型,训练数据集包括:原图图像数据、带有目标边缘信息的图像数据和只有掩膜的图像数据;
构建图像修复深度神经网络模型,图像修复深度神经网络模型包括:生成模型与判别模型,生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断生成模型的修复结果是否符合预设要求;
利用训练数据集训练图像修复深度神经网络模型,得到训练后的图像修复深度神经网络模型。
2.根据权利要求1所述的图像修复模型训练方法,其特征在于,对若干原图图像进行随机掩膜处理,包括:
设定原图图像随机掩膜的超参数;
创建分辨率与原图图像相同的背景图像;
基于背景图像和设定的超参数对原图图像进行随机掩膜处理。
3.根据权利要求2所述的图像修复模型训练方法,其特征在于,原图图像随机掩膜的超参数包括:
掩膜个数、掩膜的最大拐点个数、两个像素点之间的最小距离、两个像素点之间的最大距离、这两个像素点之间连线的最小宽度、这两个像素点之间连线的最大宽度和最大拐角。
4.根据权利要求2所述的图像修复模型训练方法,其特征在于,创建随机掩膜的流程为:
根据设定的超参数最大拐点个数随机生成一个数值代表生成掩膜的过程中需要偏转的次数;
根据背景图像的分辨率随机初始化起始点的坐标X,Y;
循环执行步骤(1)-步骤(5),循环次数为拐点个数;
步骤(1):根据两个像素点之间的最小距离,两个像素点之间最大距离,在最小距离与最大距离之间随机选择两个像素点之间距离;
步骤(2):根据最大拐角,在0和最大拐角之间随机选择转向角度;
步骤(4):根据线的最大宽度和最小宽度,在最大宽度和最小宽度之间随机选择该条线段的宽度;
步骤(5):根据当前循环的起始点坐标、下一个循环的起始点坐标和选择的线段的宽度,在背景图像上绘制线段完成随机掩膜的创建。
5.根据权利要求1所述的图像修复模型训练方法,其特征在于,生成模型包括:图像拼接模块、图像粗修复模块和图像精修复模块;
将原图图像数据、带有目标边缘信息的图像数据和只有掩膜的图像数据输入图像拼接模块;
图像拼接模块将原图图像和只有掩膜的图像进行布尔运算,得到带有掩膜的图像;
图像拼接模块将带有掩膜的图像和带有目标边缘信息的图像进行拼接操作,得到拼接后的图像数据;
图像粗修复模块对拼接后的图像数据进行一次修复处理,获得一次修复后的图像数据;
图像精修复模块对一次修复后的图像数据进行二次修复处理,获得二次修复后的图像数据;
将二次修复后的图像数据、只有掩膜的图像数据和带有目标边缘信息的图像数据共同输入判别模型,判别模型判断二次修复后的图像是否符合预设要求。
6.根据权利要求5所述的图像修复模型训练方法,其特征在于:
[H1,W1,N1]代表原图图像的数组形状,[H1,W1,N2]代表目标边缘信息的图像数组形状,[H1,W1,N3]代表只有掩膜的图像数组形状,拼接后的数组形状为[H1,W1,N1+N2+N3];
通过图像粗修复模块一次修复处理后的图像形状为[H1,W1,3];
图像精修复模块有两条分支,一次修复处理后的图像并行进入两条分支,经过两个分支处理后得到两个数组形状均为[H1/4,W1/4,N4],拼接得到的两个数组,输出的二次修复后的图像数组形状为[H1,W1,3]。
7.根据权利要求5所述的图像修复模型训练方法,其特征在于,粗修复模块包括多个门卷积、门膨胀卷积和门反卷积;图像精修复模块中一条分支包括多个门卷积和门膨胀卷积,另一条分支包括多个门卷积和内容感知层;判别模型包括多个卷积。
8.根据权利要求1所述的图像修复模型训练方法,其特征在于,图像修复深度神经网络模型的训练方式为:
步骤(a):固定判别模型不进行训练,使用随机梯度下降方法训练生成模型,当任意两相邻循环结束时的生成模型的损失值小于阈值s1时,停止训练生成模型;
步骤(b):固定生成模型不进行训练,使用随机梯度下降方法训练判别模型,当任意两相邻循环结束时的判别模型的损失值小于阈值s2时,停止训练判别模型;
重复执行步骤(a)-步骤(b),直至图像修复深度神经网络模型总损失小于阈值s3。
9.图像修复模型训练系统,其特征在于,所述系统包括:
随机掩膜单元,用于对若干原图图像进行随机掩膜处理,生成训练数据集用于训练图像修复深度神经网络模型,训练数据集包括:原图图像数据、带有目标边缘信息的图像数据和只有掩膜的图像数据;
模型构建单元,用于构建图像修复深度神经网络模型,图像修复深度神经网络模型包括:生成模型与判别模型,生成模型用于修复图像残缺区域或模糊区域,判别模型用于判断生成模型的修复结果是否符合预设要求;
模型训练单元,用于利用训练数据集训练图像修复深度神经网络模型,得到训练后的图像修复深度神经网络模型。
10.图像修复方法,其特征在于,所述方法包括:
收集待修复图像;
标注待修复图像:标注待修复图像中有模糊或有残缺的区域,并将这类标注记为第一类标注,标注第一类标注区域中的物体或目标的边缘,并将这类标注记为第二类标注;
生成掩膜图像与边缘信息图像:根据第一类标注结果,在与待修复图像分辨率相同的第一底色图像上绘画出标注区域,并用不同于底色的第二颜色进行填充;
在边缘信息图像生成阶段,根据第二类标注结果,在与待修复图像分辨率相同的第一底色图像上绘画出标注的物体或目标边缘,以不同于底色的第二颜色线段表示;
模型推理:在模型推理阶段,将待修复图像、只有掩膜图像和带有边缘信息的图像输入采用权利要求1-8中任意一个方法训练后的图像修复深度神经网络模型中,模型输出修复后的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010602760.5A CN111724327A (zh) | 2020-06-29 | 2020-06-29 | 图像修复模型训练方法及系统及图像修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010602760.5A CN111724327A (zh) | 2020-06-29 | 2020-06-29 | 图像修复模型训练方法及系统及图像修复方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111724327A true CN111724327A (zh) | 2020-09-29 |
Family
ID=72569600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010602760.5A Pending CN111724327A (zh) | 2020-06-29 | 2020-06-29 | 图像修复模型训练方法及系统及图像修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111724327A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112614066A (zh) * | 2020-12-23 | 2021-04-06 | 文思海辉智科科技有限公司 | 图像修复方法、装置及电子设备 |
WO2023116155A1 (zh) * | 2021-12-23 | 2023-06-29 | 大唐移动通信设备有限公司 | 神经网络操作方法、装置及存储介质 |
CN116843572A (zh) * | 2023-07-03 | 2023-10-03 | 广东开放大学(广东理工职业学院) | 一种基于坐标的图像修复方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170188002A1 (en) * | 2015-11-09 | 2017-06-29 | The University Of Hong Kong | Auxiliary data for artifacts - aware view synthesis |
CN108305239A (zh) * | 2018-03-06 | 2018-07-20 | 陕西师范大学 | 一种基于生成式对抗网络的桥梁裂缝图像的修复方法 |
CN108492281A (zh) * | 2018-03-06 | 2018-09-04 | 陕西师范大学 | 一种基于生成式对抗网络的桥梁裂缝图像障碍物检测与去除的方法 |
CN111292265A (zh) * | 2020-01-22 | 2020-06-16 | 东华大学 | 一种基于生成式对抗神经网络的图像修复方法 |
-
2020
- 2020-06-29 CN CN202010602760.5A patent/CN111724327A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170188002A1 (en) * | 2015-11-09 | 2017-06-29 | The University Of Hong Kong | Auxiliary data for artifacts - aware view synthesis |
CN108305239A (zh) * | 2018-03-06 | 2018-07-20 | 陕西师范大学 | 一种基于生成式对抗网络的桥梁裂缝图像的修复方法 |
CN108492281A (zh) * | 2018-03-06 | 2018-09-04 | 陕西师范大学 | 一种基于生成式对抗网络的桥梁裂缝图像障碍物检测与去除的方法 |
CN111292265A (zh) * | 2020-01-22 | 2020-06-16 | 东华大学 | 一种基于生成式对抗神经网络的图像修复方法 |
Non-Patent Citations (5)
Title |
---|
HUALI XU等: "An Edge Information and Mask Shrinking Based Image Inpainting Approach", 《2020 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME)》 * |
JIAHUI YU: "Free-Form Image Inpainting With Gated Convolution", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
JIAHUIYU: "generative_inpainting/inpaint_ops.py", 《HTTPS:GITHUB.COM/JIAHUIYU / GENERATIVE_INPAINTING》 * |
KAMYAR NAZERI等: "EdgeConnect: Structure Guided Image Inpainting using Edge Prediction", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOP (ICCVW)》 * |
何凤杰: "基于样本与稀疏分解的图像修复算法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112614066A (zh) * | 2020-12-23 | 2021-04-06 | 文思海辉智科科技有限公司 | 图像修复方法、装置及电子设备 |
WO2023116155A1 (zh) * | 2021-12-23 | 2023-06-29 | 大唐移动通信设备有限公司 | 神经网络操作方法、装置及存储介质 |
CN116843572A (zh) * | 2023-07-03 | 2023-10-03 | 广东开放大学(广东理工职业学院) | 一种基于坐标的图像修复方法 |
CN116843572B (zh) * | 2023-07-03 | 2024-04-05 | 广东开放大学(广东理工职业学院) | 一种基于坐标的图像修复方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nazeri et al. | Edgeconnect: Structure guided image inpainting using edge prediction | |
Liao et al. | Edge-aware context encoder for image inpainting | |
CN110188760B (zh) | 一种图像处理模型训练方法、图像处理方法及电子设备 | |
CN111340122B (zh) | 一种多模态特征融合的文本引导图像修复方法 | |
CN111724327A (zh) | 图像修复模型训练方法及系统及图像修复方法 | |
CN111369572B (zh) | 一种基于图像修复技术的弱监督语义分割方法和装置 | |
CN112184585B (zh) | 一种基于语义边缘融合的图像补全方法及系统 | |
CN110033416B (zh) | 一种结合多粒度的车联网图像复原方法 | |
CN109741268B (zh) | 一种针对壁画的破损图像补全方法 | |
CN113689445B (zh) | 结合语义分割与边缘检测的高分辨率遥感建筑物提取方法 | |
CN112884669B (zh) | 基于多尺度内容注意力机制的图像修复方法、存储介质和终端 | |
CN111680704B (zh) | 海洋红线新增人类活动斑块自动化快速提取方法和装置 | |
CN111179196B (zh) | 一种基于分而治之的多分辨率深度网络图像去高光方法 | |
Salem | A Survey on Various Image Inpainting Techniques. | |
CN115049556A (zh) | 一种基于StyleGAN的人脸图像修复方法 | |
Sari et al. | Interactive image inpainting of large-scale missing region | |
Chen et al. | EDBGAN: Image inpainting via an edge-aware dual branch generative adversarial network | |
Yu et al. | MagConv: Mask-guided convolution for image inpainting | |
CN112236778B (zh) | 使用cad模型作为先验的从图像中的对象识别 | |
CN116051407A (zh) | 一种图像修复方法 | |
Singh et al. | Weakly supervised image dehazing using generative adversarial networks | |
Masaoka et al. | Edge-enhanced GAN with vanishing points for image inpainting | |
Li et al. | Face mask removal based on generative adversarial network and texture network | |
CN113744199A (zh) | 图像的破损检测方法、电子设备及存储介质 | |
CN114140551A (zh) | 一种基于轨迹图像的高速道路分歧合流点推测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 610042 No. 270, floor 2, No. 8, Jinxiu street, Wuhou District, Chengdu, Sichuan Applicant after: Chengdu shuzhilian Technology Co.,Ltd. Address before: No.2, floor 4, building 1, Jule road crossing, Section 1, West 1st ring road, Wuhou District, Chengdu City, Sichuan Province 610041 Applicant before: CHENGDU SHUZHILIAN TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200929 |
|
RJ01 | Rejection of invention patent application after publication |