CN111462006A - 一种多目标的图像补全方法 - Google Patents
一种多目标的图像补全方法 Download PDFInfo
- Publication number
- CN111462006A CN111462006A CN202010241666.1A CN202010241666A CN111462006A CN 111462006 A CN111462006 A CN 111462006A CN 202010241666 A CN202010241666 A CN 202010241666A CN 111462006 A CN111462006 A CN 111462006A
- Authority
- CN
- China
- Prior art keywords
- image
- defect
- completion
- resolution
- small
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000007547 defect Effects 0.000 claims abstract description 58
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 238000003062 neural network model Methods 0.000 claims abstract description 13
- 238000003709 image segmentation Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 6
- 238000013461 design Methods 0.000 claims description 5
- 238000011084 recovery Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 7
- 238000012545 processing Methods 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 20
- 230000002950 deficient Effects 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 2
- 230000009193 crawling Effects 0.000 description 2
- 230000003631 expected effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明属于数字图像处理的技术领域,涉及一种多目标的图像补全方法。该方法包括:输入缺损图像及其对应缺损位置的掩膜;对缺损图像采用目标检测算法检测图像上缺损位置附近的对象,并记录对象位置和对象类别;对输入的缺损图像缺损位置附近的图像进行图像提取与图像分割形成一系列缺损小图,并对缺损小图进行图像线性插值提高分辨率;根据对象类别数据分别采用对应的图像补全神经网络模型对提高分辨率后的缺损小图进行图像补全,得到图像补全后的补全小图;将图像补全后的补全小图的分辨率恢复为未进行插值前的原分辨率;将分辨率恢复后的补全小图与原输入缺损图像进行融合输出得到补全图像。本发明能显著提高图像补全的效果。
Description
技术领域
本发明属于数字图像处理的技术领域,涉及一种多目标的图像补全方法。
背景技术
图像补全,即在图像中填充孔洞的任务,图像补全在许多应用中使用。例如,它可以用于图像编辑以删除不需要的图像内容,或用可信的图像填充结果空间。传统的图形学和视觉的研究方法,主要还是基于数学和物理的方法。然而随着深度学习在视觉领域取得的卓越效果,视觉领域研究的前沿已经基本被深度学习占领。在这样的形势之下,越来越多的图形学研究者也开始将目光投向深度学习。
深度学习所依赖的神经网络的基本单元为神经元。神经元通过对所有输入与神经元参数的乘积求和并与激活函数作用得到新的参数,从而使得神经元具有非线性转换的能力。由神经元组成的神经网路具有输入层、隐藏层和输出层,通过调整各个神经元的各种参数将使神经网络可以将数据从输入层变换到输出层。
目前的深度神经网络通过学习预先准备好的数据集,在其中的神经元参数达到一致稳定后,就可以具有一定的功能,如图像补全功能。然而,以往的深度神经网络有其局限性:只能针对对应数据集上的目标来进行图像补全,当所需补全的图像目标并不包含于训练数据集时,图像补全的效果将会很差或根本没有补全效果。而且,深度神经网络对图像进行补全时无法根据具体的图像的语义信息进行针对性的补全,这导致深度神经网络在某些情况下对图片的补全能力不足。
发明内容
针对现有技术的不足,本发明提供一种多目标的图像补全方法。本方法通过训练多个图像补全神经网络,并综合各个图像补全神经网络的补全结果,能有效解决目前图像补全只能针对单一数据集的问题。
本发明采用如下技术方案实现:
一种多目标的图像补全方法,包括:
输入缺损图像及其对应缺损位置的掩膜;
对缺损图像采用目标检测算法检测图像上缺损位置附近的对象,并记录对象位置和对象类别;
对输入的缺损图像缺损位置附近的图像进行图像提取与图像分割形成一系列缺损小图,并对缺损小图进行图像线性插值提高分辨率;
根据对象类别数据分别采用对应的图像补全神经网络模型对提高分辨率后的缺损小图进行图像补全,得到图像补全后的补全小图;
将图像补全后的补全小图的分辨率恢复为未进行插值前的原分辨率;
将分辨率恢复后的补全小图与原输入缺损图像进行融合输出得到补全图像。
优选地,图像补全神经网络模型去除全连接层,将编码器与解码器设计为对称结构,编码器与解码器采用6层空洞卷积进行连接。
优选地,空洞卷积按照混合空洞卷积结构HDC的设计方法进行参数设定。
优选地,掩膜为图像缺损的位置标识。
优选地,记录对象位置和对象类别的方式为:使用最小矩形框包裹住缺损位置附近对象,并记录矩形框的矩阵四点数据和对象类别数据。
优选地,图像分割过程中,以目标检测算法的输出为依据,根据掩膜所覆盖的对象类别数量来确定需要分割的图像数量,所分割出的缺损小图的大小为目标检测算法记录的相应对象类别的矩阵四点数据对应大小。
优选地,分辨率恢复后的补全小图与原输入缺损图像进行融合的方法为:将目标检测算法所提取的矩阵四点数据对应位置的破损图像使用分辨率恢复后的补全小图进行覆盖。
优选地,图像线性插值提高分辨率流程包括:
假设图像的长宽分别为w和h,若需要将其长宽扩大到w1和h1,则长宽处分别要插入的像素点个数为(w1-w)和(h1-h),可得知长和宽每间隔及个像素点需要插入一个像素点,其中:表示向下取整;所需要插入像素点的像素值为原图中相邻两点的像素值的平均值。
优选地,目标检测算法采用YOLO v3算法,采用darknet-53作为网络骨架。
优选地,所述图像补全方法还包括:根据不同的对象类别,在训练阶段采用不同的数据集训练出多个图像补全神经网络模型。
本发明与现有技术相比,具有如下优点与有益效果:
1、使用目标检测的方法确定所需补全图片的需要补全的图像内容,从而采用对应的图像补全模型进行针对性的补全,从而使补全的效果显著提高。
2、当需要补全的图像有多个目标缺损时,本方法将针对各个目标采用针对性的模型进行补全,并最终将补全结果融合输出。相对于采用单个模型进行补全的方法,融合多个模型的补全方法将有更好的补全效果。
附图说明
图1为本发明多目标的图像补全方法的流程简图;
图2为本发明一个实施例中图像补全神经网络模型结构图;
图3为本发明一个实施例中图像补全效果示例图。
具体实施方式
下面结合附图对本发明的具体实施进行说明,但本发明的实施方式不限于此。
如图1、2所示,一种多目标的图像补全方法,包括:
S1、输入缺损图像及其对应缺损位置的掩膜。
掩膜即为图像缺损的位置标识。图像补全神经网络训练阶段,掩膜作为缺损标识与输入的图片合并生成缺损图像。
S2、对缺损图像采用目标检测算法检测图像上缺损位置附近的对象类别并记录位置。
记录位置的方式为:使用最小矩形框包裹住缺损位置附近对象,并记录矩形框的矩阵四点数据和对象类别数据作为图像分割的依据。
所采用的目标检测算法为YOLO v3算法,采用darknet-53作为网络骨架,其中:53表示网络结构中含有53个卷积层,且darknet-53借鉴了残差网络residual network的思想,在部分层之间设置了快捷链路。
S3、对输入的缺损图像缺损位置附近的图像进行图像提取与图像分割,形成一系列缺损小图,并对缺损小图进行插值提高分辨率。
分割区域的选定方法为步骤S2中目标检测算法所记录的矩阵四点数据,根据掩膜所覆盖的目标图像数量来确定需要分割的图像数量。由于缺损小图的分辨率会小于图像补全神经网络的输入分辨率要求,因此需要先对缺损小图进行线性插值预处理扩大分辨率以达到输入要求。
图像线性插值流程包括:
所需要插入像素点的像素值为原图中相邻两点的像素值的平均值。
S4、根据步骤S2所记录的对象类别数据分别采用对应的训练好的图像补全神经网络模型对缺损小图进行图像补全。
在一个优选的实施例中,所采用的图像补全神经网络模型采用经过改进的context-encoder结构。
原始context-encoder结构分为编码器和解码器两部分,编码器部分为AlexNet网络的前5层,其主要作用是将输入的缺损图像编码为9216维的张量以编码缺损部分的内容,解码器部分主要作用是将9216维张量通过反卷积操作恢复为完整的图片作为输出。编码器部分和解码器部分通过改进的全连接层连接在一起。
本发明在一个优选的实施例中,所采用的图像补全神经网络模型是去除全连接层,将编码器与解码器设计为对称结构以方便训练网络,编码器与解码器采用6层空洞卷积进行连接。空洞卷积按照混合空洞卷积结构HDC的设计方法进行参数设定,即将6层空洞卷积分为两个组,每组的空洞卷积扩张率为[1,2,5]。
所使用的图像补全神经网络模型需要在对应的数据集上进行训练并达到一定的预期效果才能用于图像补全,所采用的数据集均为网络公开资源并采用爬虫爬取所得,并需要根据具体情况进行数据清洗。其中需要将数据集中的十分之一的图像留作验证,其它图像留作训练所用。数据集由于来自网络绝大部分的分辨率大小将不会与图像补全神经网络的输入分辨率大小相一致,因此需要将数据集中所有图像的分辨率进行统一调整,调整方法依然采用线性插值法。
S5、将图像补全后的补全小图的分辨率恢复为插值提高分辨率前的原分辨率;
恢复补全小图原分辨率的方法为线性插值法的逆方法,其步骤如下:
假设图像的长宽分别为s和t,并需要将其长宽缩小到s1和t1,则长宽处分别要删除的像素点个数为(s-s1)和(t-t1),则可得知长和宽每间隔(s-s1)/s个以及(t-t1)/t个像素点删除像素,根据计算结果向下取整。
S6、将分辨率恢复后的补全小图与原输入缺损图像进行融合输出得到补全图像。
补全小图与原图融合的方法为:由步骤S2中目标检测算法所提取的矩阵四点数据,将对应位置的破损图像使用补全小图进行覆盖,从而最终输出原图的补全图。
下面通过本发明一个优选的实施例,对本发明作进一步详细地说明。
一种多目标的图像补全方法,包括:
输入一张破损图像,同时输入破损位置对应的掩膜图像,输入图像如图3的输入图像所示。
输入的破损图像采用YOLOv3网络进行目标检测。本实施例中,YOLOv3网络总共有106层的卷积层,其中前53层的图像特征提取层采用darknet-53作为网络骨架,并且采用3个不同尺度的特征图来进行对象检测。卷积网络在79层后,经过并排的4个卷积层得到一种尺度的检测结果。相比输入图像,这里用于检测的特征图有32倍的下采样。比如输入是416*416的话,这里的特征图就是13*13了。由于下采样倍数高,这里特征图的感受野比较大,因此适合检测图像中尺寸比较大的对象。为了实现细粒度的检测,第79层的特征图又开始作上采样,然后与第61层特征图融合,这样得到第91层较细粒度的特征图,同样经过几个卷积层后得到相对输入图像16倍下采样的特征图。它具有中等尺度的感受野,适合检测中等尺度的对象。最后,第91层特征图再次上采样,并与第36层特征图融合,最后得到相对输入图像8倍下采样的特征图。它的感受野最小,适合检测小尺寸的对象。
对输入的缺损图片进行目标检测后,以目标检测的输出为依据,进行图像分割,并对分割图进行线性插值以达到图像补全网络所需的输入分辨率。图像线性插值流程如下:
本实施例中,所采用的图像补全神经网络输入分辨率为224x224,所切割的图像的长宽分别为200和100,因此需要将缺损图像的长宽扩大到224和224,则长宽处分别要插入的像素点个数为24和124。则可得知长和宽每间隔8个以及1个像素点插入像素。
所需要插入像素点的像素值为原图中相邻两点的像素值的平均值。
以目标检测的类别为依据,选取对应的深度神经网络模型,在本实施例中,目标检测的类别为货车,由于货车所采用的图像补全神经网络在本实施例中与汽车一致的,因此将采用汽车类别的图像补全神经网络进行补全操作。
所采用的图像补全神经网络采用经过改进的context-encoder结构,原始context-encoder结构中分为编码器和解码器两个网络,编码器部分为AlexNet网络的前5层,其主要作用是将输入的缺损图像编码为9216维的张量以编码缺损部分的内容,解码器部分主要作用是将9216维张量通过反卷积操作恢复为完整的图片作为输出。两个网络通过改进的全连接层连接在一起。
本实施例所采用的优化方法是去除全连接层,将编码器与解码器设计为对称结构以方便训练网络,编码器与解码器采用6层空洞卷积进行连接。空洞卷积按照混合空洞卷积结构HDC的设计方法进行参数设定,即将6层空洞卷积分为两个组,每组的空洞卷积扩张率为[1,2,5]。本实施例的图像补全神经网络结构如图2所示。
图像补全神经网络需要在对应的数据集上进行训练并达到一定的预期效果才能用于图像补全,所采用的数据集均为网络公开资源并采用爬虫爬取所得,并需要根据具体情况进行数据清洗。其中需要将数据集中的十分之一的图像留作验证,其它图像留作训练所用。数据集由于来自网络绝大部分的分辨率大小将不会与补全网络的输入分辨率大小相一致,因此需要将所有图像的分辨率进行统一调整,调整方法依然采用线性插值法。
在图像补全神经网络将缺损小图补全完成后,其输出分辨率的为224x224,需要恢复为原本的分辨率长宽(200,100),其中的操作为线性插值的反操作。
接下来,需要将调整分辨率后的补全小图合并到原缺损大图中,其融合多个补全小图的方法如下:由步骤2)中目标检测算法所提取的矩阵四点数据,将对应位置的破损图像使用补全小图进行覆盖,从而最终输出原图的补全图。经过以上步骤,即可完成对缺损图片的补全,本实施例中的补全图像如图3的补全图所示。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.一种多目标的图像补全方法,其特征在于,包括:
输入缺损图像及其对应缺损位置的掩膜;
对缺损图像采用目标检测算法检测图像上缺损位置附近的对象,并记录对象位置和对象类别;
对输入的缺损图像缺损位置附近的图像进行图像提取与图像分割,形成一系列缺损小图,并对缺损小图进行图像线性插值提高分辨率;
根据对象类别数据分别采用对应的图像补全神经网络模型对提高分辨率后的缺损小图进行图像补全,得到图像补全后的补全小图;
将图像补全后的补全小图的分辨率恢复为未进行插值前的原分辨率;
将分辨率恢复后的补全小图与原输入缺损图像进行融合输出得到补全图像。
2.根据权利要求1所述的图像补全方法,其特征在于,图像补全神经网络模型去除全连接层,将编码器与解码器设计为对称结构,编码器与解码器采用6层空洞卷积进行连接。
3.根据权利要求2所述的图像补全方法,其特征在于,空洞卷积按照混合空洞卷积结构HDC的设计方法进行参数设定。
4.根据权利要求1所述的图像补全方法,其特征在于,掩膜为图像缺损的位置标识。
5.根据权利要求1所述的图像补全方法,其特征在于,记录对象位置和对象类别的方式为:使用最小矩形框包裹住缺损位置附近对象,并记录矩形框的矩阵四点数据和对象类别数据。
6.根据权利要求5所述的图像补全方法,其特征在于,图像分割过程中,以目标检测算法的输出为依据,根据掩膜所覆盖的对象类别数量来确定需要分割的图像数量,所分割出的缺损小图的大小为目标检测算法记录的相应对象类别的矩阵四点数据对应大小。
7.根据权利要求5所述的图像补全方法,其特征在于,分辨率恢复后的补全小图与原输入缺损图像进行融合的方法为:将目标检测算法所提取的矩阵四点数据对应位置的破损图像使用分辨率恢复后的补全小图进行覆盖。
9.根据权利要求1所述的图像补全方法,其特征在于,目标检测算法采用YOLO v3算法,采用darknet-53作为网络骨架。
10.根据权利要求1所述的图像补全方法,其特征在于,所述图像补全方法还包括:根据不同的对象类别,在训练阶段采用不同的数据集训练出多个图像补全神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010241666.1A CN111462006B (zh) | 2020-03-31 | 2020-03-31 | 一种多目标的图像补全方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010241666.1A CN111462006B (zh) | 2020-03-31 | 2020-03-31 | 一种多目标的图像补全方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111462006A true CN111462006A (zh) | 2020-07-28 |
CN111462006B CN111462006B (zh) | 2023-06-20 |
Family
ID=71685086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010241666.1A Active CN111462006B (zh) | 2020-03-31 | 2020-03-31 | 一种多目标的图像补全方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111462006B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112330545A (zh) * | 2020-09-08 | 2021-02-05 | 中兴通讯股份有限公司 | 空洞填充方法、小区域去除方法、装置和介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101616310A (zh) * | 2009-07-17 | 2009-12-30 | 清华大学 | 可变视角及分辨率的双目视觉系统目标图像稳定化方法 |
CN102111549A (zh) * | 2009-12-28 | 2011-06-29 | 佳能株式会社 | 图像处理装置及图像处理方法 |
CN102521794A (zh) * | 2011-11-10 | 2012-06-27 | 广东威创视讯科技股份有限公司 | 基于样条曲面的图像插值方法及装置 |
CN103747251A (zh) * | 2013-09-30 | 2014-04-23 | 北京大学深圳研究生院 | 一种视频图像的插值优化方法及滤波器 |
CN110232394A (zh) * | 2018-03-06 | 2019-09-13 | 华南理工大学 | 一种多尺度图像语义分割方法 |
CN110276354A (zh) * | 2019-05-27 | 2019-09-24 | 东南大学 | 一种高分辨率街景图片语义分割训练与实时分割方法 |
CN110288537A (zh) * | 2019-05-20 | 2019-09-27 | 湖南大学 | 基于自注意力的深度生成式对抗网络的人脸图像补全方法 |
-
2020
- 2020-03-31 CN CN202010241666.1A patent/CN111462006B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101616310A (zh) * | 2009-07-17 | 2009-12-30 | 清华大学 | 可变视角及分辨率的双目视觉系统目标图像稳定化方法 |
CN102111549A (zh) * | 2009-12-28 | 2011-06-29 | 佳能株式会社 | 图像处理装置及图像处理方法 |
CN102521794A (zh) * | 2011-11-10 | 2012-06-27 | 广东威创视讯科技股份有限公司 | 基于样条曲面的图像插值方法及装置 |
CN103747251A (zh) * | 2013-09-30 | 2014-04-23 | 北京大学深圳研究生院 | 一种视频图像的插值优化方法及滤波器 |
CN110232394A (zh) * | 2018-03-06 | 2019-09-13 | 华南理工大学 | 一种多尺度图像语义分割方法 |
CN110288537A (zh) * | 2019-05-20 | 2019-09-27 | 湖南大学 | 基于自注意力的深度生成式对抗网络的人脸图像补全方法 |
CN110276354A (zh) * | 2019-05-27 | 2019-09-24 | 东南大学 | 一种高分辨率街景图片语义分割训练与实时分割方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112330545A (zh) * | 2020-09-08 | 2021-02-05 | 中兴通讯股份有限公司 | 空洞填充方法、小区域去除方法、装置和介质 |
CN112330545B (zh) * | 2020-09-08 | 2021-10-19 | 中兴通讯股份有限公司 | 空洞填充方法、小区域去除方法、装置和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111462006B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322495B (zh) | 一种基于弱监督深度学习的场景文本分割方法 | |
CN110232380A (zh) | 基于Mask R-CNN神经网络的火灾夜间场景复原方法 | |
CN110163213B (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN107564009B (zh) | 基于深度卷积神经网络的室外场景多目标分割方法 | |
CN110287777B (zh) | 一种自然场景下的金丝猴躯体分割算法 | |
CN111968095B (zh) | 一种产品表面缺陷检测方法及系统及装置及介质 | |
CN112233129B (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN113486956B (zh) | 目标分割系统及其训练方法、目标分割方法及设备 | |
CN110097110B (zh) | 一种基于目标优化的语义图像修复方法 | |
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 | |
CN112949783A (zh) | 一种基于改进U-Net神经网络的道路裂缝检测方法 | |
CN110852980A (zh) | 交互式图像填充方法及系统、服务器、设备及介质 | |
CN114820579A (zh) | 一种基于语义分割的图像复合缺陷的检测方法及系统 | |
CN111815526B (zh) | 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统 | |
CN113516126A (zh) | 一种基于注意力特征融合的自适应阈值场景文本检测方法 | |
CN112837320A (zh) | 一种基于并行空洞卷积的遥感影像语义分割方法 | |
CN116958827A (zh) | 一种基于深度学习的撂荒区域提取方法 | |
CN116645592A (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
CN113888505B (zh) | 一种基于语义分割的自然场景文本检测方法 | |
CN116051936A (zh) | 基于时空分离外部注意力的叶绿素浓度有序补全方法 | |
CN111462006A (zh) | 一种多目标的图像补全方法 | |
CN116385289B (zh) | 一种基于渐进式的碑文文字图像修复模型及修复方法 | |
CN112597996A (zh) | 基于任务驱动的自然场景中交通标志显著性检测方法 | |
CN113344110B (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
CN113554655B (zh) | 基于多特征增强的光学遥感图像分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |