CN109300128B - 基于卷积神经网隐含结构的迁移学习图像处理方法 - Google Patents
基于卷积神经网隐含结构的迁移学习图像处理方法 Download PDFInfo
- Publication number
- CN109300128B CN109300128B CN201811152224.9A CN201811152224A CN109300128B CN 109300128 B CN109300128 B CN 109300128B CN 201811152224 A CN201811152224 A CN 201811152224A CN 109300128 B CN109300128 B CN 109300128B
- Authority
- CN
- China
- Prior art keywords
- neural network
- image
- filling
- convolutional neural
- missing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 238000013526 transfer learning Methods 0.000 title claims abstract description 10
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 19
- 238000013508 migration Methods 0.000 claims abstract description 7
- 230000005012 migration Effects 0.000 claims abstract description 7
- 238000005429 filling process Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 102100028697 D-glucuronyl C5-epimerase Human genes 0.000 description 4
- 101001058422 Homo sapiens D-glucuronyl C5-epimerase Proteins 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241001504519 Papio ursinus Species 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于卷积神经网隐含结构的迁移学习图像处理方法,包括以下步骤:1)获取填充任务;2)基于所述填充任务,利用迁移学习后的卷积神经网络进行图像填充;所述卷积神经网络包括一自动编码器,图像填充过程中,利用一掩码层计算指定位置的损失值并通过反向传播更新权重。与现有技术相比,本发明具有精度高,效率高,适用性广等优点。
Description
技术领域
本发明涉及人工智能图像处理方法,尤其是涉及一种基于卷积神经网隐含结构的迁移学习图像处理方法。
背景技术
随着深度神经网络(DNNs)的发展,填充任务被广泛的研究。这些工作中的大部分都应用于给定缺失和相应的完整数据的情况,因此提出了Shepard插值和优化Shepard卷积神经网络(ShCNN)。此外,一些工作试图处理只有不完整的图像和遮盖的情况。这种情况下的演示事例是适用于小规模图像处理的DLGMs。受近似贝叶斯推理和DNNs的启发,DLGMs引入了一种识别模型来表示近似后验分布并优化变分下界,然后通过抽样生成实际样本。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于卷积神经网隐含结构的迁移学习图像处理方法。
本发明的目的可以通过以下技术方案来实现:
一种基于卷积神经网隐含结构的迁移学习图像处理方法,包括以下步骤:
1)获取填充任务;
2)基于所述填充任务,利用迁移学习后的卷积神经网络进行图像填充;
所述卷积神经网络包括一自动编码器,图像填充过程中,利用一掩码层计算指定位置的损失值并通过反向传播更新权重。
进一步地,所述损失值通过损失函数计算,所述损失函数表达式为:
其中,Lm代表损失函数x、y和N分别代表输入样本、预测向量和输入样本特征的数量,mi代表掩码。
进一步地,所述掩码根据如下公式确定:
进一步地,所述卷积神经网络的迁移学习过程中,同时利用大缺失洞的图像数据集和小缺失洞的单个图像进行训练。
进一步地,利用大缺失洞的图像数据集进行训练时,学习率为0.001。
进一步地,利用小缺失洞的单个图像进行训练时,学习率为0.01。
与现有技术相比,本发明具有以下有益效果:
1、本发明设置了具有新损失函数的掩码层,利用神经网络的潜在结构并估算缺失的位置,通过将掩码信息添加到损失函数中,促使网络根据所学习的知识来估算缺失的位置,精度高,效率高。
2、本发明在几个基准测试集中测试了所提出的方法,并且实验在图像填充中展现了卓越的性能,本发明即使在单个图像中也能在图像填充中也有着卓越的性能。
附图说明
图1为本发明的网络结构示意图;
图2为在MNIST数据集中本发明在缺失25%像素的情况下的实验结果示意图;
图3为在MNIST数据集中本发明与CE算法的结果比较示意图;
图4为本发明在Fashion数据集中的实验结果示意图;
图5为在Fashion数据集中本发明与CE算法的结果比较示意图;
图6为本发明在YaleB数据集中的实验结果示意图;
图7为本发明在SVHN数据集中的实验结果示意图;
图8为在Fashion数据集中本发明与CE算法的结果比较示意图;
图9为在MNIST数据集中本发明在缺失40%和60%像素的情况下的实验结果示意图;
图10为在SVHN数据集中本发明在缺失40%和60%像素的情况下的实验结果示意图;
图11为在YaleB数据集中本发明在缺失40%和60%像素的情况下的实验结果示意图;
图12为本发明与ShCNN算法在image pepper数据集上的填充性能对比示意图;
图13为本发明与ShCNN算法在Lena数据集上的填充性能对比示意图;
图14为本发明与ShCNN算法在图像人头上的填充性能对比示意图;
图15为本发明在图像狒狒的绘画表演缺失25%和50%像素的情况下的填充性能示意图;
图16为本发明在图像住宅缺失25%和50%像素的情况下的填充性能示意图;
图17为本发明与GLCE算法的实验结果对比图;
图18为本发明方法在图像人头和住宅中的收敛性曲线示意图;
图19为本发明方法在图像住宅中的收敛曲线和重建图像示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
一、自动编码器
自动编码器旨在学习低维空间中的表示,以实现降维。自动编码器有两个组件,编码器和解码器,训练目标是重建其输入,可以定义为两个部分Φ:x→ω和ψ:ω→x,使得
其中Φ、ψ、ω和x∈X分别代表编码器,解码器,编码和输入。
自动编码器广泛应用于机器学习任务,尤其是无监督学习。作为最简单的生成模型,自动编码器在各种特征提取任务中表现良好,本发明采用卷积自动编码器来实现。
随着机器学习的发展,CNN在各种监督学习任务中取得了令人瞩目的成绩。经典的监督学习主要是分类任务,而填充任务在不完整的图像和完整的图像都作为基础事实的情况下,也可以作为监督学习任务。
在诸如修复和分割的端到端任务中,标签是图像中的像素而不是类别分割的典型方法是UNet,其使用自动编码器将原始图像映射到其面具中。在填充任务中,以前的工作集中在完整图像作为基础事实给出的条件下。这些方法直接生成完整的图像,然后通过对抗性学习提高性能。由于基础事实的存在,他们在输入为包含大的缺失洞的复杂图像时获得了显着的成果。
无监督学习仍然是机器学习任务中的难题。先前的无监督学习主要集中在聚类上,而仅给出不完整图像和掩模时的填充任务也可以视为无监督学习。这项任务非常艰巨,因为缺乏完整的图像作为基本事实。目前这种情况下的修复方法是DLGM,它采用生成模型来估算小尺度图像。
二、本发明方法
本发明仅仅关注于给出不完整图像和掩模作为条件。本发明使用具有新的损失函数的自动编码器来实现填充任务。
有一系列损失函数可用于训练自动编码器,如均方误差(MSE)和平均绝对误差(MAE)。本发明使用MSE作为目标函数(损失函数),它可以写成:
其中x,y和N分别代表输入样本、预测向量和输入样本特征的数量。
为了将神经网络扩展到不完整的数据处理,本发明将掩码引入到损失函数中,如下所示:
其中,
上式表明,本发明只需要计算给出位置的损失函数,同时忽略丢失区域的损失值。
本发明定义了CNN的潜在结构,类似一个语言中的两个位置,来计算丢失位置的原因。首先,卷积操作在一个像素区域中工作,并且图像具有非常强的局部相关性,因此卷积处理可以基于其临近区域利用其所学习的知识来估计缺失位置。其次,编码器可以将输入图像映射到特征空间,在该特征空间中,不完整图像的特征表示可能更加完整,因此解码器可以根据特征空间中的特征生成完整的图像。
对于填充任务,以前的工作可以主要分为两类。第一类关注于给出不完整图像、遮罩和完整图像的情况。由于完整的图像被作为基础事实,所以即使在处理大的缺失洞时,各种方法在这种情况下也获得了显著的性能。第二类着重于给出不完整图像和遮罩的情况。这种情况比较困难,以前的工作试图在缺少较小的孔洞时处理它。
本发明选择自动编码器来实现填充任务,添加遮罩仅计算给定位置的损失值。本发明方法甚至可以在单个图像中工作,并且它可以获得最佳性能,尤其是当图像具有大量重复结构时,例如面部和数字。
基于上述说明,本发明方法可描述为:
1)获取填充任务;
2)基于所述填充任务,利用迁移学习后的卷积神经网络进行图像填充;
所述卷积神经网络包括一自动编码器,图像填充过程中,利用一掩码层计算指定位置的损失值并通过反向传播更新权重。
本发明的卷积神经网络结构如图1所示,它由两个组件组成,一个自动编码器和一个掩码(L)。首先,自动编码器将不完整的输入x映射到相应的输出y(前馈)。然后将y,x和掩码m输入到掩码层中以计算损失m。最后,结构反馈损失来更新权重l。
本发明方法的伪代码描述如下:
输入:缺失数据X,对应的掩码M
输出:填充后的数据Y
1:初始化网络;epochs次数:100,batch大小:128
2:for每一个epoch do
3:for对每个图像块Xi及对应的掩码Mi do
4:计算Yi,并根据公式(3)计算基于Mi的损失函数
5:利用该损失函数来更新模型参数
6:输出填充后的数据Y
卷积神经网络的迁移学习可分为两个部分,一是用大量具有大缺失洞的图像训练模型,二是用具有小缺失洞的单个图像训练模型。在第一部分中,将输入数据大小调整为28×28作为示例,网络详细信息显示在表1中。在第二部分中,使用单个图像大小256×256来训练网络,在这种情况下,网络没有其他信息来估算缺失的位置,因此网络必须根据其结构中的知识来估算图像。
根据图1中所示的结构,本实施例在GTX1080中使用keras进行实验,并采用Adam作为优化器。至于小数据集中的大缺失洞,大小为28×28,结构的详细信息显示在表1中,学习率设置为0.001。对于单个图像中的任务,细节显示在表2中,学习率设置为0.01。
表1:图片大小28×28的网络结构。
表2:图片大小256×256×3的网络结构.
本实施例的实验过程从三个部分来演示。
(1)大块的填充
在MNIST、Fashion、SVHN和YaleB等几个经典的图像数据集测试方法。这些数据集的详细信息显示在表3中,实验结果如图2到图11。
表3:实验所使用的数据集
name | type | sample | image size |
MNIST | digit | 60000 | 28×28 |
Fashion | clothes | 60000 | 28×28 |
SVHN | digit | 60000 | 32×32 |
YaleB | gray face | 2414 | 32×32 |
从图2到图11可以看出,本发明方法可以在各种图像数据集中获得显著的性能。在每个数据集的前两列中,重构后的图像与输入数据基本一致,证明了方法的有效性。
如图2所示,本发明在缺失25%像素的情况下,可以实现显著的性能提升,但最后一列由于关键信息缺失,填充结果并不准确。
如图4所示,在Fashion数据集中,当缺失25%的像素时,本发明方法可以在这项任务中取得显著的性能。从图中可以看到,由于自编码器适用于学习全局特征,而无法学习足够的局部特征,所以生成的图像的细节缺失。
如图6所示,在YaleB数据集中,本发明方法在丢失25%像素的情况下,在此任务中取得了显著的性能。
如图7所示,由于数据集的复杂性,SVHN是一个相当困难的任务,本实施例测试了丢失12×12补丁的情况,这个任务的性能是可以接受的。
为了验证本发明方法的有效性,本实施例与CE算法进行了比较。CE由编码器、解码器和鉴别器组成。编码器获取丢失一个批次的输入图像并将其映射到一个特征空间,然后解码器使用这个特征表示生成丢失的块。CE使用了一种通道方向的全连通层,适用于对整个图像内容进行推理。为了在生成的补丁中了解更多细节,CE使用了对抗性的过程来了解更多的本地特性。经过大量图像的训练,该算法可以有效地学习内容信息,并对缺失区域进行处理。CE是一种有监督学习方法,因为它将缺失的位置作为训练网络的事实。CE使用完整的图像作为ground truth(GT,真值)。比较结果如图3、图5和图8所示,图中“our”表示本发明方法。结果通常是将给定的位置和重构的块组合在一起,为了更好地显示结果,本实施例只显示解码器生成的重构图像,而不显示合成的图像。从这些图中可以看出,本发明方法在这些任务中取得了显著的效果。
图9-图11为缺失40%和60%像素情况下的填充效果示意图,本发明方法均具有显著的性能。
(2)填充单张图像
为了更好地展示其潜在的结构,本实施例还测试了在只给出一个图像的条件下,内画的性能。在这种情况下,由于没有其他信息被给出,所以它是一种非常合适的方式来显示神经网络本身的性能。为了更好地显示性能,本实施例在这里用单个图像大小256×256训练网络。该任务的网络结构如表2所示,实验结果如图15-16所示。
为了验证性能,本实施例还比较了GLCE的性能。GLCE使用全局和局部的内容鉴别器来区分真实图像和完整图像。全局鉴别器将整个生成的图像与原始图像进行比较,以提高整个图像的性能主局部鉴别器将生成的图像与原始图像进行比较,以提高缺失区域的性能。该方法需要大量的计算资源。例如,为了训练基本模型,首先对自编码器网络进行90k次迭代训练,然后对识别器进行10k次迭代训练,最后对整个网络进行500k次迭代训练。整个训练过程在2个月的时间里进行了8000多张图片,其中有4个K80gpu。
与GLCE相比,该方法在GTX1080gpu中进行,模型训练时间仅为30分钟。比较如图17所示。在这个任务中,本实施例还测试了学习率的影响。从图中可以看出,本发明所提出的方法是有效的。
(3)收敛性分析
为了证明算法的有效性,本实施例给出了损失值与迭代次数之间的关系。如图18所示,损失值发生了两次剧烈的变化,即损失值显著收敛了两次。如图19所示,本发明方法中的自动编码器首先重构平均像素图像,对应第一次损失值的减小,然后重构物体轮廓,对应第二次损失的减小,最后重建输入图像,即自动编码器的学习过程是:自动编码器首先重建单个彩色图像,然后学习不同对象的轮廓,最后重建输入图像。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (4)
1.一种基于卷积神经网隐含结构的迁移学习图像处理方法,用于实现图像填充,其特征在于,包括以下步骤:
1)获取填充任务;
2)基于所述填充任务,利用迁移学习后的卷积神经网络进行图像填充;
所述卷积神经网络包括一自动编码器,图像填充过程中,利用一掩码层计算指定位置的损失值并通过反向传播更新权重,所述掩码层为具有新损失函数的掩码层,利用神经网络的潜在结构并估算缺失的位置,通过将掩码信息添加到损失函数中,促使网络根据所学习的知识来估算缺失的位置,添加掩码信息的损失函数表达式为:
其中,Lm代表损失函数,x、y和N分别代表输入样本、预测向量和输入样本特征的数量,mi代表掩码;
所述掩码根据如下公式确定:
2.根据权利要求1所述的基于卷积神经网隐含结构的迁移学习图像处理方法,其特征在于,所述卷积神经网络的迁移学习过程中,同时利用大缺失洞的图像数据集和小缺失洞的单个图像进行训练。
3.根据权利要求2所述的基于卷积神经网隐含结构的迁移学习图像处理方法,其特征在于,利用大缺失洞的图像数据集进行训练时,学习率为0.001。
4.根据权利要求2所述的基于卷积神经网隐含结构的迁移学习图像处理方法,其特征在于,利用小缺失洞的单个图像进行训练时,学习率为0.01。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811152224.9A CN109300128B (zh) | 2018-09-29 | 2018-09-29 | 基于卷积神经网隐含结构的迁移学习图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811152224.9A CN109300128B (zh) | 2018-09-29 | 2018-09-29 | 基于卷积神经网隐含结构的迁移学习图像处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109300128A CN109300128A (zh) | 2019-02-01 |
CN109300128B true CN109300128B (zh) | 2022-08-26 |
Family
ID=65161308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811152224.9A Active CN109300128B (zh) | 2018-09-29 | 2018-09-29 | 基于卷积神经网隐含结构的迁移学习图像处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109300128B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110310343B (zh) * | 2019-05-28 | 2023-10-03 | 西安万像电子科技有限公司 | 图像处理方法及装置 |
CN111062877A (zh) * | 2019-08-23 | 2020-04-24 | 平安科技(深圳)有限公司 | 边缘学习的图像填充方法、装置、终端及可读存储介质 |
US20230036713A1 (en) * | 2021-08-02 | 2023-02-02 | Halliburton Energy Services, Inc. | Borehole Image Gap Filing Using Deep Learning |
CN115883424B (zh) * | 2023-02-20 | 2023-05-23 | 齐鲁工业大学(山东省科学院) | 一种高速骨干网间流量数据预测方法及系统 |
CN116597285B (zh) * | 2023-07-17 | 2023-09-22 | 吉林大学 | 肺部组织病理图像处理模型、构建方法及图像处理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220643A (zh) * | 2017-04-12 | 2017-09-29 | 广东工业大学 | 基于紧凑型神经网络的深度学习模型的交通标志识别系统 |
CN107506740A (zh) * | 2017-09-04 | 2017-12-22 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
CN108171663A (zh) * | 2017-12-22 | 2018-06-15 | 哈尔滨工业大学 | 基于特征图最近邻替换的卷积神经网络的图像填充系统 |
-
2018
- 2018-09-29 CN CN201811152224.9A patent/CN109300128B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220643A (zh) * | 2017-04-12 | 2017-09-29 | 广东工业大学 | 基于紧凑型神经网络的深度学习模型的交通标志识别系统 |
CN107506740A (zh) * | 2017-09-04 | 2017-12-22 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
CN108171663A (zh) * | 2017-12-22 | 2018-06-15 | 哈尔滨工业大学 | 基于特征图最近邻替换的卷积神经网络的图像填充系统 |
Non-Patent Citations (2)
Title |
---|
Image Inpainting for Irregular Holes Using Partial Convolutions;Guilin Liu 等;《European Conference on Computer Vision》;20180430;第1-16页 * |
基于卷积神经网络与迁移学习的油茶病害图像识别;龙满生 等;《农业工程学报》;20180923(第18期);第194-201页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109300128A (zh) | 2019-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109300128B (zh) | 基于卷积神经网隐含结构的迁移学习图像处理方法 | |
CN112052886B (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
CN109035142B (zh) | 一种对抗网络结合航拍图像先验的卫星图像超分辨方法 | |
CN111652124A (zh) | 一种基于图卷积网络的人体行为识别模型的构建方法 | |
CN101714262B (zh) | 单幅图像的三维场景重建方法 | |
Cheong et al. | Deep CNN-based super-resolution using external and internal examples | |
CN109308689B (zh) | 基于掩码生成对抗网络迁移学习的无监督图像修复方法 | |
CN112489164B (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN110728219A (zh) | 基于多列多尺度图卷积神经网络的3d人脸生成方法 | |
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 | |
Yasarla et al. | Semi-supervised image deraining using gaussian processes | |
CN114565594A (zh) | 基于软掩膜对比损失的图像异常检测方法 | |
CN114972904B (zh) | 一种基于对抗三元组损失的零样本知识蒸馏方法及系统 | |
CN114299130A (zh) | 一种基于无监督自适应网络的水下双目深度估计方法 | |
Shang et al. | Superresolution land cover mapping using a generative adversarial network | |
Ye et al. | Enhanced feature pyramid network for semantic segmentation | |
Yan et al. | Cascaded transformer U-net for image restoration | |
CN112949089B (zh) | 一种基于离散卷积残差网络的含水层结构反演识别方法 | |
Teng et al. | Unsupervised visual defect detection with score-based generative model | |
CN114494387A (zh) | 一种生成数据集网络模型及雾图生成方法 | |
Quan et al. | Deep learning-based image and video inpainting: A survey | |
CN114331894A (zh) | 一种基于潜在特征重构和掩模感知的人脸图像修复方法 | |
CN113962332A (zh) | 基于自优化融合反馈的显著目标识别方法 | |
Abdulwahab et al. | Promising depth map prediction method from a single image based on conditional generative adversarial network | |
CN115170916B (zh) | 一种多尺度特征融合的图像重建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information |
Inventor after: Zheng Jun Inventor before: Zheng Jun Inventor before: Liu Xinwang |
|
CB03 | Change of inventor or designer information |