CN112465722A - 一种异常相位图像的修复方法 - Google Patents
一种异常相位图像的修复方法 Download PDFInfo
- Publication number
- CN112465722A CN112465722A CN202011408994.2A CN202011408994A CN112465722A CN 112465722 A CN112465722 A CN 112465722A CN 202011408994 A CN202011408994 A CN 202011408994A CN 112465722 A CN112465722 A CN 112465722A
- Authority
- CN
- China
- Prior art keywords
- image
- phase
- layers
- loss
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 22
- 230000000694 effects Effects 0.000 claims abstract description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 19
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 238000010587 phase diagram Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 238000003062 neural network model Methods 0.000 claims description 4
- 230000003042 antagnostic effect Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 6
- 238000011160 research Methods 0.000 abstract description 5
- 238000011156 evaluation Methods 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000012634 optical imaging Methods 0.000 description 4
- 230000002950 deficient Effects 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000000265 homogenisation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明提出了一种异常相位图像的修复方法。针对于传统算法并不能很好地完成相位解包裹,存在相位跳变,导致图像出现瑕点等问题。本发明以修复异常相位解卷为研究目标,利用深度学习方法进行建模,研究提出了有效的修复瑕疵相位图像的方法。本发明的实验结果表明,本发明的算法在主观视觉的效果和客观评价的标准上都取得了较好效果。
Description
技术领域
本发明属于图像处理技术领域,具体涉及基于深度学习建模思想和图像生成思想构建了一个深度卷积融合网络,实现异常相位图像的修复。
背景技术
相位图像在各领域都有着重要的意义,特别是在当今蓬勃发展的光学成像领域,相位图像成了必不可少的观测指标。
以超快光学成像系统为例。超快光学成像致力于兼顾成像的帧率与分表率,利用超快脉冲激光在空间域和时域上的可分解性,以超快激光为光源,通过脉冲光谱携带的空间信息实现信息编码和解码,以光电探测器作为接收器,实现连续的超快成像。基于超快成像技术的相位图像可以展现样品表面的细节特征,在金刚石等样品检测和细胞检测等方面的作用愈发重要,其研究工作也越来越多。但是由于相位图像在构建中需要经过反正切变换,会形成相位包裹,导致计算值与真实相位相差2Π的整数倍,所以相位解包裹技术愈发重要。
在算法领域蓬勃发展的今天,在相位解包裹方面,许多人也做了非常多的尝试和努力。传统的相位解包裹方法分为两类,即路径跟踪法和最小范数法。路径跟踪法寻求积分结构与路径无关的条件,在条件满足时,利用路径积分算法来进行解包裹。主要包括枝切树法,质量图引导法,最小不连续法等等经典算法。其中枝切法应用最广,效果也较好,但是无法处理一些局部的解缠不完全。质量引导图算法精度高但效率过低,处理大图幅的时候会非常耗时。最小范数法通过寻找最小范数解来实现相位解包裹,以最无权小二乘法,LP最小范数法及最小费用流法为代表。无权最小二乘法没有考虑权重问题,精度低误差大。LP最小范数法精度高但效率低。最小费流法常用的有MCF和统计费用流两种方法,精度和运算速度兼顾,是一种比较全面的方法。
在深度学习领域,很多人利用了深度学习的方法对相位解包裹进行了研究,Junchao Zhang等人提出了一种基于CNN网络的相位展开新方法,将相位展开问题被转换成分类问题,该网络能对每个相位间断点进行分类。此外,该网络可用于识别相位不连续的位置,并通过后续操作处理来提高该网络的性能,并且还集成了噪声预处理系统。G.E.Spoorthi等人提出了一种基于深度卷积神经网络(DCNN)的相位展开框架--PhaseNet。它由一个编码器网络组成,包裹相位作为DCNN的输入。DCNN网络的输出以及基于聚类的处理能给出wrap-count。将其乘以2Π,然后将结果与包裹相位相加就可以获取真实相位。这些方法都是从相位数值入手,利用深度学习算法来实现相位解包裹,有些涉及四步相移法等其他算法来进行数据集生成,从原理与算法本身都比较复杂和繁琐。
然而,以上这些传统的相位解包裹方法以及集成函数在实际应用中都不能非常完美地将相位图像还原,经过处理的相位图像往往会有部分“坏点”,即部分地方会有相当大的跳变,这是解包裹不完全造成的,也是集成函数的局限性。所以,针对这些有“坏点”的图像,目前需要一种方法来修复它们,来还原真实的相位图像。但由于“坏点”的位置和质量不确定,所以从相位数值本身入手显得很困难。
发明内容
为了解决现有图像处理算法相位解包裹上的不足,本发明提供了针对有瑕疵的相位图像进行修复的深度神经网络算法。
为了达到上述目的,本发明提供的技术方案是:一种异常相位图像的修复方法,包括如下步骤:
步骤1,构建大量的用于模型训练的相位图像数据集;
步骤2,构建相位图像修复的深度卷积神经网络模型,包括如下子步骤;
步骤2.1,网络模型设计:采用生成对抗神经网络作为整体的网络模型,该网络模型包括两部分:生成器和判别器,所述生成器包含若干个残差块和一个1*1卷积层,每个残差模块后设置spatial Dropout层,每个残差块包含两个卷积层和两个批归一化层和一个激活函数,其顺序为卷积层-批归一化层-激活层-卷积层-批归一化层;判别器包括若干个卷积层,其中最后一层为1*1卷积,用于分类,采用sigmoid作为激活函数,其他各层采用Leakly ReLu作为激活函数;
步骤2.2,损失函数设计:生成器的损失函数包括两部分,LM损失和L2损失,其中LM损失的数学表达公式如下:
其中x,y分别代表金标准图像与生成图像,μx、σx分别为金标准图像的均值和方差,μy、σy分别为模型生成图像的均值和方差,σxy为金标准图像与生成图像的协方差,N为训练的批处理图像数量,i为图像序号,C1、C2为平滑因子;
L2损失的数学表达式如下:
最终的目标函数为LM损失和L2损失之和,其具体的数学定义为:
min L=-[αL2+(1-α)LM]
其中α为平衡因子,目的是均衡两个损失的贡献;
判别器采用二值交叉熵作为损失函数,目的在于使生成图像更加接近正常图像,从而获得更优的异常解卷修复效果,其数学表达式如下:
LG(xj,yj)=-wj[yjlogxj+(1-yj)log(1-xj)]
其中w为类别权重,j为类别,xj为金标准图像或生成图像,其中j=0时为金标准图像,j=1为生成图像,yj为预测概率;
步骤3,利用步骤1中的相位图像数据集对步骤2中构建的深度卷积神经网络模型进行训练,最终训练停止的标志是生成器和判别器的损失函数最小且趋于平稳;
步骤4,利用训练好的深度卷积神经网络模型对异常相位图像进行修复。
进一步的,生成器包括十个残差块,卷积核大小为5*5,边缘补零为2,步长为1,各残差块的输出特征图数量为64、128、128、256、256、384、384、384、512、512。
进一步的,判别器包括5个卷积层,各个卷积层卷积核大小为3*3、5*5、7*7、5*5、1*1,卷积层特征通道数量为:64,128,256,384,1,步长为1,边缘补零为0。
进一步的,平滑因子取0.5。
进一步的,步骤1中使用Photoshop在完好的相位图上加上真实情况的瑕疵点,以模拟真实的相位异常图像,同时对应的用原始的完好的相位图作为金标准图像groundtruth。
与现有技术相比,本发明的优点和有益效果:在相位数据处理方面,传统工具的相位解包裹函数的处理效果总是不太理想,这样对实验操作和精度要求变相的提高,导致大量实验数据的浪费,这个问题一直没有得到很好的解决。包括已有的一些方法,大多是从数值方面下手从头开始创造一个相位解包裹算法,这样的工作量和实验量巨大。所以,本项目考虑从数据处理工具已经得出的有瑕疵的相位图像下手,利用像素到像素图像生成的方法来解决瑕疵相位图像的修复问题。这样我们也能得出与真实情况高度相似的相位图,利用更直接的原理与更少的工作,与前人的解包裹算法殊途同归。为相位解包裹工作,相位图像修复工作提供了一种全新的思路。
附图说明
图1:本发明研究思路;
图2:相位图像示例,第一行展示了解缠不完全的瑕疵图像,第二行为解缠完全的标准图像;
图3:部分数据集示例,第一行为标签图像,第二行为人工损坏的相位图像;
图4:生成器结构图;
图5:残差块结构图;
图6:判别器结构图;
图7:SSIM数值图;
图8:原图与生成图snr对比;
图9:生成结果对比,第一行是金标准图像;第二行是异常图像修复结果。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步说明。
针对超快光学成像系统所获异常相位图像修复的方法任务,本发明将该任务分为三步:构建大量的用于模型训练的相位图像数据集、构建相位图像修复的深度卷积神经网络模型、模型评价,其实现过程具体包含以下步骤:
(1)构建大量的用于模型训练的相位图像数据集
为了构建供深度学习网络训练的数据集,本发明使用Photoshop来在完好的相位图上加上类似于真实情况的瑕疵点,以模拟真实的相位异常图像,同时对应的用原始的完好的相位图作为金标准图像(ground truth)。
(2)构建相位图像修复的深度卷积神经网络模型
为了修复相位图像,本发明采用深度学习的方法进行建模,研究提出了有效的修复瑕疵相位图像的方法
(21)网络模型设计:因为恢复相位灰度图像需要较高准确度,所以采用深度卷积神经网络(CNN,Convolutional Neural Network)作为特征提取器,学习异常解卷与正常相位图像的映射关系。同时,借鉴于图像生成的思想,本发明采用了一种生成对抗神经网络作为整体的网络模型,其模型包括两部分:生成器和判别器。生成器主要用于图像生成,以完成相位图像修复任务,判别器用于鉴别生成器所生成的图像与金标准图像,目的在于使生成图像尽可能接近于金标准图像,从而进行高质量的异常相位图像修复。
由于现代神经网络存在两个很严重的问题,一是梯度弥散或梯度爆炸。对前馈神经网络而言,一般需要前向传播输入信号,然后反向传播误差并使用梯度方法更新参数。这样当网络层数较多时,就会出现反向传播中,梯度逐渐消失,底层的参数不能有效更新,即梯度弥散;或是出现梯度以指数级速度增大,造成系统不稳定即梯度爆炸;二是网络退化问题。即随着网络深度增加,网络的表现先是逐渐增加至饱和,然后迅速下降。
对于本发明中生成器,如图4所示。本发明生成器包含十个残差块和一个1*1卷积层,残差块具体结构如图5所示,每个残差块包含两个卷积层(Conv)和两个批归一化(BN)层和一个激活函数(Relu),其顺序为卷积层-批归一化层-激活层-卷积层-批归一化层,卷积核大小为5*5,边缘补零为2,步长为1;生成器的最后一层为1*1卷积,以获得生成图像,各残差块的输出特征图数量为64、128、128、256、256、384、384、384、512、512,同时在每个残差块后还设置了spatial Dropout层,这个层不同于普通的Dropout层,Dropout层是对特征图的元素随机置零,其卷积层仍然可以识别局部特征。而spatial Dropout是对特征图的列向量随机进行置零,使特征图发生了较大变化,起到正则化的作用,从而避免过拟合,提高网络学习的鲁棒性。
对于判别器,本发明采用简单5层卷积作为特征提取器,其中最后一层为1*1卷积,用于分类,采用sigmoid作为激活函数,其他各层采用Leakly ReLu作为激活函数,并采用了批归一化BN层,加入加速模型收敛,和保证训练过程中特征均一化。各个卷积层卷积核大小为3*3、5*5、7*7、5*5、1*1,卷积层特征通道数量为:64,128,256,384,1,步长为1,边缘补零为0,其具体的网络结构如图6所示:
(22)损失函数设计:
本发明生成器的损失函数包括两部分,LM损失用来保留考异常区域的高频信息,使边缘和细节信息更接近正常图像,但由于LM损失对亮度和颜色也较为敏感,不易优化,可能受数据复杂的特征影响,导致恢复的结果在某些区域出现亮度、颜色等失真的情况。因此本发明,设计了一个辅助损失,来弥补其缺陷,即采用均方差损失函数(L2损失)来学校其正常图像的亮度、颜色等信息,同时L2损失可以惩罚较大误差和较小误差,更好的学习异常点区域。最后综合两个损失作为其最终的生成器目标函数,两者比例为1:1。
LM损失的数学表达公式如下:
其中x,y分别代表金标准图像与生成图像,μx、σx分别为金标准图像(正常图像)的均值和方差,μy、σy分别为模型生成图像(修复图像)的均值和方差,σxy为金标准图像与生成图像的协方差。N为训练的批处理图像数量,i为图像序号。C1、C2为平滑因子,防止分母出现零,从而导致梯度爆炸。通过这些可以较好的排除亮度和对比度的影响,即排除均值和标准差的影响。
均方差损失(L2损失)数学表达式如下:
最终的目标函数为LM损失和L2损失之和,其具体的数学定义为:
min L=-[αL2+(1-α)LM]
其中α为平衡因子,目的是均衡两个损失的贡献,本发明中设置为0.5。
对于判别器主要为二分类问题,因此采用二值交叉熵作为损失函数,目的在于使生成图像更加接近正常图像,从而获得更优的异常解卷修复效果,其数学表达式如下:
LG(xj,yj)=-wj[yjlogxj+(1-yj)log(1-xj)]
其中w为类别权重,j为类别(0和1),xj为金标准图像、生成图像,其中j=0时为金标准图像,j=1为生成图像,yj为预测概率。
最终训练停止的标志是生成器和判别器的损失函数最小且趋于平稳。
(3)模型评价
为了测试本发明所提网络生成的图像质量,本发明采用原标签与生成图的结构相似性度指标(SSIM),与单张图片的信噪比SNR来衡量生成图的质量。SSIM值越接近1,表明生成图与原图相似度越高,说明恢复的图像质量越好,
经过以上步骤,本发明所提的方法可以达到较好的图像修复效果,具体的,本发明抽取了87张图片作为测试集,他们的SSIM与snr数值如图7、图8所示。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (5)
1.一种异常相位图像的修复方法,其特征在于,包括如下步骤:
步骤1,构建大量的用于模型训练的相位图像数据集;
步骤2,构建相位图像修复的深度卷积神经网络模型,包括如下子步骤;
步骤2.1,网络模型设计:采用生成对抗神经网络作为整体的网络模型,该网络模型包括两部分:生成器和判别器,所述生成器包含若干个残差块和一个1*1卷积层,每个残差模块后设置spatial Dropout层,每个残差块包含两个卷积层和两个批归一化层和一个激活函数,其顺序为卷积层-批归一化层-激活层-卷积层-批归一化层;判别器包括若干个卷积层,其中最后一层为1*1卷积,用于分类,采用sigmoid作为激活函数,其他各层采用LeaklyReLu作为激活函数;
步骤2.2,损失函数设计:生成器的损失函数包括两部分,LM损失和L2损失,其中LM损失的数学表达公式如下:
其中x,y分别代表金标准图像与生成图像,μx、σx分别为金标准图像的均值和方差,μy、σy分别为模型生成图像的均值和方差,σxy为金标准图像与生成图像的协方差,N为训练的批处理图像数量,i为图像序号,C1、C2为平滑因子;
L2损失的数学表达式如下:
最终的目标函数为LM损失和L2损失之和,其具体的数学定义为:
min L=-[αL2+(1-α)LM]
其中α为平衡因子,目的是均衡两个损失的贡献;
判别器采用二值交叉熵作为损失函数,目的在于使生成图像更加接近正常图像,从而获得更优的异常解卷修复效果,其数学表达式如下:
LG(xj,yj)=-wj[yjlogxj+(1-yj)log(1-xj)]
其中w为类别权重,j为类别,xj为金标准图像或生成图像,其中j=0时为金标准图像,j=1为生成图像,yj为预测概率;
步骤3,利用步骤1中的相位图像数据集对步骤2中构建的深度卷积神经网络模型进行训练,最终训练停止的标志是生成器和判别器的损失函数最小且趋于平稳;
步骤4,利用训练好的深度卷积神经网络模型对异常相位图像进行修复。
2.如权利要求1所述的一种异常相位图像的修复方法,其特征在于:生成器包括十个残差块,卷积核大小为5*5,边缘补零为2,步长为1,各残差块的输出特征图数量为64、128、128、256、256、384、384、384、512、512。
3.如权利要求1所述的一种异常相位图像的修复方法,其特征在于:判别器包括5个卷积层,各个卷积层卷积核大小为3*3、5*5、7*7、5*5、1*1,卷积层特征通道数量为:64,128,256,384,1,步长为1,边缘补零为0。
4.如权利要求1所述的一种异常相位图像的修复方法,其特征在于:平滑因子取0.5。
5.如权利要求1所述的一种异常相位图像的修复方法,其特征在于:步骤1中使用Photoshop在完好的相位图上加上真实情况的瑕疵点,以模拟真实的相位异常图像,同时对应的用原始的完好的相位图作为金标准图像ground truth。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011408994.2A CN112465722A (zh) | 2020-12-04 | 2020-12-04 | 一种异常相位图像的修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011408994.2A CN112465722A (zh) | 2020-12-04 | 2020-12-04 | 一种异常相位图像的修复方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112465722A true CN112465722A (zh) | 2021-03-09 |
Family
ID=74805819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011408994.2A Pending CN112465722A (zh) | 2020-12-04 | 2020-12-04 | 一种异常相位图像的修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112465722A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321783A (zh) * | 2019-05-07 | 2019-10-11 | 北京慧脑云计算有限公司 | 一种基于1d卷积神经网络的meg棘波检测方法及系统 |
CN110428432A (zh) * | 2019-08-08 | 2019-11-08 | 梅礼晔 | 结肠腺体图像自动分割的深度神经网络算法 |
CN111160096A (zh) * | 2019-11-26 | 2020-05-15 | 北京海益同展信息科技有限公司 | 禽蛋异常的识别方法、装置及系统、存储介质、电子装置 |
CN111161090A (zh) * | 2019-11-26 | 2020-05-15 | 北京海益同展信息科技有限公司 | 圈养栏信息的确定方法、装置及系统、存储介质 |
CN111950699A (zh) * | 2020-07-03 | 2020-11-17 | 清华大学深圳国际研究生院 | 一种基于特征空间相关性的神经网络正则化方法 |
-
2020
- 2020-12-04 CN CN202011408994.2A patent/CN112465722A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321783A (zh) * | 2019-05-07 | 2019-10-11 | 北京慧脑云计算有限公司 | 一种基于1d卷积神经网络的meg棘波检测方法及系统 |
CN110428432A (zh) * | 2019-08-08 | 2019-11-08 | 梅礼晔 | 结肠腺体图像自动分割的深度神经网络算法 |
CN111160096A (zh) * | 2019-11-26 | 2020-05-15 | 北京海益同展信息科技有限公司 | 禽蛋异常的识别方法、装置及系统、存储介质、电子装置 |
CN111161090A (zh) * | 2019-11-26 | 2020-05-15 | 北京海益同展信息科技有限公司 | 圈养栏信息的确定方法、装置及系统、存储介质 |
CN111950699A (zh) * | 2020-07-03 | 2020-11-17 | 清华大学深圳国际研究生院 | 一种基于特征空间相关性的神经网络正则化方法 |
Non-Patent Citations (4)
Title |
---|
ABEER ALSAIARI 等: ""Image Denoising Using a Generative Adversarial Network"", 《2019 IEEE 2ND INTERNATIONAL CONFERENCE ON INFORMATION AND COMPUTER TECHNOLOGIES (ICICT)》 * |
SANGHUN LEE 等: "Revisiting spatial dropout for regularizing convolutional neural networks", 《MULTIMEDIA TOOLS AND APPLICATIONS》 * |
SUNGHEON PARK 等: "Analysis on the Dropout Effect in Convolutional Neural Networks", 《ACCV 2016》 * |
张云飞: ""基于生成对抗网络的模糊图像复原研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685072B (zh) | 一种基于生成对抗网络的复合降质图像高质量重建方法 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
Golts et al. | Unsupervised single image dehazing using dark channel prior loss | |
CN108986050A (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
Li et al. | Underwater image enhancement using adaptive color restoration and dehazing | |
Zhao et al. | An attention encoder-decoder network based on generative adversarial network for remote sensing image dehazing | |
CN112116537B (zh) | 图像反射光消除方法及图像反射光消除网络构建方法 | |
CN112102179B (zh) | 一种基于Retinex的深度网络单幅图像去雾方法 | |
CN113870124A (zh) | 基于弱监督的双网络互激励学习阴影去除方法 | |
Cui et al. | A novel underwater image restoration method based on decomposition network and physical imaging model | |
Abo El Rejal | An end-to-end CNN approach for enhancing underwater images using spatial and frequency domain techniques | |
Han et al. | UIEGAN: Adversarial Learning-based Photo-realistic Image Enhancement for Intelligent Underwater Environment Perception | |
Lan et al. | An optimized GAN method based on the Que-Attn and contrastive learning for underwater image enhancement | |
CN114021704A (zh) | 一种ai神经网络模型的训练方法及相关装置 | |
CN117391920A (zh) | 基于rgb通道差分平面的大容量隐写方法及系统 | |
CN116385293A (zh) | 基于卷积神经网络的雾天自适应目标检测方法 | |
CN111724410A (zh) | 一种基于残余注意力的目标跟踪方法 | |
CN111275751A (zh) | 一种无监督绝对尺度计算方法及系统 | |
CN112465722A (zh) | 一种异常相位图像的修复方法 | |
Wu et al. | DHGAN: Generative adversarial network with dark channel prior for single‐image dehazing | |
CN114998124A (zh) | 面向目标检测的图像清晰化处理方法 | |
CN115439738A (zh) | 一种基于自监督协同重构的水下目标检测方法 | |
Liu et al. | Generating underwater images by GANs and similarity measurement | |
Di et al. | FDNet: An end-to-end fusion decomposition network for infrared and visible images | |
CN114882346A (zh) | 一种基于视觉的水下机器人目标自主识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210309 |
|
RJ01 | Rejection of invention patent application after publication |