CN111429393A - 基于卷积弹性网络的多聚焦图像融合方法 - Google Patents
基于卷积弹性网络的多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN111429393A CN111429393A CN202010295452.2A CN202010295452A CN111429393A CN 111429393 A CN111429393 A CN 111429393A CN 202010295452 A CN202010295452 A CN 202010295452A CN 111429393 A CN111429393 A CN 111429393A
- Authority
- CN
- China
- Prior art keywords
- image
- fusion
- detail
- fused
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 20
- 230000004927 fusion Effects 0.000 claims abstract description 96
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 10
- 238000013507 mapping Methods 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 6
- 230000007547 defect Effects 0.000 abstract description 7
- 230000009466 transformation Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000903 blocking effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 241000282373 Panthera pardus Species 0.000 description 1
- 241000220317 Rosa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 235000013405 beer Nutrition 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
技术领域
本发明涉及卷积弹性网络模型技术领域,特别涉及基于卷积弹性网络的多聚焦图像融合方法。
背景技术
现有的多尺度变换和单一稀疏域多聚焦图像融合方法存在空间分辨率低、模糊性差的缺点,为解决上述问题,本发明结合卷积弹性网络的优越性,提出了一种新的卷积弹性网络模型的多聚焦图像融合算法,获得了较好的对比度和清晰度。
发明内容
本发明针对现有技术的缺陷,提供了一种基于卷积弹性网络的多聚焦图像融合方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种基于卷积弹性网络的多聚焦图像融合方法,包括如下步骤:
步骤2、细节分量融合;子步骤如下:
2)活跃映射Ak可以表示为
3)通过以下融合策略得到细节层的融合字典系数映射集;
其中,xf,m是细节层的稀疏系数,dm(m∈1,...,M)是一组字典过滤器。
步骤4、图像重建,根据重建策略获得融合图像。
进一步地,所述的步骤1,其中图像分解操作如下:
进一步地,所述的步骤2,其中细节分量融合如下:
进一步地,所述的步骤2中的细节分量融合规则如下:
进一步地,所述的步骤3,其中低频分量融合规则如下:
进一步地,所述的步骤4,其中融合图像重建如下:
与现有技术相比,本发明的优点在于:
解决了多尺度变换模型的细节捕捉能力弱的缺陷,克服稀疏域亮度较低和效率低的不足。本发明融合算法充分利用了二尺度图像分解的优良时频特性和卷积弹性网络融合规则的优越性,不仅保留了源图像的细节,而且提高了融合图像的空间连续性,抑制了人工纹理的生成。
附图说明
图1为本发明实施例的多聚焦图像融合算法示意图;
图2为本发明实施例使用的10组多聚焦源图;
图3为本发明实施例各算法作用在'clock'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图4为本发明实施例各算法作用在'pepsi'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图5为本发明实施例各算法作用在'lab'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图6为本发明实施例各算法作用在'book-shelf'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图7为本发明实施例作用在其它六对多聚焦源图像上的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图8为本发明实施例所有多聚焦图像作用在各种对比方法上的客观评价指标图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
实施例1
卷积弹性网络模型:
卷积弹性网络正则化算法可以看作是弹性网络正则化算法的一种扩展形式。卷积弹性网络正则化算法的基本思想是提供一种可选的系数表示结构,该结构将整个信号s∈RN建模为一组具有相同信号大小的系数映射集xm∈RN,并使用相应的字典滤波器集dm∈Rn ×n×m(n<m)。这个问题可以表述如下,并且可以使用ADMM方法计算,以获得主线性系统的有效解:
其中*表示卷积算子,λ和mu分别是L1和L2正则化参数。
为了方便描述,两个几何已配准的灰度源图像sA,sB,算法具体步骤如下:
源图像分解:
细节层融合:
然后,活动级别映射A可以表示为
其次,通过“选择最大值”策略得到细节层的融合字典系数映射集:
步骤4、【图像重建】根据重建策略获得融合图像:
为证明本申请所提算法的融合效果,将算法分别应用到’clock’,’pepsi’,’lab’等10组多聚焦图像。图1为实验数据集。
参数设置:
在Hybrid-MSD方法中,考虑了一个四级分解,为此分别将空间高斯和距离高斯的标准差设为σs,0=2和σr,0=0.1,正则化参数设为λ=30。
MWGF常数参数为λ=1,大、小标度σ1和σ2分别设为5和0.5。
对于dwt-sr-4和ASR方法,将面片大小设置为8×8,将“误差容限”设置为0.1,将字典大小设置为256,将K-均值奇异值分解(K-SVD)的迭代次数固定为180。
对于JSR方法,字典大小D为128×768,误差容限ε设置为0.1,β=1。
对于基于CSR的方法,字典过滤器的数量设置为8×8×32。
基于CNN的图像融合方法:在CNN模型训练过程中,块大小设置为128。动量和重量衰减分别设置为0.9和0.0005。每个层中的偏差初始化为0。所有层的学习率都相等,最初设置为0.0001。
为了保证实验结果的准确性和公平性,本申请按照前面的建议使用了32个字典过滤器,L1正则化参数设置为λ=0.01,L2正则化参数设置为mu=0.05,ADMM惩罚参数设置为100*λ+1。
部分多聚焦图像融合结果及分析:-
图3表示‘clock’源图像集和不同融合方法获得的融合图像。从主观上看,这8种算法的融合效果相当相似,但仔细观察发现略有差异。在Hybrid-MSD、dwt-sr-4和CSR方法的融合结果中,大时钟的上边界出现了显著的伪影。特别地,dwt-sr-4融合图像在小时钟之上包含块效应,并且基于CSR的融合图像中的小时钟显示混合效应。ASR和JSR融合结果显示,大时钟顶部边界明显模糊,ASR融合结果中的大时钟表面显示振动条纹。在JSR融合结果中,小闹钟刻度盘上的刻度明显模糊。用MWGF获得的如图3(d)所示的融合图像和用CNN获得的如图3(i)所示的融合图像在边界区域上优于先前描述的结果,但是大时钟上数字“8”和“9”周围的区域稍微模糊,并且时钟边界处的线被打断。与Hybrid-MSD、dwt-sr-4和CSR混合方法相比,该方法减少了伪影和阻塞的发生,减少了模糊,有效地补偿了时钟边界处的断线缺陷。因此,利用该算法得到的融合图像具有较少的人工纹理,包含更多的源图像细节信息,并且具有较好的空间连续性。
图4表示使用不同融合方法为‘pepsi’源图像组获得的融合图像。从主观评价的角度来看,dwt-sr-4的融合效果最差:存在明显的伪影和条纹。Hybrid-MSD、ASR和JSR混合方法显示出比dwt-sr-4更好的融合效果,但图像右侧日历顶部的英文字母似乎有细微的伪影。与上述四种方法相比,MWGF、CSR和CNN方法没有明显的伪影,但啤酒瓶的右边缘不是很清晰,左边缘区域显示出不同程度的块状。本发明提出的算法不仅有效地避免了图像中的伪影产生和块现象,而且与其他方法相比,融合后的图像具有更好的边缘连续性,整体视觉效果更好。
图5表示用不同融合算法获得的‘Lab’源图像集的结果。在dwt-sr-4和JSR的结果中,实验室研究人员表现出更多的头部噪声和残余效应;dwt-sr-4图像中头部周围的阻塞现象尤其显著。与dwt-sr-4和JSR相比,在Hybrid-MSD和ASR的混合结果中,实验室研究人员头部周围的视觉效果更好,但图像仍然显示出轻微的抖动和边缘伪影,并且计算机区域的亮度较低。MWGF方法有效地保留了源图像中的高频信息,但很容易导致条纹的高频和低频边缘失真。当两幅源图像的质量差异特别大时,融合轨迹将更加明显。CSR和CNN算法弥补了Hybrid-MSD和ASR混合算法的抖动缺陷,但它们也平滑了一些边缘信息,导致边缘和纹理信息丢失。总之,我们的算法不仅能得到更平滑的边缘,而且能更好地保留源图像的高频信息。实验结果表明,该方法在视觉效果上优于对比方法,具有更自然的纹理和更好的空间连续性。
图6表示使用不同融合算法获得的‘book-shelf’源图像组的结果。dwt-sr-4融合结果最差:左边书架上的白皮书不仅在边界处模糊,而且在脊椎上显示块效应。Hybrid-MSD、ASR和JSR的混合融合结果优于dwt-sr-4的融合结果,但在左侧书架上的白皮书周围仍会出现伪影和边界模糊。相比之下,左边书架上的白皮书没有显示MWGF、CSR和CNN融合结果中的模糊或伪影,但是右边闹钟的上边缘有些模糊。CSR融合结果中模糊现象最为严重。这些结果表明,我们的方法比MWGF、CSR和CNN方法获得了更好的视觉效果,显示了较强的边缘保持和空间清晰度,从而保留了更多的源图像细节。
为了进一步证明本发明的优越性,图7示出了用所有测试方法获得的其他六幅图像(‘bottle’,‘flower’,‘plant-clock’,‘balloon’,‘book’,‘leopard’)的融合结果。在Hybrid-MSD和ASR的融合结果中,玫瑰花瓣的上边缘模糊(见图7中(c)和(e)的第二行),在MWGF和CSR的融合结果中,左叶的清晰度不足(见图7中(d)和(g)的第二行)。dwt-sr-4融合图像中左侧书皮上的字母被模糊和复制(参见图7中(f)的第5行),JSR-Gao和CNN融合图像中两本书之间的边界被不同程度地模糊(参见图7中(g)和(i)的第5行)。图7中的6组融合结果表明,本发明得到的融合图像不仅边界完整清晰,而且有效地避免了传统MST融合方法的伪影问题,取得了较好的融合效果。
图8为本发明所有多聚焦图像作用在各种对比方法上的平均客观评价指标值。对于每个评估指标,以粗体文本表示最大值,表示所有8种方法中的最佳分数。对于前两个位置的每个分数,括号中的数字表示其排名。从图8可以看出,我们的算法在QABF和QE方面获得的值比基于CNN的方法稍差,但在这些指标方面明显优于其他6种方法(Hybrid-MSD、MWGF、ASR、dwt-sr、JSR-Gao和CSR),并且在其他三个指标:QMI、QNCIE和QM方面获得的值最高。此外,本发明能够快速有效地集成源图像信息,得到的融合图像不仅细节丢失少,清晰度好,而且与源图像的一致性很高。综上所述,本发明与其他已测试的多聚焦图像融合方法相比,取得了良好的性能。
根据卷积弹性网络模型,提出一种新的基于卷积弹性网络的多聚焦图像融合方法。本申请不仅充分利用了二尺度图像分解的优良时频特性,而且充分利用了卷积弹性网络融合规则的优越性能来保持其优势。本申请将该算法和其他7种典型的融合方法应用于10组多聚焦图像的结果。基于对实验结果的主观评价和5个客观的Q序列融合性能指标,该算法不仅保留了源图像的细节,而且提高了融合图像的空间连续性,抑制了人工纹理的生成。通过实验和分析,虽然所提方法获得了较好的融合效果,但是实验的源图像只是在部分多聚焦图像上测试,而且部分客观评价指标并没有达到最优。后续需要进一步针对三维彩色、红外与可见光、医学等多模态图像和根据Q系列评价指标进一步探索新的融合算法。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的实施方法,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (7)
1.一种基于卷积弹性网络的多聚焦图像融合方法,其特征在于,包括如下步骤:
步骤2、细节分量融合;子步骤如下:
2)活跃映射Ak可以表示为
3)通过以下融合策略得到细节层的融合字典系数映射集;
其中,xf,m是细节层的稀疏系数,dm(m∈1,...,M)是一组字典过滤器;
步骤4、图像重建,根据重建策略获得融合图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010295452.2A CN111429393A (zh) | 2020-04-15 | 2020-04-15 | 基于卷积弹性网络的多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010295452.2A CN111429393A (zh) | 2020-04-15 | 2020-04-15 | 基于卷积弹性网络的多聚焦图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111429393A true CN111429393A (zh) | 2020-07-17 |
Family
ID=71556364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010295452.2A Pending CN111429393A (zh) | 2020-04-15 | 2020-04-15 | 基于卷积弹性网络的多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111429393A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899207A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于局部处理卷积字典学习的可见光与红外图像融合方法 |
CN111899206A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积字典学习的医学脑部图像融合方法 |
CN111899209A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积匹配追踪字典学习的可见光红外图像融合方法 |
CN111899208A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积分析算子的多模态图像融合方法 |
CN111968119A (zh) * | 2020-10-21 | 2020-11-20 | 季华实验室 | 基于半导体缺陷检测的图像处理方法、装置、设备及介质 |
CN112001870A (zh) * | 2020-08-11 | 2020-11-27 | 四川警察学院 | 基于卷积字典学习的可见光与红外图像融合方法 |
CN112884686A (zh) * | 2021-01-27 | 2021-06-01 | 四川警察学院 | 一种自适应对比度增强字典学习的多聚焦图像融合方法 |
CN113763300A (zh) * | 2021-09-08 | 2021-12-07 | 湖北工业大学 | 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399611A (zh) * | 2018-01-31 | 2018-08-14 | 西北工业大学 | 基于梯度正则化的多聚焦图像融合方法 |
CN108830818A (zh) * | 2018-05-07 | 2018-11-16 | 西北工业大学 | 一种快速多聚焦图像融合方法 |
CN109191416A (zh) * | 2018-08-29 | 2019-01-11 | 西安电子科技大学 | 基于稀疏字典学习和剪切波的图像融合方法 |
CN109559292A (zh) * | 2018-11-22 | 2019-04-02 | 西北工业大学 | 基于卷积稀疏表示的多模态图像融合方法 |
CN111275655A (zh) * | 2020-01-20 | 2020-06-12 | 上海理工大学 | 一种多聚焦多源图像融合方法 |
-
2020
- 2020-04-15 CN CN202010295452.2A patent/CN111429393A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399611A (zh) * | 2018-01-31 | 2018-08-14 | 西北工业大学 | 基于梯度正则化的多聚焦图像融合方法 |
CN108830818A (zh) * | 2018-05-07 | 2018-11-16 | 西北工业大学 | 一种快速多聚焦图像融合方法 |
CN109191416A (zh) * | 2018-08-29 | 2019-01-11 | 西安电子科技大学 | 基于稀疏字典学习和剪切波的图像融合方法 |
CN109559292A (zh) * | 2018-11-22 | 2019-04-02 | 西北工业大学 | 基于卷积稀疏表示的多模态图像融合方法 |
CN111275655A (zh) * | 2020-01-20 | 2020-06-12 | 上海理工大学 | 一种多聚焦多源图像融合方法 |
Non-Patent Citations (1)
Title |
---|
HONGLIN WU等: "Remote Sensing Image Sharpening by Integrating Multispectral Image Super-Resolution and Convolutional Sparse Representation Fusion", 《IEEE ACCESS》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899207A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于局部处理卷积字典学习的可见光与红外图像融合方法 |
CN111899206A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积字典学习的医学脑部图像融合方法 |
CN111899209A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积匹配追踪字典学习的可见光红外图像融合方法 |
CN111899208A (zh) * | 2020-08-11 | 2020-11-06 | 四川警察学院 | 基于卷积分析算子的多模态图像融合方法 |
CN112001870A (zh) * | 2020-08-11 | 2020-11-27 | 四川警察学院 | 基于卷积字典学习的可见光与红外图像融合方法 |
CN111899209B (zh) * | 2020-08-11 | 2023-09-26 | 四川警察学院 | 基于卷积匹配追踪字典学习的可见光红外图像融合方法 |
CN111968119A (zh) * | 2020-10-21 | 2020-11-20 | 季华实验室 | 基于半导体缺陷检测的图像处理方法、装置、设备及介质 |
CN112884686A (zh) * | 2021-01-27 | 2021-06-01 | 四川警察学院 | 一种自适应对比度增强字典学习的多聚焦图像融合方法 |
CN113763300A (zh) * | 2021-09-08 | 2021-12-07 | 湖北工业大学 | 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111429393A (zh) | 基于卷积弹性网络的多聚焦图像融合方法 | |
CN111429392A (zh) | 基于多尺度变换和卷积稀疏表示的多聚焦图像融合方法 | |
CN108399611B (zh) | 基于梯度正则化的多聚焦图像融合方法 | |
Vu et al. | Illumination-robust face recognition using retina modeling | |
CN112288668B (zh) | 基于深度无监督密集卷积网络的红外和可见光图像融合方法 | |
CN108932536A (zh) | 基于深度神经网络的人脸姿态重建方法 | |
CN108830818A (zh) | 一种快速多聚焦图像融合方法 | |
CN110084773A (zh) | 一种基于深度卷积自编码网络的图像融合方法 | |
He et al. | Hqg-net: Unpaired medical image enhancement with high-quality guidance | |
CN113066025B (zh) | 一种基于增量学习与特征、注意力传递的图像去雾方法 | |
Manakov et al. | Noise as domain shift: Denoising medical images by unpaired image translation | |
CN111179189A (zh) | 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质 | |
CN110363704A (zh) | 融合形态及色彩的图像超分辨率重建模型构建及重建方法 | |
CN109982090A (zh) | 一种结合灰度熵和盲反卷积的采样率自适应分块压缩感知方法 | |
CN109919098A (zh) | 目标对象的识别方法和装置 | |
CN103413351B (zh) | 基于压缩感知理论的三维人脸快速重建方法 | |
CN113222879B (zh) | 一种用于红外与可见光图像融合的生成对抗网络 | |
CN117292244A (zh) | 一种基于多层卷积的红外与可见光图像融合方法 | |
Xie et al. | Multi-task generative adversarial network for retinal optical coherence tomography image denoising | |
Chahi et al. | MFGAN: towards a generic multi-kernel filter based adversarial generator for image restoration | |
Thengane et al. | Cycle face aging generative adversarial networks | |
CN108776958B (zh) | 混合降质图像的图像质量评价方法和装置 | |
CN115375628A (zh) | 一种基于as-octa的图像噪声去除方法及系统 | |
CN113744250A (zh) | 基于U-Net的臂丛神经超声图像分割方法、系统、介质和装置 | |
CN112862734A (zh) | 一种使用卷积分析算子学习的多聚焦图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200717 |
|
RJ01 | Rejection of invention patent application after publication |