CN111275640A - 一种融合二维离散小波变换和生成对抗网络的图像增强方法 - Google Patents

一种融合二维离散小波变换和生成对抗网络的图像增强方法 Download PDF

Info

Publication number
CN111275640A
CN111275640A CN202010052722.7A CN202010052722A CN111275640A CN 111275640 A CN111275640 A CN 111275640A CN 202010052722 A CN202010052722 A CN 202010052722A CN 111275640 A CN111275640 A CN 111275640A
Authority
CN
China
Prior art keywords
image
generator
wavelet transform
discriminator
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010052722.7A
Other languages
English (en)
Other versions
CN111275640B (zh
Inventor
陈章玲
王军
吴华明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010052722.7A priority Critical patent/CN111275640B/zh
Publication of CN111275640A publication Critical patent/CN111275640A/zh
Application granted granted Critical
Publication of CN111275640B publication Critical patent/CN111275640B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/73
    • G06T5/92
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种融合二维离散小波变换和生成对抗网络的图像增强方法,本发明结合了而维离散小波变换算法的不同子带可以在频域中为图像提供细节信息的特点,在生成器和判别器的特征学习过程中融合了而维离散小波变换算法,通过直接学习具有解释性且包含细节信息的特征,在避免对图像数据大量标注的过程的同时增强模型学习过程中细节信息特征的传递,最终在非结构化数据上完成富含细节的精细图像生成任务。

Description

一种融合二维离散小波变换和生成对抗网络的图像增强方法
技术领域
本发明属于图像处理技术领域,提出了一种融合二维离散小波变换和生成对抗网络的图像增强方法。
背景技术
近年来,生成对抗网络(Generative Adversarial Networks,GANs)作为人工智能学界的热门研究方向,在计算机视觉、自然语言处理、信息安全等领域中得到了广泛的应用。与通过复杂近似计算完成生成任务的传统生成模型不同,GANs由一个生成器和一个判别器构成,并通过生成器和判别器的对抗训练进行优化。具体地,GANs的基本思想源于博弈论中的二人零和博弈;生成器的目的是学习捕捉真实数据样本的分布,并生成新的样本;判别器作为一个二分类器判断输入的数据是来自真实数据还是来自生成器生成的数据。GANs通过对抗的方式同时优化生成器和判别器,最终达到生成器尽可能捕捉真实数据的潜在分布同时判别器难以区分生成分布和真实分布差异的纳什均衡状态。GANs结构框架展示如图1。
GANs的提出为无监督学习或半监督学习任务的发展提供了强有力的算法框架。它可以接受缺失训练数据或被用来预测缺失数据,从而可以有效地在大量易获取、无标签数据的基础上保证学习模型的泛化性能。然而,GANs的训练也存在神经网络训练的一般性缺陷等问题,面临非结构化数据难以收敛或即使收敛生成的图像也存在信息缺失等问题。图2展示了WGAN模型在汽车图像数据集上的生成结果,虽然生成的目标图像具有全局一致性,但是生成汽车的细节信息(如,轮胎,边缘等)比较模糊。
二维离散小波变换(Two-Dimensional Discrete Wavelet Transform,2D-DWT)算法在频域中具有较好的局部化性质,常被用作图像处理领域的特征提取方法。如图3所示,2D-DWT算法将图像每一层分解到一个低频子带(LL)和三个高频子带(LH,HL,HH),其中每个子带的尺度为目标图像的一半,且低频子带LL可以继续分解生成4个子带。由于低频子带LL是对原始目标图像的近似表达,在四个子带中占据重要的地位并因此常被单独用作图像处理的特征。同时,鉴于独特的边缘表达能力,高频子带HL、LH、HH也被尝试以各种方式使用。
发明内容
为了弥补现有方法的缺陷,增强生成图像的质量,本方法提出了一种融合二维离散小波变换和生成对抗网络的图像增强方法,通过在生成器和判别器中添加逆小波变换和小波变换算法实现端对端的训练过程。
为实现本发明的目的,本发明提供的一种融合二维离散小波变换和生成对抗网络的图像增强方法,
建立生成对抗网络模型,包括生成器和判别器,
其中,所述生成器共包含三个部分,分别是Go,Gl和Gh,生成器Go首先将随机向量z∈Rn通过反卷积生成基本图像Go(z)∈Rw×h;对于生成器Gl和Gh的输入随机向量zl和zh,通过拆分随机向量z∈Rn得到,即,zl=z[1:k]∈Rk和zh=z[k+1:n]∈Rn-k(1<k<n为超参数);然后通过将zl和zh分别输入到生成器Gl和Gh中学习图像的一个低频子带图像
Figure BDA0002371768690000021
和3个高频子带图像
Figure BDA0002371768690000022
最后通过逆小波变换得到精细特征图像:
idwt(Gl(zl),Gh(zh))(idwt表示逆小波变换算法)
将具有全局一致性的基本图像和精细图像求和得到最终输出的富含细节的图像:
ltarget=(1-λ)·Go(z)+λ·idwt(Gl(zl),Gh(zh))
其中,λ表示平衡图像域特征和频域特征的自适应超参数,且初始化为0,最终三个生成器Go,Gl和Gh由同一个Hinge损失进行约束;
其中,所述判别器由三部分组成,分别是Do,Dl和Dh,三个判别器分别对目标数据的图像域特征、低频特征和高频特征进行判别;
将生成或真实样本I输入到判别器Do,通过判别器Do最终得到输入样本是真实样本的概率值Do(I),在对样本图像域特征进行判别的同时,通过Dl和Dh分别对样本的频域信息进行约束,具体地,首先将图像通过2D-DWT算法生成低频图像Il和高频图像Ih:
Il,Ih=dwt(I)
其中,高频图像Ih中包含三个子带信息,且三个高频子带的特征按通道连接之后的特征,通过将Il和Ih分别输入到不同的判别器Dl和Dh中,得到判别器在不同子带特征空间中的判别结果,在训练过程中分别对三个判别器进行求Hinge损失。
其中,在训练过程中采用Adam算法进行优化,通过交替更新生成器和判别器的方式实现训练,并通过预设训练步长为终止条件结束训练。
其中,在Go的卷积层特征中引入了自注意力机制,所述自注意力机制是指对于生成器的某一个卷积层特征分别通过3个卷积核为1×1的卷积变换,将其中两个特征映射输出值按对应元素求最大值,然后经过softmax函数实现归一化得到注意力映射,最后将注意力映射转换为同输入卷积层特征空间相同尺度后与第三个特征映射求和,得到对应输出卷积层映射。
与现有技术相比,本发明的有益效果为,
(1)相较于常用的仅通过图像域特征进行学习的GANs模型,本发明结合了样本在图像域和频域中特征具有不同表达能力的性质,通过在GANs模型中引入2D-DWT算法充分挖掘图像的细节特征,使得模型在处理非结构化数据时更稳定,生成的图像更接近真实图像。
(2)本发明的判别器同约束图像域特征和频域特征的判别性,使得判别器即能在全局一致性上区分真假同时还能洞察生成样本和真实样本的细节特征差异。通过联合监督加快了模型收敛性,且促使生成器生成更接近真实的样本与判别器进行对抗。
(3)本发明所构建的模型没有利用训练数据的标签信息,适用于更多的无标签数据集。同时,我们的方法不局限于无标签数据,对于有标签数据也可以仿照常用的conditional的模型将标签信息融合到模型中。这样使得模型的应用范围更广泛。
附图说明
图1所示为现有技术中GANs结构框架结构示意图;
图1中,G表示生成器,D表示判别器;
图2所示为WGAN模型在汽车图像数据集上的生成结果图;
图3所示为2D-DWT的塔式分解图;
图4所示为结合2D-DWT和GANs的图像增强方法的模型结构;
图5所示为自注意力机制算法图;
图6所示为本申请模型训练流程图。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
针对非结构化数据模拟生成任务中数据细节缺失的问题,本发明利用图像的频域细节信息,将二维离散小波变换(2-Dimensional Discrete Wavelet Transform,2D-DWT)算法引入到GANs模型中,构建了基于2D-DWT的生成对抗模型,实现生成富含细节信息的高质量的图像。本发明结合了2D-DWT算法的不同子带可以在频域特征空间中为图像提供细节信息的特点,在生成器和判别器的特征学习过程中均融合了2D-DWT算法,通过直接学习具有解释性包含细节信息的特征,在避免对图像数据大量标注的过程的同时增强模型学习过程中细节信息特征的传递,最终完成富含细节的精细图像生成任务。
本发明的目的:构建在无标签的非结构化数据条件下生成富含细节图像的un-conditional的生成对抗模型。本发明在摒弃传统GANs模型对标签需求的同时,充分利用频域和图像域特征的融合进行训练提升优化过程,最终使得GANs模型可以在更多无标签的非结构化数据集上生成富含细节信息的全局一致性图像。
为了弥补现有方法的缺陷,增强生成图像的质量,本方法提出了融合2D-DWT和GANs的图像增强图像,通过在生成器和判别器中添加逆小波变换和小波变换算法实现端对端的训练过程。
本发明采用的技术方法包括以下内容:
1.建立生成对抗网络模型
1.1生成器
生成器部分共包含三个生成器,分别是Go,Gl和Gh。生成器Go首先将随机向量z∈Rn通过反卷积(Deconvnet)生成的基本图像Go(z)∈Rw×h。通常,由于GANs模型严重依赖卷积层来模拟图像不同区域之间的依赖关系,卷积运算具有局部感受域,因此只能在经过多个卷积层之后才能处理long-range特征。这样就会出现如下问题:a)如果模型较小则很难甚至无法找到不同区域特征之间的依赖关系,从而无法保证生成图像的全局一致性。b)如果模型较大,则优化算法很难协调好多个层以捕捉参数的依赖关系,从而导致模型训练不稳定性等问题。虽然可以考虑增大卷积核的大小来加强模型的表示能力,但此操作将会增加网络的参数削弱计算效率。因此,为了生成具有全局一致性的基本图像,在Go的卷积层特征中引入了自注意力机制。如图5,自注意力机制是指对于生成器的某一个卷积层特征分别通过3个卷积核为1×1的卷积变换,将其中两个特征映射求最大值,然后经过softmax函数实现归一化得到注意力映射。最后将注意力映射转换为同输入卷积层特征空间相同尺度后与第三个特征映射求和,得到对应输出卷积层映射。
对于生成器Gl和Gh的输入随机向量zl和zh,通过拆分将随机向量z∈Rn得到,即,zl=z[1:k]∈Rk和zh=z[k+1:n]∈Rn-k(1<k<n为超参数)。之所以这样初始化生成器Gl和Gh的输入是因为图像的高频子带和低频子带和整个图像是相关联的,并且图像的细节信息应该是在整个图像相对较低的流形中。然后通过将zl和zh分别输入到生成器Gl和Gh中学习图像的一个低频子带图像
Figure BDA0002371768690000061
和3个高频子带图像
Figure BDA0002371768690000062
(如图4)。最后通过逆小波变换得到精细特征图像:
idwt(Gl(zl),Gh(zh))(idwt表示逆小波变换算法)
将具有全局一致性的基本图像和精细图像求和(按对应通道对应元素计算)得到最终输出的富含细节的图像:
Itarget=(1-λ)·Go(z)+λ·idwt(Gl(zl),Gh(zh))
其中,λ表示平衡图像域特征和频域特征权重的自适应超参数,且初始化为0。最终三个生成器Go,Gl和Gh由同一个Hinge损失进行约束。
1.2判别器
判别器同样由三部分组成,分别是Do,Dl和Dh。这三个判别器分别对目标数据的图像域特征、低频特征和高频特征进行判别。主要结构如下:
首先,将生成或真实样本I输入到判别器Do,该判别器和常用的GANs中的判别器相似。通过判别器Do最终得到输入样本是真实样本的概率值Do(I)。由于在特征学习过程中缺少对细节信息直接判断,容易导致即使生成样本与真实样本在细节上差异较大而被误判的问题。因此,若在判别过程中同时监督图像的细节特征将大大提升判别器的判别能力,从而可以促使生成器生成更高质量的样本。因此,在对样本图像域特征进行判别的同时,我们还通过Dl和Dh分别对样本的频域信息进行约束。具体地,首先将图像通过2D-DWT算法生成低频图像Il和高频图像Ih:
Il,Ih=dwt(I)
其中,高频图像Ih中包含三个子带信息。为了增加判别器的泛化能力并控制模型参数量,Ih表示三个高频子带的特征按通道连接之后的特征。通过将Il和Ih分别输入到不同的判别器Dl和Dh中,得到判别器在不同子带特征空间中的判别结果。在训练过程中分别对三个判别器进行求Hinge损失。
通过上述操作,将图像进行2D-DWT算法分解之后,经过各子的判别器,从而可以使得生成的样本不仅要在全局一致性上经得起判别器的考验,同时要在图像的细节信息部分也能经得起判别器的判断。最终通过生成器和判别器的相互对抗的过程,使得生成器能够生成满足全局一致性的同时生成更加精细的图像。
2.算法流程
在学习过程中采用Adam算法进行优化。通过交替更新生成器和判别器的方式实现训练,并通过预设训练步长为终止条件结束训练。具体的学习流程如图6。
以上所述仅是本发明的优选实施方式,应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (3)

1.一种融合二维离散小波变换和生成对抗网络的图像增强方法,其特征在于,
建立生成对抗网络模型,包括生成器和判别器,
其中,所述生成器共包含三个部分,分别是Go,Gl和Gh,生成器Go首先将随机向量z∈Rn通过反卷积生成具有全局一致性的基本图像Go(z)∈Rw×h;对于生成器Gl和Gh的输入随机向量zl和zh,通过拆分随机向量z∈Rn得到,即,zl=z[1:k]∈Rk和zh=z[k+1:n]∈Rn-k(1<k<n为超参数);然后通过将zl和zh分别输入到生成器Gl和Gh中学习图像的一个低频子带图像
Figure FDA0002371768680000011
和3个高频子带图像
Figure FDA0002371768680000012
最后通过逆小波变换得到精细特征图像:
idwt(Gl(zl),Gh(zh)) (idwt表示逆小波变换算法)
将具有全局一致性的基本图像和精细图像求和得到最终输出的富含细节的图像:
Itarget=(1-λ)·Go(z)+λ·idwt(Gl(zl),Gh(zh))
λ表示平衡图像域特征和频域特征的自适应超参数,且初始化为0,最终三个生成器Go,Gl和Gh由同一个Hinge损失进行约束;
其中,所述判别器由三部分组成,分别是Do,Dl和,Dh,三个判别器分别对目标数据的图像域特征、低频特征和高频特征进行判别;
将生成或真实样本I输入到判别器Do,通过判别器Do最终得到输入样本是真实样本的概率值Do(I),在对样本图像域特征进行判别的同时,Dl和Dh分别对样本的频域信息进行约束,具体地,首先将图像通过2D-DWT算法生成低频图像Il和高频图像Ih:
Il,Ih=dwt(I)
其中,Il表示低频子带信息,Ih表示三个高频子带的特征按通道连接之后的特征,通过将Il和Ih分别输入到不同的判别器Dl和Dh中,得到判别器在不同子带特征空间中的判别结果,在训练过程中分别对三个判别器进行求Hinge损失。
2.根据权利要求1所述的一种融合二维离散小波变换和生成对抗网络的图像增强方法,其特征在于,
在训练过程中采用Adam算法进行优化,通过交替更新生成器和判别器的方式实现训练,并通过预设训练步长为终止条件结束训练。
3.根据权利要求1所述的一种融合二维离散小波变换和生成对抗网络的图像增强方法,其特征在于,
在生成器Go的卷积层特征中引入了自注意力机制,所述自注意力机制是指对于生成器的某一个卷积层特征分别通过3个卷积核为1×1的卷积变换,将其中两个特征映射输出结果按对应元素求最大值,然后经过softmax函数实现归一化得到注意力映射,最后将注意力映射转换为同输入卷积层特征空间相同尺度后与第三个特征映射求和,得到对应输出卷积层映射。
CN202010052722.7A 2020-01-17 2020-01-17 一种融合二维离散小波变换和生成对抗网络的图像增强方法 Active CN111275640B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010052722.7A CN111275640B (zh) 2020-01-17 2020-01-17 一种融合二维离散小波变换和生成对抗网络的图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010052722.7A CN111275640B (zh) 2020-01-17 2020-01-17 一种融合二维离散小波变换和生成对抗网络的图像增强方法

Publications (2)

Publication Number Publication Date
CN111275640A true CN111275640A (zh) 2020-06-12
CN111275640B CN111275640B (zh) 2022-12-09

Family

ID=70998776

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010052722.7A Active CN111275640B (zh) 2020-01-17 2020-01-17 一种融合二维离散小波变换和生成对抗网络的图像增强方法

Country Status (1)

Country Link
CN (1) CN111275640B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529080A (zh) * 2020-12-11 2021-03-19 深圳龙岗智能视听研究院 一种基于频谱特征判别的图像生成方法
CN112767279A (zh) * 2021-02-01 2021-05-07 福州大学 一种基于离散小波集成生成对抗网络的水下图像增强方法
CN113158997A (zh) * 2021-05-22 2021-07-23 河南工业大学 基于深度学习的粮库监控图像去噪方法、装置及介质
CN113393017A (zh) * 2021-05-07 2021-09-14 浙江警官职业学院 一种基于个体复杂关系的监管场所安全预警方法及装置
CN113554567A (zh) * 2021-07-29 2021-10-26 杭州电子科技大学 一种基于小波变换的鲁棒去重影系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460708A (zh) * 2018-10-09 2019-03-12 东南大学 一种基于生成对抗网络的林火图像样本生成方法
CN110097609A (zh) * 2019-04-04 2019-08-06 上海凌笛数码科技有限公司 一种基于样本域的精细化绣花纹理迁移方法
CN110517198A (zh) * 2019-08-22 2019-11-29 太原科技大学 用于ldct图像去噪的高频敏感gan网络
CN110559009A (zh) * 2019-09-04 2019-12-13 中山大学 基于gan的多模态低剂量ct转换高剂量ct的方法、系统及介质
CN110660038A (zh) * 2019-09-09 2020-01-07 山东工商学院 一种基于生成对抗网络的多光谱图像与全色图像融合方法
US20200013196A1 (en) * 2018-07-09 2020-01-09 Myntra Designs Private Limited Discrete wavelet transform based generative system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200013196A1 (en) * 2018-07-09 2020-01-09 Myntra Designs Private Limited Discrete wavelet transform based generative system and method
CN109460708A (zh) * 2018-10-09 2019-03-12 东南大学 一种基于生成对抗网络的林火图像样本生成方法
CN110097609A (zh) * 2019-04-04 2019-08-06 上海凌笛数码科技有限公司 一种基于样本域的精细化绣花纹理迁移方法
CN110517198A (zh) * 2019-08-22 2019-11-29 太原科技大学 用于ldct图像去噪的高频敏感gan网络
CN110559009A (zh) * 2019-09-04 2019-12-13 中山大学 基于gan的多模态低剂量ct转换高剂量ct的方法、系统及介质
CN110660038A (zh) * 2019-09-09 2020-01-07 山东工商学院 一种基于生成对抗网络的多光谱图像与全色图像融合方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529080A (zh) * 2020-12-11 2021-03-19 深圳龙岗智能视听研究院 一种基于频谱特征判别的图像生成方法
CN112529080B (zh) * 2020-12-11 2023-07-25 深圳龙岗智能视听研究院 一种基于频谱特征判别的图像生成方法
CN112767279A (zh) * 2021-02-01 2021-05-07 福州大学 一种基于离散小波集成生成对抗网络的水下图像增强方法
CN112767279B (zh) * 2021-02-01 2022-06-14 福州大学 一种基于离散小波集成生成对抗网络的水下图像增强方法
CN113393017A (zh) * 2021-05-07 2021-09-14 浙江警官职业学院 一种基于个体复杂关系的监管场所安全预警方法及装置
CN113393017B (zh) * 2021-05-07 2022-08-23 浙江警官职业学院 一种基于个体复杂关系的监管场所安全预警方法及装置
CN113158997A (zh) * 2021-05-22 2021-07-23 河南工业大学 基于深度学习的粮库监控图像去噪方法、装置及介质
CN113554567A (zh) * 2021-07-29 2021-10-26 杭州电子科技大学 一种基于小波变换的鲁棒去重影系统及方法
CN113554567B (zh) * 2021-07-29 2024-04-02 杭州电子科技大学 一种基于小波变换的鲁棒去重影系统及方法

Also Published As

Publication number Publication date
CN111275640B (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
CN111275640B (zh) 一种融合二维离散小波变换和生成对抗网络的图像增强方法
CN110135366B (zh) 基于多尺度生成对抗网络的遮挡行人重识别方法
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
Pan et al. Recent progress on generative adversarial networks (GANs): A survey
CN111259905B (zh) 一种基于下采样的特征融合遥感图像语义分割方法
CN110728192B (zh) 一种基于新型特征金字塔深度网络的高分遥感图像分类方法
CN109035142B (zh) 一种对抗网络结合航拍图像先验的卫星图像超分辨方法
Zhang et al. Rotation invariant local binary convolution neural networks
CN104751172B (zh) 基于去噪自动编码的极化sar图像的分类方法
Pistilli et al. Learning robust graph-convolutional representations for point cloud denoising
Bharti et al. EMOCGAN: a novel evolutionary multiobjective cyclic generative adversarial network and its application to unpaired image translation
CN111160392A (zh) 一种基于小波宽度学习系统的高光谱分类方法
CN115565043A (zh) 结合多表征特征以及目标预测法进行目标检测的方法
CN111325259A (zh) 一种基于深度学习和二进制编码的遥感图像分类方法
Zhou et al. MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution
CN114863266A (zh) 一种基于深度时空模式交互网络的土地利用分类方法
CN112686817B (zh) 一种基于不确定性估计的图像补全方法
CN116482618B (zh) 基于多损失特征自校准网络的雷达有源干扰识别方法
Ahmadian et al. Single image super-resolution with self-organization neural networks and image laplace gradient operator
Wu et al. Small target recognition method on weak features
SUN et al. Hyperspectral Image Classification Based on A Multi‐Scale Weighted Kernel Network
CN115546338A (zh) 基于Transformer与生成对抗网络的图像着色方法
CN114997378A (zh) 归纳式图神经网络剪枝方法、系统、设备及存储介质
Li et al. No‐reference image quality assessment based on multiscale feature representation
CN110555483B (zh) 基于fw-dcgan特征生成的极化sar分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant