CN113420823A - 自然图像中天气状况翻译方法 - Google Patents
自然图像中天气状况翻译方法 Download PDFInfo
- Publication number
- CN113420823A CN113420823A CN202110747140.5A CN202110747140A CN113420823A CN 113420823 A CN113420823 A CN 113420823A CN 202110747140 A CN202110747140 A CN 202110747140A CN 113420823 A CN113420823 A CN 113420823A
- Authority
- CN
- China
- Prior art keywords
- network
- weather
- training data
- data
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 58
- 238000013519 translation Methods 0.000 claims abstract description 52
- 230000011218 segmentation Effects 0.000 claims abstract description 28
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims description 14
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 6
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种自然图像中天气状况翻译方法。利用生成对抗网络,实现自然图像中多种天气状况的灵活转换。首先,由自然图像中任意选择和标注得到网络训练用数据,然后,构建了包括初始生成子网络Ginit、天气线索分割子网络Gseg、注意力子网络Gatt和融合子网络的生成网络G,再将生成网络输出的天气翻译结果输入到判别网络D,生成网络通过最小化对抗损失和循环一致损失对网络进行训练,判别网络通过最大化对抗损失进行训练;最后,将源域训练数据输入到训练好的生成网络,即得到目标天气状况的翻译结果。本发明能够解决现在的图像翻译方法对自然图像目标翻译区域的识别和整体风格平衡的局限性问题,生成效果更加逼真自然。
Description
技术领域
本发明属计算机视觉、图像处理技术领域,具体涉及一种自然图像中天气状况翻译方法。
背景技术
随着计算机技术的发展,使用计算机视觉技术改变图像的风格有着越来越多的需求。自然图像中的多种天气状况使图像具有了不同的风格,因此,可以通过改变图像中的天气状况来变换图像的艺术风格。但是图像中的天气状况具有多种类别和复杂的结构,灵活地转换天气状况十分困难。因此,目前对图像中天气状况的转换研究相对较少,这些研究流程大体如下:首先,提取原始类别图像的内容语义特征,然后提取目标类别图像的风格特征,最后将内容特征与风格特征融合得到生成后的风格图像。这些研究都只针对图像的整体风格或特定的天气状况进行转换。如基于图像整体风格转换的有Zhu等人在文献“J.Zhu,T.Park,P.Isola,and A.A.Efros.Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks.IEEE International Conference on ComputerVision,2017,pp.2242-2251.”中公开的一种基于生成式对抗网络的非配对图像翻译算法。这种算法将非配对的源域和目标域的数据作为输入,并结合循环一致损失和对抗损失对生成的图像进行优化,最终实现对输入图像的整体风格转换。基于特定天气状况的有Anokhin等人在文献“I.Anokhin,P.Solovev,D.Korzhenkov,A.Kharlamov,T.Khakhulin,A.Silvestrov,S.I.Nikolenko,V.Lempitsky,and G.Sterkin.High-Resolution DaytimeTranslation Without Domain Labels.IEEE Conference on Computer Vision andPattern Recognition,2020,pp.7485-7494.”中公开的一种自然图像风格转换算法,这种算法研究了光照对图像成像的影响,并使用不同时间段的场景图像来合成不同光照下的高分辨率场景图像,从而实现了从白天到夜晚的转换。
上述方法的局限性在于:第一,由于图像中的天气状况分布和结构复杂多样并且包含复杂的背景,所以,整体风格转换方法很难准确识别图像中的目标区域并执行正确的风格转换;第二,天气状况具有多种类别,特定场景的图像翻译方法不能灵活地应用于多种天气场景。
发明内容
为了克服现有技术的不足,本发明提供一种自然图像中天气状况翻译方法。利用生成对抗网络,实现自然图像中多种天气状况的灵活转换,即输入一种天气状况的图像,输出得到其他种类天气状况的图像。首先,由自然图像中任意选择和标注得到网络训练用数据,然后,构建了包括初始生成子网络Ginit、天气线索分割子网络Gseg、注意力子网络Gatt和融合子网络的生成网络G,再将生成网络输出的天气翻译结果输入到判别网络D,生成网络通过最小化对抗损失和循环一致损失对网络进行训练,判别网络通过最大化对抗损失进行训练;最后,将源域训练数据输入到训练好的生成网络,即得到目标天气状况的翻译结果。本发明能够解决现在的图像翻译方法对自然图像目标翻译区域的识别和整体风格平衡的局限性问题,具有生成效果逼真自然的特点,并避免了现有图像翻译方法产生的局部形变和失真问题。
一种自然图像中天气状况翻译方法,其特征在于步骤如下:
步骤1:对收集到的自然图像按照天气状况类别进行分类,分为晴天、阴天、雾天、雨天和雪天5类,并任意选择其中两类天气的图像数据作为训练数据,分别记为X和Y;然后,使用边界框对训练数据X和Y中的天气线索分别进行标注,得到对应的参考天气线索分割图数据SX和SY,所述的天气线索包括蓝天、灰色天空、白色天空、白云、乌云、雾霾、雪、雨8种;
步骤2:构建生成网络G,包括初始生成子网络Ginit、天气线索分割子网络Gseg、注意力子网络Gatt和融合子网络,将训练数据X输入到初始生成子网络Ginit,输出得到初始生成结果Ginit(X),将训练数据X和参考天气线索分割图数据SX输入到天气线索分割子网络Gseg,输出得到天气线索分割掩码Gseg(X),将训练数据X输入到注意力子网络Gatt,输出得到注意力掩码Gatt(X),融合子网络将初始生成结果Ginit(X)、天气线索分割掩码Gseg(X)和注意力掩码Gatt(X)相融合,得到训练数据X的天气翻译结果G(X);
所述的初始生成子网络Ginit采用改进的ResNet网络,即在ResNet网络的全连接层后接9个残差块和3个反卷积层;所述的天气线索分割子网络Gseg采用全卷积网络,其目标函数Lseg采用交叉熵损失,具体如下:
其中,N表示输入的训练数据X的分辨率;
所述的注意力子网络Gatt采用改进的VGG19网络,即将原VGG19网络最后的全连接层用3个反卷积层替代;
所述的融合子网络按照下式将初始生成结果Ginit(X)、天气线索分割掩码Gseg(X)和注意力掩码Gatt(X)相融合,得到训练数据X的天气翻译结果G(X):
G(X)=T(X)⊙Ginit(X)+(1-T(X))⊙X (2)
其中,⊙表示逐元素相乘;T(X)表示图像翻译掩码,按照T(X)=Gseg(X)⊙Gatt(X)计算得到;
步骤3:训练数据X的天气翻译结果G(X)和训练数据Y输入到判别网络D,输出得到G(X)属于数据Y天气类别的概率,分别计算对抗损失和循环一致损失,使用Adam优化器对网络进行训练,判别网络通过最大化对抗损失更新参数,生成网络通过最小化对抗损失和循环一致损失更新参数,学习率设置为0.002,迭代训练次数达到100次时,停止训练,得到训练好的生成网络G;
所述的判别网络D采用改进的VGG网络,即在VGG网络全连接层后接5个卷积层,再经过Sigmoid操作得到每张图像是真实数据的概率;
所述的对抗损失的计算公式如下:
其中,Ladv(D,G,X,Y)表示输入训练数据X、Y时,对生成网络G和判别网络D的输出计算得到的对抗损失,D(G(X))表示训练数据X的天气翻译结果G(X)属于数据Y天气类别的概率,D(Y)表示输入数据Y为真实数据的概率;log(·)表示取对数计算;E[·]表示对·计算数学期望;
所述的循环一致损失的计算公式如下:
Lcycle(G)=E[||G(G(X))-X||1]+E[||G(G(Y))-Y||1] (4)
其中,Lcycle(G)表示对生成网络G的输出计算得到的循环一致损失,G(G(X))表示以G(X)作为生成网络的输入得到的输出翻译结果,G(Y)表示以训练数据Y为生成网络的输入得到的输出翻译结果,G(G(Y))表示以G(Y)作为生成网络的输入得到的输出翻译结果;||·||1表示L1范式计算;
步骤4:将训练数据X输入到步骤3训练好的生成网络G,输出即为其转换到数据Y天气类别的天气翻译结果。
本发明的有益效果是:基于对抗生成网络构建了天气翻译网络,能够实现自然图像中多种天气状况的灵活转换,其中,利用天气线索分割子网络,能够识别图像中多种天气线索的准确位置和结构;利用注意力子网络,能够预测图像中不同区域的注意力权重,并与天气线索分割结果相结合,能够融合图像整体特征与局部特征,并避免了全局图像翻译方法产生的局部形变和失真问题,对于输入的任意天气状况图像,可以得到更逼真自然的视觉结果。
附图说明
图1是本发明的自然图像中天气状况翻译方法流程图;
图2是采用不同方法计算得到从雪天到晴天的天气翻译结果;
图中,(a)-输入图像,(b)-采用本发明方法得到的结果图像,(c)-采用MUNIT方法得到的结果图像,(d)-采用MUNIT方法得到的结果图像,(e)-采用CycleGAN方法得到的结果图像;
图3是采用本发明方法对不同类型天气图像-进行处理得到的天气翻译结果;
图中,(a)-由晴天到阴天的翻译前后图像,(b)-由阴天到晴天的翻译前后图像。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
如图1所示,本发明提供了一种自然图像中天气状况翻译方法,其具体实现过程如下:
步骤1:对收集到的自然图像按照天气状况类别进行分类,分为晴天、阴天、雾天、雨天和雪天5类,并任意选择其中两类天气的图像数据作为训练数据,分别记为X和Y;然后,使用边界框对训练数据X和Y中的天气线索分别进行标注,得到对应的参考天气线索分割图数据SX和SY,所述的天气线索包括蓝天、灰色天空、白色天空、白云、乌云、雾霾、雪、雨8种;
步骤2:构建生成网络G,包括初始生成子网络Ginit、天气线索分割子网络Gseg、注意力子网络Gatt和融合子网络,将训练数据X输入到初始生成子网络Ginit,输出得到初始生成结果Ginit(X),将训练数据X和参考天气线索分割图数据SX输入到天气线索分割子网络Gseg,输出得到天气线索分割掩码Gseg(X),将训练数据X输入到注意力子网络Gatt,输出得到注意力掩码Gatt(X),融合子网络将初始生成结果Ginit(X)、天气线索分割掩码Gseg(X)和注意力掩码Gatt(X)相融合,得到训练数据X的天气翻译结果G(X)。
所述的初始生成子网络Ginit采用改进的ResNet网络,即在ResNet网络的全连接层后接9个残差块和3个反卷积层;所述的天气线索分割子网络Gseg采用全卷积网络,其目标函数Lseg采用交叉熵损失,具体如下:
其中,N表示输入的训练数据X的分辨率,本实施例中N=300。
所述的注意力子网络Gatt采用改进的VGG19网络,即将原VGG19网络的全连接层用3层反卷积层替代;
所述的融合子网络按照下式将初始生成结果Ginit(X)、天气线索分割掩码Gseg(X)和注意力掩码Gatt(X)相融合,得到训练数据X的天气翻译结果G(X):
G(X)=T(X)⊙Ginit(X)+(1-T(X))⊙X (6)
其中,⊙表示逐元素相乘;T(X)表示图像翻译掩码,按照T(X)=Gseg(X)⊙Gatt(X)计算得到;
步骤3:训练数据X的天气翻译结果G(X)和训练数据Y输入到判别网络D,输出得到G(X)属于数据Y天气类别的概率,分别计算对抗损失和循环一致损失,使用Adam优化器对网络进行训练,判别网络通过最大化对抗损失更新参数,生成网络通过最小化对抗损失更新参数,学习率设置为0.002,迭代训练次数达到100次时,停止训练,得到训练好的生成网络G,将数据X天气类别的数据输入到训练好的生成网络G,输出得到数据Y天气类别的数据。
所述的判别网络采用改进的VGG网络,即在原VGG网络全连接层后接5个卷积层,再经过Sigmoid操作得到每张图像是真实数据的概率。
所述的对抗损失的计算公式如下:
其中,Ladv(D,G,X,Y)表示输入训练数据X、Y时,对生成网络G和判别网络D的输出计算得到的对抗损失,D(G(X))表示训练数据X的天气翻译结果G(X)属于数据Y天气类别的概率,D(Y)表示输入数据Y为真实数据的概率;log(·)表示取对数计算;E[·]表示对“·”计算数学期望;
所述的循环一致损失的计算公式如下:
Lcycle(G)=E[||G(G(X))-X||1]+E[||G(G(Y))-Y||1] (8)
其中,Lcycle(G)表示对生成网络G的输出计算得到的循环一致损失,G(G(X))表示以G(X)作为生成网络的输入得到的输出翻译结果,G(Y)表示以训练数据Y为生成网络的输入得到的输出翻译结果,G(G(Y))表示以G(Y)作为生成网络的输入得到的输出翻译结果;||·||1表示L1范式计算;
为验证本发明效果,在中央处理器为Intel(R)Xeon(R)CPU E5-2650V4@2.20GHz、内存500G、Ubuntu 16操作系统上,运用Python及其他相关工具包进行仿真实验。实验采用的数据来源于大型天气数据集Multi-Task Weather,该数据集记载在“B.Zhao,L.Hua,X.Li,X.Lu,and Z.Wang,Weather recognition via classification labels andweather-cue maps,Pattern Recognition,vol.95,pp.272-284,2019.”中,包含了晴天、阴天、雾天、雨天和雪天五种天气状况,以及每张图相对应的参考天气线索分割掩码。
为了证明算法的有效性,分别选择CycleGAN、UNIT、MUNIT作为对比算法。其中,CycleGAN记载在文献“J.Zhu,T.Park,P.Isola,and A.A.Efros.Unpaired Image-to-ImageTranslation Using Cycle-Consistent Adversarial Networks.IEEE InternationalConference on Computer Vision,2017,pp.2242-2251.”中;UNIT记载在文献“M.Liu,T.Breuel,and J.Kautz.Unsupervised Image-to-Image TranslationNetworks.Advances in Neural Information Processing Systems,2017,pp.700-708.”中;MUNIT记载在文献“X.Huang,M.Liu,S.J.Belongie,and J.Kautz.MultimodalUnsupervised Image-to-Image Translation.European Conference on ComputerVision,2018,pp.179-196.”中。
图2给出了采用不同方法计算得到的天气翻译结果图像。可以看出,本发明的生成效果更加逼真自然,并避免了现有图像翻译方法产生的局部形变和失真问题。
图3给出了采用本发明方法对不同类型天气图像进行处理得到的天气翻译结果图像。可以看出,本发明可以适用于多种天气状况的翻译。
此外,对翻译结果分别采用FID指标进行定量计算,以评价不同算法的翻译效果。其中,FID(Frechet Inception Distance)是衡量GAN生成数据的质量的常用指标,这个指标的数值越小,表示生成的图像质量越好,计算结果如表1所示。可以看出,本发明的图像翻译质量明显优于其它算法。本发明通过准确识别天气图像中多种天气线索来确定不同区域的图像翻译注意力,将图像翻译的注意力集中在感兴趣区域并平衡了生成结果的整体风格,使得生成结果具有更加逼真的视觉效果。
表1
Claims (1)
1.一种自然图像中天气状况翻译方法,其特征在于步骤如下:
步骤1:对收集到的自然图像按照天气状况类别进行分类,分为晴天、阴天、雾天、雨天和雪天5类,并任意选择其中两类天气的图像数据作为训练数据,分别记为X和Y;然后,使用边界框对训练数据X和Y中的天气线索分别进行标注,得到对应的参考天气线索分割图数据SX和SY,所述的天气线索包括蓝天、灰色天空、白色天空、白云、乌云、雾霾、雪、雨8种;
步骤2:构建生成网络G,包括初始生成子网络Ginit、天气线索分割子网络Gseg、注意力子网络Gatt和融合子网络,将训练数据X输入到初始生成子网络Ginit,输出得到初始生成结果Ginit(X),将训练数据X和参考天气线索分割图数据SX输入到天气线索分割子网络Gseg,输出得到天气线索分割掩码Gseg(X),将训练数据X输入到注意力子网络Gatt,输出得到注意力掩码Gatt(X),融合子网络将初始生成结果Ginit(X)、天气线索分割掩码Gseg(X)和注意力掩码Gatt(X)相融合,得到训练数据X的天气翻译结果G(X);
所述的初始生成子网络Ginit采用改进的ResNet网络,即在ResNet网络的全连接层后接9个残差块和3个反卷积层;所述的天气线索分割子网络Gseg采用全卷积网络,其目标函数Lseg采用交叉熵损失,具体如下:
其中,N表示输入的训练数据X的分辨率;
所述的注意力子网络Gatt采用改进的VGG19网络,即将原VGG19网络最后的全连接层用3个反卷积层替代;
所述的融合子网络按照下式将初始生成结果Ginit(X)、天气线索分割掩码Gseg(X)和注意力掩码Gatt(X)相融合,得到训练数据X的天气翻译结果G(X):
G(X)=T(X)⊙Ginit(X)+(1-T(X))⊙X (2)
其中,⊙表示逐元素相乘;T(X)表示图像翻译掩码,按照T(X)=Gseg(X)⊙Gatt(X)计算得到;
步骤3:训练数据X的天气翻译结果G(X)和训练数据Y输入到判别网络D,输出得到G(X)属于数据Y天气类别的概率,分别计算对抗损失和循环一致损失,使用Adam优化器对网络进行训练,判别网络通过最大化对抗损失更新参数,生成网络通过最小化对抗损失和循环一致损失更新参数,学习率设置为0.002,迭代训练次数达到100次时,停止训练,得到训练好的生成网络G;
所述的判别网络D采用改进的VGG网络,即在VGG网络全连接层后接5个卷积层,再经过Sigmoid操作得到每张图像是真实数据的概率;
所述的对抗损失的计算公式如下:
其中,Ladv(D,G,X,Y)表示输入训练数据X、Y时,对生成网络G和判别网络D的输出计算得到的对抗损失,D(G(X))表示训练数据X的天气翻译结果G(X)属于数据Y天气类别的概率,D(Y)表示输入数据Y为真实数据的概率;log(·)表示取对数计算;E[·]表示对·计算数学期望;
所述的循环一致损失的计算公式如下:
Lcycle(G)=E[||G(G(X))-X||1]+E[||G(G(Y))-Y||1] (4)
其中,Lcycle(G)表示对生成网络G的输出计算得到的循环一致损失,G(G(X))表示以G(X)作为生成网络的输入得到的输出翻译结果,G(Y)表示以训练数据Y为生成网络的输入得到的输出翻译结果,G(G(Y))表示以G(Y)作为生成网络的输入得到的输出翻译结果;||·||1表示L1范式计算;
步骤4:将训练数据X输入到步骤3训练好的生成网络G,输出即为其转换到数据Y天气类别的天气翻译结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110747140.5A CN113420823A (zh) | 2021-07-02 | 2021-07-02 | 自然图像中天气状况翻译方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110747140.5A CN113420823A (zh) | 2021-07-02 | 2021-07-02 | 自然图像中天气状况翻译方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113420823A true CN113420823A (zh) | 2021-09-21 |
Family
ID=77720036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110747140.5A Pending CN113420823A (zh) | 2021-07-02 | 2021-07-02 | 自然图像中天气状况翻译方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420823A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114511488A (zh) * | 2022-02-19 | 2022-05-17 | 西北工业大学 | 一种夜间场景的日间风格可视化方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111429340A (zh) * | 2020-03-25 | 2020-07-17 | 山东大学 | 一种基于自注意力机制的循环图像翻译方法 |
-
2021
- 2021-07-02 CN CN202110747140.5A patent/CN113420823A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111429340A (zh) * | 2020-03-25 | 2020-07-17 | 山东大学 | 一种基于自注意力机制的循环图像翻译方法 |
Non-Patent Citations (1)
Title |
---|
XUELONG LI: "《Weather GAN: Multi-Domain Weather Translation Using Generative Adversarial Networks》", 《ARXIV:2103.05422V1》, 9 March 2021 (2021-03-09), pages 1 - 10 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114511488A (zh) * | 2022-02-19 | 2022-05-17 | 西北工业大学 | 一种夜间场景的日间风格可视化方法 |
CN114511488B (zh) * | 2022-02-19 | 2024-02-27 | 西北工业大学 | 一种夜间场景的日间风格可视化方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111292264B (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN111340738B (zh) | 一种基于多尺度渐进融合的图像去雨方法 | |
CN108335303B (zh) | 一种应用于手掌x光片的多尺度手掌骨骼分割方法 | |
CN112668648A (zh) | 基于对称融合网络的红外可见光融合识别方法 | |
Li et al. | Weather GAN: Multi-domain weather translation using generative adversarial networks | |
CN114066831B (zh) | 一种基于两阶段训练的遥感图像镶嵌质量无参考评价方法 | |
CN112989942A (zh) | 一种基于交通监控视频的目标实例分割方法 | |
CN111598842A (zh) | 一种绝缘子缺陷样本生成模型的方法、系统及存储介质 | |
CN117557775B (zh) | 基于红外和可见光融合的变电站电力设备检测方法及系统 | |
Liu et al. | Griddehazenet+: An enhanced multi-scale network with intra-task knowledge transfer for single image dehazing | |
CN114708313A (zh) | 基于双支路神经网络的光学与sar图像配准方法 | |
CN112215100B (zh) | 一种不平衡训练样本下针对退化图像的目标检测方法 | |
CN113269224A (zh) | 一种场景图像分类方法、系统及存储介质 | |
CN114998688B (zh) | 一种基于YOLOv4改进算法的大视场目标检测方法 | |
CN114596477A (zh) | 基于领域自适应和注意力机制的雾天火车故障检测方法 | |
CN116071553A (zh) | 基于朴素VisionTransformer的弱监督语义分割方法与装置 | |
Ding et al. | A robust infrared and visible image fusion framework via multi-receptive-field attention and color visual perception | |
CN117197462A (zh) | 基于多尺度特征融合和对齐的轻量地基云分割方法及系统 | |
CN115830094A (zh) | 一种基于无监督的立体匹配方法 | |
CN114240811A (zh) | 一种基于多张图像生成新图像的方法 | |
CN113420823A (zh) | 自然图像中天气状况翻译方法 | |
Zhao et al. | Label freedom: Stable diffusion for remote sensing image semantic segmentation data generation | |
CN117011515A (zh) | 基于注意力机制的交互式图像分割模型及其分割方法 | |
Uittenbogaard et al. | Conditional transfer with dense residual attention: Synthesizing traffic signs from street-view imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |