CN113362242B - 基于多特征融合网络的图像修复方法 - Google Patents

基于多特征融合网络的图像修复方法 Download PDF

Info

Publication number
CN113362242B
CN113362242B CN202110621167.XA CN202110621167A CN113362242B CN 113362242 B CN113362242 B CN 113362242B CN 202110621167 A CN202110621167 A CN 202110621167A CN 113362242 B CN113362242 B CN 113362242B
Authority
CN
China
Prior art keywords
image
network
loss
feature
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110621167.XA
Other languages
English (en)
Other versions
CN113362242A (zh
Inventor
张新
王东京
陈涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110621167.XA priority Critical patent/CN113362242B/zh
Publication of CN113362242A publication Critical patent/CN113362242A/zh
Application granted granted Critical
Publication of CN113362242B publication Critical patent/CN113362242B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多特征融合网络的图像修复方法,包括:S1基于多特征融合的生成网络;S2编码器中基于多级特征提取的下采样模块;S3解码器中基于多级特征提取的上采样模块;S4解码器中基于亚像素的上采样层;S5基于块的判别网络。本发明首先将待修复图像输入基于多特征融合的生成网络中,得到具有一定结构信息的初始修复图像;然后将初始修复图像输入到基于多特征融合的精细生成网络中,进一步填充高频信息;通过计算重建损失、结构损失和对抗损失,优化网络参数,使得修复后的图像具有清晰合理的结构信息及有序的纹理信息,提升修复后图像的视觉质量。

Description

基于多特征融合网络的图像修复方法
技术领域
本发明属于基于深度学习的图像修复领域,针对具有较大区域缺失的图像修复问题,结合图像中的全局语义信息及局部结构特征信息,提出了基于多特征融合网络的图像修复方法。
背景技术
图像修复技术在工业界及日常生活中具有广泛的应用,例如,影视界对视频及图像的编辑、去除照片中的遮挡物、艺术品的修缮、图像的传输等。图像编辑软件Photoshop提供基于内容的图像填充技术,该技术通过匹配邻域内已知图像块,允许用户对指定图像区域进行自动填充。图像修复涉及图像特征的提取及图像语义场景的理解,近年来,深度神经网络的快速发展及应用极大促进了图像修复领域的发展。如何设计网络架构,提高神经网络对图像全局语义信息的提取及局部特征的提取成为了学术界和工业界的广泛关注点。
目前,国内外学者在基于深度学习的图像修复领域做出了很多有价值的研究成果。Deepak Pathak等人提出基于上下文编码的图像修复方法,通过结合“编码器-解码器”的生成网络及判别网络学习图像中上下文特征信息,进而生成语义合理的缺失区域信息。在此基础上,Iizuka等人进一步提出基于全局及局部一致性的判别网络。为保持边界的一致性,该方法需要采用泊松融合技术对修复后的图像进行后处理。Yu等人提出了基于注意力机制的Rough-to-Fine架构,通过级联两个生成网络增大感受野,能够更加充分地提取全局语义信息;注意力层能够利用远距离的空间关联关系,使得生成的图像信息更加清晰。
已有的图像修复方法通过多层卷积提取图像的局部结构特征,未充分利用图像中的多尺度及多级别特征,导致网络缺乏对图像的语义理解,使得生成的图像具有纹理紊乱、结构及边界模糊的现象。
发明内容
本发明针对现有图像修复技术对已知图像区域特征提取的不足,提出了一种基于多特征融合网络的图像修复方法。首先,在生成网络中加入自适应长连接和多级短连接,不仅能够将浅层特征传递到深层,使得模型优化过程更加稳定,而且能够增加模型对特征及语义信息的提取及表达能力,使得生成的图像具有一致性的边界信息;然后,在解码阶段,采用亚像素层进行上采样,有效地降低棋盘效应和模糊现象。本发明采用由粗糙到精细(Rough-to-Fine)的网络架构,即生成网络由两个多特征融合网络构成。首先,待修复图像输入到粗糙多特征融合生成网络,得到初始的修复图像,该图像具有合理的结构信息,但缺乏精细的纹理;然后,将初始修复图像输入到精细多特征融合生成网络,在初始修复结果的基础上进一步填充精细的纹理信息;最后,本发明结合判别网络对生成网络进行对抗优化,使得生成网络能够产生更多的高频信息,从而提升修复图像的视觉效果。
基于多特征融合网络的图像修复方法具体步骤包括:
步骤(1).在通道维度级联具有缺失区域的图像Iin和掩码图像Im,获得网络的输入张量,公式为:
Tin=fcat(Iin,Im)
步骤(2).将张量Tin输入到多特征融合生成网络Ga,生成网络Ga由编码器和解码器构成。编码器由多层步长为2的卷积层构成,对输入张量进行多层特征提取,将其映射到高维度、高度抽象的潜在特征空间。解码器的结构和编码器的结构成对称分布,由多层上采样卷积层构成,将编码器输出的高级潜在特征向量映射到图像空间,同时将缺失区域填充得到修复后的图像。
本发明设计一种新的多特征融合生成网络,通过自适应长连接将编码器层信息和对应的解码器层信息进行自适应融合;同时,本发明设计了多级下采样模块和多级上采样模块分别作为编码器和解码器的基本构成模块。
初始粗糙修复图像的计算公式为:
Ia=Ga(Tin)
步骤(3).将初始修复图像Ia级联掩膜图像输入到多特征融合生成网络Gb进行细化。由于Ia图像的缺失区域已被生成网络Ga进行填充,填充的内容是基于图像中的已知信息生成的,因此,相比于Ga网络,Gb网络具有更大的感受野,从而能够更好地生成全局语义信息一致的像素信息。计算公式为:
Figure BDA0003099625320000021
步骤(4).将修复图像Iout和真实图像Ig分别输入到判别网络。对于每幅输入图像,判别网络对其进行特征提取,并生成大小为N×N的矩阵X,其元素Xi,j代表输入图像中的局部图像块。
步骤(5).计算损失,并对生成网络及判别网络进行优化。本发明采用L1损失,确保初始图像修复Ia和细化修复图像Iout和真实图像Ig之间的像素级一致性,计算公式为:
Lre=E[||Ia-Ig||1+||Iout-Ig||1]
为了提高修复图像中结构信息的清晰度,采用多尺度SSIM损失,计算公式为:
Figure BDA0003099625320000022
其中,Dn(·)为采用平均池化对图像进行降采样,2n-1为降采样倍数。本发明中采用N=5,即5种不同尺度计算修复图像Ibout和真实图像Ig之间的SSIM损失。通过局部和全局结构相似度约束引导生成网络产生高视觉质量的图像。
本发明采用基于最小二乘对抗损失,进一步提升生成图像中的高频信息,计算公式为:
Figure BDA0003099625320000031
其中,D(·)为判别器网络,G(·)为生成器网络。Pr为真实图像分布,Pf为待修复图像分布。常量1为真实图像标签,常量0为生成图像标签。最小二乘对抗损失能够提高训练过程的稳定性及生成网络的性能。
以上三种损失函数通过加权得到整体损失函数,其公式为:
L=λrLredLdMS_SSIMLMS_SSIM
其中,λr=4,λd=2和λMS_SSIM=1分别为重建损失、对抗损失和结构损失的自适应权重。
本发明网络架构由粗糙多特征融合生成网络、精细多特征融合生成网络及判别网络构成。多特征融合生成网络通过长、短跳跃连接,将多级别特征进行融合,能够提升模型对全局及局部语义信息、特征信息的提取及表达能力,从而提高模型修复图像的视觉质量。本发明采用多种损失函数,包括重建损失、结构损失及对抗损失,从多种不同角度优化生成网络的参数,使得模型能够生成满足人类视觉的修复图像。
附图说明
图1本发明的基于多特征融合图像修复的网络架构图;
图2本发明的多特征融合生成网络结构图;
图3本发明的编码器中的多级下采样模块结构图;
图4本发明的解码器中的多级上采样模块结构图;
图5本发明的基于块的判别网络结构图;
图6本发明图1的示例补充。
具体实施方式
实施例1
本发明提出基于多特征融合网络的图像修复技术。如图1所示,整体网络架构由初始生成网络Ga、精细生成网络Gb和判别网络D构成。首先,待修复图像级联掩膜图像输入至初始生成网络Ga得到初始修复图像,该图像的修复区域具有一定的结构及纹理信息,但是比较模糊,修复痕迹比较明显;然后,初始修复图像进一步级联掩膜图像输入到精细生成网络Gb,对待修复区域填充更多的高频纹理信息,得到精细化的修复图像;最后,将精细修复图像输入到判别网络,计算对抗损失,该步骤只在训练过程中使用,用以引导生成网络能够生成神似真实图像的修复内容。
接下来结合附图具体阐述实施步骤。
步骤(1).将待修复图像在通道维度级联掩膜图像,输入到多特征融合生成网络。如图2所示,多特征融合生成网络分为编码器和解码器两部分。
步骤(1.1).编码器的前两层为5×5卷积层和Relu非线性激活层,将图像映射到高维特征空间。
步骤(1.2).卷积模块连接5个多级下采样模块,具体结构如图3所示。前一层的输出特征图被输入到两个分支,上分支为短跳跃连接,通过一个卷积模块提取低级特征,并将该特征与下分支提取的特征进行融合;下分支通过两个卷积模块提取高级特征,将两个分支提取的特征相加作为该模块的输出特征图,计算公式为:
Figure BDA0003099625320000041
步骤(1.3).在解码器中,采用和编码器对应的结构,前5层为多级上采样模块,其结构如图4所示。上一层的输出特征图被输入到两个分支中,其中,上分支为一个卷积模块,包括3×3卷积层和Relu非线性激活层;下分支为两个卷积模块,提取更为抽象的高级特征信息;两个分支提取的特征图相加输入到下一层中,计算公式为:
Figure BDA0003099625320000042
步骤(1.4).在多级上采样模块中,采用1×1卷积层将多级融合特征
Figure BDA0003099625320000043
及由长跳跃连接输送的编码器提取的特征
Figure BDA0003099625320000044
进行自适应融合,计算公式为:
Figure BDA0003099625320000045
1×1卷积层一方面学习在通道维度对两种特征进行最优化融合,另一方面通过减少通道数能够有效去除冗余信息。
步骤(1.5).本发明采用亚像素方法对特征图进行上采样,计算公式为:
Figure BDA0003099625320000046
其中,fps为周期性重排操作,将特征图
Figure BDA0003099625320000047
中的元素进行重排,通过减少通道数实现增大分辨率的目的。通过结合可学习卷积层,亚像素上采样层能够自适应不同的特征图,因此能够更加高效地合成语义合理、纹理有序的信息。
步骤(2).将以上步骤得到的初始修复图像和掩膜图像在通道维度级联,输入到精细多特征融合生成网络中。该网络采用和粗糙多特征融合生成网络相同的结构,因此,该步骤为以初始修复结果为网络输入,重复步骤(1.1)到步骤(1.5),得到精细修复图像。
步骤(3).将精细修复图像及真实图像分别输入到如图5所示的判别网络中,对每幅输入图像提取124×124的块信息,该信息中的每个数值和输入图像中的局部图像块对应。判别网络对提取的块信息进行分类判断,其中1为真实图像标签,0为生成图像标签。判别网络的作用为辅助生成网络的优化,通过对抗损失优化生成网络,使其生成的图像能够通过判别网络的真伪鉴别。
步骤(4).计算重建损失、结构损失和对抗损失,对两个多特征融合生成网络及判别网络进行优化。

Claims (1)

1.基于多特征融合网络的图像修复方法,其特征在于,包括如下步骤:步骤(1).将待修复图像在通道维度级联掩膜图像,输入到多特征融合生成网络Ga,计算公式为:
Tin=fcat(Iin,Im)
步骤(1.1).多特征融合生成网络Ga由编码器和解码器构成;编码器的前两层为5×5卷积层和Relu非线性激活层,计算公式为:
Figure FDA0003841864900000011
步骤(1.2).接下来为5个多级下采样模块,前一层的输出特征图被输入到两个分支,上分支作为短跳跃连接通过一个卷积模块提取低级特征,下分支通过两个卷积模块提取高级特征,将两个分支提取的特征相加作为该模块的输出特征图,计算公式为:
Figure FDA0003841864900000012
步骤(1.3).在解码器中,采用和编码器对应的结构,前5层为多级上采样模块;上一层的输出特征图被输入到两个分支中;其中,上分支为一个卷积模块,包括3×3卷积层和Relu非线性激活层;下分支为两个卷积模块,提取更为抽象的高级特征信息;两个分支提取的特征图相加输入到下一层中,计算公式为:
Figure FDA0003841864900000013
步骤(1.4).接下来的1×1卷积层将多级融合特征
Figure FDA0003841864900000014
及由长跳跃连接输送的编码器提取的特征
Figure FDA0003841864900000015
进行自适应融合,计算公式为:
Figure FDA0003841864900000016
1×1卷积层一方面学习在通道维度对两种特征进行最优化融合,另一方面通过减少通道数能够有效去除冗余信息;
步骤(1.5).采用亚像素方法对特征图进行上采样,计算公式为:
Figure FDA0003841864900000017
其中,fps为周期性洗牌操作,将特征图
Figure FDA0003841864900000018
中的元素进行重排;
步骤(2).将以上步骤得到的初始修复图像和掩膜图像在通道维度级联,输入到精细多特征融合生成网络Gb中,计算公式为:
Figure FDA0003841864900000019
该网络采用和粗糙多特征融合生成网络Ga相同的结构;首先,通过组合初始修复图像Ia中的修复区域和输入图像中的已知区域得到生成网络Ga的修复图像,在通道维度级联该修复图像和掩膜图像作为精细网络Gb的输入张量;然后重复步骤(1.1)到步骤(1.5),得到精细修复图像Iout
步骤(3).将精细修复图像及真实图像分别输入到判别网络中,对每幅输入图像提取124×124的块信息,并判别其真伪;
步骤(4).计算重建损失、结构损失和对抗损失,对两个多特征融合生成网络及判别网络进行优化;
步骤(4.1).首先,采用L1范数确保初始图像修复Ia和细化修复图像Iout和真实图像Ig之间的像素级一致性,计算公式为:
Lre=E[||Ia-Ig||1+||Iout-Ig||1]
步骤(4.2).计算多尺度SSIM损失,提高修复图像中结构信息的清晰度,计算公式为:
Figure FDA0003841864900000021
其中,Dn(·)为采用平均池化操作对图像进行降采样,2n-1为降采样倍数;
步骤(4.3).计算基于最小二乘算法的对抗损失,进一步提升生成图像中的高频信息,计算公式为:
Figure FDA0003841864900000022
其中,D(·)为判别器网络,G(·)为生成器网络,Pr为真实图像分布,Pf为待修复图像分布;常量1为真实图像标签,常量0为生成图像标签;步骤(4.4).将以上三种损失函数通过加权得到整体损失函数,其公式为:
L=λrLredLdMS_SSIMLMS_SSIM
其中,λr=4,λd=2和λMS_SSIM=1分别为重建损失、对抗损失和结构损失的自适应权重。
CN202110621167.XA 2021-06-03 2021-06-03 基于多特征融合网络的图像修复方法 Active CN113362242B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110621167.XA CN113362242B (zh) 2021-06-03 2021-06-03 基于多特征融合网络的图像修复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110621167.XA CN113362242B (zh) 2021-06-03 2021-06-03 基于多特征融合网络的图像修复方法

Publications (2)

Publication Number Publication Date
CN113362242A CN113362242A (zh) 2021-09-07
CN113362242B true CN113362242B (zh) 2022-11-04

Family

ID=77531862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110621167.XA Active CN113362242B (zh) 2021-06-03 2021-06-03 基于多特征融合网络的图像修复方法

Country Status (1)

Country Link
CN (1) CN113362242B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114882445A (zh) * 2022-07-06 2022-08-09 深圳百城精工有限公司 基于图像视觉的电梯监控预警方法、装置、设备及介质
CN117237202A (zh) * 2022-12-26 2023-12-15 青海师范大学 基于自适应多特征融合的双重图像退化修复方法
CN115689946B (zh) * 2022-12-29 2023-04-07 北京集度科技有限公司 图像修复方法、电子设备及计算机程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340122A (zh) * 2020-02-29 2020-06-26 复旦大学 一种多模态特征融合的文本引导图像修复方法
CN111784602A (zh) * 2020-06-28 2020-10-16 江西理工大学 一种生成对抗网络用于图像修复的方法
CN112116535A (zh) * 2020-08-11 2020-12-22 西安交通大学 一种基于并行自编码器的图像补全方法
CN112365412A (zh) * 2020-10-27 2021-02-12 天津大学 基于动态的面部表情动作单元信息的人脸修复方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI682359B (zh) * 2018-01-29 2020-01-11 國立清華大學 影像補全方法
CN109191402B (zh) * 2018-09-03 2020-11-03 武汉大学 基于对抗生成神经网络的图像修复方法和系统
US11055828B2 (en) * 2019-05-09 2021-07-06 Adobe Inc. Video inpainting with deep internal learning
KR20210051242A (ko) * 2019-10-30 2021-05-10 삼성전자주식회사 멀티 렌즈 영상 복원 장치 및 방법
US11501415B2 (en) * 2019-11-15 2022-11-15 Huawei Technologies Co. Ltd. Method and system for high-resolution image inpainting
CN112488935B (zh) * 2020-11-26 2024-02-06 杭州电子科技大学 基于纹理约束和泊松融合的生成对抗指静脉图像修复方法
CN112465718B (zh) * 2020-11-27 2022-07-08 东北大学秦皇岛分校 一种基于生成对抗网络的两阶段图像修复方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111340122A (zh) * 2020-02-29 2020-06-26 复旦大学 一种多模态特征融合的文本引导图像修复方法
CN111784602A (zh) * 2020-06-28 2020-10-16 江西理工大学 一种生成对抗网络用于图像修复的方法
CN112116535A (zh) * 2020-08-11 2020-12-22 西安交通大学 一种基于并行自编码器的图像补全方法
CN112365412A (zh) * 2020-10-27 2021-02-12 天津大学 基于动态的面部表情动作单元信息的人脸修复方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Free-form Image Inpainting with Gated Convolution;Jiahui Yu,et al.;《IEEE International Conference on Computer Vision》;20191231;全文 *
Image Inpainting using Multi-Scale Feature Image Translation;Yuhang Song,et al.;《arxiv》;20180725;全文 *
Image restoration method based on GAN and multi-scale feature fusion;Xin Jin,et al.;《2020 Chinese Control And Decision Conference》;20200811;全文 *
图像处理中超分辨与修复方法的研究;张新;《中国博士学位论文全文数据库 信息科技辑》;20181115;全文 *
基于级联生成对抗网络的人脸图像修复;陈俊周等;《电子科技大学学报》;20191130(第06期);全文 *

Also Published As

Publication number Publication date
CN113362242A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
CN113362242B (zh) 基于多特征融合网络的图像修复方法
CN112396607B (zh) 一种可变形卷积融合增强的街景图像语义分割方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN112819833B (zh) 一种大场景点云语义分割方法
CN110517329A (zh) 一种基于语义分析的深度学习图像压缩方法
CN114581560B (zh) 基于注意力机制的多尺度神经网络红外图像彩色化方法
CN110738663A (zh) 双域适应模块金字塔型网络及无监督域适应图像分割方法
CN112598775B (zh) 一种基于对比学习的多视图生成方法
CN113870335A (zh) 一种基于多尺度特征融合的单目深度估计方法
CN112560865B (zh) 一种室外大场景下点云的语义分割方法
CN114283120B (zh) 一种基于领域自适应的端到端多源异质遥感影像变化检测方法
CN112991350A (zh) 一种基于模态差异缩减的rgb-t图像语义分割方法
CN112767283A (zh) 一种基于多图像块划分的非均匀图像去雾方法
CN112884758B (zh) 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统
CN112634438A (zh) 基于对抗网络的单帧深度图像三维模型重建方法及装置
CN114638842B (zh) 一种基于mlp的医学图像分割方法
CN115205672A (zh) 一种基于多尺度区域注意力的遥感建筑物语义分割方法及系统
CN113792641A (zh) 一种结合多谱注意力机制的高分辨率轻量级的人体姿态估计方法
CN115936992A (zh) 一种轻量级Transformer的垃圾图像超分辨方法及系统
CN115393289A (zh) 基于集成交叉伪标签的肿瘤图像半监督分割方法
CN113870160A (zh) 一种基于变换器神经网络的点云数据处理方法
CN115546032A (zh) 一种基于特征融合与注意力机制的单帧图像超分辨率方法
CN114092824A (zh) 结合密集注意力和并行上采样的遥感图像道路分割方法
CN116740121A (zh) 一种基于专用神经网络和图像预处理的秸秆图像分割方法
CN117115563A (zh) 基于区域语义感知的遥感土地覆盖分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant