CN112232229A - 基于U-net神经网络的精细水体提取方法 - Google Patents

基于U-net神经网络的精细水体提取方法 Download PDF

Info

Publication number
CN112232229A
CN112232229A CN202011121566.1A CN202011121566A CN112232229A CN 112232229 A CN112232229 A CN 112232229A CN 202011121566 A CN202011121566 A CN 202011121566A CN 112232229 A CN112232229 A CN 112232229A
Authority
CN
China
Prior art keywords
water body
neural network
data
net neural
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011121566.1A
Other languages
English (en)
Other versions
CN112232229B (zh
Inventor
蔡玉林
秦鹏
孙孟昊
王雪丽
柳佳
范璞然
李龙坤
徐慧宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN202011121566.1A priority Critical patent/CN112232229B/zh
Publication of CN112232229A publication Critical patent/CN112232229A/zh
Priority to PCT/CN2021/108847 priority patent/WO2022083202A1/zh
Application granted granted Critical
Publication of CN112232229B publication Critical patent/CN112232229B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了基于U‑net神经网络的精细水体提取方法,涉及卷积神经网络和水体提取技术领域,特别是涉及高光谱数据进行水体提取,包括:将全部波段的原始影像导入ENVI,进行主成分分析;将不同的主成分进行多种组合;形成标签数据;将最优遥感影像划分为训练数据和测试数据;将所有训练数据输入U‑net神经网络进行训练;将最优遥感影像的测试数据输入训练后的U‑net神经网络,得到输出影像;将输出影像进行阈值分割、拼接,还原至原始大小;把还原至原始大小的输出影像与标签数据中的测试数据进行对比,评价精细水体提取的精度。

Description

基于U-net神经网络的精细水体提取方法
技术领域
本发明公开了基于U-net神经网络的精细水体提取方法,属于卷积神经网络和水体提取技术领域。
背景技术
随着遥感技术的不断发展,使用遥感手段自动提取地表水体信息已成为全球信息提取研究方面的热点。由于水体在近红外波段附近光谱反射特征的不同,通过设置阈值可识别水体,但这种采用单一波段的方法很难将背景与水体完全区分开;使用多个波段的组合进行比值运算及指数提取方法能突出水体信息,但只适用于大范围水体提取,对一些细小水体的识别效果并不理想。
发明内容
本发明公开了基于U-net神经网络的精细水体提取方法,以解决现有技术中对遥感影像的细小水体识别效果不好的问题。
基于U-net神经网络的精细水体提取方法,包括:
S1.将全部波段的原始影像导入ENVI,进行主成分分析,使相关性强的波段转换为相关性弱的波段,相关性弱的波段作为主成分;
S2.将不同的主成分进行多种组合,每种组合均合成一幅多波段遥感影像,把多波段遥感影像分别输入U-net网络进行试验,确定能获得最好水体分类效果的多波段遥感影像,称为最优遥感影像;
S3.对最优遥感影像进行水体目视解译、使用ENVI勾画感兴趣区域、标注水体,形成标签数据;
S4.将最优遥感影像划分为训练数据和测试数据,训练数据中一部分数据作为验证集;对标签数据作出与S4中最优遥感影像相同方式的划分;
S5.将所有训练数据输入U-net神经网络进行训练,经过卷积操作和最大池化的下采样操作,获得第一次水体特征;经过卷积操作和上采样操作,获得第二次水体特征;将上述两次水体特征进行连接,提取最终的水体特征;将最终水体特征与真实水体特征进行对比,不断优化网络参数,使U-net神经网络输出的水体和真实水体不断接近,完成对U-net神经网络的训练;
S6.将最优遥感影像的测试数据输入训练后的U-net神经网络,得到输出影像;将输出影像进行阈值分割、拼接,还原至原始大小;
S7.把还原至原始大小的输出影像与标签数据中的测试数据进行对比,评价精细水体提取的精度。
优选地,所述步骤S1中原始影像格式为.tiff,进行主成分分析时使用的参数为协方差矩阵,过程为:建立一个原点为数据均值的坐标系统,通过坐标轴的旋转使数据的方差达到最大,生成互不相关的输出波段。
优选地,所述步骤S1中,形成主成分后ENVI按照以下顺序输出:第一主成分方差最大,第二主成分方差第二大,以此类推,最后的主成分方差最小。
优选地,所述步骤S3中,标签数据设置水体值为1,非水体值为0。
优选地,所述步骤S4中,验证集不参与训练,用于计算训练完成后U-net神经网络的精度。
优选地,所述步骤S5执行前,将最优遥感影像的训练数据、对应标签数据的训练数据进行分割,输出64*64的影像,作为步骤S5中的训练数据。
优选地,所述步骤S5中,对U-net神经网络进行加深处理,加深后包含了3×3的卷积层、2×2的下采样层、2×2的上采样层和跳跃连接层,卷积操作执行后,使用Relu激活函数。
优选地,所述步骤S5中,U-net神经网络的设置使用Adam优化器,对学习率进行动态设置;U-net神经网络的每一层都使用随机失活的方法防止过拟合、使用批标准化防止梯度消失。
优选地,所述步骤S5中,将U-net神经网络训练所用的世代分为若干批次,一个批次训练完成后分别输出训练精度、验证精度,若有一定量世代的精度连续维持在90%以上且不发生大的改变,则停止U-net神经网络的训练。
优选地,所述步骤S6执行前,将最优遥感影像的测试数据分割成64*64的影像;所述阈值分割中,值大于0.1的赋值为1,表示水体,其余的赋值为0,表示非水体。
优选地,所述步骤S7中,以回召率和准确率作为精度评价标准:回召率=(神经网络正确识别出水体的像素个数)/(实际水体像素个数),准确率=(神经网络正确识别出水体的像素个数)/(神经网络识别出水体的像素总个数)。
与现有技术相比,本发明的有益效果是:加深了U-net神经网络深度,使之适应波段较多的高光谱数据;利用主成分分析的方法来减少输入数据的维度并保证信息尽量不受损失;在十米分辨率的遥感数据上实现了约90%的水体识别率,一些细小的水体都被识别出来,且没有与道路、建筑、植被等错分。
附图说明
图1为主成分分析参数设置图;
图2为实际水体分布与本发明所用方法提取水体的对比图。
具体实施方式
下面结合具体实施方式对本发明作进一步详细说明:
基于U-net神经网络的精细水体提取方法,包括:
S1.本实施例数据选取的是江苏省苏州市太湖附近地区的珠海一号高光谱数据,由于将全部32个波段输入神经网络训练容易导致内存溢出无法完成训练,因此将32个波段的格式为.tiff的原始影像导入ENVI,选择主成分分析功能,进行主成分分析;参数为协方差矩阵,参数设置如图1所示;使相关性强的波段转换为相关性弱的波段,相关性弱的波段作为主成分;进行主成分分析时过程为:建立一个原点为数据均值的坐标系统,通过坐标轴的旋转使数据的方差达到最大,生成互不相关的输出波段;形成主成分后ENVI按照以下顺序输出:第一主成分方差最大,第二主成分方差第二大,以此类推,最后的主成分方差最小,方差越小的主成分所含信息相对也较少,通过主成分分析的处理既保留原始的多波段信息又能很好的控制数据维度,减少计算量并缩短计算时间。
S2.进行主成分分析后,一般前几个主成分基本包含原始数据全部的信息,分别将前几个主成分输入U-net网络进行试验,将不同的主成分进行多种组合,每种组合均合成一幅多波段遥感影像,把多波段遥感影像分别输入U-net网络进行试验,确定能获得最好水体分类效果的多波段遥感影像,称为最优遥感影像;对比结果如表1所示,综合对比选择第一、二、三、四、五、六主成分组成的多波段图像输入网络中实现的分类效果较好,继续增加波段数量精度增加较小且花费计算成本较大。
表1前几个主成分的分类精度
主成分 1-3主成分 1-4主成分 1-5主成分 1-6主成分 1-7主成分 1-8主成分
精度 86.41% 87.23% 89.45% 92.32% 92.65% 92.89%
S3.对最优遥感影像进行水体目视解译、使用ENVI勾画感兴趣区域、标注水体,形成标签数据;标签数据设置水体值为1,非水体值为0。
S4.将最优遥感影像划分为训练数据和测试数据,左上角约3/4为训练数据,其余1/4为测试数据;训练数据中15%的数据作为验证集;对标签数据作出与S4中最优遥感影像相同方式的划分;验证集不参与训练,用于计算训练完成后U-net神经网络的精度;由于原图像尺寸较大,为了降低防止内存溢出,所述步骤S5执行前,将最优遥感影像的训练数据、对应标签数据的训练数据进行分割,输出64*64的影像,以便输入网络进行训练,最终得到1640张训练数据,作为步骤S5中的训练数据。
S5.为了更充分的利用珠海一号高光谱数据的优势,提取各波段的有用信息,对U-net神经网络进行加深处理,加深后包含了22个3×3的卷积层、5个2×2的下采样层、5个2×2的上采样层和5个跳跃连接层,卷积操作执行后,使用Relu激活函数;U-net神经网络的设置使用Adam优化器,对学习率进行动态设置;U-net神经网络的每一层都使用随机失活的方法防止过拟合、使用批标准化防止梯度消失。
将训练数据输入U-net神经网络训练一次为一个世代,共300个世代,为了防止内存溢出,每8个世代为一个批次,每个批次训练完成后分别输出训练精度、验证精度,以便进行神经网络训练时精度的判断,精度最高为100%,若有10个世代的精度连续维持在90%以上且不发生大的改变,则停止U-net神经网络的训练。
将所有训练数据输入U-net神经网络进行训练,经过11次卷积操作和5次最大池化的下采样操作,获得第一次水体特征;经过过11次卷积操作和5次上采样操作,获得第二次水体特征;将上述两次水体特征进行连接,提取最终的水体特征;将最终水体特征与真实水体特征进行对比,不断优化网络参数,使U-net神经网络输出的水体和真实水体不断接近,完成对U-net神经网络的训练;训练结束后,最终得到的训练精度为94.21%,验证精度为92.32%。
将最优遥感影像的测试数据分割成64*64的影像,共得到620张测试数据;将最优遥感影像的测试数据输入训练后的U-net神经网络,得到输出影像;将输出影像进行阈值分割、拼接,还原至原始大小;所述阈值分割中,值大于0.1的赋值为1,表示水体,其余的赋值为0,表示非水体。
S7.把还原至原始大小的输出影像与标签数据中的测试数据进行对比,对比结果如图2所示;评价精细水体提取的精度,以回召率和准确率作为精度评价标准:召回率显示了水体识别的完整程度,回召率=(神经网络正确识别出水体的像素个数)/(实际水体像素个数);准确率显示了神经网络识别出的水体的正确率,准确率=(神经网络正确识别出水体的像素个数)/(神经网络识别出水体的像素总个数);最终结果显示U-net神经网络的召回率为89.03%,准确率为89.50%。
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (10)

1.基于U-net神经网络的精细水体提取方法,其特征在于,包括:
S1.将全部波段的原始影像导入ENVI,进行主成分分析,使相关性强的波段转换为相关性弱的波段,相关性弱的波段作为主成分;
S2.将不同的主成分进行多种组合,每种组合均合成一幅多波段遥感影像,把多波段遥感影像分别输入U-net网络进行试验,确定能获得最好水体分类效果的多波段遥感影像,称为最优遥感影像;
S3.对最优遥感影像进行水体目视解译、使用ENVI勾画感兴趣区域、标注水体,形成标签数据;
S4.将最优遥感影像划分为训练数据和测试数据,训练数据中一部分数据作为验证集;对标签数据作出与S4中最优遥感影像相同方式的划分;
S5.将所有训练数据输入U-net神经网络进行训练,经过卷积操作和最大池化的下采样操作,获得第一次水体特征;经过卷积操作和上采样操作,获得第二次水体特征;将上述两次水体特征进行连接,提取最终的水体特征;将最终水体特征与真实水体特征进行对比,不断优化网络参数,使U-net神经网络输出的水体和真实水体不断接近,完成对U-net神经网络的训练;
S6.将最优遥感影像的测试数据输入训练后的U-net神经网络,得到输出影像;将输出影像进行阈值分割、拼接,还原至原始大小;
S7.把还原至原始大小的输出影像与标签数据中的测试数据进行对比,评价精细水体提取的精度。
2.根据权利要求1所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S1中原始影像格式为.tiff,进行主成分分析时使用的参数为协方差矩阵,过程为:建立一个原点为数据均值的坐标系统,通过坐标轴的旋转使数据的方差达到最大,生成互不相关的输出波段。
3.根据权利要求2所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S1中,形成主成分后ENVI按照以下顺序输出:第一主成分方差最大,第二主成分方差第二大,以此类推,最后的主成分方差最小。
4.根据权利要求1所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S3中,标签数据设置水体值为1,非水体值为0。
5.根据权利要求1所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S4中,验证集不参与训练,用于计算训练完成后U-net神经网络的精度。
6.根据权利要求1所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S5执行前,将最优遥感影像的训练数据、对应标签数据的训练数据进行分割,输出64*64的影像,作为步骤S5中的训练数据。
7.根据权利要求6所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S5中,对U-net神经网络进行加深处理,加深后包含了3×3的卷积层、2×2的下采样层、2×2的上采样层和跳跃连接层,卷积操作执行后,使用Relu激活函数。
8.根据权利要求7所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S5中,U-net神经网络的设置使用Adam优化器,对学习率进行动态设置;U-net神经网络的每一层都使用随机失活的方法防止过拟合、使用批标准化防止梯度消失。
9.根据权利要求8所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S5中,将U-net神经网络训练所用的世代分为若干批次,一个批次训练完成后分别输出训练精度、验证精度,若有一定量世代的精度连续维持在90%以上且不发生大的改变,则停止U-net神经网络的训练。
10.根据权利要求1所述的基于U-net神经网络的精细水体提取方法,其特征在于,所述步骤S6执行前,将最优遥感影像的测试数据分割成64*64的影像;所述阈值分割中,值大于0.1的赋值为1,表示水体,其余的赋值为0,表示非水体;步骤S7中,以回召率和准确率作为精度评价标准:回召率=(神经网络正确识别出水体的像素个数)/(实际水体像素个数),准确率=(神经网络正确识别出水体的像素个数)/(神经网络识别出水体的像素总个数)。
CN202011121566.1A 2020-10-20 2020-10-20 基于U-net神经网络的精细水体提取方法 Active CN112232229B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011121566.1A CN112232229B (zh) 2020-10-20 2020-10-20 基于U-net神经网络的精细水体提取方法
PCT/CN2021/108847 WO2022083202A1 (zh) 2020-10-20 2021-07-28 基于U-net神经网络的精细水体提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011121566.1A CN112232229B (zh) 2020-10-20 2020-10-20 基于U-net神经网络的精细水体提取方法

Publications (2)

Publication Number Publication Date
CN112232229A true CN112232229A (zh) 2021-01-15
CN112232229B CN112232229B (zh) 2022-04-01

Family

ID=74118697

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011121566.1A Active CN112232229B (zh) 2020-10-20 2020-10-20 基于U-net神经网络的精细水体提取方法

Country Status (2)

Country Link
CN (1) CN112232229B (zh)
WO (1) WO2022083202A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022083202A1 (zh) * 2020-10-20 2022-04-28 山东科技大学 基于U-net神经网络的精细水体提取方法
CN116071373A (zh) * 2023-03-01 2023-05-05 南通大学 一种基于融合PCA的U-net模型舌体自动分割方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115170947B (zh) * 2022-05-12 2023-04-18 广东省科学院广州地理研究所 基于遥感图像的河口浑浊带与水体分类方法、装置及设备
CN116310604B (zh) * 2023-05-23 2024-02-13 北京大学第三医院(北京大学第三临床医学院) 一种胎盘植入分型评估工具和方法
CN116704350B (zh) * 2023-06-16 2024-01-30 浙江时空智子大数据有限公司 基于高分辨遥感影像水域变化监测方法、系统及电子设备
CN116879192B (zh) * 2023-09-07 2023-12-12 航天宏图信息技术股份有限公司 基于卫星遥感数据的水华预测方法、装置、设备及介质
CN117612017B (zh) * 2024-01-23 2024-05-24 江西啄木蜂科技有限公司 一种环境自适应的遥感影像变化检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366189A (zh) * 2013-07-10 2013-10-23 河海大学 一种高光谱遥感图像的智能化分类方法
EP3347852A1 (en) * 2015-09-09 2018-07-18 Planetek Hellas E.P.E. Methods of compressing and decompressing spectral data
CN108537192A (zh) * 2018-04-17 2018-09-14 福州大学 一种基于全卷积网络的遥感影像地表覆盖分类方法
WO2018214195A1 (zh) * 2017-05-25 2018-11-29 中国矿业大学 一种基于卷积神经网络的遥感图像桥梁检测方法
CN110427836A (zh) * 2019-07-11 2019-11-08 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) 一种基于多尺度优化的高分辨率遥感影像水体提取方法
CN111104889A (zh) * 2019-12-04 2020-05-05 山东科技大学 一种基于U-net的水体遥感识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232229B (zh) * 2020-10-20 2022-04-01 山东科技大学 基于U-net神经网络的精细水体提取方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366189A (zh) * 2013-07-10 2013-10-23 河海大学 一种高光谱遥感图像的智能化分类方法
EP3347852A1 (en) * 2015-09-09 2018-07-18 Planetek Hellas E.P.E. Methods of compressing and decompressing spectral data
WO2018214195A1 (zh) * 2017-05-25 2018-11-29 中国矿业大学 一种基于卷积神经网络的遥感图像桥梁检测方法
CN108537192A (zh) * 2018-04-17 2018-09-14 福州大学 一种基于全卷积网络的遥感影像地表覆盖分类方法
CN110427836A (zh) * 2019-07-11 2019-11-08 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) 一种基于多尺度优化的高分辨率遥感影像水体提取方法
CN111104889A (zh) * 2019-12-04 2020-05-05 山东科技大学 一种基于U-net的水体遥感识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KOMEIL ROKNI 等: "A New Approach for Detection of Surface Water Changes Based on Principal Component Analysis of Multitemporal Normalized Difference Water Index", 《RESEARCHGATE》 *
亓呈明 等: "《机器学习、智能计算与高光谱遥感影像分类应用研究》", 31 May 2018 *
王宁 等: "U-net模型在高分辨率遥感影像水体提取中的应用", 《国土资源遥感》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022083202A1 (zh) * 2020-10-20 2022-04-28 山东科技大学 基于U-net神经网络的精细水体提取方法
CN116071373A (zh) * 2023-03-01 2023-05-05 南通大学 一种基于融合PCA的U-net模型舌体自动分割方法

Also Published As

Publication number Publication date
WO2022083202A1 (zh) 2022-04-28
CN112232229B (zh) 2022-04-01

Similar Documents

Publication Publication Date Title
CN112232229B (zh) 基于U-net神经网络的精细水体提取方法
CN111325751B (zh) 基于注意力卷积神经网络的ct图像分割系统
CN110826630B (zh) 基于深度卷积神经网络的雷达干扰信号特征级融合识别方法
CN111815601B (zh) 一种基于深度卷积自编码器的纹理图像表面缺陷检测方法
CN107609587B (zh) 一种基于深度卷积生成对抗网络的多类别多视图数据生成方法
CN110059768B (zh) 用于街景理解的融合点与区域特征的语义分割方法及系统
CN113159051A (zh) 一种基于边缘解耦的遥感图像轻量化语义分割方法
CN111368825B (zh) 一种基于语义分割的指针定位方法
CN113239930A (zh) 一种玻璃纸缺陷识别方法、系统、装置及存储介质
CN110909615B (zh) 基于多尺度输入混合感知神经网络的目标检测方法
CN111798409A (zh) 一种基于深度学习的pcb缺陷数据生成方法
CN115880298B (zh) 一种基于无监督预训练的玻璃表面缺陷检测系统
CN113436237B (zh) 一种基于高斯过程迁移学习的复杂曲面高效测量系统
CN109872326B (zh) 基于深度强化网络跳跃连接的轮廓检测方法
CN115147648A (zh) 一种基于改进YOLOv5目标检测的茶叶嫩梢识别方法
CN111815526B (zh) 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统
CN114332008A (zh) 一种基于多层次特征重构的无监督缺陷检测与定位方法
CN111652039A (zh) 基于残差网络和特征融合模块的高光谱遥感地物分类方法
CN114694039A (zh) 一种遥感高光谱与激光雷达图像融合分类方法及装置
CN114266957A (zh) 一种基于多降质方式数据增广的高光谱图像超分辨率复原方法
CN112800851B (zh) 基于全卷积神经元网络的水体轮廓自动提取方法及系统
CN111595737B (zh) 一种基于三维分支网络的光学全息粒子场颗粒点检测方法
CN113538484B (zh) 一种深度细化的多重信息嵌套边缘检测方法
CN113344110B (zh) 一种基于超分辨率重建的模糊图像分类方法
CN114862747A (zh) 一种基于信息补全的全卷积细化网络腺体图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant