CN113989675A - 基于遥感影像的地理信息提取深度学习训练样本交互制作方法 - Google Patents
基于遥感影像的地理信息提取深度学习训练样本交互制作方法 Download PDFInfo
- Publication number
- CN113989675A CN113989675A CN202111287667.0A CN202111287667A CN113989675A CN 113989675 A CN113989675 A CN 113989675A CN 202111287667 A CN202111287667 A CN 202111287667A CN 113989675 A CN113989675 A CN 113989675A
- Authority
- CN
- China
- Prior art keywords
- image
- deep learning
- training sample
- working area
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 67
- 238000000605 extraction Methods 0.000 title claims abstract description 35
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 18
- 238000013136 deep learning model Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000003993 interaction Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 14
- 230000000877 morphologic effect Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 5
- 238000003707 image sharpening Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011148 porous material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于遥感影像的地理信息提取深度学习训练样本交互式制作方法。按照要求确定被提取目标的种子点即可流程化获得深度学习模型训练样本集。本发明用到的漫水填充算法、深度学习训练及推理过程均以单个“图片工作区域”为单位,能够提高制作方法的效率。在深度学习推理阶段对输入图片进行调整,形成多个输入,并对对应的多个输出进行“按位极大值输出”,最大程度的提高目标提取的完整性。最后将漫水填充算法的提取结果和深度学习模型的推理结果相融合,通过人机交互方式进行完善,最大限度地提升了深度学习模型训练样本制作效率,减少人工样本制作的主观性,保证输出结果的质量。
Description
技术邻域
本发明属于地理信息技术领域,更为具体地讲,涉及一种基于遥感影像的地理信息提取深度学习训练样本交互制作方法。
背景技术
星载或机载遥感系统可以快速获取大幅面遥感影像,目前已广泛应用于地理信息系统(GIS)的数据处理与信息更新。
地理信息作为人类社会交通的主要构成,在国民经济和军事领域扮演着重要的角色,地理信息的获取与更新具有极其重要的政治、军事、经济意义。传统的基于遥感影像的地理信息提取需要专业人员对遥感影像进行人工标注,花费大量的人力、物力和时间,处理效率远远不能满足应用需求。
随着人工智能(AI)技术发展,采用深度学习方法代替复杂繁琐的人工地理信息标注,可以充分利用遥感影像优势,大幅度提高GIS数据生产效率,满足人类社会活动对地理信息的需求。
然而在遥感影像AI处理中,一个泛化良好的地理信息提取深度学习模型需要人工制作大量的训练样本,已经成为目前提升遥感影像AI效率及应用的一大难题。全球著名研究机构、企业以及相关专家学者花费大量人力、物力制作训练样本库,以提升地理信息提取深度学习模型建立的质量。提高地理信息提取深度学习模型训练样本制作效率在人工智能领域尤为重要。将深度学习技术与影像处理技术相结合,建立高效的训练样本制作方法是解决上述问题的有效途径。
发明内容
本发明的目的在于克服现有技术的不足,解决地理信息提取深度学习模型训练样本制作的困难。将人工智能技术与影像处理技术相结合,提供一种基于遥感影像的地理信息提取深度学习训练样本交互制作方法,大幅度提升训练样本制作效率,支撑地理信息提取深度学习模型建立。
为实现上述发明目的,本发明基于遥感影像的地理信息提取深度学习训练样本交互制作方法,其特征在于,包括以下步骤:
(1)、在遥感影像上选取处理影像区域作为图片工作区域
(2)、使用漫水填充算法提取图片工作区域内的二值图;
(3)、使用带有预训练权重的深度学习模型提取图片工作区域内的二值图;
(4)、对两个二值图进行融合,得到被提取目标的二值图;
(5)、通过人机交互的方式完善被提取目标的二值图并添加到训练样本集合;
(6)、用训练样本集合对步骤(3)使用的深度学习模型进行训练,更新该模型的权重参数;
(7)、重复步骤(1)-(6),不断添加训练样本到训练样本集合中,最终完成训练样本交互式制作。
本发明的发明目的是这样实现的:
本发明基于遥感影像的地理信息提取深度学习训练样本交互制作方法,交互简单,只需要按照要求确定被提取目标的种子点即可流程化获得训练样本集。本发明用到的漫水填充算法、深度学习训练及推理过程均以单个“图片工作区域”为单位,能够提高制作方法的效率。通过漫水填充的算法和深度学习模型提取结果的融合,可以提高训练样本的制作效率以及样本准确性。通过不断训练深度学习模型,更新推理权重,可以提高模型对处理影像的适应性,提高处理精度。通过人机交互方式进行完善,可以保证输出结果的质量。
综上所述,本发明基于遥感影像的地理信息训练样本交互式制作方法能够准确快速的获得训练样本集,大幅度提升地理信息提取深度学习模型训练样本的集制作效率。
附图说明
图1是本发明基于遥感影像的地理信息提取深度学习训练样本交互制作方法一种具体实施流程图;
图2是种子点选取一具体实例图。其中,(a)中箭头所指的区域为种子点建议选取区域;(b)中两处箭头所指的方框区域为种子点不建议选取的噪声区域;
图3是漫水填充算法图。其中,(a)是图片工作区域的原始图,图上带有坐标的黑色点为交互选取的种子点,(b)为按要求选取种子点提取结果,(c)为种子点在噪声附近的提取结果,(d)滤波后的提取结果;
图4是深度学习算法推理结果。(a)为图片工作区域的原始图,(b)为(a)的推理结果;(c)为图(a)平移缩放图,(d)为图(c)的推理结果;(e)为另一张图片工作区域的原始图,(f)为图(e)的推理结果,(g)为图(e)色彩及饱和度调整后的结果,(h)为图(g)的推理结果;
图5是深度学习算法和满水填充算法的结果融合图。其中,(a)为图片工作区域的原始图;(b)漫水填充算法的提取结果,即二值图P1;(c)为按位极大值输出结果,即图片P2,(d)为图片P2对应的二值图P3,(e)为二值图P1和二值图P3的融合结果,即二值图P4。
图6是训练样本人机交互完善结果对比图。其中,(a)为二值图P4;(b)为二值图P4进行形态学开运算和闭运算后的结果;(c)为标记了多提取出部分的形态学开运算和闭运算后的结果,(d)为对(c)的人机交互处理结果。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本邻域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例:
图1是本发明基于遥感影像的地理信息提取深度学习训练样本交互制作方法的一种具体实施流程图。
在本实施例中,如图1所示,本发明基于遥感影像的地理信息提取深度学习训练样本交互制作方法,包括以下步骤:
步骤S1:在遥感影像上选取处理影像区域作为图片工作区域
步骤S1.1:选取被提取目标的种子点
通过人机交互方式在遥感影像上选取被提取目标上的一像素点作为种子点。
本发明要求人机交互选取目标种子点。如图2所示,种子点选取要求:种子点必须落在目标像素范围内;种子点位置应使图片工作区域内包含尽量多的目标对象,如图2(a)所示;被遮挡目标区域或图像噪声附近不能设置为种子点,如图2(b)所示。
步骤S1.2:以种子点为中心截取N×M像素的矩形区域作为被处理影像区域即图片工作区域。
为了使图片工作区域尽可能多的包含目标对象,同时兼顾算法效率,图片工作区域大小应适中。为了方便处理,N、M的取值一般取为2n×L,L为整数,,可以选取N≠M。在本实施例中,N=3×2n、M=2×2n,n=128。在本发明中,选取的图片工作区域允许具有不同的形状且不同图片工作区域可以有重叠。
对当前操作过的图片工作区域进行标记,以免重复选取。
步骤S2:使用漫水填充算法提取图片工作区域内的二值图P1
步骤S2.1:对图片工作区域的像素进行均值滤波与图像锐化
当原始的图片工作区域存在噪声时,噪声区域在结果中表现为空洞,造成目标对象不连续;同时如果种子点落在噪声附近,会严重影响满水填充算法的性能。通过均值滤波,去除噪声,可以有效提高漫水填充算法处理质量。
步骤S2.2:确定颜色种子点
与步骤S1中所选取种子的相同位置,选取步骤S2.1处理后的图片工作区域内的点作为漫水填充算法的颜色种子点,使用漫水填充算法提取图片工作区域的二值图,记为P1;
在本实施例中,如图3所示,(a)是图片工作区域的原始图,图上带有坐标的黑色点为交互选取的种子点,(b)是原始图正常选择种子点的漫水填充算法结果,(c)是原始图噪声点附近种子点的漫水填充算法结果,(d)是滤波后的图片满水填充算法的结果。可以看出,用滤波后相同位置的颜色值作为漫水算法的种子点具有更好的性能。
步骤S3:使用带有预训练权重的深度学习模型提取图片工作区域内的二值图P3
步骤S3.1:对步骤S1得到的图片工作区域内的图片进行多种方式的调整,生成若干图片;
在本实施例中,多种方式的调整为旋转、平移、放缩(分辨率调整)、色彩及饱和度调整,生成的图片可以通过旋转、平移、放缩(分辨率调整)、色彩及饱和度调整中的一种或多种调整得到。通过这样的调整丰富输入的类型,使训练样本深度学习模型能够从多个角度对该图片工作区域内的进行推理,可以提高推理结果的性能,如图4(a)、(c)、(e)、(g)所示。
步骤S3.2:将步骤S3.1得到的若干图片作为深度学习模型的输入,得到若干输出。
图4(b)、(d)、(f)、(h)是深度学习模型分别对图4(a)、(c)、(e)、(g)的推理输出结果。比较图4(b)与(d)知,经过平移和放缩后的推理结果图4(d),提取出了更多的地理信息对象。比较图4(h)与(f),可以看出经过调整HSV空间参数后的推理结果图4(h),提取出了更多的地理信息对象。综上所述,模型对于不同调整方式的输入所对应的推理结果表现出不同的性能。
步骤S3.3:对步骤S3.2得到的若干输出,分别进行对应的逆调整,得到与步骤(1)获得的图片工作区域内中像素相对应的若干输出。
对上一步骤的若干输出进行反旋转、反平移、反放缩以及反色彩及饱和度调整,恢复与原图像素位置一一对应的图片。
步骤S3.4:对步骤S3.3得到的若干输出进行“按位极大值输出”,将若干输出图片融合为一个图片,记作P2。图5(c)为图5(a)作上述处理后的结果。其中,“按位极大值输出”是指将若干输出图片按照对应位置输出最大响应值。
深度学习模型关于目标的输出响应越强,代表属于该类的可能性就越大。但是遥感影像中地理信息空间特征和色彩特征比较复杂,输出响应在某些位置不强,影响了目标对象提取的完整性。通过上述调整后的输出,会因为调整方式的不同产生不同的响应,再通过“按位极大值输出”,可以提高目标对象检测的准确度。
“按位极大值输出”原理如下:
其中,Oy代表某个推理的结果,y取值范围为1-K,K是不同推理结果的总个数。i,j分别代表推理结果的长宽尺寸。
步骤S3.5:对步骤S3.4得到的图片P2设置二值化阈值,得到图片工作区域范围内的目标二值图,记为P3。目标对象区域灰度值为1,其他区域灰度值为0,得到图5(d)所示的二值化后结果。
在本实施例中,在深度学习推理阶段对输入图片进行调整,并对多个输出进行“按位极大值输出”,最大程度的提高目标提取的完整性。
步骤S4:对二值图P1和目标二值图P3进行融合,得到被提取目标的二值图P4
对二值图P1和二值图P3使用“或”操作融合,得到被提取目标的二值图,记为P4。
将漫水填充和深度学习提取的两个结果(图5(b)、(d))进行融合,得到的二值图质量得到大幅度提升,如图5(e)。
步骤S5:通过人机交互的方式完善被提取目标的二值图P4并添加到训练样本集合
步骤S5.1:对二值图P4进行形态学开运算和闭运算。
对于提取结果进行形态学开运算和闭运算处理,进一步优化提取结果。其中开运算用于去除较小的明亮细节,而保证整体灰度级和较大的明亮特征相对不变。闭运算用于填补较小的孔洞,使区域内的目标对象更加连续。
形态学处理是修整边缘,去除噪声亮点,填充孔隙常用的方法。形态学基础的算子包括腐蚀,膨胀。形态学的开运算和闭运算定义如下:
如图6(b)所示,是对图6(a)进行形态学开运算和闭运算后的结果,对于孔洞的填充效果比较明显。其中,方框部分的空洞被填充;
步骤S5.2:通过人机交互的方式对步骤S5.1处理后的二值图进行完善,生成的二值图,记为P5。
对于漏提取或多提取的目标对象用手工的方式标记完善,如图6(c)中多边形圈出的地方是多提取出的部分需要删除。最终输出的结果如图6(d)所示。
步骤S5.3:将二值图P5与步骤S1中选取的图片工作区域所确定的图片组成一对训练样本,添加到训练样本集合,将训练样本集合记为T。
步骤S6:用训练样本集合T对步骤S3使用的深度学习模型进行训练,更新该模型的权重参数。
本发明中所提出的方法需要对深度学习模型进行训练,更新使用模型的权重参数,获得一个泛化能力更强的模型,提高本发明的效率。
步骤S7:重复步骤S1-S6,不断添加训练样本到训练样本集合中,最终完成训练样本交互式制作。
在未标记的区域选取新目标种子点,重复上述步骤,获得更多的训练样本数据。将获得的所有模型训练样本对合并组成训练样本集。
在本发明中需要根据未标记区域来更新种子点的位置,但不限定具体的位置,可以出现与已标记的区域重叠的情况。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术邻域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术邻域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (6)
1.基于遥感影像的地理信息提取深度学习训练样本交互制作方法,其特征在于,包括以下步骤:
(1)、在遥感影像上选取处理影像区域作为图片工作区域
(2)、使用漫水填充算法提取图片工作区域内的二值图;
(3)、使用带有预训练权重的深度学习模型提取图片工作区域内的二值图;
(4)、对两个二值图进行融合,得到被提取目标的二值图;
(5)、通过人机交互的方式完善被提取目标的二值图并添加到训练样本集合;
(6)、用训练样本集合对步骤(3)使用的深度学习模型进行训练,更新该模型的权重参数;
(7)、重复步骤(1)-(6),不断添加训练样本到训练样本集合中,最终完成训练样本交互式制作。
2.根据权利要求1所述的基于遥感影像的地理信息提取深度学习训练样本交互制作方法,其特征在于,所述在遥感影像上选取处理影像区域作为图片工作区域为:
1.1)、通过人机交互方式在遥感影像上选取被提取目标上的一像素点作为种子点;
1.2)、以种子点为中心截取N×M像素的矩形区域作为被处理影像区域即图片工作区域。
3.根据权利要求1所述的基于遥感影像的地理信息提取深度学习训练样本交互制作方法,其特征在于,所述使用漫水填充算法提取图片工作区域内的二值图为:
2.1)、对图片工作区域的像素进行均值滤波与图像锐化;
2.2)、与步骤(1)中所选取种子的相同位置,选取步骤2.1)处理后的图片工作区域内的点作为漫水填充算法的颜色种子点,使用漫水填充算法提取图片工作区域的二值图。
4.根据权利要求1所述的基于遥感影像的地理信息提取深度学习训练样本交互制作方法,其特征在于,所述使用带有预训练权重的深度学习模型提取图片工作区域内的目标二值图为:
3.1)、对步骤(1)得到的图片工作区域内的图片进行多种方式的调整,生成若干图片;
3.2)、将步骤3.1)得到的若干图片作为训练样本深度学习模型的输入,得到若干输出;
3.3)、对步骤3.2)得到的若干输出,分别进行对应的逆调整,得到与步骤(1)获得的图片工作区域内中像素相对应的若干输出;
3.4)、对步骤3.3)得到的若干输出进行“按位极大值输出”,将若干输出图片融合为一个图片;
3.5)、对步骤3.4)得到的图片设置二值化阈值,得到图片工作区域范围内的目标二值图。
5.根据权利要求1所述的基于遥感影像的地理信息提取深度学习训练样本交互制作方法,其特征在于,所述对两个二值图使用“或”操作进行融合,得到被提取目标的二值图。
6.根据权利要求1所述的基于遥感影像的地理信息提取深度学习训练样本交互制作方法,其特征在于,所述通过人机交互的方式完善被提取目标的二值图并添加到训练样本集合为:
5.1)、对被提取目标的二值图进行形态学开运算和闭运算;
5.2)、通过人机交互的方式对步骤5.1)处理后的二值图进行完善,生成完善后的二值图;
5.3)、将完善后的二值图与步骤(1)中图片工作区域所确定的图片所组成的一对训练样本,添加到训练样本集合。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111287667.0A CN113989675B (zh) | 2021-11-02 | 2021-11-02 | 基于遥感影像的地理信息提取深度学习训练样本交互制作方法 |
US17/827,969 US20230376839A1 (en) | 2021-11-02 | 2022-05-30 | Method for producing deep learning samples in geographic information extraction from remote sensing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111287667.0A CN113989675B (zh) | 2021-11-02 | 2021-11-02 | 基于遥感影像的地理信息提取深度学习训练样本交互制作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113989675A true CN113989675A (zh) | 2022-01-28 |
CN113989675B CN113989675B (zh) | 2022-06-14 |
Family
ID=79745736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111287667.0A Active CN113989675B (zh) | 2021-11-02 | 2021-11-02 | 基于遥感影像的地理信息提取深度学习训练样本交互制作方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230376839A1 (zh) |
CN (1) | CN113989675B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513041A (zh) * | 2015-10-28 | 2016-04-20 | 深圳大学 | 一种大幅面遥感图像海陆分割的方法及系统 |
WO2017116226A1 (en) * | 2015-12-30 | 2017-07-06 | Mimos Berhad | System and method to identify identification plate characters using background estimation binarization |
CN109147890A (zh) * | 2018-05-14 | 2019-01-04 | 平安科技(深圳)有限公司 | 一种医学报告的生成方法及设备 |
CN109460735A (zh) * | 2018-11-09 | 2019-03-12 | 中国科学院自动化研究所 | 基于图半监督学习的文档二值化处理方法、系统、装置 |
CN111144335A (zh) * | 2019-12-30 | 2020-05-12 | 自然资源部国土卫星遥感应用中心 | 一种构建建筑物深度学习模型的方法及装置 |
CN112257667A (zh) * | 2020-11-12 | 2021-01-22 | 珠海大横琴科技发展有限公司 | 一种小型船只检测方法、装置、电子设备及存储介质 |
CN112434660A (zh) * | 2020-12-11 | 2021-03-02 | 宁夏回族自治区自然资源信息中心 | 一种基于分割算法的高分遥感影像地类数据集制作方法 |
WO2022001256A1 (zh) * | 2020-06-29 | 2022-01-06 | 上海商汤智能科技有限公司 | 图像标注方法、装置、电子设备及存储介质 |
-
2021
- 2021-11-02 CN CN202111287667.0A patent/CN113989675B/zh active Active
-
2022
- 2022-05-30 US US17/827,969 patent/US20230376839A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105513041A (zh) * | 2015-10-28 | 2016-04-20 | 深圳大学 | 一种大幅面遥感图像海陆分割的方法及系统 |
WO2017071160A1 (zh) * | 2015-10-28 | 2017-05-04 | 深圳大学 | 一种大幅面遥感图像海陆分割的方法及系统 |
WO2017116226A1 (en) * | 2015-12-30 | 2017-07-06 | Mimos Berhad | System and method to identify identification plate characters using background estimation binarization |
CN109147890A (zh) * | 2018-05-14 | 2019-01-04 | 平安科技(深圳)有限公司 | 一种医学报告的生成方法及设备 |
US20210057069A1 (en) * | 2018-05-14 | 2021-02-25 | Ping An Technology (Shenzhen) Co., Ltd. | Method and device for generating medical report |
CN109460735A (zh) * | 2018-11-09 | 2019-03-12 | 中国科学院自动化研究所 | 基于图半监督学习的文档二值化处理方法、系统、装置 |
CN111144335A (zh) * | 2019-12-30 | 2020-05-12 | 自然资源部国土卫星遥感应用中心 | 一种构建建筑物深度学习模型的方法及装置 |
WO2022001256A1 (zh) * | 2020-06-29 | 2022-01-06 | 上海商汤智能科技有限公司 | 图像标注方法、装置、电子设备及存储介质 |
CN112257667A (zh) * | 2020-11-12 | 2021-01-22 | 珠海大横琴科技发展有限公司 | 一种小型船只检测方法、装置、电子设备及存储介质 |
CN112434660A (zh) * | 2020-12-11 | 2021-03-02 | 宁夏回族自治区自然资源信息中心 | 一种基于分割算法的高分遥感影像地类数据集制作方法 |
Non-Patent Citations (1)
Title |
---|
陈晓敏: "基于高分辨率遥感数据的植被识别方法研究", 《中国优秀硕士学位论文全文数据库(电子期刊)》 * |
Also Published As
Publication number | Publication date |
---|---|
US20230376839A1 (en) | 2023-11-23 |
CN113989675B (zh) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN108230264B (zh) | 一种基于ResNet神经网络的单幅图像去雾方法 | |
CN111626947B (zh) | 基于生成对抗网络的地图矢量化样本增强方法及系统 | |
CN111986099A (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
CN110706239B (zh) | 融合全卷积神经网络与改进aspp模块的场景分割方法 | |
CN111368846B (zh) | 一种基于边界语义分割的道路积水识别方法 | |
CN110276354A (zh) | 一种高分辨率街景图片语义分割训练与实时分割方法 | |
CN112287941B (zh) | 一种基于自动字符区域感知的车牌识别方法 | |
CN110472628B (zh) | 一种基于视频特征的改进Faster R-CNN网络检测漂浮物方法 | |
CN111738113A (zh) | 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法 | |
CN109961105B (zh) | 一种基于多任务深度学习的高分辨率遥感影像分类方法 | |
CN108537747A (zh) | 一种基于带对称跨层连接的卷积神经网络的图像修复方法 | |
WO2023212997A1 (zh) | 基于知识蒸馏的神经网络训练方法、设备及存储介质 | |
CN113160062A (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN107564078B (zh) | 一种带有干扰像素的栅格分区图自动矢量化方法 | |
CN114943888B (zh) | 基于多尺度信息融合的海面小目标检测方法 | |
CN113610087A (zh) | 一种基于先验超分辨率的图像小目标检测方法及存储介质 | |
CN114639020A (zh) | 一种图像的目标物的分割网络、分割系统及其分割装置 | |
CN108764287B (zh) | 基于深度学习和分组卷积的目标检测方法及系统 | |
CN117727046A (zh) | 新型山洪前端仪器仪表读数自动识别方法及系统 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 | |
CN113989675B (zh) | 基于遥感影像的地理信息提取深度学习训练样本交互制作方法 | |
CN113077438A (zh) | 针对多细胞核彩色图像的细胞核区域提取方法及成像方法 | |
CN113178010A (zh) | 基于深度学习的高分影像阴影区域恢复重建方法 | |
Miao et al. | An end-to-end single image dehazing network based on U-net |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |