CN110163213B - 基于视差图和多尺度深度网络模型的遥感图像分割方法 - Google Patents
基于视差图和多尺度深度网络模型的遥感图像分割方法 Download PDFInfo
- Publication number
- CN110163213B CN110163213B CN201910407103.2A CN201910407103A CN110163213B CN 110163213 B CN110163213 B CN 110163213B CN 201910407103 A CN201910407103 A CN 201910407103A CN 110163213 B CN110163213 B CN 110163213B
- Authority
- CN
- China
- Prior art keywords
- segmentation
- segmentation result
- pixel
- data set
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视差图和多尺度深度网络模型的遥感图像分割方法,主要解决现有遥感图像分割方法分割精度较低和鲁棒性较弱的问题,其实现方案为:读入数据集,生成遥感图像分割的训练数据集;构建多尺度融合的分割网络模型;用训练数据集训练分割网络模型,并保存7个不同迭代次数的模型;用保存的分割网络模型得到7种不同的分割结果图;对7种不同的分割结果图进行多数投票,并对对投票后的结果图进行超像素处理,得到初步分割结果图;用SGBM算法获得测试场景的视差图;用视差图优化初步分割结果图,得到最终的分割结果。本发明相比于现有方法明显地提高了分割精度和鲁棒性,可广泛应用于城乡规划、智能城建。
Description
技术领域
本发明属于图像处理技术领域,特别涉及一种遥感图像分割方法,可广泛应用于城乡规划、智能城建。
背景技术
图像分割是图像处理的重要内容,其分割结果的质量会对下一步的目标识别、图像识别、场景解析等工作产生很大影响。随着遥感技术的不断发展和商业卫星分辨率的提高,对于遥感图像分割技术的研究日益受到人们的重视。相比于自然图像,遥感图像的拍摄高度更高,导致遥感图像难以达到自然图像的分辨率水平,使得应用于自然图像的分割算法移植到遥感图像上精度就会大幅度下降,尤其对于小尺寸目标的分割精度更加不理想;此外,遥感图像获取的是平面图,因此遥感图像不能充分利用物体的深度信息,这样就给遥感图像分割带来更大的挑战。
双目立体匹配是图像处理领域中具有挑战性的问题之一,其通过模仿人类视觉原理来获取丰富的三维立体信息,尤其是深度信息。立体匹配的本质就是,采集同一场景左右两个不同角度的输入图像,给定一幅图像中的一点,寻找另一幅图像中的对应点,使得这两点为空间同一物体点的投影,然后,通过双目或者多目图像匹配得到视差图,再根据三角测量关系进一步得到物体的深度信息,经过多年的发展,双目立体视觉已经在工业测量、三维重建、无人驾驶等领域发挥了巨大作用。
目前遥感图像分割领域大多是基于目标或对象的区域处理方式。例如,Zhong Z等人在其发表的论文“Spectral–Spatial Residual Network for Hyperspectral ImageClassification:A 3-D Deep Learning Framework”中提出了一种基于卷积神经网络的遥感图像分割方法。该方法先利用卷积神经网络滑窗式提取遥感图像的局部特征,再利用softmax分类器进行逐像素分类,从而得到分割结果,但是该方法仍然存在的不足之处是,仅使用传统的卷积网络自动学习图像特征,没有充分利用到遥感图像的全局信息和多尺度信息,分割精度较低;此外,传统的分割方法对噪声的敏感度很高,仅使用传统卷积神经网络不能有效去除分割结果中的噪点,并且对于俯拍视角的遥感图像来说,传统分割方法不能充分利用地物的三维立体信息,即深度信息,都会导致分割结果的精度下降。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于视差图和多尺度特征融合的遥感图像分割方法,以提升对遥感图像信息的利用效率,提高分割精度。
本发明技术方案是:通过多尺度特征融合的深度分割网络模型,得到初步的分割结果图,通过多数投票和超像素方法对初步分割结果图进行优化,以去除初步分割结果图内部的缝隙,再利用视差结果图的信息对分割结果进行修正,得到最终的分割结果图。其实现步骤包括如下:
(1)读入由p张图像组成遥感图像分割任务的数据集;
(2)生成遥感图像分割的训练数据集:
(2a)对数据集进行类别均衡,即针对数据集中数据量最小的类别,将数据集中所有包含此类的图片挑选出来,并对这些图片依次进行不同角度的旋转、镜像和对比度调整,以增加此类训练数据的数目;
(2b)对均衡类别后的数据集进行数据扩充,即随机挑选图片,并对其进行不同角度的旋转、镜向以及调整颜色对比度和光的亮度;
(2c)对扩充后的数据集进行图像裁剪,将所有图像统一裁剪为r*r个像素,得到k幅用于遥感图像分割任务的数据集,并从该数据集中选取80%的数据集作为分割任务的训练集,20%的数据集作为分割任务的验证集,其中400≤r≤550,k≥25000;
(3)利用深度学习平台构建多尺度融合的深度分割网络模型:
该模型结构依次由共设有106层,其中前101层为残差网络,用于作为分割的特征提取网络,输出q*q个像素的特征图;第102层为池化层,用于对网络输出的特征图分别进行5种不同尺度的平均池化;第103层为卷积上采样层,用于将池化得到的5种不同尺寸的特征图均上采样到q*q个像素;第104层为特征融合层,用于对输出特征图进行逐像素相加的特征融合;第105和106层为均为卷积层,用于输出分割预测结果;
(4)训练深度分割网络模型,并保存迭代模型:
将分割任务训练数据集输入到深度分割网络模型中,使用训练参数对深度分割网络模型进行迭代训练,迭代次数为b次,损失函数为稀疏交叉熵函数,优化算法为自适应学习率调整算法Adadelta,其中20≤b≤100;
完成一次迭代表示将训练数据集中所有图片送入分割网络中训练一次,保存7个不同迭代次数的模型;
(5)将待测试的场景图输入到保存的分割网络模型中,得到7种不同的分割结果图;
(6)对7个分割模型预测得到的分割结果图进行多数投票,得到投票后的分割结果图;
(7)设置超像素个数为g,采用SLIC超像素算法,对投票后的分割结果图进行超像素处理,以去除分割结果图内部的缝隙并优化该分割结果图的边缘信息,得到初始的分割结果图;
(8)对待测试场景采用SGBM半全局立体匹配算法,得到待测试场景的视差图;
(9)用视差图优化初始的分割结果图:
(9a)用n*n像素的窗口遍历待测试场景的视差图,并计算视差图上窗口所包含区域的平均值x和最大值y,步长为s,其中n=7,s=4;
(9b)设置视差的阈值参数m=6,将x、y的差值与m进行比较:
若x-y≤m,则统计上述窗口在初始的分割结果图上相应位置的n*n个像素点的类别,如果数目最多的类别所占像素点个数超过n/2,则将窗口内像素点的类别都统一置为数目最多的类别,否则,对分割结果图不进行处理;
若x-y>m,则统计上述窗口在初始的分割结果图上相应位置的n*n个像素点的类别,如果数目最多的类别所占像素点个数小于n/2,则将窗口内像素点的类别都统一置为数目最小的类别,否则,对分割结果图不进行处理;
(9c)对每个n*n像素的窗口都执行(9b)的操作,直到遍历完整幅待测试场景的视差图,得到测试场景中每个像素点的类别,即最终的分割结果图。
本发明与现有技术相比有以下优点:
第一,由于本发明采用多尺度特征融合的分割网络模型,该模型能充分考虑遥感图像的全局信息,融合了多个尺度的信息,克服了传统卷积神经网络对多尺度信息利用不足的问题,可得到多尺度、多分辨的图像特征,提高了分割结果精度。
第二,由于本发明采用视差图对分割结果进行修正,克服了现有技术无法利用图像中三维立体信息的缺点,使得本发明能充分利用图像的深度信息,提高了遥感图像的分割结果。
第三,由于本发明采用超像素算法对分割结果进行后处理,克服了仅用卷积神经网络对结果图内部缝隙和边缘处理的不足,使得本发明提高了分割结果的准确率。
附图说明
图1为本发明的流程图;
图2是本发明提出的多尺度特征融合分割网络的结构示意图;
图3是本发明的仿真结果图;
具体实施方式
下面结合附图,对本发明作进一步详细描述。
参考附图1,对本发明的实现步骤做进一步的详细描述。
步骤1,读入数据集。
读入由4292幅图像组成的遥感图像分割任务数据集,其中每副图像的大小为1024*1024个像素,数据集包括5个类别,分别是:地面、高植被、建筑、高架桥、水;
步骤2,获得遥感图像分割任务的训练数据集。
本步骤的具体实现如下:
2.1)统计数据集中每一类的样本数目,对数据集进行类别均衡,即针对数据集中数据量最小的类别,将数据集中所有包含此类的图片挑选出来,并对这些图片依次进行不同角度的旋转、镜像和对比度调整,使得包含此类别的图像数目增至2.5倍;
2.2)对均衡类别后的数据集进行数据扩充,即从均衡类别后的数据集中随机挑选图片,并对其进行不同角度的旋转、镜向以及调整颜色对比度和光的亮度;
2.3)扩充后的数据集中每幅图像进行随机且有重叠的裁剪,即将每张图像裁剪为有重叠区域的5幅r*r像素的图像,得到k幅r*r像素的图像用于遥感图像分割任务的数据集,并从该数据集中选取80%的数据集作为分割任务的训练集,20%的数据集作为分割任务的验证集,其中400≤r≤550,k≥25000。
步骤3,构建多尺度融合的深度分割网络模型。
本步骤利用TensorFlow软件平台构建深度分割网络模型,如图2所示,该模型结构依次共设有106层,其中前101层为残差网络,用于作为分割的特征提取网络,输出q*q个像素的特征图;第102层为池化层,用于对网络输出的特征图分别进行5种不同尺度的平均池化,池化窗口大小分别为80*80,50*50,40*40,20*20,10*10;第103层为卷积上采样层,用于将池化得到的5种不同尺寸的特征图均上采样到q*q个像素;第104层为特征融合层,用于对输出特征图进行逐像素相加的特征融合;第105和106层为均为卷积层,用于输出分割预测结果。
步骤4,训练深度分割网络模型,并保存。
4.1)对深度分割网络模型进行训练:
首先,设置训练参数,即设损失函数为稀疏交叉熵函数,优化算法为自适应学习率调整算法Adadelta,学习率为0.001,每次输入4张图像,迭代次数为80次;
然后,将分割任务训练数据集输入到深度分割网络模型中,对深度分割网络模型进行迭代训练,得到各次的训练后分割网络模型;
4.2)保存网络训练过程中7个不同迭代次数的模型,具体为保存第30、第40、第45、第50、第60、第70和第80代的训练模型。
步骤5,将待测试的场景图输入到步骤4保存的7个训练后分割网络模型中,得到7种不同的分割结果图。
步骤6,对步骤5得到的7种不同的分割结果图进行逐像素的多数投票,即从每个像素点经7个模型预测得到的7种结果中选择出现次数最多的数值,作为该像素点的最终结果,得到投票后的分割结果图。
步骤7,对分割结果进行超像素处理,以去除分割结果图内部的缝隙并优化该分割结果图的边缘信息,得到初始的分割结果图。
现有的超像素算法分为基于图论的超像素分割算法和基于梯度上升的超像素分割算法,本步骤采用基于梯度上升的SLIC超像素算法对投票后的分割结果图进行超像素处理,其实现如下:
7.1)设定期望分割的超像素块数目g,首先在待测试场景图上生成g个种子点,然后在每个种子点的周围空间里搜索距离该种子点最近的若干像素,将他们归为与该种子点一类,直到所有像素点都归类完毕;
7.2)计算这g个超像素里所有像素点的平均向量值,作为新的g个聚类中心,再以这g个中心去搜索其周围与其最为相似的若干像素,所有像素都归类完后重新得到g个超像素块,更新聚类中心;
7.3)重复步骤7.2)和步骤7.3)直到算法收敛,最终在待测试场景图中生成g个超像素块;
7.4)统计每个超像素块对应在投票后的分割结果图区域的数值,得到此区域中出现次数最多的数值t,并将投票后的分割结果图上在此区域的数值统一置为t,得到初始的分割结果图。
步骤8,对待测试场景采用SGBM半全局立体匹配算法,得到待测试场景的视差图。
SGBM半全局立体匹配算法是现有获取双目视差图的经典算法,其实现方案是,首先在测试场景中进行逐像素匹配计算,然后构建基于多个方向的扫描线的代价能量和函数,最终求取能量代价和函数的最优解,得到待测试场景的视差图。
步骤9,用视差图优化初始的分割结果图,得到最终的分割结果图。
本步骤具体实现如下:
9.1)用n*n像素的窗口遍历待测试场景的视差图,并计算视差图上窗口所包含区域的平均值x和最大值y,先横向遍历,后纵向遍历,步长为s,其中n=7,s=4;
9.2)设置视差的阈值参数m=6,将x、y的差值与m进行比较:
若x-y≤m,则统计上述窗口在初始的分割结果图上相应位置的n*n个像素点的类别,再判断窗口内数目最多的类别所占像素点个数是否超过n/2:如果是,则将窗口内像素点的类别都统一置为数目最多的类别,否则,对分割结果图不进行处理;
若x-y>m,则统计上述窗口在初始的分割结果图上相应位置的n*n个像素点的类别,再判断窗口内数目最多的类别所占像素点个数是否小于n/2:如果是,则将窗口内像素点的类别都统一置为数目最小的类别,否则,对分割结果图不进行处理;
9.3)对每个n*n像素的窗口都执行步骤9.2)的操作,直到遍历完整幅待测试场景的视差图,得到测试场景中每个像素点的类别,即最终的分割结果图。
下面结合仿真实验对本发明的效果做进一步说明。
1仿真条件:
硬件平台为:主频2.40GHz*16的Intel(R)Xeon(R)E5-2630CPU、内存64GB、GeForceGTX1080显卡;
软件平台为:TensorFlow和Matlab R2018a;
仿真数据集为:IGRSS2019数据融合竞赛的分割任务数据集,图像分辨0.3m*0.3m,图像场景包括城市、乡村、荒郊和海滨多个场景。该数据集包含场景图和目标图两部分。其中目标包括5类:地面、高植被、建筑、高架桥和水。
2.仿真内容:
用本发明和现有传统卷积神经网络方法分别在IGRSS2019数据融合竞赛的分割任务数据集进行遥感图像分割任务的仿真实验,结果如图3,其中图3(a)为分割场景图,图3(b)为传统卷积神经网络在待分割场景图上进行仿真的结果图,图3(c)为本发明在待分割场景图上进行仿真的结果图。
3.仿真结果分析:
从图3(c)中可以看出,本发明能将传统卷积神经网络方法未能检测出的高架桥和建筑完全检测出来,并且能较好地拟合地物的不规则边界,分割噪声较低,从而说明本发明能够完成较复杂的高分遥感图像分割。
分别计算本发明与现有卷积神经网络方法分割结果的准确率,结果如表1所示。
表1
分类方法 | 准确率 |
本发明 | 78.24% |
卷积神经网络 | 67.57% |
由表1可见,本发明的分割准确率高于传统卷积神经网络分割方法。
综上所述,本发明通过引入了多尺度特征融合的深度网络分割模型和利用视差图优化分割结果的方法,提高了遥感图像检测和分割的准确率。
Claims (7)
1.基于视差图和多尺度深度网络模型的遥感图像分割方法,其特征在于,包括如下:
(1)读入由p张图像组成遥感图像分割任务的数据集;
(2)生成遥感图像分割的训练数据集:
(2a)对数据集进行类别均衡,即针对数据集中数据量最小的类别,将数据集中所有包含此类的图片挑选出来,并对这些图片依次进行不同角度的旋转、镜像和对比度调整,以增加此类训练数据的数目;
(2b)对均衡类别后的数据集进行数据扩充,即随机挑选图片,并对其进行不同角度的旋转、镜向以及调整颜色对比度和光的亮度;
(2c)对扩充后的数据集进行图像裁剪,将所有图像统一裁剪为r*r个像素,得到k幅用于遥感图像分割任务的数据集,并从该数据集中选取80%的数据集作为分割任务的训练集,20%的数据集作为分割任务的验证集,其中400≤r≤550,k≥25000;
(3)利用深度学习平台构建多尺度融合的深度分割网络模型:
该模型结构依次设有106层,其中前101层为残差网络,用于作为分割的特征提取网络,输出q*q个像素的特征图;第102层为池化层,用于对网络输出的特征图分别进行5种不同尺度的平均池化;第103层为卷积上采样层,用于将池化得到的5种不同尺寸的特征图均上采样到q*q个像素;第104层为特征融合层,用于对输出特征图进行逐像素相加的特征融合;第105和106层为均为卷积层,用于输出分割预测结果;
(4)训练深度分割网络模型,并保存迭代模型:
将分割任务训练数据集输入到深度分割网络模型中,使用训练参数对深度分割网络模型进行迭代训练,迭代次数为b次,损失函数为稀疏交叉熵函数,优化算法为自适应学习率调整算法Adadelta,其中20≤b≤100;
完成一次迭代表示将训练数据集中所有图片送入分割网络中训练一次,保存7个不同迭代次数的模型;
(5)将待测试的场景图输入到保存的分割网络模型中,得到7种不同的分割结果图;
(6)对7个分割模型预测得到的分割结果图进行多数投票,得到投票后的分割结果图;
(7)设置超像素个数为g,采用SLIC超像素算法,对投票后的分割结果图进行超像素处理,以去除分割结果图内部的缝隙并优化该分割结果图的边缘信息,得到初始的分割结果图;
(8)对待测试场景采用SGBM半全局立体匹配算法,得到待测试场景的视差图;
(9)用视差图优化初始的分割结果图:
(9a)用n*n像素的窗口遍历待测试场景的视差图,并计算视差图上窗口所包含区域的平均值x和最大值y,步长为s,其中n=7,s=4;
(9b)设置视差的阈值参数m=6,将x、y的差值与m进行比较:
若x-y≤m,则统计上述窗口在初始的分割结果图上相应位置的n*n个像素点的类别,如果数目最多的类别所占像素点个数超过n/2,则将窗口内像素点的类别都统一置为数目最多的类别,否则,对分割结果图不进行处理;
若x-y>m,则统计上述窗口在初始的分割结果图上相应位置的n*n个像素点的类别,如果数目最多的类别所占像素点个数小于n/2,则将窗口内像素点的类别都统一置为数目最小的类别,否则,对分割结果图不进行处理;
(9c)对每个n*n像素的窗口都执行(9b)的操作,直到遍历完整幅待测试场景的视差图,得到测试场景中每个像素点的类别,即最终的分割结果图。
2.根据权利要求1所述的方法,其特征在于:步骤(2c)中对扩充后的数据集进行图像裁剪,是将原始图像进行随机且有重叠的裁剪,即将每张图像裁剪为有重叠区域的5张r*r像素的图像。
3.根据权利要求1所述的方法,其特征在于:步骤(3)中池化层对网络输出的特征图分别进行5种不同尺度的平均池化,是将池化窗口大小分别设为80*80,50*50,40*40,20*20,10*10这5种尺寸,并对每种窗口区域内的像素值取平均值。
4.根据权利要求1所述的方法,其特征在于:步骤(3)中卷积上采样层对池化得到的5种不同尺寸的特征图均上采样,是对5种不同尺寸的特征图分别进行双线性插值方式的上采样,得到5个q*q像素的特征图。
5.根据权利要求1所述的方法,其特征在于:步骤(3)中特征融合层对输出特征图进行逐像素相加的特征融合,是对多个相同尺寸的输出特征图进行像素级融合,即对多个输出特征图在同一位置的像素值进行求和,得到融合后的特征图。
6.根据权利要求1所述的方法,其特征在于:步骤(6)中对7个分割模型预测得到的分割结果图进行多数投票,是从每个像素点经7个模型预测得到的7种结果中选择出现次数最多的数值,作为该像素点的最终结果。
7.根据权利要求1所述的方法,其特征在于:步骤(7)中采用SLIC超像素算法,对投票后的分割结果图进行超像素处理,其实现如下:
(7a)设定期望分割的超像素块数目g,在待测试场景图上生成g个种子点,并在每个种子点的周围空间里搜索距离该种子点最近的若干像素,将他们归为与该种子点一类,直到所有像素点都归类完毕;
(7b)计算这g个超像素里所有像素点的平均向量值,作为新的g个聚类中心,再以这g个中心去搜索其周围与其最为相似的若干像素,所有像素都归类完后重新得到g个超像素块,更新聚类中心,再次迭代,如此反复直到收敛,最终在待测试场景图中生成g个超像素块;
(7c)统计每个超像素块对应在投票后的分割结果图区域的数值,得到此区域中出现次数最多的数值t,并将投票后的分割结果图上在此区域的数值统一置为t。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910407103.2A CN110163213B (zh) | 2019-05-16 | 2019-05-16 | 基于视差图和多尺度深度网络模型的遥感图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910407103.2A CN110163213B (zh) | 2019-05-16 | 2019-05-16 | 基于视差图和多尺度深度网络模型的遥感图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163213A CN110163213A (zh) | 2019-08-23 |
CN110163213B true CN110163213B (zh) | 2022-12-06 |
Family
ID=67634727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910407103.2A Active CN110163213B (zh) | 2019-05-16 | 2019-05-16 | 基于视差图和多尺度深度网络模型的遥感图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163213B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111047634B (zh) * | 2019-11-13 | 2023-08-08 | 杭州飞步科技有限公司 | 场景深度的确定方法、装置、设备及存储介质 |
CN111178405A (zh) * | 2019-12-18 | 2020-05-19 | 浙江工业大学 | 一种融合多种神经网络的相似物体识别方法 |
CN111192267A (zh) * | 2019-12-31 | 2020-05-22 | 航天时代飞鸿技术有限公司 | 一种基于unet网络的多源感知融合遥感图像分割方法及应用 |
CN111681229B (zh) * | 2020-06-10 | 2023-04-18 | 创新奇智(上海)科技有限公司 | 深度学习模型训练方法、可穿戴衣服瑕疵识别方法及装置 |
CN112084923B (zh) * | 2020-09-01 | 2023-12-22 | 西安电子科技大学 | 一种遥感图像语义分割方法、存储介质及计算设备 |
CN112329979A (zh) * | 2020-09-23 | 2021-02-05 | 燕山大学 | 一种基于自适应深度残差网络的超短期风电功率预测方法 |
CN112766371B (zh) * | 2021-01-19 | 2023-01-24 | 西安理工大学 | 一种基于极少训练样本的高分辨率遥感影像监督分类方法 |
US20230146275A1 (en) * | 2021-11-11 | 2023-05-11 | At&T Intellectual Property I, L.P. | Computer Vision-Based Dynamic Radio Frequency Planning and Optimization |
CN114693670B (zh) * | 2022-04-24 | 2023-05-23 | 西京学院 | 基于多尺度U-Net的直缝埋弧焊管焊缝缺陷超声检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107909109A (zh) * | 2017-11-17 | 2018-04-13 | 西安电子科技大学 | 基于显著性和多尺度深度网络模型的sar图像分类方法 |
CN108921120A (zh) * | 2018-07-13 | 2018-11-30 | 北京优创新港科技股份有限公司 | 一种适应广泛零售场景下的香烟识别方法 |
WO2019001208A1 (zh) * | 2017-06-28 | 2019-01-03 | 苏州比格威医疗科技有限公司 | 一种oct图像中脉络膜新生血管分割算法 |
-
2019
- 2019-05-16 CN CN201910407103.2A patent/CN110163213B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019001208A1 (zh) * | 2017-06-28 | 2019-01-03 | 苏州比格威医疗科技有限公司 | 一种oct图像中脉络膜新生血管分割算法 |
CN107909109A (zh) * | 2017-11-17 | 2018-04-13 | 西安电子科技大学 | 基于显著性和多尺度深度网络模型的sar图像分类方法 |
CN108921120A (zh) * | 2018-07-13 | 2018-11-30 | 北京优创新港科技股份有限公司 | 一种适应广泛零售场景下的香烟识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110163213A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163213B (zh) | 基于视差图和多尺度深度网络模型的遥感图像分割方法 | |
CN110532859B (zh) | 基于深度进化剪枝卷积网的遥感图像目标检测方法 | |
CN109409263B (zh) | 一种基于Siamese卷积网络的遥感影像城市地物变化检测方法 | |
CN108921799B (zh) | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 | |
CN108647655B (zh) | 基于轻型卷积神经网络的低空航拍影像电力线异物检测方法 | |
CN110929607B (zh) | 一种城市建筑物施工进度的遥感识别方法和系统 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN110119728A (zh) | 基于多尺度融合语义分割网络的遥感图像云检测方法 | |
CN111126202A (zh) | 基于空洞特征金字塔网络的光学遥感图像目标检测方法 | |
CN113076871B (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN108537824B (zh) | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 | |
CN107067405B (zh) | 基于尺度优选的遥感影像分割方法 | |
CN112233129B (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN113111727B (zh) | 一种基于特征对齐的遥感场景下旋转目标检测方法 | |
CN109492596B (zh) | 一种基于K-means聚类和区域推荐网络的行人检测方法及系统 | |
CN112288008A (zh) | 一种基于深度学习的马赛克多光谱图像伪装目标检测方法 | |
CN108399424B (zh) | 一种点云分类方法、智能终端及存储介质 | |
CN106548169A (zh) | 基于深度神经网络的模糊文字增强方法及装置 | |
CN110991444A (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN112464766A (zh) | 一种农田地头自动识别方法及系统 | |
AU2020103470A4 (en) | Shadow Detection for High-resolution Orthorectificed Imagery through Multi-level Integral Relaxation Matching Driven by Artificial Shadows | |
CN113610024B (zh) | 一种多策略的深度学习遥感影像小目标检测方法 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |