CN117809190B - 基于深度学习的撞击坑溅射物识别方法 - Google Patents

基于深度学习的撞击坑溅射物识别方法 Download PDF

Info

Publication number
CN117809190B
CN117809190B CN202410201557.5A CN202410201557A CN117809190B CN 117809190 B CN117809190 B CN 117809190B CN 202410201557 A CN202410201557 A CN 202410201557A CN 117809190 B CN117809190 B CN 117809190B
Authority
CN
China
Prior art keywords
attention
pit
image
model
unet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410201557.5A
Other languages
English (en)
Other versions
CN117809190A (zh
Inventor
何笑琪
李世超
刘子涵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202410201557.5A priority Critical patent/CN117809190B/zh
Publication of CN117809190A publication Critical patent/CN117809190A/zh
Application granted granted Critical
Publication of CN117809190B publication Critical patent/CN117809190B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及遥感影像处理领域,尤其涉及一种基于深度学习的撞击坑溅射物识别方法,针对人工对行星表面撞击坑溅射物进行提取费时费力、效率低下的问题,本发明基于语义分割UNet网络模型和AG注意力机制模块,提出了一种基于深度学习的撞击坑溅射物识别方法。该方法使用行星影像数据来作为模型的训练数据,通过向UNet模型中加入AG注意力机制模块,来消除跳跃连接中的不相关和有噪声的响应歧义,以提高整体模型对撞击坑溅射物的特征提取能力、提高识别精准度。

Description

基于深度学习的撞击坑溅射物识别方法
技术领域
本发明涉及遥感影像处理技术领域,尤其涉及一种基于深度学习的撞击坑溅射物识别方法。
背景技术
撞击坑构造是行星表面分布最广的地形,也是行星科学研究过程中的重中之重,它们在塑造行星表面和阐明行星的气候和地质历史方面起着重要作用。而撞击坑溅射物是在撞击体对固态撞击目标星体的强烈撞击下所挖掘出的、分布在撞击坑周围的物质体。溅射物不仅能为研究撞击坑形成时间和内部物质成分提供信息,还是研究地层序列、撞击坑形成过程和区域地质演化的重要对象。
随着国内外行星探测计划的实施,越来越多撞击坑溅射物的范围需要去识别和圈定,目前,行星科学领域对于行星表面上撞击坑溅射物的识别仍主要依赖于人工标注方式。然而,人工标注方式存在以下问题:
1、对人力资源的高度依赖。大规模的行星表面数据需要大量的人力来行标注,这不仅需要庞大的研究团队,还容易导致高昂的研究成本。
2、长时间进行数据标注可能导致研究人员出现视觉疲劳,进而影响标注的准确性和效果。随着时间的推移,研究人员可能会失去对细节的敏感性,从而影响他们对撞击坑溅射物的正确识别。这不仅降低了标注的质量,也增加了后续数据分析和研究的误差。
3、效率低下。人工对撞击坑溅射物进行标注的速度相对较慢,在数据量骤增的背景下已经难以满足任务需要。
机器学习是一门研究如何让计算机向人类一样学习和思考的学科,早期机器学习主要有有svm、决策树、线性回归、随机森林等方法,但传统机器学习算法在处理较大的样本集时容易出现欠拟合的现象。随着计算机算力的不断发展,为深度学习的出现和广泛应用提供了可能,其巨量的权重参数和激活函数所带来的非线性化使深度学习有着非常强大的拟合能力。
深度学习当前在行星科学领域,如对月球、火星撞击坑识别、行星矿物识别有着许多成功的案例,但是在撞击坑溅射物识别方面,尚未有相关应用。
发明内容
鉴于上述问题,本发明提出一种基于深度学习的撞击坑溅射物识别方法,深度学习的网络采用Attention UNet网络,该网络在UNet的基础上,加入了注意力机制,能够更好的将注意力集中在撞击坑溅射物识别相关的重要信息上,通过对Attention UNet网络模型进行训练,使模型能够精准的识别出遥感影像中属于指定撞击坑的溅射物的像素点,用于解决传统人工对溅射物进行识别所存在的人力资源消耗过多、效率低下等问题。
本发明提供的基于深度学习的撞击坑溅射物识别方法,包括如下步骤:
S1:获取行星表面影像数据,以目标撞击坑位置为中心对行星表面影像数据中的撞击坑附近区域图像进行截取,作为撞击坑图像数据;
S2:基于所获得的撞击坑图像数据,使用数据标注软件对撞击坑图像中的溅射物进行标注,并构建样本集;
S3:对标注溅射物后的撞击坑图像数据按照预定比例进行训练集、验证集、测试集的划分,并通过数据增强方法对样本集进行扩充;
S4:对样本集的图像数据进行预处理;
S5:构建Attention UNet模型,对Attention UNet模型中的所有参数进行初始化,并使用训练集对Attention UNet模型进行训练;
S6:使用验证集对训练得到的Attention UNet模型进行验证,计算AttentionUNet模型的损失值,重复步骤S5的训练过程,直至验证集损失值已连续预设轮次不再减少;
S7:选取验证集损失值最低的Attention UNet模型作为最终的Attention UNet测试模型,利用测试集对Attention UNet测试模型进行测试;
S8:将待检测的图像调整至合适大小后,输入到Attention UNet测试模型中,得到预测结果。
优选地,步骤S2具体包括如下步骤:
S21:对撞击坑图像中的溅射物的边缘进行标注;
S22:将得到的标注信息转换为溅射物掩码图像,作为标签数据;
S23:将撞击坑图像数据和标签数据组成样本集。
优选地,步骤S3中采用的数据增强方法包括对撞击坑图像进行随机翻转、旋转、裁剪、变形或缩放操作。
优选地,步骤S4具体包括如下步骤:
S41:通过等比缩放和边缘填充将样本集中的撞击坑图像数据与标签数据缩放至固定像素大小;
S42:使用以下公式对样本集中的撞击坑图像进行归一化:
其中,img1表示归一化后的撞击坑图像矩阵,img表示初始模型输入图像的矩阵,mean(img)表示img中每个通道中的像素值大小的平均值,max(img)和min(img)分别表示img中每个通道中像素值大小的最大值和最小值;
S43:对归一化后的撞击坑图像矩阵使用以下公式进行标准化:
其中,img2表示标准化后的撞击坑图像矩阵,mean(img1)表示img1中每个通道中的像素值大小平均值,std(img1)表示img1中每个通道中像素值大小的标准差。
优选地,步骤S5中构建Attention UNet模型的具体步骤如下:
S51:构建对图像向量的特征进行编码的编码器;其中,编码器使用VGG16作为主干网络,编码器由4个降采样模块组成,前2个降采样模块均由2个CR模块和一次最大池化组成,后2个降采样模块均由3个CR模块和一次最大池化组成,5个CR模块均包括一次卷积和ReLU激活;
S52:构建对图像向量的特征进行解码的解码器;其中,解码器由4个上采样模块组成,4个上采样模块均由一次双线性插值、跳跃连接结构、两次卷积和一次ReLU激活组成,跳跃连接结构对进行双线性插值后的特征图和编码器中对应相同尺寸的降采样模块的输出进行通道叠加;
S53:向跳跃连接结构末端插入注意力门AG,实现注意力机制,用于消除跳跃连接中的不相关和有噪声的响应歧义。
优选地,步骤S5中在对Attention UNet模型进行训练时,Attention UNet模型的初始学习率设置为0.005,每经过一轮训练,学习率衰减至当前学习率的95%,模型优化器使用ADAM优化器,损失函数使用交叉熵损失函数:
其中,p(x)表示像素点的真实标签值,q(x)表示像素点的预测标签值。
优选地,步骤S7中对Attention UNet测试模型进行测试时,使用F1score或IoU指标来对Attention UNet测试模型的性能进行评估;
F1score指标的评估公式为:
其中,为预测结果的准确率,/>为预测结果的召回率;
IoU指标的评估公式为:
其中,TP表示真正例数,FP表示假正例数,FN表示假负例数。
优选地,预设轮次不少于20轮。
优选地,训练集、验证集、测试集的预定比例为6:1:1。
与现有技术相比,本发明能够取得如下技术效果:
1、本发明主要利用深度学习强大的拟合能力来快速、准确的对撞击坑溅射物进行识别。
2、本发明通过向Attention UNet模型中加入注意力机制,增强了网络模型的抗干扰能力和对撞击坑溅射物的特征提取能力。
附图说明
图1是根据本发明实施例提供的基于深度学习的撞击坑溅射物识别方法的流程示意图;
图2是根据本发明实施例提供的Attention UNet模型的架构示意图;
图3是根据本发明实施例提供的注意力门AG的结构示意图。
具体实施方式
在下文中,将参考附图描述本发明的实施例。在下面的描述中,相同的模块使用相同的附图标记表示。在相同的附图标记的情况下,它们的名称和功能也相同。因此,将不重复其详细描述。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,而不构成对本发明的限制。
图1示出了根据本发明实施例提供的基于深度学习的撞击坑溅射物识别方法的流程。
如图1所示,本发明实施例提供的基于深度学习的撞击坑溅射物识别方法,包括如下步骤:
图1是根据本发明实施例提供的基于深度学习的撞击坑溅射物识别方法的流程。
S1:获取行星表面影像数据,以目标撞击坑位置为中心对行星表面影像数据中的撞击坑附近区域图像进行截取,作为撞击坑图像数据。
S2:基于所获得的撞击坑图像数据,使用数据标注软件对撞击坑图像中的溅射物进行标注,并构建样本集。
步骤S2具体包括如下步骤:
S21:对撞击坑图像中的目标撞击坑溅射物的边缘进行标注。
S22:将得到的标注信息转换为溅射物掩码图像,作为标签数据。
S23:将撞击坑图像数据和标签数据组成样本集。
使用Labelme、Labelimg等数据标注软件对撞击坑图像中的溅射物边缘进行标注,并将所得到的标注信息转换为溅射物掩码图像,在该溅射物掩码图像中,属于溅射物的像素点赋值为1,否则为0,将溅射物掩码图像作为样本的标签数据。样本的撞击坑图像数据和标签数据共同组成样本集。
S3:对标注溅射物后的撞击坑图像数据按照预定比例进行训练集、验证集、测试集的划分,并通过数据增强方法对样本集进行扩充。
数据增强方式通过对撞击坑图像进行随机翻转、旋转、裁剪、变形、缩放等操作来完成。
样本集按照6:1:1的比例进行训练集、验证集、测试集的划分。
S4:对样本集的图像数据进行预处理。
步骤S4具体包括如下步骤:
S41:通过等比缩放和边缘填充将样本集中的撞击坑图像数据与标签数据缩放至固定像素大小。
S42:使用以下公式对样本集中的撞击坑图像进行归一化:
其中,img1表示归一化后的撞击坑图像矩阵,img表示初始模型输入图像的矩阵,mean(img)表示img中每个通道中的像素值大小的平均值,max(img)和min(img)分别表示img中每个通道中像素值大小的最大值和最小值。
S43:对归一化后的撞击坑图像矩阵使用以下公式进行标准化:
其中,img2表示标准化后的撞击坑图像矩阵,mean(img1)表示img1中每个通道中的像素值大小平均值,std(img1)表示img1中每个通道中像素值大小的标准差。
S5:构建Attention UNet模型,对Attention UNet模型中的所有参数进行初始化,并使用训练集对Attention UNet模型进行训练。
图2示出了根据本发明实施例提供的Attention UNet模型的架构。
如图2所示,Attention UNet模型使用了Encoder-Decoder(编码器-解码器)结构,并使用注意力机制来增强模型的特征提取能力,编码器用于逐层提取图像特征,解码器用于逐层恢复图像信息。
构建Attention UNet模型的具体步骤如下:
S51:构建编码器。
编码器使用VGG16作为主干网络,用于将输入的图像向量的特征进行编码。编码器由4个降采样模块组成,前2个降采样模块均由2个CR模块和一次最大池化组成,后2个降采样模块均由3个CR模块和一次最大池化组成,5个CR模块均包括一次卷积和ReLU激活。
S52:构建解码器。
解码器用于对图像向量的特征进行解码。解码器由4个上采样模块组成,4个上采样模块均由一次双线性插值、跳跃连接结构、两次卷积和一次ReLU激活组成,跳跃连接结构对进行双线性插值后的特征图和编码器中对应相同尺寸的降采样模块的输出进行通道叠加。
S53:插入注意力机制。
向跳跃连接结构的末端插入注意力门AG,实现Attention UNet模型内注意力机制的插入。注意力门AG的结构如图3所示,注意力机制可以消除跳跃连接中的不相关和有噪声的响应歧义。
在对Attention UNet模型进行训练时,Attention UNet模型的初始学习率设置为0.005,每经过一轮训练,学习率衰减至当前学习率的95%,模型优化器使用ADAM优化器,损失函数使用交叉熵损失函数:
其中,p(x)表示像素点的真实标签值,q(x)表示像素点的预测标签值。
S6:使用验证集对训练得到的Attention UNet模型进行验证,计算AttentionUNet模型的损失值,重复步骤S5的训练过程,直至验证集损失值已连续预设轮次不再减少。
预设轮次为至少20轮。
S7:选取验证集损失值最低的Attention UNet模型作为最终的Attention UNet测试模型,利用测试集对Attention UNet测试模型进行测试。
在测试过程中,使用F1score、IoU等指标来对模型的性能进行评估。
F1score是统计学中用来衡量二分类(或多任务二分类)模型精确度的一种指标。它同时兼顾了分类模型的准确率和召回率。F1score可以看作是模型准确率和召回率的一种加权平均,其计算公式为:
其中,为预测结果的准确率,/>为预测结果的召回率。
IoU是表示两个集合相近程度的指标,其定义为计算真实值和预测值两个集合的交集和并集之比,其计算公式为:
其中,TP表示真正例数,FP表示假正例数,FN表示假负例数。
S8:将待检测的图像调整至Attention UNet测试模型输入所需的固定大小,并输入到Attention UNet测试模型中,得到预测结果。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (8)

1.一种基于深度学习的撞击坑溅射物识别方法,其特征在于, 包括如下步骤:
S1:获取行星表面影像数据,以目标撞击坑位置为中心对行星表面影像数据中的撞击坑附近区域图像进行截取,作为撞击坑图像数据;
S2:基于所获得的撞击坑图像数据,使用数据标注软件对撞击坑图像中的溅射物进行标注,并构建样本集;
S3:对标注溅射物后的撞击坑图像数据按照预定比例进行训练集、验证集、测试集的划分,并通过数据增强方法对样本集进行扩充;
S4:对样本集的图像数据进行预处理;
S5:构建Attention UNet模型,对Attention UNet模型中的所有参数进行初始化,并使用训练集对Attention UNet模型进行训练;步骤S5中构建Attention UNet模型的具体步骤如下:
S51:构建对图像向量的特征进行编码的编码器;其中,编码器使用VGG16作为主干网络,编码器由4个降采样模块组成,前2个降采样模块均由2个CR模块和一次最大池化组成,后2个降采样模块均由3个CR模块和一次最大池化组成,5个CR模块均包括一次卷积和ReLU激活;
S52:构建对图像向量的特征进行解码的解码器;其中,解码器由4个上采样模块组成,4个上采样模块均由一次双线性插值、跳跃连接结构、两次卷积和一次ReLU激活组成,跳跃连接结构对进行双线性插值后的特征图和编码器中对应相同尺寸的降采样模块的输出进行通道叠加;
S53:向跳跃连接结构末端插入注意力门AG,实现注意力机制,用于消除跳跃连接中的不相关和有噪声的响应歧义;
S6:使用验证集对训练得到的Attention UNet模型进行验证,计算Attention UNet模型的损失值,重复步骤S5的训练过程,直至验证集损失值已连续预设轮次不再减少;
S7:选取验证集损失值最低的Attention UNet模型作为最终的Attention UNet测试模型,利用测试集对Attention UNet测试模型进行测试;
S8:将待检测的图像调整至合适大小后,输入到Attention UNet测试模型中,得到预测结果。
2.根据权利要求1所述的基于深度学习的撞击坑溅射物识别方法,其特征在于,步骤S2具体包括如下步骤:
S21:对撞击坑图像中的溅射物的边缘进行标注;
S22:将得到的标注信息转换为溅射物掩码图像,作为标签数据;
S23:将撞击坑图像数据和标签数据组成样本集。
3.根据权利要求1所述的基于深度学习的撞击坑溅射物识别方法,其特征在于,步骤S3中采用的数据增强方法包括对撞击坑图像进行随机翻转、旋转、裁剪、变形或缩放操作。
4.根据权利要求1所述的基于深度学习的撞击坑溅射物识别方法,其特征在于,步骤S4具体包括如下步骤:
S41:通过等比缩放和边缘填充将样本集中的撞击坑图像数据与标签数据缩放至固定像素大小;
S42:使用以下公式对样本集中的撞击坑图像进行归一化:
其中,img1表示归一化后的撞击坑图像矩阵,img表示初始模型输入图像的矩阵,mean(img)表示img中每个通道中的像素值大小的平均值,max(img)和min(img)分别表示img中每个通道中像素值大小的最大值和最小值;
S43:对归一化后的撞击坑图像矩阵使用以下公式进行标准化:
其中,img2表示标准化后的撞击坑图像矩阵,mean(img1)表示img1中每个通道中的像素值大小平均值,std(img1)表示img1中每个通道中像素值大小的标准差。
5.根据权利要求1所述的基于深度学习的撞击坑溅射物识别方法,其特征在于,步骤S5中在对Attention UNet模型进行训练时,Attention UNet模型的初始学习率设置为0.005,每经过一轮训练,学习率衰减至当前学习率的95%,模型优化器使用ADAM优化器,损失函数使用交叉熵损失函数:
其中,p(x)表示像素点的真实标签值,q(x)表示像素点的预测标签值。
6.根据权利要求1所述的基于深度学习的撞击坑溅射物识别方法,其特征在于,步骤S7中对Attention UNet测试模型进行测试时,使用F1score或IoU指标来对Attention UNet测试模型的性能进行评估;
F1score指标的评估公式为:
其中,为预测结果的准确率,/>为预测结果的召回率;
IoU指标的评估公式为:
其中,TP表示真正例数,FP表示假正例数,FN表示假负例数。
7.根据权利要求1所述的基于深度学习的撞击坑溅射物识别方法,其特征在于,预设轮次不少于20轮。
8.根据权利要求1所述的基于深度学习的撞击坑溅射物识别方法,其特征在于,训练集、验证集、测试集的预定比例为6:1:1。
CN202410201557.5A 2024-02-23 2024-02-23 基于深度学习的撞击坑溅射物识别方法 Active CN117809190B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410201557.5A CN117809190B (zh) 2024-02-23 2024-02-23 基于深度学习的撞击坑溅射物识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410201557.5A CN117809190B (zh) 2024-02-23 2024-02-23 基于深度学习的撞击坑溅射物识别方法

Publications (2)

Publication Number Publication Date
CN117809190A CN117809190A (zh) 2024-04-02
CN117809190B true CN117809190B (zh) 2024-05-24

Family

ID=90427927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410201557.5A Active CN117809190B (zh) 2024-02-23 2024-02-23 基于深度学习的撞击坑溅射物识别方法

Country Status (1)

Country Link
CN (1) CN117809190B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734219A (zh) * 2018-05-23 2018-11-02 北京航空航天大学 一种基于全卷积神经网络结构的端到端撞击坑检测与识别方法
CN109800754A (zh) * 2018-12-06 2019-05-24 杭州电子科技大学 一种基于卷积神经网络的古字体分类方法
CN110334645A (zh) * 2019-07-02 2019-10-15 华东交通大学 一种基于深度学习的月球撞击坑识别方法
CN111986164A (zh) * 2020-07-31 2020-11-24 河海大学 一种基于多源Unet+Attention网络迁移的道路裂缝检测方法
CN115393730A (zh) * 2022-07-15 2022-11-25 南京林业大学 一种火星陨石坑精确识别方法、电子设备及存储介质
CN115762753A (zh) * 2022-11-01 2023-03-07 复旦大学附属儿科医院 一种深度学习对膀胱输尿管返流自动分级的方法
CN116309348A (zh) * 2023-02-15 2023-06-23 中国人民解放军战略支援部队航天工程大学 一种基于改进TransUnet网络的月球南极撞击坑检测方法
CN117392554A (zh) * 2023-10-18 2024-01-12 大连大学 一种基于深度学习的多光谱通道差异化编码水体检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734219A (zh) * 2018-05-23 2018-11-02 北京航空航天大学 一种基于全卷积神经网络结构的端到端撞击坑检测与识别方法
CN109800754A (zh) * 2018-12-06 2019-05-24 杭州电子科技大学 一种基于卷积神经网络的古字体分类方法
CN110334645A (zh) * 2019-07-02 2019-10-15 华东交通大学 一种基于深度学习的月球撞击坑识别方法
CN111986164A (zh) * 2020-07-31 2020-11-24 河海大学 一种基于多源Unet+Attention网络迁移的道路裂缝检测方法
CN115393730A (zh) * 2022-07-15 2022-11-25 南京林业大学 一种火星陨石坑精确识别方法、电子设备及存储介质
CN115762753A (zh) * 2022-11-01 2023-03-07 复旦大学附属儿科医院 一种深度学习对膀胱输尿管返流自动分级的方法
CN116309348A (zh) * 2023-02-15 2023-06-23 中国人民解放军战略支援部队航天工程大学 一种基于改进TransUnet网络的月球南极撞击坑检测方法
CN117392554A (zh) * 2023-10-18 2024-01-12 大连大学 一种基于深度学习的多光谱通道差异化编码水体检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"AGs-Unet: Building Extraction Model for High Resolution Remote Sensing Images Based on Attention Gates U Network";Mingyang Yu etal;《sensors》;20220411;第1-21页 *

Also Published As

Publication number Publication date
CN117809190A (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN111259930B (zh) 自适应注意力指导机制的一般性目标检测方法
CN111126258B (zh) 图像识别方法及相关装置
CN111242037A (zh) 基于结构信息的车道线检测方法
CN111598860B (zh) 基于嵌入自注意力门模块的yolov3网络的锂电池缺陷检测方法
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN102867195B (zh) 一种遥感图像多类目标检测和识别方法
CN110599502B (zh) 一种基于深度学习的皮肤病变分割方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN111340034A (zh) 一种针对自然场景的文本检测与识别方法及系统
CN112329771B (zh) 一种基于深度学习的建筑材料样本识别方法
CN111368843B (zh) 一种基于语义分割的冰上湖提取的方法
CN114283285A (zh) 交叉一致性自训练遥感图像语义分割网络训练方法及装置
CN115410081A (zh) 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质
CN116206112A (zh) 基于多尺度特征融合和sam的遥感图像语义分割方法
CN113628297A (zh) 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统
CN116129242A (zh) 一种基于改进YOLOv4铝材表面缺陷识别方法
CN115410258A (zh) 基于注意力图像的人脸表情识别方法
CN112084860A (zh) 目标对象检测、火力发电厂检测方法和装置
CN114973136A (zh) 一种极端条件下场景图像识别方法
CN117079276B (zh) 一种基于知识蒸馏的语义分割方法、系统、设备及介质
CN117809190B (zh) 基于深度学习的撞击坑溅射物识别方法
CN112766381A (zh) 有限样本下属性引导的sar图像生成方法
CN112347531A (zh) 一种脆性大理石三维裂纹扩展路径预测方法及系统
CN112149536B (zh) 一种飑线风风速预测方法
CN116453514B (zh) 一种基于多视角的语音关键词检测与定位方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant