CN112101440A - 一种基于改进U-Net网络的日冕物质抛射检测方法 - Google Patents

一种基于改进U-Net网络的日冕物质抛射检测方法 Download PDF

Info

Publication number
CN112101440A
CN112101440A CN202010939525.7A CN202010939525A CN112101440A CN 112101440 A CN112101440 A CN 112101440A CN 202010939525 A CN202010939525 A CN 202010939525A CN 112101440 A CN112101440 A CN 112101440A
Authority
CN
China
Prior art keywords
image
net network
improved
coronal
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010939525.7A
Other languages
English (en)
Other versions
CN112101440B (zh
Inventor
尚振宏
杨志鹏
辛泽寰
冼祥贵
耿成杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming University of Science and Technology
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN202010939525.7A priority Critical patent/CN112101440B/zh
Publication of CN112101440A publication Critical patent/CN112101440A/zh
Application granted granted Critical
Publication of CN112101440B publication Critical patent/CN112101440B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

本发明公开了一种基于改进U‑Net网络的日冕物质抛射检测方法,包括以下步骤:步骤1,将从SOHO主页上下载的LASCO C2图像进行图像预处理,所述预处理包括图像灰度化、图像旋转和翻转操作;步骤2,将从通过步骤1得到的LASCO C2图像转换到极坐标下来表示;步骤3,制作日冕图像数据集,将数据集分为训练集和测试集;步骤4,对原始的U‑Net网络进行改进,使之适应于日冕物质抛射检测任务;步骤5,使用改进后的U‑Net网络进行训练,微调网络参数,最终得到检测结果。实现对日冕物质抛射现象的自动检测,降低人工记录的难度,加快自动检测速度。

Description

一种基于改进U-Net网络的日冕物质抛射检测方法
技术领域
本发明涉及天文图像目标检测领域,尤其涉及一种基于改进U-Net网络的日冕物质抛射检测方法。
背景技术
日冕物质抛射(Coronal Mass Ejections,CMEs)是太阳大气类型中一种频繁发生的爆发现象,其爆发时间及频率随太阳活动频率而不同,具体表现为在几分钟至几小时时间间隔范围内日冕结构发生显著变化并伴有可观测的物质抛射,通常表现为一个明亮的、纹理复杂的增强结构,其拖尾常伴随着一个亮度不足的暗区域。日冕物质抛射尚无明确的定义,较早的定义是日冕结构中可见的变化,包括日冕视野中一个新的、离散的、明亮的白光特征的出现和向外运动。日冕物质抛射是由包含等离子体和磁场的大型结构组成,这些等离子体和磁场是从太阳中发射到日球层的。日冕物质抛射的研究具有重大意义,从科学上讲,它们消除了日冕中积聚的磁能和等离子体;从理论意义上讲,它们对地球、其他行星和整个日光层的宇宙飞船上最极端的太空天气具有一定的影响。
目前的CME检测方法有其局限性,主要是由于这些扩散的物体很难用传统的图像处理技术来识别。这些困难来自于CME形态的变化、周围日冕的散射效应和非线性强度分布、日冕流带的存在,以及宇宙射线和影响日冕探测器的太阳能量粒子产生的噪声。
国内外现有的日冕物质抛射检测方法有两大类,一类是基于人工手动标识检测方法,协调数据分析中心(CDAW)和美国海军研究实验室(NRL),这两个方法是由观测者对日冕仪拍摄的日冕图像进行处理,通过人工手动标识,编制成CMEs目录。人工手动标识检测方法主要依靠研究人员每日手工记录CMEs,该类方法易受观测者个人主观影响且工作量繁多耗时。而基于计算机自动处理的方法在一定程度上能够消除部分人工主观因素的同时还能节约人力资源成本。
基于计算机自动处理的方法大致可以分为以下四类:基于灰度特征的方法、基于纹理特征的方法,基于光流法和基于学习的方法。Robbrecht等首次提出计算机自动检测方法(CACTus),该方法利用日冕物质抛射爆发时的物理参数组成的特殊数据结构体,通过使用霍夫变换完成日冕物质抛射的检测;Boursier等提出ARTEMIS方法,该方法将C2日冕图像变换到Synoptic Maps综合图中,利用垂直条纹来探测CME;Brueckner等使用传统形态学和变化阈值的方法在直角坐标系下探测CME;Colaninno等运用光流法实现对日冕物质抛射检测和跟踪;Olmedo等提出了太阳爆发事件探测系统(SEEDS),该系统利用图像分割技术在极坐标中实现CME的检测。
上述方法或多或少存在一定问题,譬如基于灰度特征的方法CACTus和SEEDS等都采用了亮度增强的方式来突出日冕图像中的疑似日冕物质抛射区域,增强CMEs目标区域的同时也增强了非CMEs区域的强度,且因各自设置的检测规则、阈值选取不同会大大影响检测结果。基于光流算法可以从连续的日冕图像序列中估计每个像素的速度矢量,形成图像运动场,能够确定运动明显的目标,但对于较弱CMEs的检测跟踪效果较差,无法区分类似日冕物质抛射的太阳结构体。
近年来,随着机器学习等技术的快速发展,由于深度学习中的卷积神经网络(CNN)具有良好的特征提取能力,使用卷积神经网络能够实现对日冕物质抛射的特征提取,从而更好更快地从日冕图像中检测出日冕物质抛射,同时还能够在很大程度上节约人力资源成本。
发明内容
本发明的目的在于检测天文观测领域中日冕物质抛射现象,特别涉及太阳爆发活动中日冕物质抛射现象的检测,提出一种基于改进U-Net语义分割方法的日冕物质抛射现象检测方法,实现对日冕物质抛射现象的自动检测,降低人工记录的难度,加快自动检测速度。
为解决上述技术问题,本发明的技术方案如下:一种基于改进U-Net网络的日冕物质抛射检测方法,包括以下步骤:
步骤1:将从SOHO主页上下载的LASCO C2图像进行图像预处理,所述预处理包括图像灰度化、图像旋转和翻转操作;
步骤2:将从通过步骤1得到的LASCO C2图像转换到极坐标下来表示;
步骤3:制作日冕图像数据集,将数据集分为训练集和测试集;
步骤4:对原始的U-Net网络进行改进,使之适应于日冕物质抛射检测任务;
步骤5:使用改进后的U-Net网络进行训练,微调网络参数,最终得到检测结果。
作为对上述技术方案的进一步描述:步骤1中将从SOHO主页下载的日冕图像序列统一选取日冕图像东部(E)为起点,即0度,顺时针旋转到360度;在旋转之前需要对日冕图像做相应的旋转和翻转操作。
作为对上述技术方案的进一步描述:在步骤2中,极坐标转化是对处理后的日冕观测图像做几何变换,保持像素灰度值不变,仅变换像素的几何位置,设经处理后的日冕观测图像中的任一点(x,y),将其按照式(1)进行变换,得到极坐标图像中的(ρ,θ);
Figure BDA0002673142990000031
在公式(1)中,W,H为经过步骤1处理后的LASCO C2日冕图像的宽度和高度。
作为对上述技术方案的进一步描述:步骤3中从SOHO主页一共下载了连续三个月的日冕图像,将某些成像效果极差的图像剔除后,剩下近7000余张图像;将人工标注的7000张图像数据随机分配,包括训练集5000张,测试集2000张。
作为对上述技术方案的进一步描述:步骤4中,改进的U-Net网络包括将原始的U-Net网络收缩路径四个下采样块中的两个卷积层后加入dropout层,在扩张路径中,采用最近邻插值(NN interpolation)方式实现上采样。在收缩路径中主要是进行特征提取,U-Net卷积网络在特征提取上与一般卷积神经网络无区别,都是在空间结构中采用增加特征图个数而降低特征图尺度的策略。在网络扩张路径部分,每层网络需要对特征图进行3种操作:上采样,侧边合并,卷积。在上采样部分,网络将低分辨率的图像信息传播到更高分辨率的层。在侧边合并部分,需要提供网络低层特征,以获取目标区域的位置等信息,由于每个卷积中边界像素的丢失,需进行适当的裁剪,因此可以看到侧边合并部分,特征图的大小不相等。卷积操作仅对合并的特征图进行特征提取操作,并将卷积后的特征图作为上采样的输入。最终需要对多通道特征图卷积操作得到分割map,而map通道数可根据具体问题确定,需要和分类数量一致。如果是单目标分割,map通道数为2,分割出的图像是二值化图像。
作为对上述技术方案的进一步描述:步骤5中使用改进的U-Net网络进行训练,设置好超参数后,进行微调策略;同时根据训练测试结果,对损失函数也进行调整,直至收敛最优。
本发明的特点如下:本发明利用卷积神经网络对日冕图像进行粗分类,得到不同时期下的不同日冕图像中的日冕物质抛射特征。接着,根据CDAW和CACTus与SEEDS目录记载信息,选用SOHO主页上的LASCO C2 512×512像素大小的原始图像作为原始数据,再通过图像处理,对处理后的图像进行标注,得到人工标注的日冕图像数据集,利用改进的U-Net网络,进行训练,验证实验结果。
与现有技术相比,本发明具有以下有益效果:本发明所提出的方法为了更好的实现CMEs的自动检测,该方法实现过程简单,实时性较好,对于较为微弱的CME检测有一定的鲁棒性。同时,自动检测有利于降低人工记录带来的繁琐工作量和减少人工主观判断误差。
附图说明
图1是本发明方法改进U-Net网络结构图;
图2是本发明方法的改进网络结构;
图3是本发明方法实施检测结果样图;
具体实施方式
下面结合附图和具体实施例对本发明的技术方案做进一步详细说明,但本发明并不局限于以下技术方案。
实施例1
一种基于改进U-Net的日冕物质抛射检测方法,具体步骤如下:
步骤1将从SOHO主页上下载的LASCO C2图像进行图像预处理包括图像灰度化、图像旋转和翻转等操作;
步骤2,将从通过步骤1得到的LASCO C2图像转换到极坐标下来表示;
步骤3,制作日冕图像数据集,将数据集分为训练集,测试集;
步骤4,对原始的U-Net网络进行改进,使之适应于日冕物质抛射检测任务;
步骤5,使用改进后的U-Net网络进行训练,微调网络参数,最终得到检测结果。
通过对CMEs原始图像进行处理后,将CMEs检测问题建模为在极坐标图中检测出运动目标问题,并提出了一种基于U-Net语义分割网络的日冕物质抛射检测方法:首先,由于CMEs沿太阳径向传播,为了得到方便描述CME灰度分布模式的区域,将原图像转化为极坐标显示;其次,由于CMEs的典型表现是明亮的、纹理复杂的且径向外运动的结构,因此,检测CMEs实际上可以转换为在极坐标下检测运动目标问题;最后,通过人工标注的日冕图像数据集,运用改进的U-Net网络进行训练,能够得到比较好的分割检测结果。本专利采用机器学习思想,由训练和测试两个阶段组成。将CME检测建模为图像分割问题,在训练阶段得到语义分割模型。训练阶段步骤如下:首先将C2日冕图像根据CDAW和CACTus与SEEDS目录进行CMEs位置区域标注;然后,进行语义分割网络训练,利用改进的网络训练后得到模型训练文件,模型训练文件中包含了CMEs各种特征。在测试阶段,利用模型训练文件对测试集中的C2日冕图像进行预测,实验表明能够检测出大部分有效的CMEs位置区域。
具体如下:
由于SOHO主页中的日冕图像序列是RGB图像且CME现象是径向喷发的状态,因此为了更方便的处理CME图像,需要对得到的图像序列进行一系列预处理操作,包括图像灰度化、图像旋转与翻转以及图像极坐标转换。
1、日冕图像预处理
将彩色图像转化成为灰度图像的过程称为图像的灰度化处理。彩色图像每个像素有R、G、B三种分量,共1200多万变化范围,而灰度图像是这三个分量相同的一种图像,其一个像素点的变化范围为255种,所以为了减少后续的图像计算量,在数字图像处理中一般先将各种格式的图像转变成灰度图像。接着对日冕图像进行旋转和翻转操作,图像极坐标变换方法是以日冕图像东部(E)为起始点,即0度,顺时针旋转到360度。由于太阳是一种圆对称结构,同时CME的喷发过程以及冕流的运动过程都是沿日面径向移动的,因此为了更有效的处理日冕图像,需要将图像从直角坐标系转换到极坐标系。此次极坐标转换将圆形图像转换为更容易处理的矩形图像,极坐标变换中以灰度图像的东部(E)为零度起点,即从零度位置截开,将圆形图像拉成矩形图像,顺时针旋转到360度得到极坐标。
2、标注日冕图像数据集
由于手工识别的缺陷,CDAW目录清单必然是不完全准确和完整的。在没有完善的CME自动检测方法的情况下,手工标记仍然是识别CME的最佳方法,所以该目录可以作为验证正在开发的自动识别程序的参考,该目录包含了比较完整的CME数据。同时自动检测方法得到的CACTus目录和SEEDS目录都是CME检测研究中比较常用的目录,参考价值比较高,而且与CDAW目录相比,这两种方法能够检测出比较多的快速CME。但是CACTus目录记录的数据不够精确和完整,因为CME是一种持续喷发的过程,随着时间的推移,CME位置和特征参数会有一定的改变,也就是说不同时刻CME的参数并不是一成不变的。而CACTus目录只记录了某个CME发生起始时刻的特征参数,包括持续时间(以小时为单位)、中心角度、角宽度、速度等,没有记录发生过程中每一时刻CME的特征参数,所以在统计发生的每一帧图像的特征时是不够精确的。
所述基于改进的U-Net的日冕物质抛射检测方法根据CDAW和CACTus与SEEDs目录所记录的CMEs信息,对经过步骤2步骤处理得到的日冕图像进行数据标注。一共标注7000余张日冕图像序列,将其中5000张图像作为训练数据,剩余2000张图像作为测试图像。
3、改进的U-Net网络
所述基于改进的U-Net的日冕物质抛射检测方法主要在对原始的U-Net网络结构进行微调,将原始的U-Net网络收缩路径四个下采样块中的两个卷积层后加入dropout层,在扩张路径中,采用最近邻插值(NN interpolation)方式实现上采样,改进的U-Net网络结构图如图1和图2所示。
4、网络训练,实验测试
输入:训练集合数据:D:{Xi,i=1,2,...N},这里N=5000,Xi是经过步骤3人工标注后的日冕标签图像。
输出:模型训练文件。
测试:从2000张未标注的日冕图像中,批量选取500张(或更多)图像进行测试,测试结果如图3所示。
实验结果表明本申请提出的基于改进U-Net网络的日冕物质抛射检测方法能够检测出大部分的日冕物质抛射,同时还能检测出CDAW目录没有检测到的日冕物质抛射,大大加快了检测速度,节约人力资源成本。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,根据本申请的技术方案及其实用新型构思加以等同替换或改变,都应涵盖在本申请的保护范围之内。

Claims (6)

1.一种基于改进U-Net网络的日冕物质抛射检测方法,其特征在于,包括以下步骤:
步骤1:将从SOHO主页上下载的LASCO C2图像进行图像预处理,所述预处理包括图像灰度化、图像旋转和翻转操作;
步骤2:将从通过步骤1得到的LASCO C2图像转换到极坐标下来表示;
步骤3:制作日冕图像数据集,将数据集分为训练集和测试集;
步骤4:对原始的U-Net网络进行改进,使之适应于日冕物质抛射检测任务;
步骤5:使用改进后的U-Net网络进行训练,微调网络参数,最终得到检测结果。
2.根据权利要求书1所述的基于改进U-Net网络的日冕物质抛射检测方法,其特征在于,步骤1中将从SOHO主页下载的日冕图像序列统一选取日冕图像东部(E)为起点,即0度,顺时针旋转到360度;在旋转之前需要对日冕图像做相应的旋转和翻转操作。
3.根据权利要求书1所述的基于改进U-Net网络的日冕物质抛射检测方法,其特征在于,在步骤2中,极坐标转化是对处理后的日冕观测图像做几何变换,保持像素灰度值不变,仅变换像素的几何位置,设经处理后的日冕观测图像中的任一点(x,y),将其按照式(1)进行变换,得到极坐标图像中的(ρ,θ);
Figure FDA0002673142980000011
在公式(1)中,W,H为经过步骤1处理后的LASCO C2日冕图像的宽度和高度。
4.根据权利要求书1所述的基于改进U-Net网络的日冕物质抛射检测方法,其特征在于,步骤3中从SOHO主页一共下载了连续三个月的日冕图像,将某些成像效果极差的图像剔除后,剩下近7000余张图像;将人工标注的7000张图像数据随机分配,包括训练集5000张,测试集2000张。
5.根据权利要求书1所述的基于改进U-Net网络的日冕物质抛射检测方法,其特征在于,步骤4中改进的U-Net网络包括将原始的U-Net网络收缩路径四个下采样块中的两个卷积层后加入dropout层,在扩张路径中,采用最近邻插值方式实现上采样;在收缩路径中主要是进行特征提取;在网络扩张路径部分,每层网络需要对特征图进行3种操作:上采样,侧边合并和卷积;在上采样部分,网络将低分辨率的图像信息传播到更高分辨率的层;在侧边合并部分,需要提供网络低层特征,以获取目标区域的位置等信息;卷积操作仅对合并的特征图进行特征提取操作,并将卷积后的特征图作为上采样的输入;最终需要对多通道特征图卷积操作得到分割map,如果是单目标分割,map通道数为2,分割出的图像是二值化图像。
6.根据权利要求书1所述的基于改进U-Net网络的日冕物质抛射检测方法,其特征在于,步骤5中使用改进的U-Net网络进行训练,设置好超参数后,进行微调策略;同时根据训练测试结果,对损失函数也进行调整,直至收敛最优。
CN202010939525.7A 2020-09-09 2020-09-09 一种基于改进U-Net网络的日冕物质抛射检测方法 Active CN112101440B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010939525.7A CN112101440B (zh) 2020-09-09 2020-09-09 一种基于改进U-Net网络的日冕物质抛射检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010939525.7A CN112101440B (zh) 2020-09-09 2020-09-09 一种基于改进U-Net网络的日冕物质抛射检测方法

Publications (2)

Publication Number Publication Date
CN112101440A true CN112101440A (zh) 2020-12-18
CN112101440B CN112101440B (zh) 2022-06-24

Family

ID=73751080

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010939525.7A Active CN112101440B (zh) 2020-09-09 2020-09-09 一种基于改进U-Net网络的日冕物质抛射检测方法

Country Status (1)

Country Link
CN (1) CN112101440B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113344765A (zh) * 2021-05-14 2021-09-03 中国科学院国家空间科学中心 一种频域天文图像目标检测方法及系统
CN113392582A (zh) * 2021-06-03 2021-09-14 中国科学院国家空间科学中心 日冕物质抛射空间环境事件相似推荐方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046259A (zh) * 2015-06-09 2015-11-11 济南大学 基于多特征融合的日冕物质抛射检测方法
CN106056125A (zh) * 2016-05-25 2016-10-26 昆明理工大学 一种基于卡尔曼滤波的日冕物质抛射识别方法
WO2019055400A1 (en) * 2017-09-12 2019-03-21 University of New Hamphire PLASMA PISTON CONVERGENCE SYSTEM
CN110533100A (zh) * 2019-07-22 2019-12-03 南京大学 一种基于机器学习进行cme检测和跟踪的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105046259A (zh) * 2015-06-09 2015-11-11 济南大学 基于多特征融合的日冕物质抛射检测方法
CN106056125A (zh) * 2016-05-25 2016-10-26 昆明理工大学 一种基于卡尔曼滤波的日冕物质抛射识别方法
WO2019055400A1 (en) * 2017-09-12 2019-03-21 University of New Hamphire PLASMA PISTON CONVERGENCE SYSTEM
CN110533100A (zh) * 2019-07-22 2019-12-03 南京大学 一种基于机器学习进行cme检测和跟踪的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ZHENPINGQIANG等: "Enhancing coronal structures with radial local multi-scale filter", 《NEW ASTRONOMY》 *
游江川: "基于U-Net 改进的太阳暗条自动检测", 《电视技术》 *
郭敏等: "日冕物质抛射检测研究进展", 《天文研究与技术》 *
闫聪等: "基于深度学习的心室分割系统设计与实现", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113344765A (zh) * 2021-05-14 2021-09-03 中国科学院国家空间科学中心 一种频域天文图像目标检测方法及系统
CN113344765B (zh) * 2021-05-14 2023-11-03 中国科学院国家空间科学中心 一种频域天文图像目标检测方法及系统
CN113392582A (zh) * 2021-06-03 2021-09-14 中国科学院国家空间科学中心 日冕物质抛射空间环境事件相似推荐方法及系统
CN113392582B (zh) * 2021-06-03 2022-03-08 中国科学院国家空间科学中心 日冕物质抛射空间环境事件相似推荐方法及系统

Also Published As

Publication number Publication date
CN112101440B (zh) 2022-06-24

Similar Documents

Publication Publication Date Title
Wang et al. SAR target detection based on SSD with data augmentation and transfer learning
CN112101440B (zh) 一种基于改进U-Net网络的日冕物质抛射检测方法
CN102930273B (zh) 基于亮度自适应水平集的极光卵分割方法
CN105844228A (zh) 一种基于卷积神经网络的遥感图像云检测方法
CN109598287A (zh) 基于深度卷积生成对抗网络样本生成的外观瑕疵检测方法
CN112686902B (zh) 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法
Tohill et al. Quantifying non-parametric structure of high-redshift galaxies with deep learning
Duan et al. Integrating seismic first-break picking methods with a machine learning approach
CN101782526A (zh) 一种钢材韧窝图像的自动复原、测量分类方法及装置
CN111860571B (zh) 一种基于cip数据质量控制的云微粒子分类方法
CN111381275A (zh) 一种地震数据的初至拾取方法和装置
CN113297988A (zh) 一种基于域迁移和深度补全的物体姿态估计方法
CN114202563A (zh) 一种基于平衡性联合网络的鱼类多目标跟踪方法
Donini et al. A deep learning architecture for semantic segmentation of radar sounder data
Wang et al. Mars image super-resolution based on generative adversarial network
He et al. Diad: A diffusion-based framework for multi-class anomaly detection
CN112766381B (zh) 有限样本下属性引导的sar图像生成方法
CN112818920A (zh) 一种双时相高光谱图像空谱联合变化检测方法
Mourato et al. Automatic sunspot detection through semantic and instance segmentation approaches
Su et al. Which CAM is better for extracting geographic objects? A perspective from principles and experiments
CN115456957B (zh) 一种全尺度特征聚合的遥感影像变化检测的方法
CN116824485A (zh) 一种基于深度学习的开放场景伪装人员小目标检测方法
CN116343078A (zh) 基于视频sar的目标跟踪方法、系统及设备
Zhao et al. Casting Defect Detection and Classification of Convolutional Neural Network Based on Recursive Attention Model
CN103295015B (zh) 部分遮挡目标的局部特征点提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant