CN116681960A - 一种基于K8s的中尺度涡旋智能识别方法及系统 - Google Patents
一种基于K8s的中尺度涡旋智能识别方法及系统 Download PDFInfo
- Publication number
- CN116681960A CN116681960A CN202310551874.5A CN202310551874A CN116681960A CN 116681960 A CN116681960 A CN 116681960A CN 202310551874 A CN202310551874 A CN 202310551874A CN 116681960 A CN116681960 A CN 116681960A
- Authority
- CN
- China
- Prior art keywords
- vortex
- convolution
- output
- mesoscale
- mesoscale vortex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000007246 mechanism Effects 0.000 claims abstract description 46
- 238000010586 diagram Methods 0.000 claims abstract description 29
- 238000013135 deep learning Methods 0.000 claims abstract description 20
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 claims abstract 8
- 230000006870 function Effects 0.000 claims description 21
- 238000011176 pooling Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 230000004931 aggregating effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000007670 refining Methods 0.000 claims description 6
- 230000006872 improvement Effects 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 14
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000012545 processing Methods 0.000 description 10
- 238000011160 research Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000007123 defense Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000001627 detrimental effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 229930002875 chlorophyll Natural products 0.000 description 1
- 235000019804 chlorophyll Nutrition 0.000 description 1
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000379 polymerizing effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于K8s的中尺度涡旋智能识别方法及系统,涉及涡旋识别领域。包括将待识别图像输入到基于深度学习的中尺度涡旋识别模型中,对待识别图像进行特征提取,基于CBAM混合注意力机制进行加权;将输出特征图输入至ASPP中,设置膨胀卷积的膨胀率,同时将ASPP中池化分支替换为深度可分离卷积,得到编码器输出的特征图;将编码器输出的特征图输入解码器中,基于SKNet注意力机制计算不同尺寸感受野的权重,实现中尺度涡旋的智能识别。本发明能够准确的识别出海表面高度图像中的气旋式涡旋和反气旋式涡旋,而且还通过引入注意力机制技术使模型更加精确的分割出涡旋的边界信息,有效的解决了之前方法中的中尺度涡旋识别效果泛化性差的问题。
Description
技术领域
本发明属于涡旋识别技术领域,尤其涉及一种基于K8s的中尺度涡旋智能识别方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
海洋中尺度涡旋是海洋中的一种普遍现象,也是海洋中尺度现象的一个重要组成部分。中尺度涡旋最早在20世纪70年代被人们发现。中尺度涡旋相比普通的小涡旋会大很多,相比海洋中的大环流又小很多,所以称其为中尺度涡旋。中尺度涡旋的运动会不断的影响海洋中的温度、盐度及叶绿素浓度等指标的水平或垂直分布,因此,研究中尺度涡旋的智能识别对于国家海洋环境监测、海洋能量循环、国防军事、海洋水下航行安全等各个领域研究的发展具有重大意义,对于增进我们对国家海洋生态环境检测、海洋能量循环以及海洋动力学的理解至关重要。
从20世纪90年代至今,中尺度涡旋的识别方法主要经历了三次技术迭代,即:基于传统的物理识别方法、基于机器学习的支持向量机识别方法以及基于深度学习的识别方法。基于传统的物理识别方法大致可以分为三类:基于流场几何特征的方法、基于物理参数的方法以及基于流场几何特征和物理参数的混合方法:
(1)基于流场几何特征的方法通过假设涡流的特征形状大致为一个椭圆形,然后使用轮廓闭合技术进行进一步的处理,如果被提取的数据中涡旋的几何形状不规则或者涡旋的几何特征不明显,该方法就无法从待检测数据中检测到涡旋的存在,而且该方法识别效率不高;
(2)基于物理参数的方法非常依赖于海洋领域的专家调整的参数,通过对感兴趣区域选取一组合适的阈值,阈值选取的大小是和最终的涡旋识别精度是直接挂钩的,而且该方法的泛化能力也会受限;
(3)基于流场几何特征和物理参数的混合方法可以同时具备前两种方法的优点,但它的缺点是:需要研究人员具备丰富的海洋相关的专业知识,此外,被识别的数据也必须是非常的干净完整的。Ashkezari等人后来提出使用基于机器学习的支持向量机方法进行涡旋识别,但是该方法的缺点是会产生过拟合,会导致模型不能充分学习到数据集中的涡旋特征。
非传统的涡旋识别方法主要依赖于基于机器学习方法,主要包括:基于支持向量机方法。目前,深度学习在计算机视觉领域中表现优异,利用深度学习中的神经网络模型进行涡旋识别,能够有效的提升对中尺度涡识别和涡旋边界分割的准确率。例如:Lguensat等人提出了一种编码器-解码器结构的模型用于涡旋识别领域。Franz等人利用深度学习方法和传统方法结合来进行涡旋识别。但是,以上这两种基于深度学习的方法特征提取能力有待提高,特别是对一些半径较小的涡旋识别效果不是很好,而且都无法充分利用涡旋的上下文语义信息来精确的分割出涡旋的边界。
发明人发现,如上这些方法都多少存在着一些问题,例如:传统的中尺度涡识别方法需要研究人员具备丰富的海洋领域的调参经验,基于机器学习的方法不仅需要人工设计特征提取器费时费力,而且最终的中尺度涡旋识别效果也都存在泛化性差和识别效率低的问题。
此外,有关中尺度涡旋识别系统的研发工作,经过市场调研发现,目前国内并没有一款真正国产开源的中尺度涡旋智能识别系统,大部分的系统功能设计参差不齐,而且系统是基于单机架构,系统的弹性伸缩、负载均衡和容错能力都不高,特别是对于处理海洋领域相关的这种数据量庞大的场景是不适用的,而且大部分系统仅供研究单位的内部人员使用。对于非海洋领域的研究人员如果涉及到海洋中尺度涡旋有关的研究内容的时候,如果在没有丰富的海洋领域的专业知识的前提下,开展海洋相关的科研工作是非常困难的。
发明内容
为克服上述现有技术的不足,本发明提供了一种基于K8s的中尺度涡旋智能识别方法及系统,该方法不仅能够准确的识别出海表面高度图像中的气旋式涡旋和反气旋式涡旋,而且还通过引入注意力机制技术使模型更加精确的分割出涡旋的边界信息,有效的解决了之前方法中的中尺度涡旋识别效果泛化性差的问题;基于该方法研发出一款基于K8s(Kubernetes)的中尺度涡旋智能识别系统,该系统是基于K8s集群构建的,使用K8s不仅更容易进行分布式并行训练,而且还可以使运行在容器中的系统具有更强的弹性伸缩、负载均衡和容错能力,有效解决了海洋领域数据量巨大导致的模型训练困难和系统识别效率低的问题,同时还能大大提升海洋领域的专家或研究人员的中尺度涡旋识别的工作效率。
为实现上述目的,本发明的一个或多个实施例提供了如下技术方案:
本发明第一方面提供了一种基于K8s的中尺度涡旋智能识别方法。
一种基于K8s的中尺度涡旋智能识别方法,包括以下步骤:
获取待识别图像;
将待识别图像输入到训练好的基于深度学习的中尺度涡旋识别模型中,通过编码器的骨干网络Xception中的深度可分离卷积对待识别图像进行特征提取,对骨干网络输出的特征图基于CBAM混合注意力机制进行加权,得到输出特征图;将输出特征图输入至ASPP中,设置膨胀卷积的膨胀率,同时将ASPP中池化分支替换为深度可分离卷积,按通道维度对膨胀卷积和深度可分离卷积的特征图进行拼接并压缩,得到编码器输出的特征图;
将编码器输出的特征图输入解码器中,基于SKNet注意力机制计算不同尺寸感受野的权重,将权重聚合不同尺度的特征图得到SKNet的输出并进行上采样;然后将上采样的特征图与来自骨干网络Xception中的低级特征图按通道维度拼接,应用卷积层对特征进行细化并通过上采样恢复尺寸,实现中尺度涡旋的智能识别。
本发明第二方面提供了一种基于K8s的中尺度涡旋智能识别系统。
一种基于K8s的中尺度涡旋智能识别系统,包括:
图像获取模块,被配置为:获取待识别图像;
编码器特征提取模块,被配置为:将待识别图像输入到训练好的基于深度学习的中尺度涡旋识别模型中,通过编码器的骨干网络Xception中的深度可分离卷积对待识别图像进行特征提取,对骨干网络输出的特征图基于CBAM混合注意力机制进行加权,得到输出特征图;将输出特征图输入至ASPP中,设置膨胀卷积的膨胀率,同时将ASPP中池化分支替换为深度可分离卷积,按通道维度对膨胀卷积和深度可分离卷积的特征图进行拼接并压缩,得到编码器输出的特征图;
解码器智能识别模块,被配置为:将编码器输出的特征图输入解码器中,基于SKNet注意力机制计算不同尺寸感受野的权重,将权重聚合不同尺度的特征图得到SKNet的输出并进行上采样;然后将上采样的特征图与来自骨干网络Xception中的低级特征图按通道维度拼接,应用卷积层对特征进行细化并通过上采样恢复尺寸,实现中尺度涡旋的智能识别。
本发明第三方面提供了计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本发明第一方面所述的基于K8s的中尺度涡旋智能识别方法中的步骤。
本发明第四方面提供了电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本发明第一方面所述的基于K8s的中尺度涡旋智能识别方法中的步骤。
以上一个或多个技术方案存在以下有益效果:
(1)本发明中设计的方法通过对骨干网络Xception、ASPP等结构进行改进,将深度可分离卷积和空洞卷积的优势应用于涡旋识别,使方法能够以较高的精度识别出海表面高度图像中的气旋式涡旋和反气旋式涡旋,有效解决了之前方法中的中尺度涡旋识别效果泛化性差的问题。
(2)本发明中设计的方法通过引入CBAM混合注意力机制和SKNet注意力机制来提升模型对中尺度涡旋的特征提取能力,相比于之前的方法,使模型充分利用涡旋的上下文语义信息和特征来精确的分割出涡旋的边界信息。
(3)本发明中研发的基于K8s的中尺度涡旋智能识别系统是基于K8s集群构建的,使用K8s不仅更容易进行分布式并行训练,而且还可以使运行中的系统具有更强的弹性伸缩、负载均衡和容错能力,有效解决了海洋领域相关数据量巨大导致的训练困难和系统识别效率低的问题。
(4)本发明中研发的的基于K8s的中尺度涡旋智能识别系统,大大提升了海洋领域的专家和研究人员的工作效率。而且对于非海洋领域相关研究人员的使用体验也更加友好,具有更强的实用性。
(5)本发明中研发的基于K8s的中尺度涡旋智能识别系统是国产开源易用的,相比于国外的一些非开源的系统来说,本发明中的系统具有更高的安全性。对于未来将其应用于国家海洋环境监测、海洋能量循环、国防军事及海洋水下航行安全等各个领域具有重大意义。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为第一个实施例的方法流程图。
图2为修改后的Xception数据处理流程图。
图3为修改后的ASPP数据处理流程图。
图4为CBAM整体架构图。
图5为通道注意力模块数据处理流程图。
图6为空间注意力模块数据处理流程图。
图7为SKNet模块数据处理流程图。
图8为第二个实施例系统工作原理图。
图9为第二个实施例自动选取SSH图像涡旋在线识别功能界面图。
图10为第二个实施例自定义上传SSH图像涡旋在线识别功能界面图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
本发明提出的总体思路:
针对现有技术的如下缺点:
(1)基于流场几何特征方法依赖于被提取的涡旋必须具有规则的形状和明显的几何特征。
(2)基于物理参数的方法依赖于专家的丰富的海洋学相关的经验知识来调整参数。
(3)基于流场几何特征和物理参数的混合方法需要研究人员具备丰富的海洋相关的专业知识,被识别的数据也必须是非常的干净完整的。
(4)基于机器学习的支持向量机方法也需要非常复杂的特征工程来进行数据的预处理,同时模型预测的结果可能会产生过拟合现象。
(5)已存在的基于深度学习方法的特征提取能力有待提高,特别是对一些半径较小的涡旋识别效果不是很好,而且都无法充分利用涡旋的上下文语义信息来精确的分割出涡旋的边界。
(6)经过市场调研发现目前国内并没有一款真正国产开源、高效易用的中尺度涡旋智能识别系统,而且大多数系统的弹性伸缩能力、负载均衡能力和容错能力都不高,特别是对于处理海洋相关的这种数据量庞大的场景是不适用。此外,大部分的中尺度涡旋识别系统都不太适合经验不足的非海洋领域的研究人员使用。
本发明提出了一种基于K8s的中尺度涡旋智能识别方法和系统。
首先,基于哥白尼海洋环境监测服务(CMEMS)提供的南海海表面高度遥感图像构建的数据集,设计出一种基于深度学习的海洋中尺度涡旋智能识别方法,通过对骨干网络Xception、ASPP模块等结构进行改进,充分的将深度可分离卷积和空洞卷积的优势应用于涡旋识别,使模型能够以较高的精度识别出SSH图像中的气旋式涡旋和反气旋式涡旋,有效解决了之前方法中的中尺度涡旋识别效果泛化性差的问题。其次,通过引入CBAM混合注意力机制和SKNet注意力机制来提升模型对中尺度涡旋的特征提取能力,相比于之前的方法,使模型充分利用涡旋的上下文语义信息和特征来精确的分割出涡旋的边界信息。该方法不仅能够准确的识别出海表面高度图像中的气旋式涡旋和反气旋式涡旋,而且还通过引入注意力机制技术来充分利用涡旋的上下文语义信息和特征来精确的分割出涡旋的边界信息,有效的解决了之前方法中的中尺度涡旋识别效果泛化性差的问题。
其次,本发明基于该方法研发出一款基于K8s(Kubernetes)的中尺度涡旋智能识别系统,该系统的作用主要有三点:第一,该系统是基于K8s集群构建的,使用K8s不仅更容易进行分布式并行训练,而且还可以使运行在容器中的系统具有更强的弹性伸缩、负载均衡和容错能力,有效解决了海洋领域数据量巨大导致的模型训练困难和系统识别效率低的问题。第二,该系统可以大大提升海洋领域的专家或研究人员的中尺度涡旋识别的工作效率。第三,该系统对于未来应用于国家海洋环境监测、海洋能量循环、国防军事、海洋水下航行安全等各个领域研究的发展具有重大意义。
DeepLabV3 Plus是2018年由Google Brain团队提出的一种用于图像语义分割的深度学习模型,它可以对输入图像中的每个像素进行分类,并将其分配到相应的物体类别中。DeepLabV3 Plus模型主要包括:编码器、ASPP模块、解码器:
其中,编码器(Encoder):使用预训练的ResNet、MobileNet或Xception等经典CNN,将输入图像映射到低维的特征空间中。本发明中主要使用基于Xception作为主干网络,Xception是一种深度学习卷积神经网络模型,与传统CNN不同之处在于,它使用深度可分离卷积(Depthwise separable convolution)替代传统卷积层,以减少模型参数数量和计算量,从而提高了模型的效率和性能。由于在不增加参数数量的情况下减少了计算成本,Xception模型可以更快地训练和推理,并在多个数据集上实现了与或优于传统CNN模型的高性能。同时,它还被广泛用于视觉任务的迁移学习领域,因为其在常见的计算机视觉数据集中都取得了很好的成果。
ASPP(Atrous Spatial Pyramid Pooling)模块:对不同采样率的特征图进行并行卷积处理,以捕获多尺度特征信息和上下文信息,以进一步提高分割准确性。
解码器(Decoder):将编码器生成的高级语义信息与空间信息相结合,并将高分辨率的特征图上采样到输入图像的相应大小,最终产生分割掩码。
DeepLabV3 Plus模型在许多数据集上表现出色,并且已经成为许多计算机视觉任务的基准方法之一。
实施例一
本实施例公开了一种基于K8s的中尺度涡旋智能识别方法。
如图1所示,一种基于K8s的中尺度涡旋智能识别方法,包括以下步骤:
获取待识别图像;
将待识别图像输入到训练好的基于深度学习的中尺度涡旋识别模型中,通过编码器的骨干网络Xception中的深度可分离卷积对待识别图像进行特征提取,对骨干网络输出的特征图基于CBAM混合注意力机制进行加权,得到输出特征图;将输出特征图输入至ASPP中,设置膨胀卷积的膨胀率,同时将ASPP中池化分支替换为深度可分离卷积,按通道维度对膨胀卷积和深度可分离卷积的特征图进行拼接并压缩,得到编码器输出的特征图;
将编码器输出的特征图输入解码器中,基于SKNet注意力机制计算不同尺寸感受野的权重,将权重聚合不同尺度的特征图得到SKNet的输出并进行上采样;然后将上采样的特征图与来自骨干网络Xception中的低级特征图按通道维度拼接,应用卷积层对特征进行细化并通过上采样恢复尺寸,实现中尺度涡旋的智能识别。
具体技术方案如下:
(1)模型整体架构
模型的整体架构是基于语义分割网络DeepLabV3 Plus的架构风格进行改进,模型的整体架构如图1所示。模型主要由编码器和解码器两个部分组成。编码器模块主要是基于卷积神经网络的特征提取器,可以提取出输入的海表面高度数据中涡旋的主要特征。编码器模块主要是由一个修改后的Xception作为骨干网络和修改后的ASPP(Atrous SpatialPyramid Pooling)结构组成。骨干网络Xception中使用的卷积层主要是深度可分离卷积和空洞卷积,深度可分离卷积在实现通道和区域分离的同时还大大降低了模型的参数量,空洞卷积不仅可以扩大感受野以包含更大的上下文语义信息,而且还可以增强模型对小尺度涡旋特征的提取能力。解码器模块主要是对编码器中输出的特征图进行一系列的上采样操作,上采样操作的目的是为了恢复中尺度涡旋的边缘信息,使识别出的涡旋的边界更加精细。此外,本发明还引入了注意力机制技术来提升模型的性能,本发明在骨干网络的出口处引入了轻量级的CBAM(Convolutional Block Attention Module)混合注意力机制,在解码器的入口处引入了SKNet(Selective Kernel Networks)注意力机制,因为注意力机制技术可以通过施加权重获得更多的涡流细节信息和更高级别的特征,抑制其他无用的信息。以上就是本发明中识别模型的整体架构概述。下面的内容将会详细介绍每个模块的具体实现。
(2)编码器模块
编码器模块主要是由一个修改后的Xception作为骨干网络和修改后的ASPP(Atrous Spatial Pyramid Pooling)结构组成。Xception是对Inception V3的一种结构改进。改进的主要内容为采用深度可分离卷积(Depthwise Separable Convolution)来替换原来Inception V3中的多尺度卷积操作,传统卷积层的功能是同时学习跨通道相关性和空间相关性,而Inception结构着力于对跨通道相关性和空间相关性的学习过程进行分解,在一定程度上实现了跨通道相关性和空间相关性学习过程的解耦。而深度可分离卷积不仅继续继承了Inception这种解耦的思想,而且相比传统卷积操作,深度可分离卷积可以在具有更强的特征提取能力的同时还可以大大的降低网络模型的参数量和运算成本。
修改后的骨干网络Xception主要包含三个部分:Entry flow、Middle flow和Exitflow。总共包含18个Xception块,其中Entry flow部分有4个、Middle flow部分有12个、Exit flow部分有2个。其中每个Xception块内部主要结构由残差网络结合深度可分离卷积实现。
修改后的Xception如图2所示。与原始的Xception相比,本发明所做的改进主要有以下三点:第一,减少了Middle flow中深度可分离卷积的层数。由原来的三层变为现在的两层,主要原因对于输入图像中半径较小的涡流,一个Flow中有太多深度可分离卷积层会导致模型无法检测到半径较小的涡流。第二,将Middle Flow部分重复的次数由原来的8增加到12,这样就增强了骨干网络整体的特征提取能力。第三,将原始的Xecption中所有的最大池化操作使用步长为2的深度可分离卷积代替,因为最大池化操作会使像素丢失的更严重,这对于分割出那些小尺度的涡流是不利的,而步长为2的深度可分离卷积可以保持在不丢失像素的前提下达到更好的效果。
此外,本发明对于原始编码器中的ASPP结构也做了部分改进,修改后的ASPP如图3所示,本发明所作的改进主要有如下两点:第一,将膨胀卷积的膨胀率由原来的6、12、18修改为6、12、12。经过实验发现修改后的膨胀率使涡旋的识别效果更好一点。第二,将原始ASPP结构中的池化分支替换为和骨干网络中一样的步长为2的深度可分离卷积,因为池化操作对于本发明中分割小尺度的涡旋是很不利的,而步长为2的深度可分离卷积可以保持在不丢失像素的前提下达到更好的效果。然后按通道维度对特征图进行拼接,最后利用1x1卷积减少通道数为1得到本模块的输出。
(3)解码器模块
首先,对编码器中ASPP中输出的特征图进行4倍双线性上采样,本发明在进行上采样之前还引入了SKNet注意力机制,然后将注意力机制输出的特征图与来自骨干网络中的低级特征图进行按通道维度拼接。然后应用几个3x3卷积层来对特征进行细化。最后,通过一个4倍的双线性上采样恢复为原始输入图像的尺寸,最终实现了中尺度涡旋的智能识别。
(4)CBAM混合注意力机制
众所周知,注意力在人类的视觉中起着重要的作用,人类视觉系统的很明显的特性就是:人们不会试图一次处理观察到的整个场景,而是习惯于有选择的聚焦于大脑想要关注的部分。同理,在深度学习中,注意力机制的作用就是希望神经网络能够自动学习输入的图像或文字序列中需要关注的特征。注意力机制的主要原理是通过神经网络的一系列操作生成一个掩码,该掩码中的数值即为对当前需要关注的点的评分。注意力机制从不同的实现角度来看又分为:通道注意力机制、空间注意力机制和混合注意力机制。本发明的目标就是通过使用注意力机制来提升网络模型的学习能力,使模型能够学习中尺度涡旋中必要的特征,抑制不必要的特征。
CBAM是一种混合注意力机制。它先后集成了通道注意力机制和空间注意力机制。对于一个输入的特征图,先经过一个通道注意力模块得到加权结果之后,再经过一个空间注意力模块得到最终加权后的结果。CBAM是一个轻量级的通用模块,它可以集成到任何基于CNN架构的模型中,而且它的计算开销很小。
CBAM整体架构如图4所示。对于给定的中间特征图F∈RC×H×W作为输入,CBAM依次计算出通道注意力图Mc∈RC×1×1和空间注意力图Ms∈R1×H×W,整个注意力计算过程可以概括为如下公式:
其中表示逐元素乘法。F是输入的特征图,F”是最终的输出特征图。接下来分别描述每个注意力模块的具体实现。
①通道注意力模块:如图5所示,首先,对于给定的输入特征图分别通过平均池化和最大池化操作聚合特征图的空间信息,分别生成平均池化特征和最大池化特征/>然后,分别将上一步生成的平均池化特征图和最大池化特征图输入到一个共享参数的多层感知机(MLP)中。为了减小模型参数量,其中隐藏层的大小设置为Rc/r×1×1,其中r是缩减率。最后,使用逐元素求和操作来合并输出的特征向量。通道注意力计算公式如下:
其中σ表示sigmoid函数,W0∈RC/r×C,W1∈RC×C/r。两个输入共享MLP的权重W0和W1,并且ReLU激活函数后面是W0。
②空间注意力模块:如图6所示,首先,对于一个给定的输入特征图分别通过平均池化操作和最大池化操作生成两个2D特征图:和/>分别表示平均池化特征和最大池化特征。然后,将这两个2D的特征图按通道维度进行拼接,将拼接后的特征图通过一个标准的卷积操作进行卷积。最后,通过sigmoid函数进行激活得到最终的空间注意力特征图。空间注意力计算公式如下:
其中σ表示sigmoid函数,f7×7表示卷积核大小为7×7的卷积运算。
(5)SKNet模块
SKNet将注意力机制引入到卷积神经网络的感受野中,SKNet中最大的创新点就是引入了SK卷积,SK卷积将注意力机制应用于感受野,让不同大小的目标通过不同大小感受野的自适应加权组合提取特征。SK卷积包含:Spilt、Fuse和Select三部分,Spilt部分利用多尺度感受野提取特征,Fuse部分将多尺度感受野提取的特征进行融合,之后通过下采样及全连接层降维以便于之后计算各层特征图的权重,Select部分主要根据选择权重聚合不同尺度的卷积核的特征图得到最终的输出。
如图7所示,Split部分:对于任何给定的输入特征图,分别进行3*3和5*5的卷积操作,分别得到特征图与/>为了降低参数量,其中5*5的卷积操作是通过使用3*3大小的空洞卷积实现的。Fuse部分:首先,通过element-wise summation操作来融合多个分支的结果:/>然后,将融合之后的特征图U进行全局平均池化操作得到一个一维向量S,再将该一维向量S输入到全连接层网络中进行降维操作得到一维向量Z。Select部分:首先将一维向量Z分别通过softmax函数计算不同尺寸感受野的权重a和b。然后,分别将不同感受野提取的特征图/>与/>分别与a与b做element-wise product操作。最后,将各尺度感受野提取特征图进行element-wise summation操作得到特征图V。
(6)实验过程
本发明中设计的模型是基于国家超级计算济南中心山河超级计算云平台提供的GPU云服务器中搭建的K8s集群中进行训练的。操作系统版本为:CentOS 8.2 64bit,K8s版本是:1.24.4,GPU使用的是:NVIDIA A100,数据集是基于哥白尼海洋环境监测服务(CMEMS)提供的南海海表面高度遥感图像构建的数据集,代码编写使用的框架是TensorFlow。在模型训练过程中,优化器选用的Adam,损失函数选基于Dice系数的Soft Dice Loss,Dice系数特别适合作为语义分割这种精确到像素级工作的评价指标,Dice系数的计算公式如下:
其中|M|代表真实结果出现的区域,|N|代表模型预测结果出现的区域,dice的取值范围为0到1,取值越接近于1表示模型分割效果越好,取值越接近于0表示模型分割效果越差。由Dice系数可以延伸出来对应的损失函数Soft Dice Loss,损失函数计算公式如下:
经过多次训练调参,最终将epoch设定为100,batchsize设定为16,关于最终的训练结果,训练集中precision和recall都达到了93.68%。验证集中precision和recall都达到了86.48%。
(7)系统架构介绍
本发明基于上文中设计的模型研发出一款基于K8s的中尺度涡旋智能识别系统,该系统是基于B/S(Browser/Server)架构的前后端分离项目。系统的前端界面是基于Vue开发的。系统的后端API是基于Flask框架开发的,因为Flask是基于Python语言编写的轻量级Web框架,而且该框架具有灵活、轻便、简单易用的优点。本系统有关中尺度涡旋识别的功能主要以服务的形式提供给用户使用。面向的用户群体主要为对中尺度涡旋识别有科研需求的研究人员。
系统的主要功能模块包括:用户注册登录模块、服务概述模块、案例展示模块、涡旋在线识别模块。用户注册登录模块主要是为用户提供登录注册功能,方便后台对用户管理。服务概述模块主要为非海洋中尺度涡旋研究领域的人员对涡旋识别领域快速的了解和入门。案例展示模块主要是对本发明的算法识别原理及效果的展示。涡旋在线识别模块是本系统的核心功能模块,后面将会重点介绍涡旋在线识别模块。
模型和系统的部署流程:本发明将模型和系统都部署在同一个K8s集群中,相比于传统的单机部署方式,容器化部署方式可以使系统具有更强的弹性伸缩、负载均衡和容错能力。模型和系统的部署流程可以参考系统的工作原理图8,实验中使用了4台服务器来搭建K8s集群,其中操作系统版本为:CentOS 8.2 64bit,Docker的版本为:23.0.1,K8s的版本为1.24.4,K8s集群中的节点包括:1个Master Node和3个Worker Node。首先,本发明将系统前端的Vue项目通过命令打包部署到nginx镜像中,镜像名为:nginx-vue:1.0,然后基于该镜像创建一个标签为app=ngixn的Deployment,该Deployment会基于nginx镜像一次性创建3个标签为app=nginx的Pod,这3个Pod通过K8s的默认调度策略被尽可能的调度到不同的Worker Node中来为用户提供前端的Web服务。由于在K8s集群内部不同的Pod的IP地址是不固定的,为了统一不同Pod副本的IP地址,因此还需要创建一个标签为app=nginx的Service,Service不仅可以将一组Pod暴露为同一个网络服务,还可以实现同一组Pod中的负载均衡的需求。其次,将后端的模型代码部署到DockerHub官方提供的基于TensorFlow的基础镜像中,镜像名为:my-model:1.0,然后基于该镜像创建一个标签为app=model的Deployment,该Deployment会基于my-model:1.0镜像一次性创建3个标签为app=model的Pod,这3个Pod通过K8s的默认调度策略被尽可能的调度到不同的Worker Node中来为前端页面提供后端的业务处理服务。还需要创建一个标签为app=model的Servie来统一IP地址。最后,后期随着用户规模的不断扩大,为了提升系统的可扩展性,方便系统后期扩展不同的Service服务,同时实现不同Service的负载均衡需求,可以创建一个Ingress来代理不同的Service。以上操作的YMAL配置文件信息如下所示:
/>
/>
系统中的涡旋识别模块的工作原理:如图8所示,首先,用户通过浏览器访问Web项目,用户可以自定义上传待识别的SSH图像,请求首先经过Ingress,然后请求被标签为app=nginx的Service的负载均衡功能被随机的打到3个不同Worker Node中的标签为app=nginx的Pod中,然后其中一个标签为app=nginx的Pod会优先访问同一个Worker Node中的标签为app=model的Pod,因为同一个Worker Node中的不同Pod之间的请求会直接走集群内部的流量,不会走节点外部的公网流量,因为这样可以大大减少流量资源的浪费,只有当同一个节点中想要访问的Pod挂掉时,请求才会跨节点去访问其他的Pod副本。此时,请求来到app=model的Pod中,然后该Pod中部署的Flask接收请求体中携带的用户上传的图像后,首先将图像的大小裁剪为模型可以输入的固定大小,然后将其输入到训练好的基于深度学习的中尺度涡旋识别模型中进行识别。识别完成后,Flask会将识别的结果以response的形式逐步响应给浏览器,最终,Vue通过双向数据绑定将识别结果渲染到浏览器中供用户查看。
系统中的涡旋在线识别模块主要包括两个子功能:自动选取SSH图像涡旋在线识别功能和自定义上传SSH图像涡旋在线识别功能。
①自动选取SSH图像涡旋在线识别功能:该功能系统会使用后端提供的数据集中的图像数据进行
涡旋在线识别,以此来评估之前训练出的模型的性能,使用户更直观的在线体验该模型的识别效果。该功能输入的SSH图像是在系统后台提供的验证集图像中随机选取的。如图9所示。当用户点击“自动选取”按钮后,系统后台会自动随机选取一张SHH的涡旋图像,用户只需要等待几秒钟,系统后台会自动返回模型识别后的结果。返回的结果中一共包含三张图片,第一张为渲染后的原始的海表面高度图像,第二张为模型识别分割后的结果,第三张为原始图像对应的真实结果,其中识别的结果中:黄色代表气旋式涡旋、绿色代表反气旋式涡旋。
②自定义上传SSH图像涡旋在线识别功能:如图10所示,该功能用户可以点击“自定义上传”按
钮上传自己本地设备中的涡旋图像进行涡旋在线识别,但是要求用户上传的图片必须是SHH类型的遥感图像。用户上传完图像后只需等待几秒钟,系统后台会自动返回识别后的结果,返回的的结果中一共包含两张图像,第一张为用户自定义上传到原始SSH图像,第二张为模型识别分割后的结果,其中识别的结果中:黄色代表气旋式涡旋、绿色代表反气旋式涡旋。
实施例二
本实施例公开了一种基于K8s的中尺度涡旋智能识别系统。
一种基于K8s的中尺度涡旋智能识别系统,包括:
图像获取模块,被配置为:获取待识别图像;
编码器特征提取模块,被配置为:将待识别图像输入到训练好的基于深度学习的中尺度涡旋识别模型中,通过编码器的骨干网络Xception中的深度可分离卷积对待识别图像进行特征提取,对骨干网络输出的特征图基于CBAM混合注意力机制进行加权,得到输出特征图;将输出特征图输入至ASPP中,设置膨胀卷积的膨胀率,同时将ASPP中池化分支替换为深度可分离卷积,按通道维度对膨胀卷积和深度可分离卷积的特征图进行拼接并压缩,得到编码器输出的特征图;
解码器智能识别模块,被配置为:将编码器输出的特征图输入解码器中,基于SKNet注意力机制计算不同尺寸感受野的权重,将权重聚合不同尺度的特征图得到SKNet的输出并进行上采样;然后将上采样的特征图与来自骨干网络Xception中的低级特征图按通道维度拼接,应用卷积层对特征进行细化并通过上采样恢复尺寸,实现中尺度涡旋的智能识别。
实施例三
本实施例的目的是提供计算机可读存储介质。
计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开实施例1所述的基于K8s的中尺度涡旋智能识别方法中的步骤。
实施例四
本实施例的目的是提供电子设备。
电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开实施例1所述的基于K8s的中尺度涡旋智能识别方法中的步骤。
以上实施例二、三和四的装置中涉及的各步骤与方法实施例一相对应,具体实施方式可参见实施例一的相关说明部分。术语“计算机可读存储介质”应该理解为包括一个或多个指令集的单个介质或多个介质;还应当被理解为包括任何介质,所述任何介质能够存储、编码或承载用于由处理器执行的指令集并使处理器执行本发明中的任一方法。
本领域技术人员应该明白,上述本发明的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本发明不限制于任何特定的硬件和软件的结合。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种基于K8s的中尺度涡旋智能识别方法,其特征在于,包括以下步骤:
获取待识别图像;
将待识别图像输入到训练好的基于深度学习的中尺度涡旋识别模型中,通过编码器的骨干网络Xception中的深度可分离卷积对待识别图像进行特征提取,对骨干网络输出的特征图基于CBAM混合注意力机制进行加权,得到输出特征图;将输出特征图输入至ASPP中,设置膨胀卷积的膨胀率,同时将ASPP中池化分支替换为深度可分离卷积,按通道维度对膨胀卷积和深度可分离卷积的特征图进行拼接并压缩,得到编码器输出的特征图;
将编码器输出的特征图输入解码器中,基于SKNet注意力机制计算不同尺寸感受野的权重,将权重聚合不同尺度的特征图得到SKNet的输出并进行上采样;然后将上采样的特征图与来自骨干网络Xception中的低级特征图按通道维度拼接,应用卷积层对特征进行细化并通过上采样恢复尺寸,实现中尺度涡旋的智能识别。
2.如权利要求1所述的基于K8s的中尺度涡旋智能识别方法,其特征在于,所述基于深度学习的中尺度涡旋识别模型为基于语义分割网络DeepLabV3 Plus的架构进行改进得到的,具体的改进为:
将骨干网络Xception的Middle flow中深度可分离卷积的层数由三层变为两层,将Middle Flow部分重复的次数由原来的8增加到12,将原始的Xecption中所有的最大池化操作使用步长为2的深度可分离卷积代替;
对于原始编码器中的ASPP,将膨胀卷积的膨胀率由原来的6、12、18修改为6、12、12,将原始ASPP中的池化分支替换为步长为2的深度可分离卷积;
在骨干网络的出口处引入了轻量级的CBAM混合注意力机制,在解码器的入口处引入了SKNet注意力机制。
3.如权利要求1所述的基于K8s的中尺度涡旋智能识别方法,其特征在于,骨干网络Xception包括Entry flow、Middle flow和Exit flow,总共包含18个Xception块,其中Entry flow部分有4个、Middle flow部分有12个、Exit flow部分有2个;每个Xception块内部包括残差网络结合深度可分离卷积。
4.如权利要求1所述的基于K8s的中尺度涡旋智能识别方法,其特征在于,所述CBAM混合注意力机制包括通道注意力机制和空间注意力机制,对于骨干网络输出的特征图,先经过一个通道注意力模块得到加权结果之后,再经过一个空间注意力模块得到最终加权后的结果。
5.如权利要求4所述的基于K8s的中尺度涡旋智能识别方法,其特征在于,对于给定的特征图F∈RC×H×W作为输入,CBAM依次计算出通道注意力图Mc∈RC×1×1和空间注意力图Ms∈R1 ×H×W,整个注意力计算过程可以概括为如下公式:
其中表示逐元素乘法;F是输入的特征图;F”是最终的输出特征图。
6.如权利要求1所述的基于K8s的中尺度涡旋智能识别方法,其特征在于,SKNet将注意力机制引入到卷积神经网络的感受野中,SKNet中引入了SK卷积,SK卷积包括Spilt、Fuse和Select三部分,Spilt部分利用多尺度感受野提取特征,Fuse部分将多尺度感受野提取的特征进行融合,之后通过下采样及全连接层降维以便之后计算各层特征图的权重,Select部分根据权重聚合不同尺度的卷积核的特征图得到最终的输出。
7.如权利要求1所述的基于K8s的中尺度涡旋智能识别方法,其特征在于,还包括在GPU云服务器中搭建K8s集群,在搭建的K8s集群中对基于深度学习的中尺度涡旋识别模型进行训练,得到训练好的基于深度学习的中尺度涡旋识别模型;
在模型训练过程中,损失函数选为Soft Dice Loss,计算公式为:
其中,|M|代表真实结果出现的区域,|N|代表模型预测结果出现的区域。
8.一种基于K8s的中尺度涡旋智能识别系统,其特征在于:包括:
图像获取模块,被配置为:获取待识别图像;
编码器特征提取模块,被配置为:将待识别图像输入到训练好的基于深度学习的中尺度涡旋识别模型中,通过编码器的骨干网络Xception中的深度可分离卷积对待识别图像进行特征提取,对骨干网络输出的特征图基于CBAM混合注意力机制进行加权,得到输出特征图;将输出特征图输入至ASPP中,设置膨胀卷积的膨胀率,同时将ASPP中池化分支替换为深度可分离卷积,按通道维度对膨胀卷积和深度可分离卷积的特征图进行拼接并压缩,得到编码器输出的特征图;
解码器智能识别模块,被配置为:将编码器输出的特征图输入解码器中,基于SKNet注意力机制计算不同尺寸感受野的权重,将权重聚合不同尺度的特征图得到SKNet的输出并进行上采样;然后将上采样的特征图与来自骨干网络Xception中的低级特征图按通道维度拼接,应用卷积层对特征进行细化并通过上采样恢复尺寸,实现中尺度涡旋的智能识别。
9.计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-7任一项所述的基于K8s的中尺度涡旋智能识别方法中的步骤。
10.电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7任一项所述的基于K8s的中尺度涡旋智能识别方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310551874.5A CN116681960A (zh) | 2023-05-15 | 2023-05-15 | 一种基于K8s的中尺度涡旋智能识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310551874.5A CN116681960A (zh) | 2023-05-15 | 2023-05-15 | 一种基于K8s的中尺度涡旋智能识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116681960A true CN116681960A (zh) | 2023-09-01 |
Family
ID=87788184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310551874.5A Pending CN116681960A (zh) | 2023-05-15 | 2023-05-15 | 一种基于K8s的中尺度涡旋智能识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116681960A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117132606A (zh) * | 2023-10-24 | 2023-11-28 | 四川大学 | 用于肺部病变图像的分割方法 |
CN117935023A (zh) * | 2024-03-22 | 2024-04-26 | 青岛哈尔滨工程大学创新发展中心 | 基于注意力机制的中尺度涡识别和特征分析方法及系统 |
-
2023
- 2023-05-15 CN CN202310551874.5A patent/CN116681960A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117132606A (zh) * | 2023-10-24 | 2023-11-28 | 四川大学 | 用于肺部病变图像的分割方法 |
CN117132606B (zh) * | 2023-10-24 | 2024-01-09 | 四川大学 | 用于肺部病变图像的分割方法 |
CN117935023A (zh) * | 2024-03-22 | 2024-04-26 | 青岛哈尔滨工程大学创新发展中心 | 基于注意力机制的中尺度涡识别和特征分析方法及系统 |
CN117935023B (zh) * | 2024-03-22 | 2024-05-28 | 青岛哈尔滨工程大学创新发展中心 | 基于注意力机制的中尺度涡识别和特征分析方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112131978B (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
CN116681960A (zh) | 一种基于K8s的中尺度涡旋智能识别方法及系统 | |
CN110020681A (zh) | 基于空间注意力机制的点云特征提取方法 | |
CN113487618B (zh) | 人像分割方法、装置、电子设备及存储介质 | |
CN114693624B (zh) | 一种图像检测方法、装置、设备及可读存储介质 | |
CN113011568B (zh) | 一种模型的训练方法、数据处理方法及设备 | |
CN106778910A (zh) | 基于本地训练的深度学习系统和方法 | |
CN115222998A (zh) | 一种图像分类方法 | |
CN116452810A (zh) | 一种多层次语义分割方法、装置、电子设备及存储介质 | |
CN115410081A (zh) | 一种多尺度聚合的云和云阴影辨识方法、系统、设备及存储介质 | |
CN113361387A (zh) | 人脸图像融合方法及装置、存储介质及电子设备 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
CN117635418B (zh) | 生成对抗网络的训练方法、双向图像风格转换方法和装置 | |
Sebaq et al. | Rsdiff: Remote sensing image generation from text using diffusion model | |
CN111126155A (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
CN117094362B (zh) | 一种任务处理方法及相关装置 | |
CN110197226B (zh) | 一种无监督图像翻译方法及系统 | |
Wang et al. | Self-attention deep saliency network for fabric defect detection | |
CN113780241B (zh) | 一种显著物体检测的加速方法与装置 | |
CN115222578A (zh) | 图像风格迁移方法、程序产品、存储介质及电子设备 | |
CN117011415A (zh) | 一种特效文字的生成方法、装置、电子设备和存储介质 | |
CN115761552A (zh) | 面向无人机机载平台的目标检测方法、系统、设备及介质 | |
Zhong et al. | Digital recognition of street view house numbers based on DCGAN | |
Ghosh et al. | PB3C-CNN: An integrated PB3C and CNN based approach for plant leaf classification | |
Ajith et al. | Pedestrian detection: performance comparison using multiple convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |