CN116343825A - 一种基于样本映射的少样本水声目标识别方法 - Google Patents
一种基于样本映射的少样本水声目标识别方法 Download PDFInfo
- Publication number
- CN116343825A CN116343825A CN202310330326.XA CN202310330326A CN116343825A CN 116343825 A CN116343825 A CN 116343825A CN 202310330326 A CN202310330326 A CN 202310330326A CN 116343825 A CN116343825 A CN 116343825A
- Authority
- CN
- China
- Prior art keywords
- sample
- samples
- class
- mapping
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000013507 mapping Methods 0.000 title claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 13
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000003416 augmentation Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 10
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
本发明提供了一种基于样本映射的少样本水声目标识别方法;包括:步骤1,在基数据集上做分类任务训练一个特征提取模块用以对新类的特征提取;步骤2,使用训练好的特征提取模块对新类的样本进行特征提取,并计算每个类的平均特征,根据样本对每个类的中心特征的相似度来将基数据集上的样本映射至新类组成的类型空间中,并给其标记上伪标签;步骤3,使用带伪标签的基数据集样本和支持集样本共同对模型进行微调以拟合新类的特征识别。本发明方法针对在少样本的情况下对水中目标进行检测时,相比于其他的模型具有更高的准确率,同时在加噪的情况下同样可以获得较好的效果。
Description
技术领域
本发明属于水声目标领域;尤其涉及一种基于样本映射的少样本水声目标识别方法。
背景技术
随着海洋战略地位的日益突显,开发利用海洋资源和空间成为一项重要的课题。然而水下信息获取较为困难,声波是目前在海洋中唯一能够进行远距离传播的能量形式,从20世纪60年代开始,世界各国就一直在水声目标识别相关研究工作给予大量投入。针对现代化战争中水下探测的需求,基于声音信号的水下目标分类识别也成为了水下探测领域的研究热点。
由于被动声纳具有隐蔽性强,传输距离长等优点,水下目标辐射噪声通过被动声纳采集是水声目标识别的主要信息来源。被动声纳系统具有良好的隐蔽性和灵活性,因此,如何利用被动声纳获取的舰船辐射噪声进行水下目标探测与识别成为了亟需解决的问题的关键。但由于各种舰船隐身技术的应用以及海洋环境的复杂多样,基于舰船辐射噪声的水下目标识别任务面临着巨大挑战。
传统的目标识别方法主要是:基于研究者的经验使用某种方法对原始信号进行特征提取。但该方法存在以下不足:速度较慢,耗费精力,受限于复杂的环境和先验知识,泛化能力较弱,并且由于人的生理和心理因素的不稳定性,难以做到稳定的全天候水下目标探测与识别。机器学习方法本质上是对数据进行非线性特征变换,如多层感知机模型、支持向量机(Supportvectormachine,SVM)模型、高斯混合模型等。该方法处理小批量数据时效率尚可,但是当数据量增多时其计算效率明显不足。此外,浅层学习的参数无法自适应,因此其自纠错能力欠缺。
近些年,深度学习不断发展,出现了许多端到端的特征提取能力很强的模型,这些模型广泛应用于各个领域,越来越多的人将其应用到水声目标识别。深度学习的方法通过将数据的原始空间转换到特征空间,再进行分类。深度学习理论较好地克服了浅层学习依赖特征工程和自适应欠缺的缺点,其能够进行参数自适应学习,且可以表征高维复杂函数,提取目标的深层特征,因此可以获得更多关于目标的有用信息。这种方法通过实验获取的数据或者公共数据集作为训练样本进行训练,然而在实际的应用中,获取大量特定环境下的标记水声样本是无法实现的,应用场景更趋于少样本识别。
目前,对于水声信号的少样本分类问题的研究较少。少样本分类需要利用一个大型基数据集中学习到的识别能力来识别未遇到的新类,其中每个类都会提供极少数的标记样本,即支持集。在这种情况下,如果使用基数据集对网络进行预训练,然后通过少量标记样本对其微调,会因为标记样本的数量过少而导致严重的过拟合。同时,在基数据集下训练的网络冻结特征提取模块,仅训练一个简单的线性分类器,并不能完全拟合新类的特征,会导致欠拟合。
发明内容
本发明的目的是提供了一种基于样本映射的少样本水声目标识别方法。虽然基数据集和支持集上的类别是不相交的,但是很多时候,不同类别的样本是具有一定的相似度,可以在训练时利用基数据集上的样本做微调进行辅助训练。因此,本发明方法通过样本映射的方式对基数据集上的样本打上关于支持集类别的伪标签,之后将带有伪标签的基数据集样本与支持集样本共同对模型进行微调。
本发明是通过以下技术方案实现的:
本发明涉及一种基于样本映射的少样本水声目标识别方法,包括以下步骤:
步骤1,在基数据集上做分类任务训练一个特征提取模块用以对新类的特征提取;
步骤2,使用训练好的特征提取模块对新类的样本进行特征提取,并计算每个类的平均特征,根据样本对每个类的中心特征的相似度来将基数据集上的样本映射至新类组成的类型空间中,并给其标记上伪标签;
步骤3,使用带伪标签的基数据集样本和支持集样本共同对模型进行微调以拟合新类的特征识别。
优选地,所述步骤1的具体步骤为:
首先的目标是在一个庞大的数据集上训练一个模型,具有很好的特征提取能力,它将用以迁移到下游的少样本识别任务。在基数据集下,使用多分类的训练方式训练一个由特征提取器/>和分类层gφ组成的卷积神经网络,使用交叉熵损失函数/>对模型进行优化。/>和φbase分别为优化后的特征提取器和分类器的参数。在训练结束后,特征提取器将用于下游的少样本识别任务,而分类器将被舍弃,该步骤所使用的公式如(I)所示:
优选地,所述步骤2的具体步骤为:
为了根据新的类对基数据集标记伪样本,本发明使用特征提取器输出的特征向量进行相似度比较。具体来说,首先固定/>的参数对支持集/>上类i的样本提取特征向量ei,如果每个类有多个样本,则求平均值来作为该类的特征向量,其中xk为支持集上属于类i的样本,如公式(II)所示:
在求得每个类的均值之后,将被用于与基数据集的特征向量 计算相似度并映射至新类的类型空间中作为样本的伪标签,首先特征ej与支持集中的类i的特征向量ei计算余弦相似度作为该样本被分类至新类i的概率/>如公式(III)所示:
优选地,所述步骤3的具体步骤为:
为样本映射阶段对基数据集中的样本打上的关于新类的伪标签,α与β是权衡两种损失函数权重的超参数,/>是来自预训练阶段对特征提取模块优化的参数,并继续优化,φ’是分类层重新初始化的参数,在训练的过程中,使用SpecAugment来对数据做样本扩增,如公式(V)所示:
本发明具有以下优点:
本发明方法通过样本映射的方式对基数据集上的样本打上关于支持集类别的伪标签,再将带有伪标签的基数据集样本与支持集样本共同对模型进行微调;本发明方法针对在少样本的情况下对水中目标进行检测时,相比于其他的模型具有更高的准确率,同时在加噪的情况下同样可以获得较好的效果。
附图说明
图1是本发明所涉及的基于样本映射的少样本水声目标识别方法概述预览图;
图2是本发明所涉及的基于样本映射的少样本水声目标识别方法计算过程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。应当指出的是,以下的实施实例只是对本发明的进一步说明,但本发明的保护范围并不限于以下实施例。
实施例
本实施例涉及一种基于样本映射的少样本水声目标识别方法,见图1和图2所示,包括以下步骤:
本发明实施例使用公开数据集ShipsEar进行训练,对其包含的11类船体噪声数据进行分割,选用其中6类作为基数据集,另外5类进行微调模型。首先将音频分割为2s长度的样本,然后提取出梅尔谱图,其中窗长为40ms,窗移为20ms,n_mels=80。在对模型的训练中,使用SpecAugment进行音频的数据扩增。为了便于与少样本分类中的工作进行比较,本发明实施例选用ResNet12作为基础网络。
步骤1,在基数据集上做分类任务训练一个特征提取模块用以对新类的特征提取;
首先的目标是在一个庞大的数据集上训练一个模型,具有很好的特征提取能力,它将用以迁移到下游的少样本识别任务。在基数据集下,使用多分类的训练方式训练一个由特征提取器/>和分类层gφ组成的卷积神经网络,使用交叉熵损失函数/>对模型进行优化。/>和φbase分别为优化后的特征提取器和分类器的参数。在训练结束后,特征提取器将用于下游的少样本识别任务,而分类器将被舍弃,该步骤所使用的公式如(I)所示:
步骤2,使用训练好的特征提取模块对新类的样本进行特征提取,并计算每个类的平均特征,根据样本对每个类的中心特征的相似度来将基数据集上的样本映射至新类组成的类型空间中,并给其标记上伪标签;
为了根据新的类对基数据集标记伪样本,使用特征提取器输出的特征向量进行相似度比较。具体来说,首先固定/>的参数对支持集/>上类i的样本提取特征向量ei,如果每个类有多个样本,则求平均值来作为该类的特征向量,其中xk为支持集上属于类i的样本,如公式(II)所示:
在求得每个类的均值之后,将被用于与基数据集的特征向量 计算相似度并映射至新类的类型空间中作为样本的伪标签,首先特征ej与支持集中的类i的特征向量ei计算余弦相似度作为该样本被分类至新类i的概率/>如公式(III)所示:
步骤3,使用带伪标签的基数据集样本和支持集样本共同对模型进行微调以拟合新类的特征识别。使用包含相同数量的基数据集样本和支持集样本的批次对整个模型(包括和gφ)进行微调。使用两种损失函数加权求和来对整个模型进行优化,其中基数据集的损失函数为KL散度/>支持集的损失函数为交叉熵损失/>
为样本映射阶段对基数据集中的样本打上的关于新类的伪标签,α与β是权衡两种损失函数权重的超参数,/>是来自预训练阶段对特征提取模块优化的参数,并继续优化,φ’是分类层重新初始化的参数,在训练的过程中,使用SpecAugment来对数据做样本扩增,如公式(V)所示:
技术效果验证
(1)与经典模型的对比
表1为本发明方法与少样本分类任务中先进的方法的信息对比,其中,本发明实施例选用了RelationNet、ProtoNet、RFS、LabelHallu与mymodel分别在1-shot、3-shot、5-shot任务上进行对比。基于Metalearning方法的RelationNet的效果较差,是因基数据集中样本类别相比于图像任务的类别较少。而ProtoNet和RFS相比于RelationNet有较大的提升,说明提取一个好的特征向量进行类别的对比的方法是可行的;其中ProtoNet在1-shot任务上的效果较差,体现出了其使用待预测样本与支持集类别中心点进行距离对比的方式在每个类别样本数量较少的情况下难以准确表达出类别中心点特征。LabelHallu由于在提取特征向量的基础上加入了样本幻觉,缓解了模型在微调时的过拟合现象,也拥有较好的表现。本发明实施例方法所涉及的模型在三个任务上均具有更好的表现,说明使用对基数据集向支持集的特征空间进行映射的方式标记伪样本的方法拥有更加有效的伪样本对模型微调的能力。同时,相比于其他模型的预测结果,本发明方法的优势随着shot数量的增加愈加明显,也说明了当样本数量提升时,标记伪样本的方式更加准确有效,对模型微调的帮助更大。
表1
(2)下游阶段不同策略的对比
表2为在下游阶段使用不同的策略对模型进行训练的对比数据,其中它们对基数据集的预训练阶段是相同的。
表2中Frozen是一种传统的迁移学习方法,即使用少量的样本对从基数据集学习到的backbone冻结参数来训练一个线性回归模型;
Finetune是只使用支持集中的样本对整个模型进行微调;Hard-label是本发明方法的一个变种,即在对基数据集上的样本标记伪标签时采用独热编码进行标记,之后同样将其在微调模型时与支持集一同进行训练。
对于四种不同的训练策略,分别在1-shot、3-shot、5-shot任务上进行对比。首先可以发现Finetune比Frozen的效果明显好,这表明仅仅微调分类器会导致严重的欠拟合。通过使用伪标签样本参与下游的微调,Hard-label的方法比Frozen和Finetune具有更好的效果。
Soft-label通过使用softlabel进行标记,可以更好的拟合在特征映射时的不同样本之间的相似度,因此拥有最高的准确率,在1-shot、3-shot和5-shot任务上相比于Finetune性能均提升5%左右。
表2
(3)伪样本对模型不同参数进行微调的消融实验
本发明实施例进行消融实验,进而明确在微调阶段基数据集的伪样本对模型的哪些部分有益。如表3所示,主要控制伪样本对模型的分类层和特征提取模块是否进行参数更新来对比,其中在特征提取模块和分类层上都没有梯度的实验等同于只使用支持集对模型进行微调,而在这两部分上都有梯度的实验为ourmodel。正如实验结果所示,相比于微调模型,仅仅使用基数据集对分类层进行参数更新时,实验结果大致不变,而仅仅对特征提取模块进行参数更新时,实验结果提升约2%。该数据表明本发明实施例所涉及的方法改进有一部分是源于使用基数据集对主干特征提取模块的学习。当使用基数据集同时对特征提取模块和分类层进行参数更新时,实验结果有较大的提升,说明本发明实施例所涉及的方法可以较好的抑制微调过程中的过拟合现象。
表3
(4)不同信噪比下的对比实验
为了探究本发明所涉及的模型在高噪环境下的预测能力,对原有的数据集根据不同的信噪比加入海洋噪声,通过对人为添加噪声的样本的训练与预测来进行比较,实验时都选用了5-shot任务进行对比。如表4所示,选用RelationNet、ProtoNet、RFS、LabelHallu与本发明方法所涉及的模型进行对比。对于单个模型的表现,在SNR=-10dB、-15dB时的预测结果相差不大,而在SNR=-5dB时的结果有所提升。而RelationNet的效果较差,ProtoNet和RFS的效果较为一般,而LabelHallu的效果有所提升,这与表1在不加入噪声下的实验结果相近。发明方法所涉及的模型相比于表现较好的LabelHallu分别在SNR=-5dB、-10dB、-15dB下的预测准确率均提升了3%左右。对于,这表明发明方法所涉及的模型具有一定的抗噪能力,尤其是在SNR=-5dB时的预测能力突出。
表4
SNR(dB) | -5 | -10 | -15 |
RelationNet | 0.2594 | 0.2272 | 0.2160 |
ProtoNet | 0.5299 | 0.4877 | 0.4768 |
RFS | 0.5133 | 0.5085 | 0.4809 |
LabelHallu | 0.5304 | 0.4880 | 0.4797 |
mymodel | 0.5664 | 0.5160 | 0.5019 |
本发明方法通过样本映射的方式对基数据集上的样本打上关于支持集类别的伪标签,再将带有伪标签的基数据集样本与支持集样本共同对模型进行微调;本发明方法针对在少样本的情况下对水中目标进行检测时,相比于其他的模型具有更高的准确率,同时在加噪的情况下同样可以获得较好的效果。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质。
Claims (4)
1.一种基于样本映射的少样本水声目标识别方法,其特征在于,包括以下步骤:
步骤1,在基数据集上做分类任务训练一个特征提取模块用以对新类的特征提取;
步骤2,使用训练好的特征提取模块对新类的样本进行特征提取,并计算每个类的平均特征,根据样本对每个类的中心特征的相似度来将基数据集上的样本映射至新类组成的类型空间中,并给其标记上伪标签;
步骤3,使用带伪标签的基数据集样本和支持集样本共同对模型进行微调以拟合新类的特征识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310330326.XA CN116343825A (zh) | 2023-03-30 | 2023-03-30 | 一种基于样本映射的少样本水声目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310330326.XA CN116343825A (zh) | 2023-03-30 | 2023-03-30 | 一种基于样本映射的少样本水声目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116343825A true CN116343825A (zh) | 2023-06-27 |
Family
ID=86891083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310330326.XA Pending CN116343825A (zh) | 2023-03-30 | 2023-03-30 | 一种基于样本映射的少样本水声目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116343825A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117198330A (zh) * | 2023-11-07 | 2023-12-08 | 国家海洋技术中心 | 一种声源识别方法、系统及电子设备 |
-
2023
- 2023-03-30 CN CN202310330326.XA patent/CN116343825A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117198330A (zh) * | 2023-11-07 | 2023-12-08 | 国家海洋技术中心 | 一种声源识别方法、系统及电子设备 |
CN117198330B (zh) * | 2023-11-07 | 2024-01-30 | 国家海洋技术中心 | 一种声源识别方法、系统及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
Hu et al. | Robust modulation classification under uncertain noise condition using recurrent neural network | |
CN110807365A (zh) | 一种基于gru与一维cnn神经网络融合的水下目标识别方法 | |
CN109581339B (zh) | 一种基于头脑风暴自动调整自编码网络的声呐识别方法 | |
CN111709299B (zh) | 一种基于加权支持向量机的水声目标识别方法 | |
CN110287770B (zh) | 一种基于卷积神经网络的水中个体目标匹配识别方法 | |
CN113095442A (zh) | 基于半监督学习在多维度雷达数据下的冰雹识别方法 | |
CN110929842B (zh) | 非合作无线电信号突发时间区域精确智能检测方法 | |
CN111985349B (zh) | 一种雷达接收信号类型分类识别方法及系统 | |
CN116343825A (zh) | 一种基于样本映射的少样本水声目标识别方法 | |
CN112232395B (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
Zha et al. | LT-SEI: Long-tailed specific emitter identification based on decoupled representation learning in low-resource scenarios | |
Yang et al. | Learning relation by graph neural network for SAR image few-shot learning | |
CN114897002A (zh) | 基于LPINet的低截获概率雷达信号脉内调制识别方法 | |
CN114444571A (zh) | 一种自主学习的声纳目标个体识别方法 | |
CN116561562B (zh) | 一种基于波导奇异点的声源深度最优化获取方法 | |
CN117516937A (zh) | 基于多模态特征融合增强的滚动轴承未知故障检测方法 | |
CN116340846A (zh) | 一种弱监督下多示例多标签学习的混叠调制信号识别方法 | |
CN114818789A (zh) | 一种基于数据增强的船舶辐射噪声识别方法 | |
Gao et al. | Supervised Contrastive Learning‐Based Modulation Classification of Underwater Acoustic Communication | |
CN115563485A (zh) | 一种基于深度学习的低复杂度干扰识别方法 | |
CN113159218A (zh) | 一种基于改进cnn的雷达hrrp多目标识别方法及系统 | |
Zhu et al. | Research on online learning of radar emitter recognition based on Hull Vector | |
Yang et al. | Deep ensemble siamese network for incremental signal classification | |
Wang et al. | A Diffusion Model-Based Open Set Identification Method for Specific Emitters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |