CN112257648A - 基于改进的循环神经网络的信号分类识别方法 - Google Patents
基于改进的循环神经网络的信号分类识别方法 Download PDFInfo
- Publication number
- CN112257648A CN112257648A CN202011207264.6A CN202011207264A CN112257648A CN 112257648 A CN112257648 A CN 112257648A CN 202011207264 A CN202011207264 A CN 202011207264A CN 112257648 A CN112257648 A CN 112257648A
- Authority
- CN
- China
- Prior art keywords
- gru
- signal
- identification
- model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
一种改进的循环神经网络的信号分类识别方法,该方法包括:接收信号数据;采用门控循环单元作为数据处理基本单元;以所述GRU为基础,加入模型平均值堆叠多层进行改进,得到改进后的GRU;将改进GRU为模型进行训练;再利用训练好的模型进行信号数据分类识别,输出。本发明提供的信号识别方法不但可以有效克服水声通信噪声的影响,而且能够抵御常见水声通信中多普勒效应的干扰,高效识别信号类别。本发明采用适合于水声通信的超参数组合来优化GRU识别信号的效果,控制了分辨偏差,提高了识别精度。
Description
技术领域
本发明涉及深度神经网络技术领域,特别是涉及到一种基于水声通信信号识别的循环神经网络方法及系统。
背景技术
通信信号识别,尤其是通信信号的种类识别是非合作通信系统的核心技术,近年来已经得到了广泛的研究。在军事和民用领域具有非凡的价值,它已成为认知无线电和软件无线电中不可或缺的组成部分。在军事领域,干扰通信需要发送更高功率的信号,以超过敌方在相同频带中的信号。其中的关键环节是要与敌方具有相同的信号类型,才能生成更高功率的干扰信号。在民用领域,链路自适应系统根据信道条件自适应地选择信号类型,提高通信系统的传输效率。但是,低延时、高效率、高准确性的信号识别的方法系统尚未在水声通信领域采用。
在水下声学通信过程中,水下信息传输的媒介是水体,相当于陆地无线通信的通道。与地面无线信道相比,水下声信道的变化要复杂得多。此外,水下声信道很容易受到许多因素的干扰,比如高频电磁波因为水体的吸收特征,无法长距离传播;声波在水中传播受到温度、盐度和水压的影响严重;环境噪声和陆地通信的常见白噪声明显不同,包括了水下生物、舰艇及水下设备等多种因素影响。这使得大多数现有的陆地经典无线通信模型无法直接应用于水下声通信过程的分析。考虑到水下声信道的时变特性,在通信过程中会有更多的能量损耗和衰落,更严重的多径干扰和多普勒频移效应。因此,不仅可用带宽变窄,而且信道容量也很小;而通过使用适当的信号类型来改善水下声通信系统的有效传输是非常必要的。
多层神经网络在针对文本,语音和图像的各种基准测试任务中取得了令人瞩目的成功,它是深度学习方法的基本形式。递归循环神经网络(Recurrent Neural Network,RNN)主要用于自然语言处理领域,而卷积神经网络(Convolutional Neural Network,CNN)则广泛用于图像识别领域。RNN和CNN之间的主要区别在于RNN具有“内存停滞”功能。可以量化过去输入内容的影响,并对当前时间输入做出反应,以参与网络训练的过程。在通信领域,深度学习方法也有一些应用。主要形式基于CNN和RNN体系结构。例如,RNN可以用于分类无线接收信号;RNN可用于识别和检测通信过程中的数据序列;已有文献探索了通过深度学习方法来处理物理层通信过程,并通过CNN和信念传播网络组合的架构对信道进行了解码。可以了解到,复杂的网络体系结构可以学习到更多信号数据集的概率特征。同时,经过训练的更深层网络模型具有大量参数。这导致该模型仅用于训练数据集,而不能应用于验证数据集,无法将模型推广到相似的概率分布信号数据集,这相当于无法使用经过训练的模型。
RNN受短期记忆的影响很大;如果序列足够长,它将很难将信息从较早的时间传递到较晚的时间。为了尝试处理长时间的数据,RNN可能从一开始就遗漏了重要信息。在反向传播过程中,RNN还存在一个称为梯度爆炸或消失的问题。通常,使用梯度来更新神经网络权重;当渐变消失时,渐变会随着时间逐渐缩小到接近0;如果梯度值变得非常小,则不能提供足够的信息来学习数据集。通常,早期的RNN会通过梯度问题停止学习。结果,RNN忘记了在较长序列中看到的内容,并且仅具有短期记忆。LSTM可以解决RNN的短期存储问题,该问题具有一种称为“门”的内部机制,可以调节信息流。这些门可以确定数据是按顺序保留还是不推荐使用,因此可以将相关信息传递给更长的序列链进行预测。通过RNN几乎可以实现基于RNN的所有最新成果。特别是,RNN及其变体在最近已被广泛使用,包括手语翻译,手写识别,节奏学习和医疗路径预测。
发明内容
本发明的目的是提供一种改进的循环神经网络的信号分类识别方法,以弥补现有技术的不足。
为达到上述技术目的,本发明采取的具体技术方案为:
一种改进的循环神经网络的信号分类识别方法,该方法包括以下步骤:
S1:接收信号数据;
S2:采用门控循环单元(GRU)作为数据处理基本单元;
S3:以所述GRU为基础,加入模型平均值(Dropout)堆叠多层进行改进,得到改进后的GRU;
S4:将S1获得的数据以S3获得的改进GRU为模型进行训练;
S5:利用S4训练好的模型进行信号数据分类识别,输出。
进一步的,所述GRU内部结构的计算方法如下
ut=sigmoid(Hu[lt-1,jt]+bu) (3)
et=sigmoid(He[lt-1,jt]+be) (4)
(3)是用于更新门的计算公式,Hu是控制单元和更新门之前的输入权重矩阵,bu是更新门偏置项;公式(4)是重置门的计算公式,He是前一时刻控制单元和输入权重矩阵,be是输入门偏置项;公式(5)是用于单位状态的计算公式,H是用于计算单位状态的权重矩阵,bl是计算单位状态的偏移项;公式(6)是时间t时控制单元的输出公式;sigmoid(·)表示Sigmoid函数K(t)=1/(1+e-t),tanh(·)表示Tanh函数tanh(t)=(et-e-t)/(et+e-t)。
进一步的,所述S3中,添加Dropout后公式(6)变为
其中γ(·)是Dropout函数,以一定概率表示。
进一步的,所述GRU选用RMSProp优化器。
进一步的,所述Dropout值选取为0.5。
所述信号分类识别方法能够应用于水声通信系统中。
本发明的优点和技术效果:
GRU具备长序列记忆功能的深度网络形式,更适应于应用在多途互干扰现象严重的水声通信过程中的信号识别中,本发明通过合理匹配GRU使用的超参数来进一步提高识别能力。GRU简化了网络模型设计方式,在保证识别信号性能的前提下,合理控制了参数规模,方便在存储有限、计算能力有限的水声通信系统中使用。本发明提供的改进GRU方法能够用于识别各种信号类型,明显改善识别效果,提供分辨精度。
本发明提供的信号识别方法不但可以有效克服水声通信噪声的影响,而且能够抵御常见水声通信中多普勒效应的干扰,高效识别信号类别。本发明采用适合于水声通信的超参数组合来优化GRU识别信号的效果,控制了分辨偏差,提高了识别精度。
附图说明
图1所示为本发明的实施例所涉及的RNN示意图;
图2所示为本发明的实施例所涉及的RNN时序序列循环计算表示式;
图3所示为本发明的实施例所涉及的GRU时序序列循环计算表示式;
图4所示为本发明的实施例所涉及的用于信号识别的多层GRU模型形式;
图5所示为本发明的实施例所涉及水下通信过程模型示意图;
图6所示为本发明的实施例所涉及GRU选择不同的优化器参数的识别结果对比图;
图7所示为本发明的实施例所涉及Dropout选择不同比率时的识别结果对比图;
图8所示为本发明的实施例所涉及不同多普勒频移的训练损失的结果对比图;
图9所示为本发明的实施例所涉及不同多普勒频移的分类准确率的结果对比图;
图10所示为本发明的实施例所涉及不同方法在分类识别结果对比图。
具体实施方式
通过参考的附图,具体详述本发明的实施方案。以下说明中,对于类似的功能部分使用相同的符号表示,重复的声明均省略。此外,附图都是示意图,描述的本发明功能部分互相之间的比例尺寸亦或是功能部分的外形等都可以与现实有所不同。
实施例
在全连接的神经网络或卷积神经网络中,网络结构形式是从输入层到隐藏层再到输出层。这些层是完全或部分连接的,但是每层之间的节点是未连接的。这种网络架构可以通过加深网络层的数量来提高对各种数据形式的识别分类效果。同时,当参数通过加深的网络体系结构传递时,更容易发生梯度消失的问题。随着网络结构的不断加深,信息和梯度在网络结构各层之间传递时,所学信息消失的现象变得更加严重。为了更好地提高识别效果,需要在层间建立传递学习到参数的连接,这种方式是一种解决由深度网络架构引起的梯度消失问题的良好方案。
RNN方法与跨层连接的网络体系结构的代表架构ResNet不同,RNN方法不通过跨层连接传递参数。RNN的方式是表征序列的当前输出与先前信息之间的关系。根据时序网络结构形式,RNN将记住先前的信息,并使用先前的信息影响后续的输出。也就是说,RNN的隐藏层之间的节点互相连接,并且隐藏层的输入不仅包括输入层的输出,还包括前一时刻的隐藏层的输出。因此,RNN的体系结构可以在具有较少的参数的情况下,实现与深度ResNet结构相似的效果。
RNN具有回路连接的结构形式,如图1所示,随着时间的推移会将信息反馈到回路网络,此过程称为存储记忆。RNN的这种存储功能增强了网络模型的学习和泛化能力,其中该结构与前后序列进行交互。该网络体系结构会存储先前的序列信息,并将其应用于当前输出的计算。这对于水下通信延迟引起的相互干扰尤为重要,与CNN结构相比,它可以更有效地提高识别效果。也就是说,RNN结构中隐藏层之间的节点不再像传统的神经网络那样没有连接,而是互连接的。
RNN的计算表示为
与RNN结构相比,GRU的时序结构如下图3所示,通过添加开关来控制的状态,GRU能够比RNN结构更好地处理长序列数据。对于水下通信过程中的大延迟和多径干扰问题所引起的通信序列相互干扰的问题,GRU能够存储和处理长序列,从而可以更好地识别信号。此处提到的开关实际上是通过使用函数实现的,该函数等效于完全连接的层。输入是向量,输出是0到1之间的实向量。使用开关是将输出向量乘以元素到需要控制的向量。开关的输出是一个介于0和1之间的实向量,当开关状态为1时,任何向量都将乘以原始值,等于可以通过开关传递的输入值。当开关状态为0时,任何向量都将乘以0向量,这等效于输入值不能传递。实现开关控制的函数使用Sigmoid函数,其值范围为(0,1),因此开关的状态为半开半闭。
与GRU内部结构相对应的计算方法如下
ut=sigmoid(Hu[lt-1,jt]+bu) (3)
et=sigmoid(He[lt-1,jt]+be) (4)
(3)是用于更新门的计算公式,Hu是控制单元和更新门之前的输入权重矩阵,bu是更新门偏置项;公式(4)是重置门的计算公式,He是前一时刻控制单元和输入权重矩阵,be是输入门偏置项;(5)是用于单位状态的计算公式,H是用于计算单位状态的权重矩阵,bl是计算单位状态的偏移项;(6)是时间t时控制单元的输出公式。sigmoid(·)表示Sigmoid函数K(t)=1/(1+e-t),tanh(·)表示Tanh函数tanh(t)=(et-e-t)/(et+e-t)。与常用其他RNN结构相比,GRU在形式上有很多简化,同时保持了较好的效果。GRU主要对RNN进行了两个主要改造:首先,将输入门,遗忘门和输出门更改为两个门,即更新门和重置门。其次,将单元状态与输出组合为一个状态。这两种方法简化了RNN的内部结构,降低了整个网络体系结构的复杂性,并提高了网络结构的效率。
通常,当训练深度神经网络时,数据被分解为一小批量数据用于训练。这是常用的小批量SGD训练算法。尽管该算法可以带来良好的训练精度,但这种方式并不一定总能达到最佳训练效果,只能是接近最佳结果。这主要是因为大多数水下通信数据集都是非凸的。从整个数据的分布来看,训练中需要找到极值的许多局部最优点,这很容易导致模型陷入局部最优而无法达到全局最优值。另一个缺点是该算法需要选择合适的学习率。当使用较小的学习速率时,网络在训练期间将收敛太慢。当使用较大的学习率时,将导致在训练过程中优化范围过大,这可能会跳过全局最优值。最好的情况是,在优化网络时,网络的损失函数具有良好的收敛速度,并且保证它不会太大。因此,动量优化器是针对此问题的解决方案。它主要基于梯度的移动指数加权平均值。在动量优化算法中,尽管最初解决了优化中的大摆幅问题。但是,仍然存在一个问题,即在学习数据集的过程中学习效率不高并且摆动幅度相对较大。所谓的摆动幅度是在优化中更新后参数的变化范围。为了解决这些问题,采用了均方根反向传播(Root Mean Square Prop,RMSProp)算法。RMSProp算法采用计算梯度的差分平方加权平均值的方式。这种方法有利于消除大摆幅方向。它用于校正摆动幅度,以使每个维度上的摆动幅度都较小,从而可以获得良好的识别效果。
深度学习模型训练过程中的主要问题是模型的参数太多,训练样本太少。由于该过程的特殊性,水下通信生成的数据量可能无法满足模型训练的要求。这样训练的模型容易过度拟合。反向传播训练网络时经常会遇到此问题。过度拟合是指模型在训练数据上的损失函数较小,仅训练数据集的预测精度较高。也就是说,拟合曲线是尖锐的,不平滑的,泛化能力不好。但是,测试数据的损失函数较大,预测精度较低。控制过度拟合的一种常用方法是“惩罚”损失函数中的模型参数。在这种情况下,这些参数不会太大,并且参数描述模型越小,模型越简单,越容易拟合。因此,在添加权重惩罚项后,将梯度下降算法应用于迭代优化计算时,如果参数较大,则此时的正则项值也较大,因此更新参数时参数减少较大下次。可以使拟合结果看起来更平滑而不过度拟合。
添加Dropout后公式(6)后的GRU变为
其中γ(·)是Dropout函数,以一定概率表示。
Dropout可以看作是模型平均值。所谓的模型平均值是指通过一定的权重从不同的模型中进行平均估计或预测,也称为模型组合。它通常包括组合估计和组合预测。在Dropout中,通过随机选择和忽略隐藏层节点的方式来体现不同的模型,以防止过度拟合问题的发生。在每个批次的训练过程中,由于每个隐藏层节点被随机忽略,因此每个训练的网络都是不同的。每次训练都可以使用一个新模型完成。另外,隐式节点以一定的概率随机出现,因此不能保证每2个隐式节点每次都会同时出现。此权重的更新不再取决于具有固定关系的隐式节点的联合运算。
Dropout过程是一种非常有效的神经网络模型平均方法。通过训练大量不同的网络可以实现平均预测概率。在不同的训练集上训练不同的模型,随机选择每批训练数据,最后在每个模型中使用相同的权重进行融合。这样,当识别出水下通信数据集的信号时,可以有效地防止训练GRU网络模型过拟合的问题。加入Dropout堆叠多层的GRU网络形式如图4所示。
水下通信模型可以表示在图1中,该图显示了通过水下通道从接收器发送信号并最终在接收器接收信号的过程,可以用公式(8)表示
α′(t)=Z{α(t),ξ}+n(t) (8)
在公式中,要发送的信号用b(t)表示调制完成后要发送的信号α(t),符号Z{·}表示一种转换方式,通过水声信道特性的输入信号α(t)可用对应于水下信号输出的调制信号α′(t);该过程还受到附加噪声n(t)的干扰;代表水下通道的脉冲响应,τ代表脉冲响应的持续时间,代表传输的数据速率,t代表时间,代表通信带宽;b′(t)是接收到的最终解调信号。
综上,一种信号分类识别方法,该方法包括以下步骤:
S1:接收信号数据;
S2:采用门控循环单元(GRU)作为数据处理基本单元;
S3:以所述GRU为基础,加入模型平均值(Dropout)堆叠多层进行改进,得到改进后的GRU;
S4:将S1获得的数据以S3获得的改进GRU为模型进行训练;
S5:利用S4训练好的模型进行信号数据分类识别,输出。
其中,该神经网络算法中的具体算式见前述。
本实施例提供信号分类识别方法,于现有的识别算法相比,对比实验结果如下:
通过GRU选择不同的优化器参数,包括SGD,RMSProp和Adam显示了不同识别效果(结果如图6所示)。由于水下通信调制识别数据集特性,RMSProp与SGD和Adam相比,会具有更好的动态特性,并且不容易落入数据集的局部最小值。因此,可以更有效地找到全局最小点,并且实现了较高信号识别率。当SGD的初始学习率设置为信号识别常用的0.0001时,SGD的不能很好地学习水下通信调制数据集的特征,并且很容易落入局部最小值,从而导致训练失败。RMSProp与Adam对比,除了信噪比小于-18dB时两者接近,随着信噪比的提高,使用RMSProp的识别效果明显优于Adam。
图7比较了Dropout选择不同比率时的训练效果。Dropout=0.5时比选择其他百分比识别效果更好。这主要是因为当dropout为0.5时,网络训练期间会随机选择网络50%分支。在这种条件下,可以更好地随机选择网络结构,从而避免了过度拟合的问题,从而获得较好的训练效果。
为了进一步证明GRU方法对水下通信中多普勒频移影响的适应性,分别通过不同的多普勒频移训练过程和识别效果来说明,如图8和9所示。训练损失表示训练过程中损失函数的值,以测量模型的训练效果。Epoch代表批处理迭代。随着训练的进行,训练损失值越来越小,模型快速收敛,证明训练过程是有效的。可以看出,当在典型水声通信多普勒频移为10-4或10-3时,GRU训练过程显示出良好的收敛特性。在将近30个Epoch后开始收敛,这进一步证明了GRU结构有效学习水下通信信号数据集的特征。从训练过程可以看出,只需要较少的时间周期,就可以学习到信号数据集的概率分布,并且可以实现GRU模型的收敛。
图9表示,当多普勒频移为10-4和10-3时,在主要仿真SNR范围内的信号识别效果。可以看出,GRU结构模型对于水声通信的常见多普勒频移具有很好的鲁棒性。在两个常见的水下通信多普勒频移下,信号识别率在低SNR条件和高SNR条件下的识别差异不大。证明了GRU结构对多普勒频移的影响具有良好的适应性。
常见的神经网络方法包括卷积神经网络(Convolutional Neural Networks,简称CNN),深层神经网络(Deep Neural Networks,简称DNN),多层感知器(Multi-LayerPerceptron,简称MLP,人工神经网络(Artificial Neural Network,简称ANN)等。从图10中,可以看到本实施例提供的以GRU为主体的识别方法与其他神经网络方法相比在水下通信信号识别中的优势。除了较低的信噪比(从-17dB至-7dB),CNN结构略高于GRU的识别率。在SNR>-7db之后,GRU具有比传统神经网络方法更大的识别优势,对比CNN方法也显示出明显优势。说明了GRU在水下通信信号识别中的优势。
表1:神经网络参数大小比较
序号 | 神经网络名称 | 参数数量 |
1 | CNN | 4,261,254 |
2 | DNN | 3,418,118 |
3 | MLP | 1,318,918 |
4 | ANN | 792,582 |
5 | GRU | 605,190 |
表1中比较了各种神经网络方法的参数大小。不难看出,GRU参数几乎为CNN参数大小的1/7。其他神经网络方法的参数也均大于GRU,并且无法实现GRU的识别效果。
上述,本发明提供的改进GRU方法能够有效识别信号类别,且更适合硬件资源有限的水下通信场景,更有利于训练好的模型的部署和使用,具有更高的实际使用价值。
Claims (6)
1.一种改进的循环神经网络的信号分类识别方法,其特征在于,该方法包括以下步骤:
S1:接收信号数据;
S2:采用门控循环单元作为数据处理基本单元;
S3:以所述GRU为基础,加入模型平均值堆叠多层进行改进,得到改进后的GRU;
S4:将S1获得的数据以S3获得的改进GRU为模型进行训练;
S5:利用S4训练好的模型进行信号数据分类识别,输出。
2.如权利要求1所述的信号分类识别方法,其特征在于,所述GRU内部结构的计算方法如下
ut=sigmoid(Hu[lt-1,jt]+bu) (3)
et=sigmoid(He[lt-1,jt]+be) (4)
(3)是用于更新门的计算公式,Hu是控制单元和更新门之前的输入权重矩阵,bu是更新门偏置项;公式(4)是重置门的计算公式,He是前一时刻控制单元和输入权重矩阵,be是输入门偏置项;公式(5)是用于单位状态的计算公式,H是用于计算单位状态的权重矩阵,bl是计算单位状态的偏移项;公式(6)是时间t时控制单元的输出公式;sigmoid(·)表示Sigmoid函数K(t)=1/(1+e-t),tanh(·)表示Tanh函数tanh(t)=(et-e-t)/(et+e-t)。
4.如权利要求1所述的信号分类识别方法,其特征在于,所述GRU选用RMSProp优化器。
5.如权利要求1所述的信号分类识别方法,其特征在于,所述Dropout值选取为0.5。
6.权利要求1-5所述的信号分类识别方法能够应用于水声通信系统中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011207264.6A CN112257648A (zh) | 2020-11-03 | 2020-11-03 | 基于改进的循环神经网络的信号分类识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011207264.6A CN112257648A (zh) | 2020-11-03 | 2020-11-03 | 基于改进的循环神经网络的信号分类识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112257648A true CN112257648A (zh) | 2021-01-22 |
Family
ID=74267379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011207264.6A Pending CN112257648A (zh) | 2020-11-03 | 2020-11-03 | 基于改进的循环神经网络的信号分类识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257648A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221758A (zh) * | 2021-05-16 | 2021-08-06 | 西北工业大学 | 一种基于gru-nin模型的水声目标识别方法 |
CN113541726A (zh) * | 2021-07-16 | 2021-10-22 | 哈尔滨工程大学 | 一种基于循环神经网络的码索引扩频水声通信方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107579821A (zh) * | 2017-09-19 | 2018-01-12 | 厦门市美亚柏科信息股份有限公司 | 密码字典生成方法及计算机可读存储介质 |
CN108564611A (zh) * | 2018-03-09 | 2018-09-21 | 天津大学 | 一种基于条件生成对抗网络的单目图像深度估计方法 |
CN110502749A (zh) * | 2019-08-02 | 2019-11-26 | 中国电子科技集团公司第二十八研究所 | 一种基于双层注意力机制与双向gru的文本关系抽取方法 |
CN110807365A (zh) * | 2019-09-29 | 2020-02-18 | 浙江大学 | 一种基于gru与一维cnn神经网络融合的水下目标识别方法 |
CN110879874A (zh) * | 2019-11-15 | 2020-03-13 | 北京工业大学 | 一种天文大数据光变曲线异常检测方法 |
CN111259651A (zh) * | 2020-01-21 | 2020-06-09 | 北京工业大学 | 一种基于多模型融合的用户情感分析方法 |
CN111581396A (zh) * | 2020-05-06 | 2020-08-25 | 西安交通大学 | 一种基于多维特征融合与依存句法的事件图谱构建系统及方法 |
-
2020
- 2020-11-03 CN CN202011207264.6A patent/CN112257648A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107579821A (zh) * | 2017-09-19 | 2018-01-12 | 厦门市美亚柏科信息股份有限公司 | 密码字典生成方法及计算机可读存储介质 |
CN108564611A (zh) * | 2018-03-09 | 2018-09-21 | 天津大学 | 一种基于条件生成对抗网络的单目图像深度估计方法 |
CN110502749A (zh) * | 2019-08-02 | 2019-11-26 | 中国电子科技集团公司第二十八研究所 | 一种基于双层注意力机制与双向gru的文本关系抽取方法 |
CN110807365A (zh) * | 2019-09-29 | 2020-02-18 | 浙江大学 | 一种基于gru与一维cnn神经网络融合的水下目标识别方法 |
CN110879874A (zh) * | 2019-11-15 | 2020-03-13 | 北京工业大学 | 一种天文大数据光变曲线异常检测方法 |
CN111259651A (zh) * | 2020-01-21 | 2020-06-09 | 北京工业大学 | 一种基于多模型融合的用户情感分析方法 |
CN111581396A (zh) * | 2020-05-06 | 2020-08-25 | 西安交通大学 | 一种基于多维特征融合与依存句法的事件图谱构建系统及方法 |
Non-Patent Citations (1)
Title |
---|
邢长征等: "文本情感分析的深度学习方法", 《计算机应用与软件》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221758A (zh) * | 2021-05-16 | 2021-08-06 | 西北工业大学 | 一种基于gru-nin模型的水声目标识别方法 |
CN113221758B (zh) * | 2021-05-16 | 2023-07-14 | 西北工业大学 | 一种基于gru-nin模型的水声目标识别方法 |
CN113541726A (zh) * | 2021-07-16 | 2021-10-22 | 哈尔滨工程大学 | 一种基于循环神经网络的码索引扩频水声通信方法 |
CN113541726B (zh) * | 2021-07-16 | 2022-05-06 | 哈尔滨工程大学 | 一种基于循环神经网络的码索引扩频水声通信方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110365612B (zh) | 一种基于近似消息传递算法的深度学习波束域信道估计方法 | |
WO2023019601A1 (zh) | 基于结构优化算法的复值神经网络的信号调制识别方法 | |
CN109302262A (zh) | 一种基于深度确定梯度强化学习的通信抗干扰方法 | |
CN112257648A (zh) | 基于改进的循环神经网络的信号分类识别方法 | |
CN112257847A (zh) | 一种基于CNN和LSTM预测地磁Kp指数的方法 | |
CN110808932B (zh) | 基于多分布测试数据融合的多层感知器快速调制识别方法 | |
CN111382840A (zh) | 一种面向自然语言处理的基于循环学习单元的htm设计方法 | |
CN112329524A (zh) | 基于深度时序神经网络的信号分类识别方法、系统及设备 | |
Yang et al. | Dynamic neural network for MIMO detection | |
CN107018103B (zh) | 一种基于自适应步长猴群优化的小波常模盲均衡方法 | |
CN116418633A (zh) | 基于稀疏与低秩特征的深度展开水声信道估计方法 | |
CN116165886A (zh) | 多传感器智能协同控制方法、装置、设备及介质 | |
CN115987722A (zh) | 一种深度学习辅助的ofdm信道估计与信号检测方法 | |
CN115508790A (zh) | 基于回溯q学习的雷达抗干扰智能决策方法 | |
CN111786915B (zh) | 非线性失真条件下基于深度学习的无线通信方法及其系统 | |
CN114337883A (zh) | 协方差矩阵Cholesky分解的CNN协作频谱感知方法及系统 | |
CN113343924A (zh) | 一种基于多尺度循环谱特征和自注意力生成对抗网络的调制信号识别方法 | |
CN115204350A (zh) | 脉冲神经网络的训练方法和训练装置 | |
Dabin et al. | Blind source separation with l1 regularized sparse autoencoder | |
Wang et al. | Attention-guided complex denoising network for automatic modulation recognition | |
Luo et al. | Jointly optimized echo state network for short-term channel state information prediction of fading channel | |
CN115296705B (zh) | 一种mimo通信系统中的主动监听方法 | |
CN116755046B (zh) | 一种不完美专家策略的多功能雷达干扰决策方法 | |
CN116908808B (zh) | 一种基于rtn的高分辨一维像目标识别方法 | |
Hu et al. | A New Deep Architecture for Digital Signal Modulation Classification over Rician Fading |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |