CN114157544B - 基于卷积神经网络的帧同步方法、设备及介质 - Google Patents
基于卷积神经网络的帧同步方法、设备及介质 Download PDFInfo
- Publication number
- CN114157544B CN114157544B CN202111487260.2A CN202111487260A CN114157544B CN 114157544 B CN114157544 B CN 114157544B CN 202111487260 A CN202111487260 A CN 202111487260A CN 114157544 B CN114157544 B CN 114157544B
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- receiving end
- convolutional neural
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L27/00—Modulated-carrier systems
- H04L27/26—Systems using multi-frequency codes
- H04L27/2601—Multicarrier modulation systems
- H04L27/2647—Arrangements specific to the receiver only
- H04L27/2655—Synchronisation arrangements
- H04L27/2656—Frame synchronisation, e.g. packet synchronisation, time division duplex [TDD] switching point detection or subframe synchronisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Abstract
本发明公开了一种基于卷积神经网络的帧同步方法、设备及介质,应用于无线通信系统,方法为:Step1:准备无线通信系统的通信数据集,对接收端数据进行预处理,并根据发送端数据确定接收端数据中的数据包起始位置;Step2:构建卷积神经网络模型,以接收端预处理后的数据为输入,以接收端数据中的数据包起始位置为输出,对构建的卷积神经网络模型进行训练;Step3:将训练好的卷积神经网络模型嵌入到接收端的帧同步系统之中;Step4:对接收端数据进行预处理,再输入至训练好的卷积神经网络,输出即为接收端数据中的数据包起始位置。本发明能充分解决发送端和接收端之间信息漏同步和假同步的问题,提高同步系统的同步性能。
Description
技术领域
本发明属于无线通信技术领域,本发明涉及一种无线通信系统中基于卷积神经网络的帧同步方法、设备及介质。
背景技术
现今的无线通信系统中,帧同步是一种标准的同步技术。目前帧同步方法通常通过两种方式之一来实现。一是周期性地在数据流中插入一些标准的特殊码组作为一帧数据的识别标签,接收端通过检测这个帧同步码组来评估有效数据的起始位置,从而实现帧同步。第二种方案是利用数据码组之间互不相同的特性来达到同步效果。
目前在多数无线通信系统中,通常帧同步方法是通过在每一帧数据的帧头处插入一维伪随机序列作为帧同步标志,利用帧同步码相关性完成帧同步。同时,由于信号在空间传输时会出现各种不确定因素和噪声干扰,导致帧同步码元出现错误,在接收端出现漏同步和假同步的问题。
发明内容
有鉴于此,本发明的目的在于提供一种在无线通信系统中基于卷积神经网络的帧同步方法、设备及介质,用于解决发送端和接收端之间信息漏同步和假同步的问题,以及提高同步系统的同步性能。
为达到上述目的,本发明提供如下技术方案:
一种基于卷积神经网络的帧同步方法,包括:
(1)线下训练阶段:
Step1:准备无线通信系统的通信数据集,包括发送端数据和接收端数据;对接收端数据进行预处理,并根据发送端数据确定接收端数据中的数据包起始位置;
Step2:构建卷积神经网络模型,以接收端预处理后的数据为输入,以接收端数据中的数据包起始位置为输出,对构建的卷积神经网络模型进行训练;
(2)实际使用阶段
Step3:将线下训练阶段训练好的卷积神经网络模型嵌入到接收端的帧同步系统之中;
Step4:对接收端数据进行预处理,再输入至训练好的卷积神经网络,输出即为接收端数据中的数据包起始位置。
进一步的,对接收端数据进行预处理的步骤为:
Step2.1:设接收端数据为R(t),表示接收机接收到的信号;对接收端数据R(t)进行Q倍过采样,得到接收端采样的数字信号R[n]:
R[n]=R(t)|t=nT/Q
其中,T是符号持续时间;
Step2.2:使用相关识别器对接收端采样的数字信号进行相关识别,得到输出Z[n],表示为:
式中,S*[k]表示的是符号信息中的同步码,其中k∈[0,L-1],L表示同步系统中的一维伪随机序列同步码的符号个数;
Step2.3:对相关识别器的输出Z[n]进行归一化操作得到Y[n],表示为:
其中,Z[n]max表示相关识别器输出中的最大值。
进一步的,设训练好的卷积神经网络在Step4输出的数据包起始位置为n*,进一步根据该起始位置为n*以及接收端对R(t)的过采样倍数Q,确定接收端数据R(t)中的数据包接收时间t*为:T为每个符号的持续时间。
进一步的,训练卷积神经网络模型采用的损失函数为:
其中,||·||F表示F范数运算;tpredict表示卷积神经网络模型输出的数据包起始位置npredict所对应的达到时间,tactual表示接收端数据中的数据包实际的起始位置nactual所对应的达到时间,
进一步的,训练卷积神经网络模型时,使用自适应矩估计算法对卷积神经网络模型的参数进行优化。
进一步的,构建的卷积神经网络模型由1个输入层、3个卷积层、2个全连接层以及1个输出层顺序连接构成;接收端预处理后的数据为1D数据,对其按照最大顺序执行矩阵化操作转换为2D数据,再输入至卷积神经网络模型的输入层。
进一步的,所述卷积神经网络模型中参数设置为:
卷积神经网络模型中三层卷积层,均使用步长为1、尺寸为3*3的卷积核,均使用步长为2、尺寸为2*2的最大池化方法,使用的卷积核数量分别为64、128、256,均使用Dropout算法,且使用的Dropout比率分别为0.5、0.6、0.7;
第一层全连接层的输出经过Softmax函数处理作为第二层全连接层的输入,同时在第二层全连接层中经过One-hot编码处理,输出一个只有一个值为1,其余值均为0的One-hot编码向量;元素值为1的位置则是卷积神经网络模型估计的接收端开始接收数据包的位置。
一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现上述任一项所述的基于卷积神经网络的帧同步方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的基于卷积神经网络的帧同步方法。
本发明的有益效果在于:
针对现有技术中在时间窗口内搜索相关峰值找到数据包达到时间的传统帧同步方法计算复杂度高以及远距离帧同步系统性能较差的问题,本发明将深度学习知识引入到解决帧同步问题中来,构建基于深度学习的卷积神经网络模型用以估计数据包达到时间。利用卷积神经网络模型自动学习发送端与接收端数据相关性和数据包达到时间之间隐藏的特征关系,取得了超出传统方法更高的精度以及提升了帧同步系统的稳定性。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
图1为本发明无线通信系统中基于卷积神经网络的帧同步方法总体框图。
图2为本发明卷积神经网络模型的线下训练阶段与实际使用阶段流程图。
图3为本发明所述的卷积神经网络模型具体结构图。
具体实施方式
本发明为无线通信系统中基于卷积神经网络的帧同步方法。图1表示为无线通信系统中基于卷积神经网络的帧同步方法总体框图。其概述的特征为:接收端接收到的原始信号经过预处理后构造并以迭代的方式训练卷积神经网络模型,从而估计出接收端信号中数据包达到时间。
图2表示为本发明中卷积神经网络的线下训练阶段与实际使用阶段流程图。具体来说分为下面5个步骤。
步骤1:准备“发送端-接收端”数据集。
准备“发送端-接收端”数据集的方式有两种。
第一种方式“发送端-接收端”数据集来源于实际发送端与接收端通信的数据记录结果,将其作为卷积神经网络模型的训练数据集。
第二种方式可以通过使用MATLAB软件仿真生成“发送端-接收端”数据集。准备要发送的数据Data以及长度为L的同步码,给定一定范围内随机的信噪比SNR,生成共W组接收信号。利用MATLAB仿真软件得到仿真数据结果作为卷积神经网络模型的训练数据集。
步骤2:对“发送端-接收端”数据集进行预处理。
首先,对步骤1中产生的“发送端-接收端”数据集中接收端接收的信号R(t)进行采样处理。接收端接收的信号R(t)与发送端数据的符号率之比为Q倍过采样,故接收端采样的数字信号R[n]可以表示为:
R[n]=R(t)|t=nT/Q
其中,R(t)表示接收端接收到的信号;T是符号持续时间,即每个码元持续发送的时间长度;Q表示接收端接收到的信号与发送端发送的符号率比值是Q倍过采样;R[n]表示接收端接收信号采样的数字信号。
然后,使用相关识别器对接收端采样的数字信号进行相关识别得到输出Z[n],表示为:
式中,S*[k]表示的是发送端和接收端数字通信符号信息中的同步码,其中k∈[0,L-1],L表示同步系统中的一维伪随机序列同步码的符号个数,
最后,对相关识别器的输出Z[n]进行归一化操作得到Y[n],其中归一化表达式可以表示为:
其中,Z[n]max表示相关识别器输出序列Z[n]中的最大值。
步骤3:构建卷积神经网络模型。图3表示为本发明中卷积神经网络模型的具体结构图。
步骤3-1:卷积神经网络模型结构描述。
卷积神经网络模型由1个输入层、3个卷积层、2个全连接层以及1个输出层顺序连接构成。其中,由于卷积神经网络模型的输入要求是一个2D数据,所以将1D数据Y[n]按照行最大顺序执行矩阵化操作转换为2D数据作为卷积神经网络模型的输入。
步骤3-2:设置卷积神经网络模型损失函数。
常见损失函数有0-1 Loss损失函数、Hinge Loss损失函数、Cross Entropy交叉熵损失函数、MSE均方误差损失函数和Center Loss损失函数,本实例选用但不限于改进的Center Loss损失函数。
损失函数Floss定义为:
其中,||·||F表示F范数运算;tpredict表示卷积神经网络模型估计输出的数据包达到时间;tactual表示“发送端-接收端”数据集中数据包实际的达到时间。
步骤3-3:设置卷积神经网络模型优化算法。
常见的网络优化算法有随机梯度下降算法、小批量梯度下降算法、Adagrad算法和AdamOptimizer算法,本实例选用但不限于AdamOptimizer算法。
步骤3-4:设置卷积神经网络模型中的激活函数。
常见的激活函数有sigmoid激活函数、双曲正切激活函数、非线性单元激活函数、指数线性单元激活函数以及ReLU激活函数,本实例选用但不限于ReLU激活函数,ReLU激活函数表示如下:
f(x)=max(0,x)
式中,x表示输入,f(x)表示ReLU激活函数的输出。
步骤3-5:卷积神经网络模型中卷积层相关设置。
卷积神经网络模型中三层卷积层的作用是将输入数据映射到隐层特征空间。三层卷积层均使用步长为1,尺寸为3*3的卷积核;三层卷积层均使用步长为2,尺寸为2*2的最大池化方法。
卷积神经网络模型中的三层卷积层使用的卷积核数量分别为64、128、256;为了防止训练出来的卷积神经网络模型出现过拟合现象以及在保证卷积神经网络模型精度的前提下减少线下训练时间,在卷积神经网络的三层卷积层中均使用了Dropout算法,在每个训练批次,让某个神经元的激活值有一定概率停止工作,提升卷积神经网络模型的泛化能力以及减少依赖某些局部特征。卷积神经网络的三层卷积层使用的Dropout比率分别为0.5、0.6、0.7。
步骤3-6:卷积神经网络模型中全连接层相关设置。
第一层全连接层作用是将卷积神经网络模型中前面三层卷积层学习到的隐层特征映射到标记样本空间。为了让网络输出结果尽快向One-hot编码收敛,第一层全连接层的输出经过Softmax函数处理作为第二层全连接层的输入,同时在第二层全连接层中经过One-hot编码处理,输出一个只有一个值为1,其余值均为0的one-hot编码向量。最后卷积神经网络模型输出层选取元素值为1的位置作为接收端开始接收数据包的位置n*。
其中,Softmax函数表示如下:
步骤4:训练卷积神经网络模型。
设置卷积神经网络模型的迭代次数epoch以及学习率leaming rate。
按照步骤1准备好“发送端-接收端”数据集,按照步骤2对数据集数据进行预处理得到卷积神经网络模型的输入。按照步骤3构建好相应的卷积神经网络模型以及设置好对应的参数,对卷积神经网络模型进行迭代训练,当迭代次数达到预先设置值时,结束训练,得到训练好的卷积神经网络模型。
步骤5:在实际无线通信系统中使用基于卷积神经网络的帧同步方法。
在实际无线通信系统中,接收端对接收到的信号进行采样之后,再经过相关识别器和归一化操作,将得到的数据输入至线下训练阶段已经训练好的卷积神经网络模型,对应的输出n*即为卷积神经网络模型估计的在接收端数据包达到位置。结合每个符号持续时间T以及接收端接收到的信号与发送端发送的符号率比值Q倍过采样,数据包达到接收端的时间t*可由下面的公式获得:
以上说明为本发明的实施方式,本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。
Claims (8)
1.一种基于卷积神经网络的帧同步方法,其特征在于,包括:
(1)线下训练阶段:
Step1:准备无线通信系统的通信数据集,包括发送端数据和接收端数据;对接收端数据进行预处理,并根据发送端数据确定接收端数据中的数据包起始位置;
Step2:构建卷积神经网络模型,以接收端预处理后的数据为输入,以接收端数据中的数据包起始位置为输出,对构建的卷积神经网络模型进行训练;
对接收端数据进行预处理的步骤为:
Step2.1:设接收端数据为R(t),表示接收机接收到的信号;对接收端数据R(t)进行Q倍过采样,得到接收端采样的数字信号R[n]:
R[n]=R(t)|t=nT/Q
其中,T是符号持续时间;
Step2.2:使用相关识别器对接收端采样的数字信号进行相关识别,得到输出Z[n],表示为:
式中,S*[k]表示的是符号信息中的同步码,其中k∈[0,L-1],L表示同步系统中的一维伪随机序列同步码的符号个数;
Step2.3:对相关识别器的输出Z[n]进行归一化操作得到Y[n],表示为:
其中,Z[n]max表示相关识别器输出序列Z[n]中的最大值;
(2)实际使用阶段
Step3:将线下训练阶段训练好的卷积神经网络模型嵌入到接收端的帧同步系统之中;
Step4:对接收端数据进行预处理,再输入至训练好的卷积神经网络,输出即为接收端数据中的数据包起始位置。
4.根据权利要求1所述的方法,其特征在于,训练卷积神经网络模型时,使用自适应矩估计算法对卷积神经网络模型的参数进行优化。
5.根据权利要求1所述的方法,其特征在于,构建的卷积神经网络模型由1个输入层、3个卷积层、2个全连接层以及1个输出层顺序连接构成;接收端预处理后的数据为1D数据,对其按照最大顺序执行矩阵化操作转换为2D数据,再输入至卷积神经网络模型的输入层。
6.根据权利要求5所述的方法,其特征在于,所述卷积神经网络模型中参数设置为:
卷积神经网络模型中三层卷积层,均使用步长为1、尺寸为3*3的卷积核,均使用步长为2、尺寸为2*2的最大池化方法,使用的卷积核数量分别为64、128、256,均使用Dropout算法,且使用的Dropout比率分别为0.5、0.6、0.7;
第一层全连接层的输出经过Softmax函数处理作为第二层全连接层的输入,同时在第二层全连接层中经过One-hot编码处理,输出一个只有一个值为1,其余值均为0的One-hot编码向量;元素值为1的位置则是卷积神经网络模型估计的接收端开始接收数据包的位置。
7.一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,使得所述处理器实现如权利要求1~6中任一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1~6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111487260.2A CN114157544B (zh) | 2021-12-07 | 2021-12-07 | 基于卷积神经网络的帧同步方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111487260.2A CN114157544B (zh) | 2021-12-07 | 2021-12-07 | 基于卷积神经网络的帧同步方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114157544A CN114157544A (zh) | 2022-03-08 |
CN114157544B true CN114157544B (zh) | 2023-04-07 |
Family
ID=80453086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111487260.2A Active CN114157544B (zh) | 2021-12-07 | 2021-12-07 | 基于卷积神经网络的帧同步方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114157544B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308133A (zh) * | 2020-10-29 | 2021-02-02 | 成都明杰科技有限公司 | 基于卷积神经网络的调制识别方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2484701B8 (en) * | 2010-10-21 | 2014-07-16 | Bluwireless Technlologiy Ltd | Processing a received training sequence in a wireless communications systems |
US8943007B2 (en) * | 2012-10-26 | 2015-01-27 | International Business Machines Corporation | Spike tagging for debugging, querying, and causal analysis |
US11170301B2 (en) * | 2017-11-16 | 2021-11-09 | Mitsubishi Electric Research Laboratories, Inc. | Machine learning via double layer optimization |
CN109379311B (zh) * | 2018-09-30 | 2021-08-17 | 中国人民解放军战略支援部队信息工程大学 | 基于卷积神经网络的超短波特定信号识别方法 |
CN109831399A (zh) * | 2019-01-22 | 2019-05-31 | 东南大学 | 一种人工智能辅助的ofdm接收机 |
CN112437030B (zh) * | 2020-10-29 | 2022-06-28 | 清华大学 | LoRa数据包起点对齐方法及装置 |
CN112688772B (zh) * | 2020-12-17 | 2022-08-26 | 西华大学 | 一种机器学习叠加训练序列帧同步方法 |
-
2021
- 2021-12-07 CN CN202111487260.2A patent/CN114157544B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308133A (zh) * | 2020-10-29 | 2021-02-02 | 成都明杰科技有限公司 | 基于卷积神经网络的调制识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114157544A (zh) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108399428B (zh) | 一种基于迹比准则的三元组损失函数设计方法 | |
CN110120926B (zh) | 基于演化bp神经网络的通信信号调制方式识别方法 | |
CN110532932B (zh) | 一种多分量雷达信号脉内调制方式识别方法 | |
CN110890930B (zh) | 一种信道预测方法、相关设备及存储介质 | |
CN113259288B (zh) | 基于特征融合与轻量化混合模型的水声调制方式识别方法 | |
CN112039820B (zh) | 量子象群机制演化bp神经网络的通信信号调制识别方法 | |
CN113269077B (zh) | 基于改进门控网络和残差网络的水声通信信号调制方式识别方法 | |
CN111342867A (zh) | 一种基于深度神经网络的mimo迭代检测方法 | |
CN112115821B (zh) | 一种基于小波近似系数熵的多信号智能调制模式识别方法 | |
CN112861927B (zh) | 基于自适应特征提取与融合的信号调制分类方法 | |
CN114881092A (zh) | 一种基于特征融合的信号调制识别方法 | |
CN112910811A (zh) | 基于联合学习的噪声水平未知条件下的盲调制识别方法和装置 | |
CN114268388A (zh) | 一种在大规模mimo中基于改进gan网络的信道估计方法 | |
CN115982613A (zh) | 一种基于改进卷积神经网络的信号调制识别系统及方法 | |
CN116628566A (zh) | 一种基于聚合残差变换网络的通信信号调制分类方法 | |
CN112422208B (zh) | 未知信道模型下基于对抗式学习的信号检测方法 | |
CN113872904A (zh) | 一种基于集成学习的多分类通信信号自动调制识别方法 | |
CN114157544B (zh) | 基于卷积神经网络的帧同步方法、设备及介质 | |
CN116760491A (zh) | 一种基于深度学习的信噪比估计方法 | |
CN112836822A (zh) | 基于宽度学习的联邦学习策略优化方法和装置 | |
CN113259289B (zh) | 基于残差神经网络的单通道混叠信号调制模式识别方法 | |
CN112821971A (zh) | 一种基于对抗式学习的时变信道信号检测方法 | |
CN114614920B (zh) | 基于学习因子图的数据与模型联合驱动的信号检测方法 | |
CN112202510B (zh) | 基于正则化流神经网络的信号检测方法 | |
CN117614467B (zh) | 基于降噪神经网络的水声信号智能接收方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |