CN112399413B - 基于深度支持向量描述方法的物理层身份认证方法 - Google Patents

基于深度支持向量描述方法的物理层身份认证方法 Download PDF

Info

Publication number
CN112399413B
CN112399413B CN202011239068.7A CN202011239068A CN112399413B CN 112399413 B CN112399413 B CN 112399413B CN 202011239068 A CN202011239068 A CN 202011239068A CN 112399413 B CN112399413 B CN 112399413B
Authority
CN
China
Prior art keywords
training
data
neural network
model
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011239068.7A
Other languages
English (en)
Other versions
CN112399413A (zh
Inventor
潘志文
邵旖洁
刘楠
尤肖虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Network Communication and Security Zijinshan Laboratory
Original Assignee
Southeast University
Network Communication and Security Zijinshan Laboratory
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University, Network Communication and Security Zijinshan Laboratory filed Critical Southeast University
Priority to CN202011239068.7A priority Critical patent/CN112399413B/zh
Publication of CN112399413A publication Critical patent/CN112399413A/zh
Application granted granted Critical
Publication of CN112399413B publication Critical patent/CN112399413B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0619Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal using feedback from receiving side
    • H04B7/0621Feedback content
    • H04B7/0626Channel coefficients, e.g. channel state information [CSI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/02Arrangements for detecting or preventing errors in the information received by diversity reception
    • H04L1/06Arrangements for detecting or preventing errors in the information received by diversity reception using space diversity
    • H04L1/0618Space-time coding
    • H04L1/0675Space-time coding characterised by the signaling
    • H04L1/0693Partial feedback, e.g. partial channel state information [CSI]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明是一种基于深度支持向量描述方法的物理层身份认证方法,该身份认证方法中,数据样本将通过神经网络从样本空间映射到一个超球体中,在训练模型阶段,通过迭代不断更新神经网络权重,使得数据样本尽可能多地映射到超球体内,同时保证超球体体积最小;在认证阶段,若数据样本映射到超球体内,则视为合法信息发送者信息,反之,则视为攻击者信息。在通信系统中存在合法信息发送者、合法信息接收者和攻击者,合法信息发送者和合法信息接收者在攻击者存在的情况下相互通信。攻击者可能会伪冒成合法信息发送者向合法信息攻击者发送信号,而本发明中的物理层身份认证技术旨在帮助合法信息接收者判断接收到的信号是源自于合法信息发送者还是源自于攻击者。

Description

基于深度支持向量描述方法的物理层身份认证方法
技术领域
本发明属于无线通信中的物理层安全领域,具体涉及基于深度支持向量描述方法的 物理层身份认证。
背景技术
“接入安全”是影响无线网络安全性的重要因素。在传统安全机制中,接入安全 主要依赖于开放系统互联(Open System Interconnection,OSI)模型中数据链路层、网 络层、传输层、会话层以及应用层的一系列安全协议。然而,基于现代密码学的传统 安全机制主要依靠合法用户和攻击者的信息不对称,使得攻击者无法在短时间内破译 密文,实现计算上的安全。但是,随着计算能力的飞速发展,合法用户不得不缩短密 钥更新时间、增加密钥长度或者提升加密方法的复杂度来确保安全体系的有效性,这 无疑会增加通信资源和计算资源的消耗,给资源有限的终端设备带来巨大的负担。与 此同时,密钥存在被泄露的风险,防护程度不高。
与依赖于计算复杂度和密钥的上层安全技术相比较,物理层身份认证技术通过对无线信道特性的利用,具备计算复杂度低和安全系数高的优势。本发明中利用了信道 状态信息(Channel State Information,CSI),在已经开始合法通信后,使用深度支持 向量描述(Deep Support Vector Data Description,Deep SVDD)方法,检测是否有伪 冒用户异常接入。
发明内容
技术问题:在通信系统中存在合法信息发送者、合法信息接收者和攻击者,合法信息发送者和合法信息接收者在攻击者存在的情况下相互通信。攻击者可能会伪冒成 合法信息发送者向合法信息攻击者发送信号,而本发明中的物理层身份认证技术旨在 帮助合法信息接收者判断接收到的信号是源自于合法信息发送者还是源自于攻击者。
技术方案:本发明中的物理层身份认证技术利用了无线信道的唯一性和变化的时间连续性,唯一性即指攻击者只有在非常接近合法用户的位置(相干距离以内)才能 获得相近的信道特性,这在实际中不可行。本发明中的通信系统采用了多输入输出(MultipleIn Multiple Out,MIMO)技术及正交频分复用(Orthogonal Frequency DivisionMultiplexing,OFDM)技术,其中MIMO技术是指在发送端和接收端都使用多根天线, 从而在收发之间构成多个信道,用NT表示发送端天线个数,NR表示接收端天线个数; OFDM技术是一类特殊的多载波调制,其各个子信道上的相应的子载波相互正交,用 NS表示子载波个数。本发明中合法信息发送者和合法信息接收者之间的信道、攻击者 和合法信息接收者之间的信道均为多径衰落信道。
本发明中采用的深度支持向量描述方法是一种深度一分类方法。深度是指采用卷积神经网络结构,能够对CSI数据中包含的特征进行有效识别和提取,以提升认证 性能。一分类是指该方法在训练模型阶段只需要合法信息发送者的CSI数据,可以克 服难以获取攻击者信道特征从而导致数据不平衡的问题。该方法的基本原理如
图1所示,数据样本将通过神经网络从样本空间映射到一个超球体中。在训练模型阶段,通过迭代不断更新神经网络权重,使得数据样本尽可能多地映射到超球体内, 同时保证超球体体积最小。在认证阶段,若数据样本映射到超球体内,则视为合法信 息发送者信息,反之,则视为攻击者信息。
本发明的技术方案包括如下步骤:
第一步:收集T个时刻的合法用户之间的CSI数据作为训练数据集,其中每条 记录,即t(t=1,2,…T)时刻的CSI数据,称为一个训练样本。T值决定着训练样 本的数目,训练样本太少会降低认证模型的泛化能力,而训练样本太多会导致模型训 练时间延长,造成不必要的计算资源浪费,T值可以根据仿真情况选取。本步骤包括 如下流程:
(1)合法合法信息发送者在t时刻向合法信息接收者发送包含有导频信息的数 据s(t),s(t)是一个NT×NS的复矩阵,s(t)经多径衰落信道传送至合法信息 接收者,该过程可以表示为:
Figure BDA0002767820720000021
其中,r(t)表示合法信息接收者接收到的信号,h(t)表示多径衰落信道的 冲激响应,n(t)表示信道噪声,
Figure BDA0002767820720000022
表示卷积操作。
(2)合法信息接收者对接收到的信号进行信道估计,得到CSI矩阵
Figure BDA0002767820720000031
就是训练数据集中的一个训练样本,是一个NT×NR×NS维的复矩阵。
(3)重复(1)、(2)操作T次,收集T个时刻的CSI矩阵作为训练数据集。
第二步:数据预处理。本步骤包括如下流程:
(1)特征矩阵重构。为了便于神经网络的计算,需改变训练样本
Figure BDA0002767820720000032
(t=1,2,…T)的结构,并将训练样本
Figure BDA0002767820720000033
从复矩阵变为实矩阵。重构后 的实矩阵为Hrec(t)∈RM×N×D,其中M=NT×NR,N=NS,D=2表示复矩阵 的实部和虚部。转化公式如下:
Figure BDA0002767820720000034
其中,i=1,2,…NT,j=1,2,…NR,k=1,2,…NS,real(x)函数表示取复 数x的实部,imag(x)函数表示取复数x的虚部。
(2)数据标准化。为了提升模型精度和收敛速度,需对训练样本Hrec(t),进行 标准化处理,经标准化后的样本数据的均值为0、方差为1,其转化函数 如下:
Figure BDA0002767820720000035
其中,Hscaled(t)表示经标准化后的训练样本,μ表示所有训练样本数据的 均值,σ表示所有训练样本数据的标准差。
第三步:训练并生成深度支持向量描述模型。模型的生成过程分为前向传播阶段和反向传播阶段,需要多次重复这两个阶段来更新调整模型参数,促使认证模型达到 预期性能目标,每一次的重复称为一次“迭代”,最大迭代次数itemax需要根据模型的 收敛情况确定。本步骤包括如下流程:
(1)初始化。初始化设置迭代次数ite=0,神经网络的权重W为随机值。
(2)前向传播阶段。神经网络的输入为经数据预处理后的训练数据集,训练数 据集包含有T条训练样本,每一条训练样本为Hscaled(t)∈RM×N×D (t=1,2,…T),其中每个切片矩阵Hsdcaled(t)∈RM×N(d=1,2)称为一个输 入特征映射。为了计算得到神经网络的输出矢量Y(t),可经过如下操作:
a)卷积层:用于对样本数据进行特征提取。在该层中存在权重参数W, 这是一个U×V×P×D维的实矩阵,W的每个切片矩阵Wp,d∈RU×V (d=1,2)称为一个二维卷积核,其中U和V决定着卷积核的大小,P 决定着卷积核的个数,这三个值影响着认证模型的精度,一般情况下, U、V和P值越大,模型的精度越高,但是模型的复杂度也会随之增 大,导致认证时延的增长和模型参数量的增大,并且会造成过拟合的 现象。U、V和P值可以根据仿真情况选取。为了计算卷积层的输出 特征映射Zp(t),用卷积核Wp,1,Wp,2分别对输入特征映射
Figure BDA0002767820720000043
进行卷积,然后将卷积结果相加,得到卷积层的净 输出
Figure BDA0002767820720000044
其中M′=(M-U)/S+1,N′=(N-V)/S′+1,S和 S′表示卷积步长,卷积步长越小,卷积层提取的特征会更全面,但会 造成计算量增大,S和S′的值可以根据仿真情况选取。再经过非线性 激活函数后得到输出特征映射Zp(t)∈RM′×N′
Figure BDA0002767820720000041
Figure BDA0002767820720000042
其中,Wp∈RU×V×D为三维卷积核,f(x)为非线性激活函数,它必须 满足连续并可导(允许少数点上不可导),并且f(x)及其导函数要尽 可能的简单,有利于提高神经网络计算效率。
将上述计算过程重复P次,得到P个输出特征映射 Z1(t),Z2(t),…,ZP(t)。
b)批标准化层(Batch Normalization,BN):用于对卷积层输出进行数据 标准化,Z1(t),Z2(t),…,ZP(t)经标准化得
Figure BDA0002767820720000051
在此层中包含训练参数μ′和σ′,μ′表示所有卷积层输出的均值,σ′表 示所有卷积层输出的标准差。
c)全局平均池化层(Global Average Pooling,GAP):求
Figure BDA0002767820720000052
(p=1,2,…P)的全局平均值,其计算公式如下:
Figure BDA0002767820720000053
其中,
Figure BDA0002767820720000054
为矩阵
Figure BDA0002767820720000055
中的元素,Y1(t),Y2(t),…,YP(t) 构成神经网络的输出向量Y(t)∈RP
(3)反向传播阶段。在该阶段以最小化损失函数L为目标,更新调整神经网络 权重W。损失函数L的计算过程如下:
a)计算超球体中心c∈RP(该值仅在第一次迭代中计算,在之后迭代过 程中为固定值):
Figure BDA0002767820720000057
b)计算所有神经网络输出向量Y(t)(t=1,2,…T)到超球体中心的距离:
Figure BDA0002767820720000056
c)计算超球体半径:
R=quantile(Dist,1-v) (9)
其中,R表示超球体半径,Dist表示所有Dist(t)(t=1,2,…T)的集合, quantile(x)表示分位数函数,该函数返回值的含义是在所有距离值中 有(1-v)×T个距离值小于返回值,有v×T个距离值大于返回值。v值 是用于控制软边界的参数,表示允许有v×T个训练样本映射在超球体 外,即衡量训练数据集中含有多少异常样本。v值的选取与训练样本 之间的相似度有关,相似度越高表示着异常样本越少,v的取值也就 越小。v值可以根据训练数据集的实际情况选取。
d)计算损失函数L:
Figure BDA0002767820720000061
上式中第一项表示最小化超球体积;第二项表示落在超球外的点的惩 罚项;第三项是正则项,通过约束神经网络权重的L2范数来减小模 型在训练数据集上的过拟合现象,λ为正则化系数,λ越大则正则化 作用越明显,但同时也会造成模型难以收敛,λ的选取可以根据仿真 情况选取。
(4)迭代次数ite=ite+1,若ite小于等于最大迭代次数itemax,则重复(2)、(3) 操作;反之,则训练结束,存储神经网络卷积层的权重W,BN层的参数 μ′和σ′,超球体中心c和超球体半径R,即得到了深度支持向量描述模型。
第四歩:使用深度支持向量描述模型进行身份认证。本步骤包括如下流程:
(1)合法信息接收者在T+t′(t′=1,2,…,+∞)时刻接收到源自于未知用户(合 法信息接收者或攻击者)的信号r(T+t′),经过信道估计得到CSI矩阵
Figure BDA0002767820720000062
(2)对
Figure BDA0002767820720000063
进行如同第二步中的数据预处理得到Hscaled(T+t′)作为神经网 络的输入。
(3)Hscaled(T+t′)通过神经网络的前向传播阶段输出Y(T+t′)。
(4)根据公式(8)计算Dist(T+t′),若Dist(T+t′)小于等于超球体半径R,则 信号r(T+t′)是源自于合法信息发送者;若Dist(T+t′)大于超球体半径R, 则信号r(T+t′)是源自于攻击者,即完成身份认证。
有益效果:本发明中基于深度支持向量描述方法的物理层身份认证,能够利用CSI数据判断信号的来源是合法信息发送者还是攻击者,以实现身份认证。在本方案中, 使用误报率、漏检率、时间复杂度以及存储参数量来评价技术方案的优劣,误报率、 漏检率可统一量化为gmean,gmean值的计算公式如下:
Figure BDA0002767820720000071
其中,Pf表示误报率,即把合法信息发送者认证为攻击者;Pm表示漏检率,即 把攻击者认证为合法信息发送者;gmean值越高表示技术方案的认证性能越好。与最近 邻一分类(One-Class Nearest Neighbor,OCNN)方法相比,本发明中的方案的gmean值 平均提升4.93%,时间复杂度减小1个数量级,存储参数量减小3个数量级;与基于 内核的支持向量描述方法相比,本发明中的方案的gmean值平均提升3.52%,时间复杂 度位于同一个数量级,存储参数量减小3个数量级。这说明本发明中的方案能够在降 低时间复杂度和存储参数量的同时保证良好的认证性能,更符合实际需求。
附图说明
图1是Deep SVDD(深度支持向量描述)原理图
具体实施方式
本发明中基于深度支持向量描述方法的物理层身份认证,以含有1个合法信息发送者、1个合法信息接收者和3个攻击者的通信场景为例进行说明。本例中 MIMO-OFDM通信系统的发送天线个数NT=2,接收天线个数NR=2,子载波个数 NS=256。多径衰落信道的各径时延和各级衰落如表1所示,信噪比为1分贝。
包括如下步骤:
第一步:收集T(本例中T=2000)个时刻的合法用户之间的CSI数据作为训练 数据集,其中每条记录,即t(t=1,2,…T)时刻的CSI数据,称为一个训练样本。T 值决定着训练样本的数目,训练样本太少会降低认证模型的泛化能力,而训练样本太 多会导致模型训练时间延长,造成不必要的计算资源浪费,T值可以根据仿真情况选 取。本步骤包括如下流程:
(1)合法合法信息发送者在t时刻向合法信息接收者发送包含有导频信息的数 据s(t),s(t)是一个NT×NS的复矩阵(本例中s(t)是一个2×256维的复矩 阵),s(t)经多径衰落信道传送至合法信息接收者,该过程可以表示为:
Figure BDA0002767820720000081
其中,r(t)表示合法信息接收者接收到的信号,h(t)表示多径衰落信道的 冲激响应,n(t)表示信道噪声,
Figure BDA0002767820720000082
表示卷积操作。
(2)合法信息接收者对接收到的信号进行信道估计,得到CSI矩阵
Figure BDA0002767820720000083
就是训练数据集中的一个训练样本,是一个NT×NR×NS维的复矩阵。本 例中NT=2,NR=2,NS=256,因此
Figure BDA0002767820720000084
是一个2×2×256维的复矩阵。
(3)重复(1)、(2)操作T次,收集T个时刻的CSI矩阵作为训练数据集。本 例中T=2000,意味着训练数据集中含有2000个训练样本。
第二步:数据预处理。本步骤包括如下流程:
(1)特征矩阵重构。为了便于神经网络的计算,需改变训练样本
Figure BDA0002767820720000085
(t=1,2,…T)的结构,并将训练样本
Figure BDA0002767820720000086
从复矩阵变为实矩阵。重构后 的实矩阵为Hrec(t)∈RM×N×D,其中M=NT×NR,N=NS,D=2表示复矩阵 的实部和虚部。转化公式如下:
Figure BDA0002767820720000087
其中,i=1,2,…NT,j=1,2,…NR,k=1,2,…NS,real(x)函数表示取复 数x的实部,imag(x)函数表示取复数的虚部。
本例中M=NT×NR=2×2=4,N=NS=256,D=2,因此Hrec(t)为一个 4×256×2维的实矩阵。
(2)数据标准化。为了提升模型精度和收敛速度,需对训练样本Hrec(t),进行 标准化处理,经标准化后的样本数据的均值为0、方差为1,其转化函数 如下:
Figure BDA0002767820720000091
其中,Hscaled(t)表示经标准化后的训练样本,μ表示所有训练样本数据的均 值,σ表示所有训练样本数据的标准差。
第三步:训练并生成深度支持向量描述模型。模型的生成过程分为前向传播阶段和反向传播阶段,需要多次重复这两个阶段来更新调整模型参数,促使认证模型达到 预期性能目标,每一次的重复称为一次“迭代”,最大迭代次数itemax需要根据模型的 收敛情况确定。本例中itemax=200。本步骤包括如下流程:
(1)初始化。初始化设置迭代次数ite=0,神经网络的权重W为随机值。
(2)前向传播阶段。神经网络的输入为经数据预处理后的训练数据集,训练数 据集包含有T条训练样本,每一条训练样本为Hscaled(t)∈RM×N×D (t=1,2,…T),其中每个切片矩阵
Figure BDA0002767820720000092
称为一个输 入特征映射。为了计算得到神经网络的输出矢量Y(t),可经过如下操作:
a)卷积层:用于对样本数据进行特征提取。在该层中存在权重参数W, 这是一个U×V×P×D维的实矩阵,W的每个切片矩阵Wp,d∈RU×V (d=1,2)称为一个二维卷积核,其中U和V决定着卷积核的大小,P 决定着卷积核的个数,这三个值影响着认证模型的精度,一般情况下, U、V和P值越大,模型的精度越高,但是模型的复杂度也会随之增 大,导致认证时延的增长和模型参数量的增大,并且会造成过拟合的 现象。U、V和P值可以根据仿真情况选取,本例中U=2,V=5, P=16。为了计算卷积层的输出特征映射Zp(t),用卷积核Wp,1,Wp,2分别对输入特征映射
Figure BDA0002767820720000093
进行卷积,然后将卷积结果相加, 得到卷积层的净输出
Figure BDA0002767820720000094
其中M′=(M-U)/S+1, N′=(N-V)/S′+1,S和S′表示卷积步长,卷积步长越小,卷积层提 取的特征会更全面,但会造成计算量增大,S和S′的值可以根据仿真 情况选取。本例中S=1,S′=1,因此M′=3,N′=252。再经过非线性 激活函数后得到输出特征映射Zp(t)∈RM′×N′
Figure BDA0002767820720000101
Figure BDA0002767820720000102
其中,Wp∈RU×V×D为三维卷积核,f(x)为非线性激活函数,它必须 满足连续并可导(允许少数点上不可导),并且f(x)及其导函数要尽 可能的简单,有利于提高神经网络计算效率。本例中f(x)采用带泄露 的修正线性单元(Leaky Rectifed Linear Unit,LeakyReLU)函数,其 表达式为f(x)=max(0,x)+γmin(0,x),其中γ是一个很小的常数,本 例中γ=0.01。
将上述计算过程重复P次,得到P个输出特征映射 Z1(t),Z2(t),…,ZP(t)。
本例中采用的二维卷积核Wp,d大小为2×5,共重复计算P=16次,因 此卷积层的输出为16个3×252维的实矩阵。
b)批标准化层(Batch Normalization,BN):用于对卷积层输出进行数据 标准化,Z1(t),Z2(t),…,ZP(t)经标准化得
Figure BDA0002767820720000103
在此层中包含训练参数μ′和σ′,μ′表示所有卷积层输出的均值,σ′表 示所有卷积层输出的标准差。
c)全局平均池化层(Global Average Pooling,GAP):求
Figure BDA0002767820720000107
(p=1,2,…P)的全局平均值,其计算公式如下:
Figure BDA0002767820720000104
其中,
Figure BDA0002767820720000105
为矩阵
Figure BDA0002767820720000106
中的元素,Y1(t),Y2(t),…,YP(t) 构成神经网络的输出向量Y(t)∈RP。本例中神经网络输出Y(t)为一个 16维的实向量。
(3)反向传播阶段。在该阶段以最小化损失函数L为目标,更新调整神经网络 权重W。损失函数L的计算过程如下:
a)计算超球体中心c∈RP(该值仅在第一次迭代中计算,在之后迭代过 程中为固定值):
Figure BDA0002767820720000111
b)计算所有神经网络输出向量Y(t)(t=1,2,…T)到超球体中心的距离:
Figure BDA0002767820720000112
c)计算超球体半径:
R=quantile(Dist,1-v) (9)
其中,R表示超球体半径,Dist表示所有Dist(t)(t=1,2,…T)的集合, quantile(x)表示分位数函数,该函数返回值的含义是在所有距离值中 有(1-v)×T个距离值小于返回值,有v×T个距离值大于返回值。v值 是用于控制软边界的参数,表示允许有v×T个训练样本映射在超球体 外,即衡量训练数据集中含有多少异常样本。v值的选取与训练样本 之间的相似度有关,相似度越高表示着异常样本越少,v的取值也就 越小。v值可以根据训练数据集的实际情况选取。本例中的ν=0.01。
d)计算损失函数L:
Figure BDA0002767820720000113
上式中第一项表示最小化超球体积;第二项表示落在超球外的点的惩 罚项;第三项是正则项,通过约束神经网络权重的L2范数来减小模 型在训练数据集上的过拟合现象,λ为正则化系数,λ越大则正则化 作用越明显,但同时也会造成模型难以收敛,λ的选取可以根据仿真 情况选取。本例中λ=0.1。
(4)迭代次数ite=ite+1,若ite小于等于最大迭代次数itemax,则重复(2)、(3) 操作;反之,则训练结束,存储神经网络卷积层的权重W,BN层的参数 μ′和σ′,超球体中心c和超球体半径R,即得到了深度支持向量描述模型。
第四歩:使用深度支持向量描述模型进行身份认证。本步骤包括如下流程:
(1)合法信息接收者在T+t′(t′=1,2,…,+∞)时刻接收到源自于未知用户(合 法信息接收者或攻击者)的信号r(T+t′),经过信道估计得到CSI矩阵
Figure BDA0002767820720000121
(2)对
Figure BDA0002767820720000122
进行如同第二步中的数据预处理得到Hscaled(T+t′)作为神经网 络的输入。
(3)Hscaled(T+t′)通过神经网络的前向传播阶段输出Y(T+t′)。
(4)根据公式(8)计算Dist(T+t′),若Dist(T+t′)小于等于超球体半径R,则 信号r(T+t′)是源自于合法信息发送者;若Dist(T+t′)大于超球体半径R, 则信号r(T+t′)是源自于攻击者,即完成身份认证。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式 替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
表1多径衰落信道参数
Figure BDA0002767820720000123
Figure BDA0002767820720000131

Claims (5)

1.一种基于深度支持向量描述方法的物理层身份认证方法,其特征在于该身份认证方法中,数据样本将通过神经网络从样本空间映射到一个超球体中,在训练模型阶段,通过迭代不断更新神经网络权重,使得数据样本尽可能多地映射到超球体内,同时保证超球体体积最小;在认证阶段,若数据样本映射到超球体内,则视为合法信息发送者信息,反之,则视为攻击者信息;
身份认证方法包括如下步骤:
第一步:收集T个时刻的合法用户之间的CSI数据作为训练数据集,其中每条记录,即t时刻的CSI数据,t=1,2,…T,称为一个训练样本,T值决定着训练样本的数目,训练样本太少会降低认证模型的泛化能力,而训练样本太多会导致模型训练时间延长,造成不必要的计算资源浪费,T值可以根据仿真情况选取;
第二步:数据预处理,本步骤包括如下流程:
2.1.特征矩阵重构:为了便于神经网络的计算,需改变训练样本
Figure FDA0003713257680000011
的结构,并将训练样本
Figure FDA0003713257680000012
从复矩阵变为实矩阵;重构后的实矩阵为Hrec(t)∈RM×N×D,其中M=NT×NR,N=NS,D=2表示复矩阵的实部和虚部;转化公式如下:
Figure FDA0003713257680000013
其中,i=1,2,…NT,j=1,2,…NR,k=1,2,…NS,real(x)函数表示取复数x的实部,imag(x)函数表示取复数x的虚部;
2.2.数据标准化:为了提升模型精度和收敛速度,需对训练样本Hrec(t),进行标准化处理,经标准化后的样本数据的均值为0、方差为1,其转化函数如下:
Figure FDA0003713257680000014
其中,Hscaled(t)表示经标准化后的训练样本,μ表示所有训练样本数据的均值,σ表示所有训练样本数据的标准差;
第三步:训练并生成深度支持向量描述模型;模型的生成过程分为前向传播阶段和反向传播阶段,需要多次重复这两个阶段来更新调整模型参数,促使认证模型达到预期性能目标,每一次的重复称为一次“迭代”,最大迭代次数itemax需要根据模型的收敛情况确定;
第四歩:使用深度支持向量描述模型进行身份认证,本步骤包括如下流程:
4.1.合法信息接收者在T+t′时刻接收到源自于未知用户即合法信息接收者或攻击者的信号r(T+t′),经过信道估计得到CSI矩阵
Figure FDA0003713257680000015
t′=1,2,…,+∞,
4.2.对
Figure FDA0003713257680000021
进行如同第二步中的数据预处理得到Hscaled(T+t′)作为神经网络的输入;
4.3.Hscaled(T+t′)通过神经网络的前向传播阶段输出Y(T+t′);
4.4.计算Dist(T+t′),若Dist(T+t′)小于等于超球体半径R,则信号r(T+t′)是源自于合法信息发送者;若Dist(T+t′)大于超球体半径R,则信号r(T+t′)是源自于攻击者,即完成身份认证。
2.根据权利要求1所述的一种基于深度支持向量描述方法的物理层身份认证方法,其特征在于所述的第一步包括如下流程:
1.1.合法信息发送者在t时刻向合法信息接收者发送包含有导频信息的数据s(t),s(t)是一个NT×NS的复矩阵,s(t)经多径衰落信道传送至合法信息接收者,该过程可以表示为:
Figure FDA0003713257680000022
其中,r(t)表示合法信息接收者接收到的信号,h(t)表示多径衰落信道的冲激响应,n(t)表示信道噪声,
Figure FDA0003713257680000023
表示卷积操作;
1.2.合法信息接收者对接收到的信号进行信道估计,得到CSI矩阵
Figure FDA0003713257680000024
就是训练数据集中的一个训练样本,是一个NT×NR×NS维的复矩阵;
1.3.重复步骤1.1、1.2操作T次,收集T个时刻的CSI矩阵作为训练数据集。
3.根据权利要求1所述的一种基于深度支持向量描述方法的物理层身份认证方法,其特征在所述的第三步包括如下流程:
3.1.初始化,初始化设置迭代次数ite=0,神经网络的权重W为随机值;
3.2.前向传播阶段,神经网络的输入为经数据预处理后的训练数据集,训练数据集包含有T条训练样本,每一条训练样本为Hscaled(t)∈RM×N×D,其中每个切片矩阵
Figure FDA0003713257680000025
d=1,2,称为一个输入特征映射,计算得到神经网络的输出矢量Y(t),
3.3.反向传播阶段,在该阶段以最小化损失函数L为目标,更新调整神经网络权重W,
3.4.迭代次数ite=ite+1,若ite小于等于最大迭代次数itemax,则重复步骤3.2、3.3操作;反之,则训练结束,存储神经网络卷积层的权重W,超球体中心c和超球体半径R,即得到了深度支持向量描述模型。
4.根据权利要求3所述的一种基于深度支持向量描述方法的物理层身份认证方法,其特征在所述的神经网络的输出矢量Y(t)通过以下方法得到,
3.2a.卷积层:用于对样本数据进行特征提取,在该层中存在权重参数W,这是一个U×V×P×D维的实矩阵,W的每个切片矩阵Wp,d∈RU×V,d=1,2,称为一个二维卷积核,其中U和V决定着卷积核的大小,P决定着卷积核的个数,这三个值影响着认证模型的精度,一般情况下,U、V和P值越大,模型的精度越高,但是模型的复杂度也会随之增大,导致认证时延的增长和模型参数量的增大,并且会造成过拟合的现象;U、V和P值可以根据仿真情况选取;为了计算卷积层的输出特征映射Zp(t),用卷积核Wp,1,Wp,2分别对输入特征映射
Figure FDA0003713257680000031
进行卷积,然后将卷积结果相加,得到卷积层的净输出
Figure FDA0003713257680000032
其中M′=(M-U)/S+1,N′=(N-V)/S′+1,S和S′表示卷积步长,卷积步长越小,卷积层提取的特征会更全面,但会造成计算量增大,S和S′的值可以根据仿真情况选取;再经过非线性激活函数后得到输出特征映射Zp(t)∈RM′×N′
Figure FDA0003713257680000033
Figure FDA0003713257680000034
其中,Wp∈RU×V×D为三维卷积核,f(x)为非线性激活函数,它必须满足连续并可导,允许少数点上不可导,并且f(x)及其导函数要尽可能的简单,有利于提高神经网络计算效率;
将上述计算过程重复P次,得到P个输出特征映射Z1(t),Z2(t),…,ZP(t);
3.2b.批标准化层(Batch Normalization,BN):用于对卷积层输出进行数据标准化,Z1(t),Z2(t),…,ZP(t)经标准化得
Figure FDA0003713257680000035
在此层中包含训练参数μ′和σ′,μ′表示所有卷积层输出的均值,σ′表示所有卷积层输出的标准差;
3.2c.全局平均池化层GAP:求
Figure FDA0003713257680000036
的全局平均值p=1,2,…P,其计算公式如下:
Figure FDA0003713257680000037
其中,
Figure FDA0003713257680000038
为矩阵
Figure FDA0003713257680000039
中的元素,Y1(t),Y2(t),…,YP(t)构成神经网络的输出向量Y(t)∈RP
5.根据权利要求3所述的一种基于深度支持向量描述方法的物理层身份认证方法,其特征在所述的损失函数L的计算过程如下:
3.3a.计算超球体中心c∈RP;该值仅在第一次迭代中计算,在之后迭代过程中为固定值:
Figure FDA0003713257680000041
3.3b.计算所有神经网络输出向量Y(t)到超球体中心的距离:
Figure FDA0003713257680000042
3.3c计算超球体半径:
R=quantile(Dist,1-v) (9)
其中,R表示超球体半径,Dist表示所有Dist(t)的集合,quantile(x)表示分位数函数,该函数返回值的含义是在所有距离值中有(1-v)×T个距离值小于返回值,有v×T个距离值大于返回值;v值是用于控制软边界的参数,表示允许有v×T个训练样本映射在超球体外,即衡量训练数据集中含有多少异常样本;v值的选取与训练样本之间的相似度有关,相似度越高表示着异常样本越少,v的取值也就越小;v值可以根据训练数据集的实际情况选取;
3.3d.计算损失函数L:
Figure FDA0003713257680000043
上式中第一项表示最小化超球体积;第二项表示落在超球外的点的惩罚项;第三项是正则项,通过约束神经网络权重的L2范数来减小模型在训练数据集上的过拟合现象,λ为正则化系数,λ越大则正则化作用越明显,但同时也会造成模型难以收敛,λ的选取可以根据仿真情况选取。
CN202011239068.7A 2020-11-09 2020-11-09 基于深度支持向量描述方法的物理层身份认证方法 Active CN112399413B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011239068.7A CN112399413B (zh) 2020-11-09 2020-11-09 基于深度支持向量描述方法的物理层身份认证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011239068.7A CN112399413B (zh) 2020-11-09 2020-11-09 基于深度支持向量描述方法的物理层身份认证方法

Publications (2)

Publication Number Publication Date
CN112399413A CN112399413A (zh) 2021-02-23
CN112399413B true CN112399413B (zh) 2022-08-30

Family

ID=74598410

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011239068.7A Active CN112399413B (zh) 2020-11-09 2020-11-09 基于深度支持向量描述方法的物理层身份认证方法

Country Status (1)

Country Link
CN (1) CN112399413B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113359666B (zh) * 2021-05-31 2022-11-15 西北工业大学 基于Deep SVDD的车辆外部入侵检测方法及系统
CN113746628B (zh) * 2021-09-30 2022-07-12 西安交通大学 一种基于深度学习的物理层密钥生成方法及系统
CN114358064B (zh) * 2021-12-23 2022-06-21 中国人民解放军海军工程大学 一种基于深度支持向量数据描述的干扰检测装置及方法
CN114884783B (zh) * 2022-05-07 2023-06-02 重庆邮电大学 一种利用神经网络进行电力线系信道估计的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108848068A (zh) * 2018-05-29 2018-11-20 上海海事大学 基于深度信念网络-支持向量数据描述的apt攻击检测方法
CN110598734A (zh) * 2019-08-05 2019-12-20 西北工业大学 基于卷积神经网络和支持向量域描述的驾驶员身份认证方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108848068A (zh) * 2018-05-29 2018-11-20 上海海事大学 基于深度信念网络-支持向量数据描述的apt攻击检测方法
CN110598734A (zh) * 2019-08-05 2019-12-20 西北工业大学 基于卷积神经网络和支持向量域描述的驾驶员身份认证方法

Also Published As

Publication number Publication date
CN112399413A (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
CN112399413B (zh) 基于深度支持向量描述方法的物理层身份认证方法
Qiu et al. Physical layer authentication enhancement using a Gaussian mixture model
Chen et al. On physical-layer authentication via online transfer learning
Liao et al. A novel physical layer authentication method with convolutional neural network
CN110138459A (zh) 基于基追踪去噪的稀疏水声正交频分复用信道估计方法及装置
Marinberg et al. A study on MIMO channel estimation by 2D and 3D convolutional neural networks
Li et al. An Adaptive Communication‐Efficient Federated Learning to Resist Gradient‐Based Reconstruction Attacks
CN112865891B (zh) Pucch信号检测方法、装置、通信设备和存储介质
Zhang et al. Efficient residual shrinkage CNN denoiser design for intelligent signal processing: Modulation recognition, detection, and decoding
CN113704737A (zh) 一种小样本物理层设备认证方法、系统、终端及存储介质
CN110944002B (zh) 一种基于指数平均数据增强的物理层认证方法
Yuan et al. Channel estimation and pilot design for uplink sparse code multiple access system based on complex-valued sparse autoencoder
CN113037409B (zh) 基于深度学习的大规模mimo系统信号检测方法
WO2023121659A1 (en) Communication device and method for performing communication signal processing
CN114125826A (zh) 一种基于信号强度的物理层密钥提取方法、系统、设备和介质
Han et al. An improved key generation scheme based on multipath channel measurements
Liu et al. PPEFL: An Edge Federated Learning Architecture with Privacy‐Preserving Mechanism
Li et al. Sembat: Physical layer black-box adversarial attacks for deep learning-based semantic communication systems
Liang et al. Channel Estimation Algorithm Based on Deep Learning for OFDM System
KR20200078817A (ko) 상관된 메인 채널 및 도청 채널을 위한 인공 잡음 기법을 이용한 보안 통신 장치 및 그 방법
CN114938321B (zh) 一种利用数据符号用作参考信号进行信道估计的方法
Dong et al. Comparisons on Deep Learning Methods for NOMA Scheme Classification in Cellular Downlink
Ramasamy et al. Evolutionary gravitational Neocognitron neural network based differential spatial modulation detection scheme for uplink multiple user huge MIMO systems
CN117278367B (zh) 一种分布式压缩感知稀疏时变信道估计方法
Yang et al. An improved least squares (LS) channel estimation method based on CNN for OFDM systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant