CN115171211A - 信道状态信息的动作和位置的联合估计方法 - Google Patents

信道状态信息的动作和位置的联合估计方法 Download PDF

Info

Publication number
CN115171211A
CN115171211A CN202210786196.6A CN202210786196A CN115171211A CN 115171211 A CN115171211 A CN 115171211A CN 202210786196 A CN202210786196 A CN 202210786196A CN 115171211 A CN115171211 A CN 115171211A
Authority
CN
China
Prior art keywords
csi
models
action
action recognition
position estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210786196.6A
Other languages
English (en)
Inventor
颜俊
孙卫
曹艳华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210786196.6A priority Critical patent/CN115171211A/zh
Publication of CN115171211A publication Critical patent/CN115171211A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种信道状态信息的动作和位置的联合估计方法,主要包括以下步骤:提取CSI信号的幅值信息;去除CSI信号的异常值并平滑去噪;构建多个训练样本矩阵并通过图像渲染技术转成RGB图像;得到多个位置估计模型和多个动作识别模型;构建多个测试样本矩阵并通过图像渲染技术转成RGB图像;将RGB图像分别输入到多个位置估计模型和多个动作识别模型中,分别得到多个位置估计预测结果和动作识别预测结果,通过决策融合得到位置估计最终预测结果和最终预测结果。本发明过分布式训练加快训练速度和模型收敛速度,通过决策融合的方式将不同的位置估计模型和动作识别模型的输出结果加权融合,大大提高了位置和动作识别的分类效果。

Description

信道状态信息的动作和位置的联合估计方法
技术领域
本发明涉及一种信道状态信息的动作和位置的联合估计方法,属于深度学习领域。
背景技术
近年来WIFI传感器的课题研究得到了快速发展,WIFI设备已被广泛用作人类感知任务的传感器,如室内定位、动作识别、呼吸检测等。由于无线技术成本低廉、分布广泛,并且研究表明人类的行为对周围无线信号的影响可以作为一种传感工具,用于无线定位和识别无线网络附近人员的动作。因此利用无线传感技术对周围环境进行感知吸引了许多学者的研究与探索,显示出了巨大的发展潜力以及广阔的应用前景。
先前的许多工作表明相比于接收信号强度信息,信道状态信息已经成为一种很常用的测量信息。在基于CSI的无线定位任务中,许多传统的方法采用RSSI作为位置指纹信息,然后由于RSSI容易受到周围环境的干扰,及其不稳定,所以对定位的精度有一定的影响。CSI相对于RSSI信号比较稳定。此外,传统的机器学习方法需要人为手动的提取特征送入分类器,这就要求对提取的特征能很好的反映位置信息,这有一定的实现复杂性。然而相对于传统的经验方法,卷积神经网络技术可以提供更广泛的潜在预测变量和更丰富的功能形式规格。卷积神经网络无需手动提取特征,通过卷积层可自动提取,这大大增加了数据预测的灵活性。
在动作识别的任务中,先前的许多工作都基于计算机视觉,通过监控摄像头观察被测人的动作,然而这极大的侵犯了被测人的隐私。而基于CSI的动作识别是一项新型技术,它可以在不使用专用设备的情况下通过分析一个人对周围无线信号的影响来判断他的状态,因此该项技术引起了广泛关注。
随着物联网技术发展,人机交互程序应运而生。定位和动作识别任务需要同时满足,这在智能家庭中应用尤为广泛。因此本发明提出了一种基于深度学习的联合动作和位置估计的算法框架。这两个过程是以并行方式独立设计。
有鉴于此,确有必要提出一种信道状态信息的动作和位置的联合估计方法,以解决上述问题。
发明内容
本发明的目的在于提供一种信道状态信息的动作和位置的联合估计方法,通过分布式训练策略来加快模型训练时间。
为实现上述目的,本发明提供了一种信道状态信息的动作和位置的联合估计方法,主要包括以下步骤:
步骤1、设置多个接收端并分别测量CSI信号,提取CSI信号的幅值信息;
步骤2、通过Hampel滤波和Gauss滤波进行数据预处理,去除CSI信号的异常值并平滑去噪;
步骤3、构建多个训练样本矩阵并通过图像渲染技术转成RGB图像;
步骤4、将RGB图像通过CNN网络在多个GPU上进行分布式训练,得到多个位置估计模型和多个动作识别模型;
步骤5、在多个接收端分别测量CSI信号,提取CSI信号的幅值信息;
步骤6、通过Hampel滤波和Gauss滤波进行数据预处理,去除CSI信号的异常值并平滑去噪;
步骤7、构建多个测试样本矩阵并通过图像渲染技术转成RGB图像;
步骤8、将步骤7得到的RGB图像分别输入到多个位置估计模型和多个动作识别模型中,分别得到多个位置估计预测结果和多个动作识别预测结果,将多个位置估计预测结果通过决策融合得到位置估计最终预测结果,将多个动作识别预测结果通过决策融合得到动作识别最终预测结果。
作为本发明的进一步改进,包括离线阶段和在线阶段,其中步骤1-步骤4在离线阶段完成,步骤5-步骤8在在线阶段完成。
作为本发明的进一步改进,步骤1具体包括以下步骤:
步骤11、在发射端和接收端分别设置3根发射天线和3根接收天线,在5GHz频段下采集CSI信号;
步骤12、选择15个位置作为位置估计的参考点,以及在每个位置下设置6个不同的动作作为动作识别的参考动作,接收端的采样频率为200HZ,即每秒接收200个CSI信号数据包,每个位置的每个动作下分别采集10s。
作为本发明的进一步改进,步骤2具体包括以下步骤:
步骤21、通过Hampel滤波器滤除CSI信号的尖锐异常值;
步骤22、通过Guass滤波器对CSI信号进行平滑去噪处理。
作为本发明的进一步改进,步骤3具体包括以下步骤:
步骤31、构建多个训练样本矩阵;
步骤32、使用(0-1)归一化消除奇异样本数据;
步骤33、利用jet函数将归一化后的训练样本矩阵渲染成RGB图片,渲染过后的RGB图片的尺寸为30*30。
作为本发明的进一步改进,步骤31具体包括以下步骤:
步骤311、采用单天线收发CSI信号,在不同位置的同一个动作下都采集2000个CSI信号数据包作为一个csi.dat文件;
步骤312、对每个CSI信号数据包的30个CSI子载波提取幅度得到一个1*30的矩阵形式的CSI幅度数据,每30个数据包的数据构成一个样本矩阵,样本矩阵的大小为30*30。
作为本发明的进一步改进,步骤4具体包括以下步骤:
步骤41、将训练样本矩阵分成多个batch,通过CNN网络进行模型训练;
步骤42、在多个GPU上分别保留一份模型的副本,每个batch在不同的GPU上分别训练;
步骤43、利用梯度同步技术对每个GPU上的loss进行参数更新。
作为本发明的进一步改进,步骤41中,CNN网络的第i层特征矩阵s(i,j)为
Figure BDA0003728531160000041
其中,X为卷积神经网络的输入,n为输入矩阵的个数以及张量的最后一维的维数,Xk代表第k个输入矩阵,Wk代表卷积核的第k个子卷积核矩阵,s(i,j)代表卷积核W对应的输出矩阵的对应位置元素的值,b表示第i层的偏移量矩阵。
作为本发明的进一步改进,所述梯度同步技术采用同步SGD算法:
Figure BDA0003728531160000042
其中,D代表一个样本集合,θ表示所有参数的集合,φ表示学习率,Loss(X,y)表示所有loss的平均值。
作为本发明的进一步改进,步骤8具体包括以下步骤:
步骤81、分别计算多个位置估计模型和动作识别模型在Softmax层的输出;
步骤82、通过网格搜索法选取不同的权重w对不同的位置估计模型和动作识别模型的Softmax的输出进行加权融合,得到位置估计最终预测结果和动作识别最终预测结果。
本发明的有益效果是:本发明过分布式训练加快训练速度和模型收敛速度,通过决策融合的方式将不同的位置估计模型和动作识别模型的输出结果加权融合,大大提高了位置和动作识别的分类效果。
附图说明
图1为本发明信道状态信息的动作和位置的联合估计方法的流程示意图。
图2为本发明信道状态信息的动作和位置的联合估计方法中所使用的卷积神经网络的结构示意图。
图3为本发明信道状态信息的动作和位置的联合估计方法采用的分布式训练的流程图。
图4为本发明信道状态信息的动作和位置的联合估计方法中在线阶段采用的决策融合的示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
在此,需要说明的是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与本发明的方案密切相关的结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
另外,还需要说明的是,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
如图1至图4所示,本发明所提出了一种基于深度学习的信道状态信息的动作和位置的联合估计方法,主要包括以下步骤:
步骤1、设置多个接收端并分别测量CSI信号,提取CSI信号的幅值信息;
步骤2、通过Hampel滤波和Gauss滤波进行数据预处理,去除CSI信号的异常值并平滑去噪;
步骤3、构建多个训练样本矩阵并通过图像渲染技术转成RGB图像;
步骤4、将RGB图像通过CNN网络在多个GPU上进行分布式训练,得到多个位置估计模型和多个动作识别模型;
步骤5、在多个接收端分别测量CSI信号,提取CSI信号的幅值信息;
步骤6、通过Hampel滤波和Gauss滤波进行数据预处理,去除CSI信号的异常值并平滑去噪;
步骤7、构建多个测试样本矩阵并通过图像渲染技术转成RGB图像;
步骤8、将步骤7得到的RGB图像分别输入到多个位置估计模型和多个动作识别模型中,分别得到多个位置估计预测结果和多个动作识别预测结果,将多个位置估计预测结果通过决策融合得到位置估计最终预测结果,将多个动作识别预测结果通过决策融合得到动作识别最终预测结果。
本发明主要包括两个阶段,分别为离线阶段和在线阶段,其中,上述步骤1-步骤4在离线阶段完成,步骤5-步骤8在在线阶段完成,以下将对步骤1-步骤8进行详细说明。
步骤1具体包括以下步骤:
步骤11、在发射端和接收端分别设置3根发射天线和3根接收天线,在5GHz频段下采集CSI信号;
步骤12、选择15个位置作为位置估计的参考点,以及在每个位置下设置6个不同的动作作为动作识别的参考动作,接收端的采样频率为200HZ,即每秒接收200个CSI信号数据包,每个位置的每个动作下分别采集10s。
步骤2具体包括以下步骤:
步骤21、通过Hampel滤波器滤除CSI信号的尖锐异常值;
步骤22、通过Guass滤波器对CSI信号进行平滑去噪处理。
步骤3具体包括以下步骤:
步骤31、构建多个训练样本矩阵;
步骤311、采用单天线收发CSI信号,在不同位置的同一个动作下都采集2000个CSI信号数据包作为一个csi.dat文件;
步骤312、对每个CSI信号数据包的30个CSI子载波提取幅度得到一个1*30的矩阵形式的CSI幅度数据,每30个数据包的数据构成一个样本矩阵,样本矩阵的大小为30*30;
步骤32、使用(0-1)归一化消除奇异样本数据;
步骤33、利用jet函数将归一化后的训练样本矩阵渲染成RGB图片,渲染过后的RGB图片的尺寸为30*30。
步骤4具体包括以下步骤:
步骤41、将训练样本矩阵分成多个batch,通过数据加载进行模型训练;
步骤42、在多个GPU上分别保留一份模型的副本,每个batch在不同的GPU上分别训练;
步骤43、利用梯度同步技术对每个GPU上的loss进行参数更新。
图2描述了本专利具体实现所采用的卷积神经网络的结构。CNN是一种广泛使用的深度学习技术,具有出色的图像识别性能。CNN和普通的神经网络具有许多相似之处,它们都是模仿人类神经的结构,由具有可学习的权重和偏置常数的神经元组成。每一个神经元可以接收输入信号,经过运算后输出每一个分类的分数。但是,CNN的输入一般是图像,卷积网络进行卷积池化,成功将数据量多的图像不断降维,最终使其能够被训练。CNN的特征是由一个或多个卷积层和池化层组成。CNN具有三个独特的概念:本地过滤器,最大池和权重共享。CNN中主要有三种层,即卷积层,池化层和完全连接层。
假设训练集一张图片X为卷积神经网络的输入,s(i,j)代表卷积核W对应的输出矩阵的对应位置元素的值,s(i,j)可以表示为如下公式:
Figure BDA0003728531160000071
其中,n为输入矩阵的个数以及张量的最后一维的维数,Xk代表第k个输入矩阵,Wk代表卷积核的第k个子卷积核矩阵,b表示第i层的偏移量矩阵。
卷积神经网络进行卷积层操作之后,然后进入池化层,池化层用于对卷积层计算得到的特征图进行下采样操作,降低网络模型的复杂度,对急剧变化的特征图进行均衡化操作。经过多次卷积和采样操作,最后利用卷积神经网络的全连接层生成一维特征向量,方便后续处理。
整个卷积池化过程中经常使用的激活函数ReLU函数,ReLU激活函数:
Figure BDA0003728531160000081
ReLU激活函数是分段线性函数,属于单侧抑制函数。它使神经元具有了稀疏激活性;卷积训练过程容易产生过拟合,容易产生简单的模型,需要在全连接层后添加Dropout层。
训练样本的输入的图像是彩色图像,输入的图片数据形式为3×30×30,经过第一次卷积之后数据变为16×30×30的形式,经过第一次池化,数据变为16×16×15的形式;经过第二次卷积之后数据变为32×13×13的形式,经过第二次池化,数据变为32×6×6的形式;经过第三次卷积之后数据变为64×64×6的形式,经过第三次池化,数据变为64×64×3的形式;经过第一个全连接层连接,然后输出576个特征,经过第二个全连接层连接,输出288个特征,最后再经过第三个全连接层,输出72个特征,最终经过Softmax层输出最终的分类结果。
图3描述了本专利采用的分布式训练的流程图。分布式训练就是将数据进行并行处理,在不同的GPU上训练模型,通过修改sampler切分输入,每张卡只需要处理一部分数据;各个GPU独立进行前向计算,反向计算。在反向传播过程中,通过梯度同步来更新各张卡上的参数。为了实现梯度同步,在分布式训练过程中常用的有同步SGD算法。标准的SGD公式入下:
Figure BDA0003728531160000091
其中,D代表一个样本集合,θ表示所有参数的集合,φ表示学习率,Loss(X,y)表示所有loss的平均值。通过把样本集合拆解如下:
Figure BDA0003728531160000092
把标准SGD公式进行拆分我们可以得到:
Figure BDA0003728531160000093
由于梯度操作是分布式的,所以我们可以得到:
Figure BDA0003728531160000094
由于每张卡都是独立计算,最终得到的loss值等于每张卡loss相加而不会有任何丢失因此分布式训练可以加速模型收敛,加快训练速度,而不会对训练精度产生什么影响。
步骤8具体包括以下步骤:
步骤81、分别计算多个位置估计模型和动作识别模型在Softmax层的输出;
步骤82、通过网格搜索法选取不同的权重w对不同的位置估计模型和动作识别模型的Softmax的输出进行加权融合,得到位置估计最终预测结果和动作识别最终预测结果。
图4为本专利中在线阶段采用的决策融合的示意图,决策融合可以充分利用多个接收机的数据信息。在线阶段提高最终的位置估计和动作识别分类正确率。
综上所述,本发明提出的基于分布式学习和决策融合的CSI动作和位置联合估计方法。离线阶段选择CSI幅度指纹构建RGB图像作为训练样本输入卷积神经网络,显著的提升了位置估计和动作识别的准确率。此外本发明在无需使用专用设备的情况下,通过研究人的行为对周围无线信号的影响来判断他的状态,该项技术拥有巨大的发展前景和广阔的应用前景。
同时,在离线阶段,采用分布式训练策略加快训练速度和加速模型收敛。在线阶段,通过决策融合的方式充分利用多个接收机的数据信息。将不同位置估计和动作识别模型的输出结果加权融合得到最终的分类效果。大大的提高了位置和动作识别的分类效果。
此外,本发明还为CSI位置和动作识别的相关研究和应用提供了一种全新的思路,为同领域内的其他相关问题提供了参考,可以以此为依据进行拓展延伸和深入研究,具有十分广阔的应用前景。
以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种信道状态信息的动作和位置的联合估计方法,其特征在于,主要包括以下步骤:
步骤1、设置多个接收端并分别测量CSI信号,提取CSI信号的幅值信息;
步骤2、通过Hampel滤波和Gauss滤波进行数据预处理,去除CSI信号的异常值并平滑去噪;
步骤3、构建多个训练样本矩阵并通过图像渲染技术转成RGB图像;
步骤4、将RGB图像通过CNN网络在多个GPU上进行分布式训练,得到多个位置估计模型和多个动作识别模型;
步骤5、在多个接收端分别测量CSI信号,提取CSI信号的幅值信息;
步骤6、通过Hampel滤波和Gauss滤波进行数据预处理,去除CSI信号的异常值并平滑去噪;
步骤7、构建多个测试样本矩阵并通过图像渲染技术转成RGB图像;
步骤8、将步骤7得到的RGB图像分别输入到多个位置估计模型和多个动作识别模型中,分别得到多个位置估计预测结果和多个动作识别预测结果,将多个位置估计预测结果通过决策融合得到位置估计最终预测结果,将多个动作识别预测结果通过决策融合得到动作识别最终预测结果。
2.根据权利要求1所述的信道状态信息的动作和位置的联合估计方法,其特征在于:包括离线阶段和在线阶段,其中步骤1-步骤4在离线阶段完成,步骤5-步骤8在在线阶段完成。
3.根据权利要求1所述的信道状态信息的动作和位置的联合估计方法,其特征在于,步骤1具体包括以下步骤:
步骤11、在发射端和接收端分别设置3根发射天线和3根接收天线,在5GHz频段下采集CSI信号;
步骤12、选择15个位置作为位置估计的参考点,以及在每个位置下设置6个不同的动作作为动作识别的参考动作,接收端的采样频率为200HZ,即每秒接收200个CSI信号数据包,每个位置的每个动作下分别采集10s。
4.根据权利要求1所述的信道状态信息的动作和位置的联合估计方法,其特征在于,步骤2具体包括以下步骤:
步骤21、通过Hampel滤波器滤除CSI信号的尖锐异常值;
步骤22、通过Guass滤波器对CSI信号进行平滑去噪处理。
5.根据权利要求1所述的信道状态信息的动作和位置的联合估计方法,其特征在于,步骤3具体包括以下步骤:
步骤31、构建多个训练样本矩阵;
步骤32、使用(0-1)归一化消除奇异样本数据;
步骤33、利用jet函数将归一化后的训练样本矩阵渲染成RGB图片,渲染过后的RGB图片的尺寸为30*30。
6.根据权利要求5所述的信道状态信息的动作和位置的联合估计方法,其特征在于,步骤31具体包括以下步骤:
步骤311、采用单天线收发CSI信号,在不同位置的同一个动作下都采集2000个CSI信号数据包作为一个csi.dat文件;
步骤312、对每个CSI信号数据包的30个CSI子载波提取幅度得到一个1*30的矩阵形式的CSI幅度数据,每30个数据包的数据构成一个样本矩阵,样本矩阵的大小为30*30。
7.根据权利要求1所述的信道状态信息的动作和位置的联合估计方法,其特征在于:步骤4具体包括以下步骤:
步骤41、将训练样本矩阵分成多个batch,通过CNN网络进行模型训练;
步骤42、在多个GPU上分别保留一份模型的副本,每个batch在不同的GPU上分别训练;
步骤43、利用梯度同步技术对每个GPU上的loss进行参数更新。
8.根据权利要求7所述的信道状态信息的动作和位置的联合估计方法,其特征在于:步骤41中,CNN网络的第i层特征矩阵s(i,j)为
Figure FDA0003728531150000031
其中,X为卷积神经网络的输入,n为输入矩阵的个数以及张量的最后一维的维数,Xk代表第k个输入矩阵,Wk代表卷积核的第k个子卷积核矩阵,s(i,j)代表卷积核W对应的输出矩阵的对应位置元素的值,b表示第i层的偏移量矩阵。
9.根据权利要求7所述的信道状态信息的动作和位置的联合估计方法,其特征在于,所述梯度同步技术采用同步SGD算法:
Figure FDA0003728531150000032
其中,D代表一个样本集合,θ表示所有参数的集合,φ表示学习率,Loss(X,y)表示所有loss的平均值。
10.根据权利要求1所述的信道状态信息的动作和位置的联合估计方法,其特征在于:步骤8具体包括以下步骤:
步骤81、分别计算多个位置估计模型和动作识别模型在Softmax层的输出;
步骤82、通过网格搜索法选取不同的权重w对不同的位置估计模型和动作识别模型的Softmax的输出进行加权融合,得到位置估计最终预测结果和动作识别最终预测结果。
CN202210786196.6A 2022-07-04 2022-07-04 信道状态信息的动作和位置的联合估计方法 Pending CN115171211A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210786196.6A CN115171211A (zh) 2022-07-04 2022-07-04 信道状态信息的动作和位置的联合估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210786196.6A CN115171211A (zh) 2022-07-04 2022-07-04 信道状态信息的动作和位置的联合估计方法

Publications (1)

Publication Number Publication Date
CN115171211A true CN115171211A (zh) 2022-10-11

Family

ID=83491448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210786196.6A Pending CN115171211A (zh) 2022-07-04 2022-07-04 信道状态信息的动作和位置的联合估计方法

Country Status (1)

Country Link
CN (1) CN115171211A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115242327A (zh) * 2022-09-19 2022-10-25 南京邮电大学 基于多通道融合的csi动作识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115242327A (zh) * 2022-09-19 2022-10-25 南京邮电大学 基于多通道融合的csi动作识别方法
CN115242327B (zh) * 2022-09-19 2022-12-06 南京邮电大学 基于多通道融合的csi动作识别方法

Similar Documents

Publication Publication Date Title
CN108388927B (zh) 基于深度卷积孪生网络的小样本极化sar地物分类方法
CN110598598A (zh) 基于有限样本集的双流卷积神经网络人体行为识别方法
CN108780508A (zh) 用于归一化图像的系统和方法
CA3040961C (en) Airport noise classification method and system
CN111476161A (zh) 一种融合图像和生理信号双通道的体感动态手势识别方法
CN107680116A (zh) 一种监测视频图像中运动目标的方法
CN112818969A (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN116740384B (zh) 洗地机的智能控制方法及系统
CN106096584A (zh) 可拓展的基于深度卷积神经网络的间隔棒识别方法
WO2024060978A1 (zh) 关键点检测模型训练及虚拟角色驱动的方法和装置
CN115146761A (zh) 一种缺陷检测模型的训练方法和相关装置
CN113344045A (zh) 一种结合hog特征提高sar船只分类精度的方法
CN115171211A (zh) 信道状态信息的动作和位置的联合估计方法
Tang et al. Transound: Hyper-head attention transformer for birds sound recognition
CN111832479B (zh) 基于改进的自适应锚点r-cnn的视频目标检测方法
CN114241491A (zh) 一种基于轻量级深度学习网络的手写字母识别方法
CN112418032A (zh) 一种人体行为识别方法、装置、电子设备及存储介质
CN112241001A (zh) 雷达人体动作识别方法、装置、电子设备和存储介质
CN114724245B (zh) 基于csi的增量学习人体动作识别方法
CN113450321B (zh) 基于边缘检测的单阶段目标检测方法
CN112434614A (zh) 一种基于Caffe框架的滑窗动作检测方法
Liu et al. Tiny electronic component detection based on deep learning
Sun et al. A CNN based localization and activity recognition algorithm using multi-receiver CSI measurements and decision fusion
CN117725369B (zh) 一种环境鲁棒的WiFi信号行为识别方法及系统
CN116341396B (zh) 一种基于多源数据融合的复杂装备数字孪生建模方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination