CN115331068A - 一种基于会话时空特征相残差的物联网设备识别模型 - Google Patents
一种基于会话时空特征相残差的物联网设备识别模型 Download PDFInfo
- Publication number
- CN115331068A CN115331068A CN202210695834.3A CN202210695834A CN115331068A CN 115331068 A CN115331068 A CN 115331068A CN 202210695834 A CN202210695834 A CN 202210695834A CN 115331068 A CN115331068 A CN 115331068A
- Authority
- CN
- China
- Prior art keywords
- internet
- model
- equipment
- session
- things
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/14—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
- H04L63/1408—Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic by monitoring network traffic
- H04L63/1416—Event detection, e.g. attack signature detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/20—Network architectures or network communication protocols for network security for managing network security; network security policies in general
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明属于物联网设备识别技术领域,且公开了一种基于会话时空特征相残差的物联网设备识别模型,包括设备指纹图生成模块、Deep convolutionalmaxout network模块和MTT模块。本发明通过使用了一种混合深度学习识别模型,能够直接将物联网设备原始通信流量作为深层神经网络的输入数据,流量数据表征学习的整体过程都由深层神经网络完成,可节省大量的特征工程工作量,能够在降低任务的复杂度的同时实现对加密设备的识别,通过残差结构恒等映射增加网络深度的同时将会话的空间特征以及时序特征相融合更大限度地提高物联网设备流量特征的表征能力的同时不会产生额外的参数,也不会增加计算复杂度,以此来实现对物联网设备高精度的识别目标。
Description
技术领域
本发明属于物联网设备识别技术领域,具体为一种基于会话时空特征相残差的物联网设备识别模型。
背景技术
随着海量物联网设备陆续接入网络空间,物联网设备数量急剧增长,在设备进行通信的过程中会传输大量的流量信息,存在网络资源不畅以及网络延时的状况,资源分配不均匀的情况下极易发生网络拥塞,进而导致传输延迟和数据包丢失的增加,服务质量(QoS)不能得到有效保障,同时由于各种各样的物联网设备成为构建人与物、物与物之间进行信息交互的桥梁,许多隐私安全问题也日益突出,在利用互联网进行信息交互的同时也暴露出诸多的网络安全问题,由于物联网设备的种类繁多、数量庞大并且在自身设计上或多或少地存在缺陷,部分不法分子通过对物联网设备发起攻击破坏整个网络空间
现有技术中的大多数识别方法是将指纹识别与传统的机器学习方法相结合,通过人工提取的方式获得物联网设备的特征信息,然后采用例如K-近邻法(KNN)、朴素贝叶斯、决策树、随机森林等机器学习相关算法对提取到的特征信息进行识别,但是该方法提取到的特征都是浅层特征,还需要通过特征工程手动设计识别特征来提高识别准确率,人为干预较为严重,消耗大量的人力物力,限制了其鲁棒性和泛化能力,而近几年深度学习的快速发展有效促进了物联网设备识别研究的进步,然而目前现有的深度学习方法大多集中在设备通信流量的单一模态特征表征上,不能实现对设备流量特征的全方位表征,具有一定的局限性。
发明内容
本发明的目的在于提供一种基于会话时空特征相残差的物联网设备识别模型,以解决上述背景技术中提出的问题。
为了实现上述目的,本发明提供如下技术方案:一种基于会话时空特征相残差的物联网设备识别模型,包括设备指纹图生成模块、Deep convolutional maxout network模块和MTT模块;
S1.设备指纹图生成:对原始流量数据集进行一系列处理,得到会话生成的设备指纹图,将得到的设备指纹图按照特定设备存储在相应的文件夹中,作为下一阶段模型的输入数据;
S2.混合模型训练:将生成的设备指纹图分为训练集样本和测试集样本,将会话指纹图进行分组,将训练集样本输入通过Deep convolutional maxout network模块和MTT模块构建的混合深度学习模型进行训练,Deep convolutional maxout network模块通过Maxout单元激活函数和卷积神经网络相结合实现对物联网设备间通信会话的空间特征的自动提取,MTT模块通过对基于Transformer的模型进行改进,使用旋转位置编码进行位置编码,将多个时序Transformer进行堆叠,实现对会话以及会话间时序特征的提取,获得会话内部以及会话间的时序特征,将时序特征使用残差结构进行特征的融合,并进一步学习到深层特征,通过训练获得混合模型并进行保存;
S3.物联网设备识别:使用测试集样本对混合模型进行评估,进一步得到对于训练集样本和测试集样本及不同细粒度设备识别效果;
S4.模型评估:通过评价标准针对两种不同的评估场景进行模型的评估,即对模型本身进行评估以及与现有的先进识别方法进行评估,输入测试样本,加载本地训练保存的最佳模型,通过一系列评价标准来评估模型性能。
优选的,针对所述原始流量数据的一系列处理包括使用SplitCap脚本文件将原始流量数据中所包含的TCP以及UDP会话数据进行并行分割处理;对设备通信数据包中如IP地址以及MAC地址等会对实验结果造成干扰的字段以及与设备识别不相关的字段以及重复性数据进行清除;根据所需会话长度对流量进行维度统一化处理,以将其转换为模型的输入形式。
优选的,所述训练集样本和测试集样本的划分比例为7:3。
优选的,所述Deep convolutional maxout network模块包括卷积层、池化层、Maxout单元激活函数以及全连接层。
优选的,所述MTT模块由3个Transformer组成,每个所述Transformer有6个编码器组成。
优选的,所述编码器包括有两个子层分别为多头注意力机制和前馈网络。
优选的,所述多头注意力机制实现对会话内部的时序特征进行提取,所述前馈网络一个给编码器提供输出的全连接网络。
本发明的有益效果如下:
1、本发明通过使用了一种混合深度学习识别模型,能够直接将物联网设备原始通信流量作为深层神经网络的输入数据,流量数据表征学习的整体过程都由深层神经网络完成,可节省大量的特征工程工作量,能够在降低任务的复杂度的同时实现对加密设备的识别,通过残差结构恒等映射增加网络深度的同时将会话的空间特征以及时序特征相融合更大限度地提高物联网设备流量特征的表征能力的同时不会产生额外的参数,也不会增加计算复杂度,以此来实现对物联网设备高精度的识别目标。
2、本发明通过时空特征相残差的方式能够对流量特征进行全方位表征,不仅考虑到流量数据具有的空间特征,还考虑到流量会话数据内部以及会话间的时空依赖关系的表征,更加全面地提升会话的表征能力,有利于深度学习模型对深层特征的进一步学习,有助于提高设备识别的准确率。
3、本发明的提出能够对物联网设备识别进行更加细粒度的划分,不仅能够对物联网设备和非物联网设备进行识别而且能够针对特定物联网设备的类别以及型号进行识别,提升了来自相同厂商设备以及具有相似通信行为的设备之间的识别。
附图说明
图1为本发明系统架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种基于会话时空特征相残差的物联网设备识别模型,设备指纹图生成模块:原始物联网设备流量数据需要首先使用Wireshark软件进行MAC地址过滤,接着对原始流量进行会话粒度的切分,与单个数据包相比,会话流中包含了大量物联网设备通信流量的行为特征。使用SplitCap脚本文件将原始流量数据中所包含的TCP以及UDP会话数据进行并行分割处理。其次,对设备通信数据包中如IP地址以及MAC地址等会对实验结果造成干扰的字段以及与设备识别不相关的字段以及重复性数据进行清除,避免对模型识别效果造成影响。最后根据所需会话长度对流量进行维度统一化处理,以将其转换为适合模型的输入形式。在这里我们将会话统一按照784字节长度统一处理,少于784字节的文件在后面补充,超过784字节的文件则被截断。将上述步骤所得到的统一长度的文件按照二进制形式进行格式转换,即一个字节对应于一个灰度像素值,每个784字节的文件对应于一张28*28像素的设备指纹图,并根据MAC信息存储在特定的文件夹中,用以识别物联网设备,输出格式为PNG格式;
Deep convolutional maxout network模块:将上述步骤得到的设备指纹图以7:3的划分比例划分为训练集和测试集样本。将训练样本以k个会话生成的设备指纹图为一组进行输入,通过该模块以及MTT模块构建的混合深度学习模型进行训练。该模块由卷积层、池化层、Maxout函数以及全连接层构成。通过第一卷积层使用32个大小为5×5的卷积核,进行步长为1的卷积操作然后通过2×2最大池化操作进行下采样,接着使用64个5×5的卷积核进行相同卷积操作,然后再次进行池化操作,使用全连接层对特征维度进行转换,并使用maxout单元激活函数选择每组最大值进行输出,maxout层作用于dropout且不改变向量维度大小,设某层输入为X,W表示权重因子,B表示偏置。将给定的N个神经元分成g组,每组输出单元对应k个候选单元则N=k·g,输出层单元个数为d,输出单元个数为m,Maxout单元第g组的输出记为hg(X),则输出函数为:
Zgv=XTW…gv+Bgv
将结果给第二全连接层进行降维,将该模块提取出的空间特征记作Fa,并且作为下一阶段模型的输入;
MTT模块。该模块基于多个时序Transformer(Multiple Time-seriesTransformers),是由3个改进后的Transformer编码器组成的,每个Transformer由6个编码器堆叠而成。每个编码器又包含两个子层:多头注意力机制和前馈网络。由于我们的设备指纹图是由连续的前784字节的数据包得来,我们可以根据时空依赖关系将每组会话记录生成的灰度图像提取到的空间特征向量Fa分为k个序列长度为s以及特征维度为l的向量集合,记为Fin,其中然后将Fin进行输入嵌入作为3个串行的Transformer编码器的输入,首先进行经过旋转位置编码嵌入,将每组会话记录中每个会话记录得到的第τ个向量表示为Fτ,则经过编码操作后的第τ位置的输出表示为:
经过层归一化输入到多头自注意力模块中,将位置编码后的一组会话序列为例,首先将其归一化为标准正态分布,使训练模型更加稳定,增强模型的鲁棒性,得到层归一化后的向量FL表示为:
FL=LayerNorm(Fe)
通过多个自注意力机制实现对每组会话内部的时序特征的提取,经过线性投影对其维度进行压缩实现对特征的变换,将FL经过线性映射形成三个Q、K、V矩阵,对应的三个权重记为WQ、WK、WV,其中,WQ、WK、WV∈维度与线性变换前一致,Q、K、V矩阵表示为:
Q=Linear_q(FL)=WQFe
K=Linear_k(FL)=WKFe
V=Linear_v(FL)=WVFe
多个全局注意力的计算以挖掘每组中的会话时序特征。多头注意力模块是由多个自注意力层并行组成。利用多头注意力机制将多个自注意力层的query和key映射到高维,在空间b的不同子空间(b1,b2,b3,...,bn)中计算相似度,以计算各特征之间的长距离依赖关系,挖掘数据记录之间的时序特征。这样可以在不改变参数个数的情况下增强每一层注意力的表达能力。设头的个数为num_heads,记为n。根据头个数拆分后,训练n个Wq、Wk、Wv用于生成QKV,QiKiVi。对于第i个头,Qi=QW(i) q,Ki=KW(i) k,Vi=VW(i) V。那么第i个头的输出表示为:
Fh=MultiHead(Q,K,V)=Concat(head1,head2,...,headn)
并将残差连接后的结果进行层归一化,由于FL和Fh的维度相同,我们可以直接添加元素进行残差连接,每个子层的输出表示为:
Fo=FL+SubLayer(LayerNorm(FL))
然后使用前馈网络模块进一步实现通道维度的特征变换,前馈网络层是一个给编码器提供输出的全连接网络,max(0,x)是整流线性单元(ReLU)激活函数。会话序列经过多头注意力层和位置前馈网络层不断堆叠得到最终的时序特征Fb。对于Fo,W1、b1和b2是全连接参数,表示为:
FFN(Fo)=ReLU(LayerNorm(Fo)W1+b1)+b2
将堆叠后第6个编码器残差连接后的结果作为下一个Transformer第一个编码器的输入,重复此过程3次并将第3个Transformer最终提取到的时序特征记作Fb;
残差连接识别模块。残差连接的结构能够加快训练过程中的收敛速度,并确保保留历史数据的原始信息,在一定程度上能够解决深度网络难以训练的问题。通过残差结构将提取到的空间特征Fa和时序特征Fb进行加和,用符号表示,将整合后的特征矩阵表示为Fc:
将会话对应的真实标签记为Y,经过Softmax函数输出后的预测标签记为Y′:
Y′=Softmax(FFN(Fc))
其中FC表示全连接层,采用交叉熵函数作为损失函数,最终的损失函数定义如式所示:
最后通过输出结果得到识别类别。
使用测试集对模型进行评估,进一步得到对于两种数据集及不同细粒度设备识别效果;通过评价标准针对两种不同的评估场景进行模型的评估。即对模型本身进行评估以及与现有的先进识别方法进行评估。输入测试样本,加载本地训练保存的最佳模型,通过一系列评价标准来评估模型性能。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (7)
1.一种基于会话时空特征相残差的物联网设备识别模型,其特征在于:包括设备指纹图生成模块、Deep convolutional maxout network模块和MTT模块;
S1.设备指纹图生成:对原始流量数据集进行一系列处理,得到会话生成的设备指纹图,将得到的设备指纹图按照特定设备存储在相应的文件夹中,作为下一阶段模型的输入数据;
S2.混合模型训练:将生成的设备指纹图分为训练集样本和测试集样本,将会话指纹图进行分组,将训练集样本输入通过Deep convolutional maxout network模块和MTT模块构建的混合深度学习模型进行训练,Deep convolutional maxout network模块通过Maxout单元激活函数和卷积神经网络相结合实现对物联网设备间通信会话的空间特征的自动提取,MTT模块通过对基于Transformer的模型进行改进,使用旋转位置编码进行位置编码,将多个时序Transformer进行堆叠,实现对会话以及会话间时序特征的提取,获得会话内部以及会话间的时序特征,将时序特征使用残差结构进行特征的融合,并进一步学习到深层特征,通过训练获得混合模型并进行保存;
S3.物联网设备识别:使用测试集样本对混合模型进行评估,进一步得到对于训练集样本和测试集样本及不同细粒度设备识别效果;
S4.模型评估:通过评价标准针对两种不同的评估场景进行模型的评估,即对模型本身进行评估以及与现有的先进识别方法进行评估,输入测试样本,加载本地训练保存的最佳模型,通过一系列评价标准来评估模型性能。
2.根据权利要求1所述的一种基于会话时空特征相残差的物联网设备识别模型,其特征在于:针对所述原始流量数据的一系列处理包括使用SplitCap脚本文件将原始流量数据中所包含的TCP以及UDP会话数据进行并行分割处理;对设备通信数据包中如IP地址以及MAC地址等会对实验结果造成干扰的字段以及与设备识别不相关的字段以及重复性数据进行清除;根据所需会话长度对流量进行维度统一化处理,以将其转换为模型的输入形式。
3.根据权利要求1所述的一种基于会话时空特征相残差的物联网设备识别模型,其特征在于:所述训练集样本和测试集样本的划分比例为7:3。
4.根据权利要求1所述的一种基于会话时空特征相残差的物联网设备识别模型,其特征在于:所述Deep convolutional maxout network模块包括卷积层、池化层、Maxout单元激活函数以及全连接层。
5.根据权利要求1所述的一种基于会话时空特征相残差的物联网设备识别模型,其特征在于:所述MTT模块由3个Transformer组成,每个所述Transformer有6个编码器组成。
6.根据权利要求5所述的一种基于会话时空特征相残差的物联网设备识别模型,其特征在于:所述编码器包括有两个子层分别为多头注意力机制和前馈网络。
7.根据权利要求6所述的一种基于会话时空特征相残差的物联网设备识别模型,其特征在于:所述多头注意力机制实现对会话内部的时序特征进行提取,所述前馈网络一个给编码器提供输出的全连接网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210695834.3A CN115331068A (zh) | 2022-06-20 | 2022-06-20 | 一种基于会话时空特征相残差的物联网设备识别模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210695834.3A CN115331068A (zh) | 2022-06-20 | 2022-06-20 | 一种基于会话时空特征相残差的物联网设备识别模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115331068A true CN115331068A (zh) | 2022-11-11 |
Family
ID=83915748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210695834.3A Pending CN115331068A (zh) | 2022-06-20 | 2022-06-20 | 一种基于会话时空特征相残差的物联网设备识别模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115331068A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117792800A (zh) * | 2024-02-28 | 2024-03-29 | 四川合佳科技有限公司 | 一种基于物联网安全评估系统的信息验证方法及系统 |
-
2022
- 2022-06-20 CN CN202210695834.3A patent/CN115331068A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117792800A (zh) * | 2024-02-28 | 2024-03-29 | 四川合佳科技有限公司 | 一种基于物联网安全评估系统的信息验证方法及系统 |
CN117792800B (zh) * | 2024-02-28 | 2024-05-03 | 四川合佳科技有限公司 | 一种基于物联网安全评估系统的信息验证方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zheng et al. | Learning to classify: A flow-based relation network for encrypted traffic classification | |
Wang et al. | App-net: A hybrid neural network for encrypted mobile traffic classification | |
CN115037805B (zh) | 一种基于深度聚类的未知网络协议识别方法、系统、装置及存储介质 | |
CN116192523A (zh) | 一种基于神经网络的工控异常流量监测方法和系统 | |
CN112733965A (zh) | 一种基于小样本学习的无标签图像分类方法 | |
CN115331068A (zh) | 一种基于会话时空特征相残差的物联网设备识别模型 | |
CN111340727B (zh) | 一种基于gbr图像的异常流量检测方法 | |
Arjunan | Real-Time Detection of Network Traffic Anomalies in Big Data Environments Using Deep Learning Models | |
Xu et al. | Dual-stream contrastive learning for channel state information based human activity recognition | |
Kishore et al. | A Multi-class SVM Based Content Based Image Retrieval System Using Hybrid Optimization Techniques. | |
Chen et al. | RIDE: Real-time Intrusion Detection via Explainable Machine Learning Implemented in a Memristor Hardware Architecture | |
CN116310728A (zh) | 基于CNN-Linformer模型的浏览器识别方法 | |
CN114338437B (zh) | 网络流量分类方法、装置、电子设备及存储介质 | |
CN114553790A (zh) | 一种基于多模态特征的小样本学习物联网流量分类方法及系统 | |
CN114358177A (zh) | 一种基于多维度特征紧凑决策边界的未知网络流量分类方法及系统 | |
CN116032515A (zh) | 一种在SDN上基于Transformer的DDoS攻击检测方法 | |
CN114722932A (zh) | 一种商用密码算法识别方法、系统、介质、设备及终端 | |
CN114048799A (zh) | 一种基于统计信息和有效载荷编码的零日流量分类方法 | |
CN113938889A (zh) | 一种基于元学习的小样本Wi-Fi伪装攻击检测方法和系统 | |
Chen et al. | A video key frame extraction method based on multiview fusion | |
Yang | Anomaly traffic detection based on LSTM | |
CN115694947B (zh) | 基于对抗生成dqn的网络加密流量威胁样本生成机制方法 | |
Zhang et al. | Safsn: a self-attention based neural network for encrypted mobile traffic classification | |
Bai et al. | Toward intelligent visual sensing and low-cost analysis: A collaborative computing approach | |
Meng et al. | A review of coverless steganography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |