CN114422620B - 一种基于知识蒸馏的数据包分类方法及相关装置 - Google Patents
一种基于知识蒸馏的数据包分类方法及相关装置 Download PDFInfo
- Publication number
- CN114422620B CN114422620B CN202111565340.5A CN202111565340A CN114422620B CN 114422620 B CN114422620 B CN 114422620B CN 202111565340 A CN202111565340 A CN 202111565340A CN 114422620 B CN114422620 B CN 114422620B
- Authority
- CN
- China
- Prior art keywords
- target
- attribute
- training
- data
- data packet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013140 knowledge distillation Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 240
- 239000013598 vector Substances 0.000 claims abstract description 102
- 238000003066 decision tree Methods 0.000 claims abstract description 62
- 238000004891 communication Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 5
- 238000004821 distillation Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 7
- 230000009471 action Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/22—Parsing or analysis of headers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Security & Cryptography (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本申请公开了一种基于知识蒸馏的数据包分类方法及相关装置,所述方法包括基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型;根据二进制决策树模型生成三元匹配流表并将三元匹配流表部署于可编程交换机,并通过可编程交换机对数据包进行分类。本申请基于预先训练的教师模型所学的知识构建二进制决策树模型,以将复杂的教师模型转换为简单的二进制决策树模型,使得学习到教师模型所学的知识的二进制决策树模型可以布置于可编程交换机,这样一方面可以利用可编程交换机的数据包处理能力,另一方面可以提高可编程交换机的数据包分类效率。
Description
技术领域
本申请涉及网络技术领域,特别涉及一种基于知识蒸馏的数据包分类方法及相关装置。
背景技术
数据包分类可以理解为根据数据包包头数据确定数据包所匹配的类别,并按照类别对应的操作动作对数据包进行处理,比如,丢弃数据包或者接受数据包等。目前普遍采用可编程交换机来执行数据包分类操作,可编程交换机具有低延迟和高吞吐等性能,并且可编程交换机在进行数据包分类过程中,允许管理员通过简单的编程指令对数据包进行操作。然而,可编程交换机所支持的编程指令所能执行的操作比较少(例如,仅支持整数的加减和位移操作等),这使得具有高精度的分类网络模型(例如,卷积神经网络以及循环神经网络等),从而限制了可编程交换机的数据包分类效率。
因而现有技术还有待改进和提高。
发明内容
本申请要解决的技术问题在于,针对现有技术的不足,提供一种基于知识蒸馏的数据包分类方法及相关装置。
为了解决上述技术问题,本申请实施例第一方面提供了一种基于知识蒸馏的数据包分类方法,所述的方法包括:
基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;
基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型,其中,所述二进制决策树模型中的各叶节点均对应有目标分类类别;
根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;
将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类。
所述的基于知识蒸馏的数据包分类方法,其中,所述属性数据为基于训练数据包的二进制数据包头确定的。
所述的基于知识蒸馏的数据包分类方法,其中,所述基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型具体包括:
将各训练数据包及其对应的类别概率向量构成的训练数据集作为目标训练集,并将各训练数据包对应的属性数据构成的属性数据集作为目标属性数据集;
基于所述目标属性数据集确定目标属性位,并基于所述目标属性位将所述目标训练集中的各训练数据包划分至两个节点上;
对于两个节点中所包括的训练数据包的数量小于预设数量阈值的第一节点,将所述节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别;
对于两个节点中所包括的训练数据包的数量大于或者等于预设数量阈值的第二节点,将所述目标属性数据集中的各属性数据中位于目标属性位的属性元素去除以得到候选属性数据;
将所述第二节点所包括的各训练数据包以其对应的类别概率向量所形成的训练数据作为目标数据集,将所述第二节点所包括的各训练数据包各自对应的候选属性数据所形成的属性数据集作为目标属性数据集;
继续执行基于所述目标属性数据集确定目标属性位的步骤,直至将所述预设训练集中的各训练数据包均划分至叶节点内。
所述的基于知识蒸馏的数据包分类方法,其中,所述基于所述目标属性数据集确定目标属性位之前,所述方法还包括:
检测所述目标属性数据集是否满足预设条件,其中,所述预设条件为所述目标属性数据集不为空,且所述目标属性数据集至少存在两个互不相同的属性数据;
若所述目标属性数据集满足预设条件,则执行基于所述目标属性数据集确定目标属性位的步骤;
若所述目标属性数据集不满足预设条件,则将所述目标训练集所属的节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别。
所述的基于知识蒸馏的数据包分类方法,其中,所述基于所述目标属性数据集确定目标属性位之前,所述方法还包括:
基于所述目标训练集中的各训练数据包各自对应的类别概率向量确定各训练数据包对应的预测类别;
若各训练数据包对应的预测类别全相同,则将所述目标训练集所属的节点作为叶节点,并将所述预测类别作为所述叶节点对应的目标分类类别;
若各训练数据包对应的预测类别不全相同,则执行基于所述目标属性数据集确定目标属性位的步骤。
所述的基于知识蒸馏的数据包分类方法,其中,所述基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别具体包括:
获取所述叶节点所包括的各训练数据包各自对应的类别概率向量的平均类别概率向量;
将所述平均类别概率向量中的最大向量元素所对应的类别作为所述叶节点对应的目标分类类别。
所述的基于知识蒸馏的数据包分类方法,其中,所述目标属性位的选取规则为:
a*=arg min Gini(D,ai)i∈{1,2,...,m}
其中,a*表示目标属性,D表示目标训练集,ai表示属性数据中的第i位属性,Dv表示目标训练集中的训练数据包在第i位属性上取值为v的训练数据包所形成的数据集;表示Dv中的各训练数据包的类别概率向量的平均类别概率向量;|D|表示目标训练集所包括的训练数据包的数量;|Dv|表示Dv所包括的训练数据包的数量;m表示目标属性集中的属性数据的数据位数。
所述的基于知识蒸馏的数据包分类方法,其中,所述根据所述二进制决策树模型生成用于数据包分类的三元匹配流表包括:
获取所述二进制决策树模型中的各叶节点各自对应的二进制字符串及目标分类类别;
将各叶节点对应的二进制字符串以及目标分类类别转换为三元数据组,将各叶节点对应的三元数据组所形成的数据表作为三元匹配流表。
所述的基于知识蒸馏的数据包分类方法,其中,所述通过所述可编程交换机对数据包进行分类具体包括:
当可编辑交换机接收到待分类数据包时,获取于所述待分类数据包对应的分类属性数据;
在所述三元匹配流表中查找所述分类属性数据所对应的目标分类类别,以分类所述待分类数据包。
所述的基于知识蒸馏的数据包分类方法,其中,所述三元匹配流表包括掩膜、值以及类别;所述在所述三元匹配流表中查找所述分类属性数据所对应的目标分类类别,以分类所述待分类数据包具体包括:
对于所述三元匹配流表中的每个三元数据组,将所述分类属性数据与所述三元数据组中的掩膜相与,以得到候选值;
若所述候选值与所述三元数据组中的值相等,则将所述三元数据组中的类别作为分类属性数据所对应的目标分类类别,以分类所述待分类数据。
本申请实施例第二方面提供了一种基于知识蒸馏的数据包分类装置,所述的装置包括:
确定模块,用于基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;
构建模块,用于基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型,其中,所述二进制决策树模型中的各叶节点均对应有目标分类类别;
生成模块,用于根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;
分类模块,用于将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类。
本申请实施例第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上任一所述的基于知识蒸馏的数据包分类方法中的步骤。
本申请实施例第四方面提供了一种终端设备,其包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如上任一所述的基于知识蒸馏的数据包分类方法中的步骤。
有益效果:与现有技术相比,本申请提供了一种基于知识蒸馏的数据包分类方法及相关装置,所述方法包括基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型;根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类。本申请基于预先训练的教师模型所学的知识构建二进制决策树模型,以将复杂的教师模型转换为简单的二进制决策树模型,使得学习到教师模型所学的知识的二进制决策树模型可以布置于可编程交换机,这样一方面可以利用可编程交换机的数据包处理能力,另一方面可以提高可编程交换机的数据包分类效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员而言,在不符创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的基于知识蒸馏的数据包分类方法的流程图。
图2为本申请提供的基于知识蒸馏的数据包分类方法的流程示意图。
图3为本申请提供的基于知识蒸馏的数据包分类装置的结构原理图。
图4为本申请提供的终端设备的结构原理图。
具体实施方式
本申请提供一种基于知识蒸馏的数据包分类方法及相关装置,为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本申请进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
应理解,本实施例中各步骤的序号和大小并不意味着执行顺序的先后,各过程的执行顺序以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
发明人经过研究发现,数据包分类可以理解为根据数据包包头数据确定数据包所匹配的类别,并按照类别对应的操作动作对数据包进行处理,比如,丢弃数据包或者接受数据包等。目前普遍采用可编程交换机来执行数据包分类操作,可编程交换机具有低延迟和高吞吐等性能,并且可编程交换机在进行数据包分类过程中,允许管理员通过简单的编程指令对数据包进行操作。然而,可编程交换机所支持的编程指令所能执行的操作比较少(例如,仅支持整数的加减和位移操作等),这使得具有高精度的分类网络模型(例如,卷积神经网络以及循环神经网络等),从而限制了可编程交换机的数据包分类效率。
为了解决上述问题,在本申请实施例中,基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型;根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类。本申请基于预先训练的教师模型所学的知识构建二进制决策树模型,以将复杂的教师模型转换为简单的二进制决策树模型,使得学习到教师模型所学的知识的二进制决策树模型可以布置于可编程交换机,这样一方面可以利用可编程交换机的数据包处理能力,另一方面可以提高可编程交换机的数据包分类效率。
下面结合附图,通过对实施例的描述,对申请内容作进一步说明。
本实施例提供了一种基于知识蒸馏的数据包分类方法,如图1和图2所示,所述方法包括:
S10、基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量。
具体地,教师模型为经过训练的深度学习网络模型,教师模型用于确定数据包对应的分类类别,并可基于教师模型确定分类类别对数据包进行分类,其中,教师模型可以采用卷积神经网络,循环神经网络等。可以理解的是,教师模型对应的训练样本集包括若干训练数据包,若干训练数据包中的每个训练数据包均对应有类别标签,该类别标签为训练数据包对应给的分类类别。
预设训练集包括若干训练数据包,各训练数据包输入经过训练的教师模型后,经过训练的教师模型可以各训练数据包各自对应的类别概率向量,其中,类别概率向量为教师模型所学习的知识,并通过蒸馏方式将教师模型所学习的类别概率向量传递给候选的二进制决策树模型,以使得二进制决策树模型可以学习到教师模型所学习的类别概率向量。
类别概率向量包括若干概率值,若干概率值对应一个分类类别,用于反映训练数据的目标分类类别为该概率值对应的分类类别的概率。其中,预设训练集中的训练数据包可以为用于训练教师模型的训练数据集中的训练数据包中的一部分,也可以是,部分包含于该训练数据集,部分不包含于该训练数据集,还可以是,全部不包含于训练数据集。但是,无论预设训练集中的各训练数据包是否包括于教师模型,预设训练集中的各训练数据包均可以用于训练教师模型。可以理解的是,预设训练集中的训练数据包与用于训练教师模型的训练数据集中的训练数据包均是用于训练用于执行数据分类任务的网络模型的训练数据,例如,预设训练集中的训练数据包与用于训练教师模型的训练数据集中的训练数据包均为流量数据包等。
S20、基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型。
具体地,所述二进制决策树模型包括若干叶节点,每个叶节点均包括若干训练数据包以及对应有目标分类类别,其中,目标分类类别为基于叶节点所包括的若干训练数据包对应的类别概率向量确定。也就是说,基于二进制决策树模型可以其包括的各叶节点对应的目标分类类别,以及该叶节点对应的二进制字符串。在获取到叶节点对应的二进制字符串和目标分类类别后,可以将叶节点对应的二进制字符串可以作为一个分类规则,目标分类类别可以作为该分类规则对应的类别标签,从而可以基于二进制决策树模型进行数据包分类。在一个实现方式中,类别标签可以为操作动作,例如,丢弃网络包或者接受网络包等。
所述数据属性可以为基于训练数据包的数据包包头所确定,其中,属性数据可以包括数据包包头所包括的所有数据段所构成的,也可以是数据包包头中的部分数据段段所构成的。其中,数据属性中的每个数据元素均为二进制字符,也就是说,每个数据元素均为0或者1;数据属性的数据长度等于构成数据属性的数据段的数据位数。例如,数据属性由数据包包头中的IP数据段构成,IP数据段可以包括8位的协议号以及16位的目的端口号,那么数据属性的数据长度为8+16=24,并且协议号以及目的端口号中的每个二进制字符为数据属性中的一个属性元素,即数据属性包括24位属性元素,每位属性元素均为0或者1。
在本实施例的一个实现方式中,所述基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型具体包括:
S21、将各训练数据包及其对应的类别概率向量构成的训练数据集作为目标训练集,并将各训练数据包对应的属性数据构成的属性数据集作为目标属性数据集;
S22、基于所述目标属性数据集确定目标属性位,并基于所述目标属性位将所述目标训练集中的各训练数据包划分至两个节点上;
S23、对于两个节点中所包括的训练数据包的数量小于预设数量阈值的第一节点,将所述节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标类别;
S24、对于两个节点中所包括的训练数据包的数量大于或者等于预设数量阈值的第二节点,将所述目标属性数据集中的各属性数据中位于目标属性位的属性元素去除以得到候选属性数据;
S25、将所述第二节点所包括的各训练数据包以其对应的类别概率向量所形成的训练数据作为目标数据集,将所述第二节点所包括的各训练数据包各自对应的候选属性数据所形成的属性数据集作为目标属性数据集;
S26、继续执行基于所述目标属性数据集确定目标属性位的步骤,直至将所述预设训练集中的各训练数据包均划分至叶节点内。
具体地,在所述步骤S22中,所述目标属性位为属性数据中的一个数据位置,对于目标属性数据集中的每个属性数据,基于该目标属性位均可以选取到的一个属性元素,其中,所述属性元素的元素值为0或1。也就是说,在构建二进制决策树模型时,首先会在属性数据中选取选位位置(即,目标属性位),然后基于各属性数据中在该选位位置的属性元素来对各训练数据包进行划分,以将各训练数据包划分至各自对应的节点。在本实施例中,由于属性数据中的每个属性元素均为0或者1,从而基于各属性数据在目标属性位上的属性元素的元素值可以将各训练数据包划分至两个节点,其中,一个节点中的所有训练数据包在该目标属性为上的属性元素均为0,另一个节点中的所有训练数据包在该目标属性为上的属性元素均为1。
目标属性位可以按照从前向后的顺序在属性数据对应的位置序列中选取,也可以在属性数据对应的位置序列中随机选取,还可以是基于属性数据对应的位置序列中的各位置序号各自对应的基尼系数确定,例如,选取基尼系数最小的位置序号作为目标属性位,或者,选取基尼系数最大的位置序号作为目标属性位。在一个典型实现方式中,目标属性位为基于位置序列中的各位置序号中基尼系数最小的位置序号,其中,所述基尼系数的计算公式可以为:
其中,Gini()表示基尼系数,D表示目标训练集,ai表示属性数据中的第i位属性,Dv表示目标训练集中的训练数据包在第i位属性上取值为v的训练数据包所形成的数据集;PDv表示Dv中的各训练数据包的类别概率向量的平均类别概率向量;|D|表示目标训练集所包括的训练数据包的数量;|Dv|表示Dv所包括的训练数据包的数量。
基于此,所述目标属性位的选取规则可以为:
a*=arg min Gini(D,ai)i∈{1,2,...,m}
其中,a*表示目标属性,D表示目标训练集,ai表示属性数据中的第i位属性,m表示目标属性集中的属性数据的数据位数。
两个节点中的每个节点对应的节点标识均为目标属性位在各属性数据中可以选取到的属性元素的元素值,并且各节点各自对应的节点标识互不相同。可以理解的是,每个节点可以包括节点标识以及目标属性位,所述节点的节点标识以及目标属性位为节点的节点信息。由此,每个节点所包括的训练数据包可以基于节点对应的节点信息在目标训练集选取相匹配的训练数据包所得到的,其中,该节点所包括的各训练数据包的属性数据中位于目标属性位的属性元素为节点标识。例如,节点信息中的目标属性为3,节点标识为1,那么节点包括的各训练数据包的属性数据中位于第三位的属性元素为1。在本实施例中,由于属性数据中的每个属性元素均为0或1,从而在基于目标属性位将目标训练集中的训练数据包划分至两个节点时,会将目标训练集划分为两个子数据集,两个子数据集中的一个子数据集中的各训练数据包的属性数据在目标属性位的属性元素为0,一个子数据集中的各训练数据包的属性数据在目标属性位的属性元素为1。
在本实施例的一个实现方式中,为了避免因目标数据集为空,或者目标数据集中的每个属性数据均相同,而导致无法基于目标属性位将目标数据集划分至两个节点的问题。在所述基于所述目标属性数据集确定目标属性位之前,所述方法还包括:
检测所述目标属性数据集是否满足预设条件;
若所述目标属性数据集满足预设条件,则执行基于所述目标属性数据集确定目标属性位的步骤;
若所述目标属性数据集不满足预设条件,则将所述目标训练集所属的节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别。
具体地,所述预设条件为所述目标属性数据集不为空,且所述目标属性数据集至少存在两个互不相同的属性数据。也就是说,目标属性数据集不为空集,并且目标属性数据集中的各属性数据不全相同。可以理解的是,目标训练集中的各训练数据包各自对应的属性数据不为空,并且目标训练数据集中至少存在第一训练数据包和第二训练数据包,第一训练数据包对应的属性数据与第二训练数据包对应的属性数据不同。其中,当所述目标属性数据集满足预设条件时,说明目标训练集可以基于目标属性位进行划分,从而可以执行基于所述目标属性数据集确定目标属性位的步骤,当然,在执行基于所述目标属性数据集确定目标属性位的步骤时,目标训练集中所包括的训练数据包的数量大于预设阈值。反之,当目标属性数据集不满足预设条件时,可以将目标训练集所属节点作为二进制决策树的一个叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别。
在本实施例的一个实现方式中,所述基于所述目标属性数据集确定目标属性位之前,所述方法还包括:
基于所述目标训练集中的各训练数据包各自对应的类别概率向量确定各训练数据包对应的预测类别;
若各训练数据包对应的预测类别全相同,则将所述目标训练集所属的节点作为叶节点,并将所述预测类别作为所述叶节点对应的目标分类类别;
若各训练数据包对应的预测类别不全相同,则执行基于所述目标属性数据集确定目标属性位的步骤。
具体地,目标训练集中各训练数据包均对应有类别概率向量,基于各训练数据包各自对应的类别概率向量可以确定各训练数据包的预测类别,其中,预测类别为类别概率向量中的最大向量元素所对应的分类类别。此外,当各训练数据包对应的预测类别全相同时,将目标训练集所属节点作为二进制决策树的一个叶节点,并将各训练数据包对应的预测类别作为叶节点对应的目标分类类别。
在所述步骤S23中,所述预设数量阈值为预先设置的,为节点可以在叶节点的限制条件。也就是说,在基于目标属性位将目标训练集划分至两个节点后,基于预设数量阈值来确定节点是否为叶节点。也就是说,在节点包括的训练数据包的数量包小于预设数量阈值时,直接将节点作为叶节点;在节点包括的训练数据包的数量大于或者等于预设数据阈值时,采用将节点所包括的训练数据包所形成的集合作为目标训练集,然后再检测目标训练集是否满足可以执行基于目标属性数据集选取目标属性位的操作。
当两个节点中的第一节点的所包括的训练数据包的数量小于预设数量阈值时,将所述第一节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别。反之,当两个节点中的第二节点包括的所包括的训练数据包的数量大于或者等于预设数量阈值时,将第二节点作为中间节点,并以中间节点为出发点继续构成决策树节点。其中,当两个节点中的一个节点所包括的训练数据包的数量大于或者等于预设数量阈值时,对该节点进行决策树节点构建;当两个节点中的每个节点所包括的训练数据包的数量均大于或者等于预设数量阈值时,分别对两个节点进行决策树节点构建,直至将所有训练数据包均划分至叶节点内。
在所述步骤S25中,所述基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别具体包括:
获取所述叶节点所包括的各训练数据包各自对应的类别概率向量的平均类别概率向量;
将所述平均类别概率向量中的最大向量元素所对应的类别作为所述叶节点对应的目标分类类别。
具体地,所述平均类别概率向量的向量维度等于类别概率向量的维度,其中,各训练数据包各自对应的类别概率向量的向量维度相同。平均类别概率向量中的每个向量元素等于各类别概率向量中相对应的向量元素的平均值。在一个实现方式中,平均类别概率向量的计算公式可以为:
其中,P表示平均类别概率向量,pi表示平均类别概率向量的第i位向量元素,K表示平均类别概率向量的向量维度,D表示目标训练集,y表示目标训练集中训练数据包对应的类别概率向量,|D|表示目标训练集中的训练数据包的数量。
在获取到平均类别概率向量后,确定平均类别概率向量中的最大向量元素,并将最大向量元素对应的分类类别作为所述叶节点对应的目标分类类别,其中,目标分类类别的计算公式可以为:
其中,C表示目标分类类别,P表示平均类别概率向量,j表示第i位向量元素。
当然,在实际应用中,基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别还可以采用其他方法,例如,获取所有类别概率向量中的最大向量元素,将获取到的最大向量元素作为叶节点对应的目标分类类别;或者时,基于各类别概率向量确定各训练数据包各自对应的预测类别,选取对应训练数据包最多的预测类别作为叶节点对应的目标分类类别等。
S30、根据所述二进制决策树模型生成用于数据包分类的三元匹配流表。
具体地,三元匹配流表包括若干三元数据组,若干三元数据组中的每个三元数据组均是基于二进制决策树模型确定得到的,为数据包分类的一个分类规则与操作动作的对应关系。也就是说,每个三元数据组均包括分类规则以及操作动作,当数据包与三元数据组中的分类规则相匹配时,则对数据包执行分类规则对应的操作动作。
在一个实现方式中,所述根据所述二进制决策树模型生成用于数据包分类的三元匹配流表包括:
获取所述二进制决策树模型中的各叶节点各自对应的二进制字符串及目标分类类别;
将各叶节点对应的二进制字符串以及目标分类类别转换为三元数据组,将各叶节点对应的三元数据组所形成的数据表作为三元匹配流表。
具体地,所述二进制字符串为用于对数据包进行分类的分类规则,目标分类类别为当数据包于二进制字符串匹配时,被执行的操作动作。其中,二进制字符串为基于二进制决策树从根节点到叶节点的节点路径上的所有节点所确定的,目标分类类别为叶节点对应的目标分类别。由此,二进制字符串的获取过程可以为:获取根节点到叶节点的节点路径,并获取节点路径上各节点对应的目标属性位以及节点标识,然后将各节点的节点标识按照目标属性位在属性数据中的位置顺序进行排列,以得到叶节点对应的二进制字符串,其中,节点路径上各节点包括根节点和叶节点;二进制字符串的字符长度等于属性数据的数据长度。
三元数据组包括掩膜、值和类别,在获取到各叶节点对应的二进制字符串以及目标分类类别后,将二进制字符串确定三元数据组中的掩膜对应的掩膜内容、值对应的值内容,将目标分类类别作为三元数据组中的类别对应的类别内容,以将叶节点所包括的分类规则以及操作动作转换为三元数据组,由此,所有叶节点所形成的三元数据组构成三元匹配流表。此外,在实际应用中,三元数据组中的掩膜和值可以不采用二进制形式存储,例如,三元数据组中的掩膜和值均采用16进制形式存储等。
S40、将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类。
具体地,在获取到三元匹配流表后,将三元匹配流表作部署于可编程交换机,可编程交换机可以基于三元匹配流表来确定其接收搭配的数据包所对应的目标分类类别,并基于其对应的目标分类类别进行分类。本实施例通过将二进制决策树转换为三元匹配流表形式部署于可编程交换机上,使得可编程交换机部署了基于复杂教师模型所学习的知识训练得到的简单决策树模型,可以提高数据包的分类速度以及分类准确性。
在本实施例的一个实现方式中,所述通过所述可编程交换机对数据包进行分类具体包括:
当可编辑交换机接收到待分类数据包时,获取于所述待分类数据包对应的分类属性数据;
在所述三元匹配流表中查找所述分类属性数据所对应的目标分类类别,以分类所述待分类数据包。
具体地,待分类数据包为可编辑交换机接收到的数据包,分类属性数据为提取待分类数据包包头所形成的属性数据,分类属性数据的数据长度与属性数据的数据长度相同,并且分类属性数据所对应的分类数据包包头的数据段与属性数据包所对应的数据包包头的数据段相对应,以使得在三元匹配流表可以对确定分类属性数据所对应的三元数据组,以得到待分类数据包对应的目标分类类别。
在本实施例的一个实现方式中,所述三元匹配流表包括掩膜、值以及类别;所述在所述三元匹配流表中查找所述分类属性数据所对应的目标分类类别,以分类所述待分类数据包具体包括:
对于所述三元匹配流表中的每个三元数据组,将所述分类属性数据与所述三元数据组中的掩膜相与,以得到候选值;
若所述候选值与所述三元数据组中的值相等,则将所述三元数据组中的类别作为分类属性数据所对应的目标分类类别,以分类所述待分类数据。
具体地,在在获取分类属性数据后,将分类属性数据与三元数据组中的掩膜相与,以得到候选值;若候选值与三元数据组中的值相等,则将三元数据组中的类别作为待分类数据包对应的目标分类类别,以对待分类数据包进行分类。
综上所述,本实施例提供了一种基于知识蒸馏的数据包分类方法,所述方法包括基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型;根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类。本申请基于预先训练的教师模型所学的知识构建二进制决策树模型,以将复杂的教师模型转换为简单的二进制决策树模型,使得学习到教师模型所学的知识的二进制决策树模型可以布置于可编程交换机,这样一方面可以利用可编程交换机的数据包处理能力,另一方面可以提高可编程交换机的数据包分类效率。
基于上述基于知识蒸馏的数据包分类方法,本实施例提供了一种基于知识蒸馏的数据包分类装置,如图3所示,所述的装置包括:
确定模块100,用于基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;
构建模块200,用于基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型,其中,所述二进制决策树模型中的各叶节点均对应有目标分类类别;
生成模块300,用于根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;
分类模块400,用于将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类。
基于上述基于知识蒸馏的数据包分类方法,本实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述实施例所述的基于知识蒸馏的数据包分类方法中的步骤。
基于上述基于知识蒸馏的数据包分类方法,本申请还提供了一种终端设备,如图4所示,其包括至少一个处理器(processor)20;显示屏21;以及存储器(memory)22,还可以包括通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器20通过运行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
此外,上述存储介质以及终端设备中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (12)
1.一种基于知识蒸馏的数据包分类方法,其特征在于,所述的方法包括:
基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;
基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型,其中,所述属性数据为基于训练数据包的二进制数据包头确定的;
根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;
将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类,其中,所述三元匹配流表携带有若干二进制字符串及各二进制字符串对应的目标分类类别;
其中,所述基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型具体包括:
将各训练数据包及其对应的类别概率向量构成的训练数据集作为目标训练集,并将各训练数据包对应的属性数据构成的属性数据集作为目标属性数据集;
基于所述目标属性数据集确定目标属性位,并基于所述目标属性位将所述目标训练集中的各训练数据包划分至两个节点上,其中,每个节点对应有节点标识,所述节点标识为目标属性位的属性元素;
对于两个节点中所包括的训练数据包的数量小于预设数量阈值的第一节点,将所述节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别;
对于两个节点中所包括的训练数据包的数量大于或者等于预设数量阈值的第二节点,将所述目标属性数据集中的各属性数据中位于目标属性位的属性元素去除以得到候选属性数据;
将所述第二节点所包括的各训练数据包以其对应的类别概率向量所形成的训练数据作为目标数据集,将所述第二节点所包括的各训练数据包各自对应的候选属性数据所形成的属性数据集作为目标属性数据集;
继续执行基于所述目标属性数据集确定目标属性位的步骤,直至将所述预设训练集中的各训练数据包均划分至叶节点内。
2.根据权利要求1所述的基于知识蒸馏的数据包分类方法,其特征在于,所述二进制决策树模型中的各叶节点均对应有目标分类类别。
3.根据权利要求1所述的基于知识蒸馏的数据包分类方法,其特征在于,所述基于所述目标属性数据集确定目标属性位之前,所述方法还包括:
检测所述目标属性数据集是否满足预设条件,其中,所述预设条件为所述目标属性数据集不为空,且所述目标属性数据集至少存在两个互不相同的属性数据;
若所述目标属性数据集满足预设条件,则执行基于所述目标属性数据集确定目标属性位的步骤;
若所述目标属性数据集不满足预设条件,则将所述目标训练集所属的节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别。
4.根据权利要求1或3所述的基于知识蒸馏的数据包分类方法,其特征在于,所述基于所述目标属性数据集确定目标属性位之前,所述方法还包括:
基于所述目标训练集中的各训练数据包各自对应的类别概率向量确定各训练数据包对应的预测类别;
若各训练数据包对应的预测类别全相同,则将所述目标训练集所属的节点作为叶节点,并将所述预测类别作为所述叶节点对应的目标分类类别;
若各训练数据包对应的预测类别不全相同,则执行基于所述目标属性数据集确定目标属性位的步骤。
5.根据权利要求1或3所述的基于知识蒸馏的数据包分类方法,其特征在于,所述基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别具体包括:
获取所述叶节点所包括的各训练数据包各自对应的类别概率向量的平均类别概率向量;
将所述平均类别概率向量中的最大向量元素所对应的类别作为所述叶节点对应的目标分类类别。
6.根据权利要求1或3所述的基于知识蒸馏的数据包分类方法,其特征在于,所述目标属性位的选取规则为:
a*=arg min Gini(D,ai)i∈{1,2,...,m}
其中,a*表示目标属性,D表示目标训练集,ai表示属性数据中的第i位属性,Dv表示目标训练集中的训练数据包在第i位属性上取值为v的训练数据包所形成的数据集;表示Dv中的各训练数据包的类别概率向量的平均类别概率向量;|D|表示目标训练集所包括的训练数据包的数量;|Dv|表示Dv所包括的训练数据包的数量;m表示目标属性集中的属性数据的数据位数。
7.根据权利要求1所述的基于知识蒸馏的数据包分类方法,其特征在于,所述根据所述二进制决策树模型生成用于数据包分类的三元匹配流表包括:
获取所述二进制决策树模型中的各叶节点各自对应的二进制字符串及目标分类类别;
将各叶节点对应的二进制字符串以及目标分类类别转换为三元数据组,将各叶节点对应的三元数据组所形成的数据表作为三元匹配流表。
8.根据权利要求1或7所述的基于知识蒸馏的数据包分类方法,其特征在于,所述通过所述可编程交换机对数据包进行分类具体包括:
当可编辑交换机接收到待分类数据包时,获取于所述待分类数据包对应的分类属性数据;
在所述三元匹配流表中查找所述分类属性数据所对应的目标分类类别,以分类所述待分类数据包。
9.根据权利要求8所述的基于知识蒸馏的数据包分类方法,其特征在于,所述三元匹配流表包括掩膜、值以及类别;所述在所述三元匹配流表中查找所述分类属性数据所对应的目标分类类别,以分类所述待分类数据包具体包括:
对于所述三元匹配流表中的每个三元数据组,将所述分类属性数据与所述三元数据组中的掩膜相与,以得到候选值;
若所述候选值与所述三元数据组中的值相等,则将所述三元数据组中的类别作为分类属性数据所对应的目标分类类别,以分类所述待分类数据。
10.一种基于知识蒸馏的数据包分类装置,其特征在于,所述的装置包括:
确定模块,用于基于经过训练的教师模型,确定预设训练集中的各训练数据包各自对应的类别概率向量;
构建模块,用于基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型,其中,所述二进制决策树模型中的各叶节点均对应有目标分类类别;
生成模块,用于根据所述二进制决策树模型生成用于数据包分类的三元匹配流表;
分类模块,用于将所述三元匹配流表部署于可编程交换机,并通过所述可编程交换机对数据包进行分类;其中,所述三元匹配流表携带有若干二进制字符串及各二进制字符串对应的目标分类类别;
其中,所述基于各训练数据包及其对应的属性数据和类别概率向量构建二进制决策树模型具体包括:
将各训练数据包及其对应的类别概率向量构成的训练数据集作为目标训练集,并将各训练数据包对应的属性数据构成的属性数据集作为目标属性数据集;
基于所述目标属性数据集确定目标属性位,并基于所述目标属性位将所述目标训练集中的各训练数据包划分至两个节点上,其中,每个节点对应有节点标识,所述节点标识为目标属性位的属性元素;
对于两个节点中所包括的训练数据包的数量小于预设数量阈值的第一节点,将所述节点作为叶节点,并基于所述叶节点所包括的各训练数据包各自对应的类别概率向量确定所述叶节点对应的目标分类类别;
对于两个节点中所包括的训练数据包的数量大于或者等于预设数量阈值的第二节点,将所述目标属性数据集中的各属性数据中位于目标属性位的属性元素去除以得到候选属性数据;
将所述第二节点所包括的各训练数据包以其对应的类别概率向量所形成的训练数据作为目标数据集,将所述第二节点所包括的各训练数据包各自对应的候选属性数据所形成的属性数据集作为目标属性数据集;
继续执行基于所述目标属性数据集确定目标属性位的步骤,直至将所述预设训练集中的各训练数据包均划分至叶节点内。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-9任意一项所述的基于知识蒸馏的数据包分类方法中的步骤。
12.一种终端设备,其特征在于,包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如权利要求1-9任意一项所述的基于知识蒸馏的数据包分类方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111565340.5A CN114422620B (zh) | 2021-12-20 | 2021-12-20 | 一种基于知识蒸馏的数据包分类方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111565340.5A CN114422620B (zh) | 2021-12-20 | 2021-12-20 | 一种基于知识蒸馏的数据包分类方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114422620A CN114422620A (zh) | 2022-04-29 |
CN114422620B true CN114422620B (zh) | 2023-12-01 |
Family
ID=81267265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111565340.5A Active CN114422620B (zh) | 2021-12-20 | 2021-12-20 | 一种基于知识蒸馏的数据包分类方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114422620B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114900474B (zh) * | 2022-05-05 | 2023-08-22 | 鹏城实验室 | 针对可编程交换机的数据包分类方法、系统及相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106470168A (zh) * | 2015-08-22 | 2017-03-01 | 华为技术有限公司 | 一种数据传输方法、使用该方法的交换机以及网络控制系统 |
CN109902727A (zh) * | 2019-02-02 | 2019-06-18 | 钟祥博谦信息科技有限公司 | 防御性蒸馏模型的构建方法与装置 |
CN111355671A (zh) * | 2019-12-31 | 2020-06-30 | 鹏城实验室 | 基于自注意机制的网络流量分类方法、介质及终端设备 |
CN111814986A (zh) * | 2020-07-07 | 2020-10-23 | 上海交通大学包头材料研究院 | 动态网络流控制器调度与服务类型分配方法及控制器算法 |
CN112949739A (zh) * | 2021-03-17 | 2021-06-11 | 中国电子科技集团公司第二十九研究所 | 一种基于智能流量分类的信息传输调度方法及系统 |
CN113516297A (zh) * | 2021-05-26 | 2021-10-19 | 平安国际智慧城市科技股份有限公司 | 基于决策树模型的预测方法、装置和计算机设备 |
-
2021
- 2021-12-20 CN CN202111565340.5A patent/CN114422620B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106470168A (zh) * | 2015-08-22 | 2017-03-01 | 华为技术有限公司 | 一种数据传输方法、使用该方法的交换机以及网络控制系统 |
CN109902727A (zh) * | 2019-02-02 | 2019-06-18 | 钟祥博谦信息科技有限公司 | 防御性蒸馏模型的构建方法与装置 |
CN111355671A (zh) * | 2019-12-31 | 2020-06-30 | 鹏城实验室 | 基于自注意机制的网络流量分类方法、介质及终端设备 |
CN111814986A (zh) * | 2020-07-07 | 2020-10-23 | 上海交通大学包头材料研究院 | 动态网络流控制器调度与服务类型分配方法及控制器算法 |
CN112949739A (zh) * | 2021-03-17 | 2021-06-11 | 中国电子科技集团公司第二十九研究所 | 一种基于智能流量分类的信息传输调度方法及系统 |
CN113516297A (zh) * | 2021-05-26 | 2021-10-19 | 平安国际智慧城市科技股份有限公司 | 基于决策树模型的预测方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114422620A (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110311829B (zh) | 一种基于机器学习加速的网络流量分类方法 | |
KR102189688B1 (ko) | 동의어 추출 방법 | |
CN107800631B (zh) | 使用ram中的散列表的tcam规则的有效匹配的方法和装置 | |
Xie et al. | Mousika: Enable general in-network intelligence in programmable switches by knowledge distillation | |
EP2819355B1 (en) | Method and device for generating decision tree | |
CN110334488B (zh) | 基于随机森林模型的用户认证口令安全评估方法及装置 | |
US20220046048A1 (en) | Method and apparatus for predicting attack vulnerability of computer network | |
CN110008385B (zh) | 一种基于字符串的快速匹配识别方法和装置 | |
US11281648B2 (en) | Technologies for flexible tree-based lookups for network devices | |
CN114422620B (zh) | 一种基于知识蒸馏的数据包分类方法及相关装置 | |
US20190370681A1 (en) | Clustering method, classification method, clustering apparatus, and classification apparatus | |
CN113067839A (zh) | 一种基于多模态神经网络的恶意加密流量检测方法 | |
CN111355671B (zh) | 基于自注意机制的网络流量分类方法、介质及终端设备 | |
Pasyuk et al. | Feature selection in the classification of network traffic flows | |
EP4348514A1 (en) | Interpretable machine learning for data at scale | |
CN115296857A (zh) | 基于拓扑结构和DeepLearning-AIS的网络威胁感知及免疫方法 | |
CN114332871A (zh) | 一种字符识别方法、装置、设备及存储介质 | |
CN111597139B (zh) | 一种gpu的通信方法、系统、设备以及介质 | |
US9378466B2 (en) | Data reduction in nearest neighbor classification | |
Qian et al. | When nas meets trees: An efficient algorithm for neural architecture search | |
US20220171815A1 (en) | System and method for generating filters for k-mismatch search | |
CN115766176A (zh) | 网络流量处理方法、装置、设备及存储介质 | |
CN113904961B (zh) | 一种用户行为识别方法、系统、设备及存储介质 | |
CN112839051B (zh) | 基于卷积神经网络的加密流量实时分类方法及装置 | |
CN111523308B (zh) | 中文分词的方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |