CN116644359A - 信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其可读存储介质 - Google Patents
信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其可读存储介质 Download PDFInfo
- Publication number
- CN116644359A CN116644359A CN202310627837.8A CN202310627837A CN116644359A CN 116644359 A CN116644359 A CN 116644359A CN 202310627837 A CN202310627837 A CN 202310627837A CN 116644359 A CN116644359 A CN 116644359A
- Authority
- CN
- China
- Prior art keywords
- network request
- request data
- artificial intelligence
- data
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 42
- 239000013598 vector Substances 0.000 claims abstract description 30
- 238000010606 normalization Methods 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 230000032258 transport Effects 0.000 claims 5
- 230000008569 process Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003012 network analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明涉及一种信创环境下基于人工智能实现网络请求数据分类的方法,包括以下步骤:获取网络请求数据;把数据转换为机器能够识别的向量样本;对数据进行批归一化处理操作;对数据进行混类增强操作;对网络请求数据进行特征提取操作;利用Softmax分类器进行分类。本发明还涉及一种用于实现信创环境下基于人工智能的网络请求数据分类的装置、处理器及存储介质。采用了本发明的信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其计算机可读存储介质,具有较高的分类精度,且所提出的模型具有较高的鲁棒性和泛化能力。此外,本发明能够有效避免训练样本不足给模型性能造成负面影响的情况。
Description
技术领域
本发明涉及计算机软件领域,尤其涉及网络请求数据识别领域,具体是指一种信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其计算机可读存储介质。
背景技术
网络请求数据是指在计算机网络中,一台计算机向另一台计算机请求数据的过程。这通常通过使用协议,如HTTP,FTP,SMTP等来实现。网络请求数据可以是一个文件、一张图片、一个网页、一个视频、或者其他形式的数字内容。在现代社会,网络请求数据在许多方面都是至关重要的,因为它允许用户获取全球信息,连接到互联网,进行网上购物,参与社交网络等。常规的识别网络请求数据的方法包括:检查HTTP请求方法,HTTP请求方法是指请求的类型,常见的请求方法包括GET、POST、PUT、DELETE等。每种请求方法都有不同的用途;检查请求的Header,请求的Header是指请求的附加信息,包括内容类型、接受的数据格式等。根据请求的Header内容可以识别请求的类型;检查请求的Payload,请求的Payload是指请求的数据内容,在请求的Payload中可以识别请求的数据类型,例如文本、图像等;使用网络分析工具,使用网络分析工具,如Wireshark,可以详细分析请求的内容,识别请求的类型。然而,传统的方法对网络请求数据的识别精度不高,同时识别效率低,因此有必要采用人工智能的方法进行网络请求数据的高效识别。
现有技术创新性好,但模型的分类精度有待进一步提升,且模型的鲁棒性和泛化能力较差。此外,现有方法容易受训练样本的数量和质量的影响。
发明内容
本发明的目的是克服了上述现有技术的缺点,提供了一种满足鲁棒性高、泛化能力高、分类精度高的信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其计算机可读存储介质。
为了实现上述目的,本发明的信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其计算机可读存储介质如下:
该信创环境下基于人工智能实现网络请求数据分类的方法,其主要特点是,所述的方法包括以下步骤:
(1)获取网络请求数据;
(2)把数据转换为机器能够识别的向量样本;
(3)对数据进行批归一化处理操作;
(4)对数据进行混类增强操作;
(5)对网络请求数据进行特征提取操作;
(6)利用Softmax分类器进行分类。
较佳地,所述的步骤(1)具体包括以下步骤:
(1.1)获取网络请求数据;
(1.2)进行人工进行标注,通过利用带标签的数据进行人工智能模型的训练。
较佳地,所述的步骤(2)具体包括以下步骤:
(2.1)建立word2Vec模型;
(2.2)通过word2Vec模型训练数据得到向量样本。
较佳地,所述的步骤(3)中进行批归一化处理,具体为:
根据以下公式进行批归一化处理:
其中,z(i)为原激活值,为经过批归一化变化之后的激活值,γ和β的取值是反向传播的过程中模型学习的参数。
较佳地,所述的步骤(5)具体包括以下步骤:
(5.1)通过连续3层卷积的第1层卷积提取低级的特征,通过第2层和第3层卷积利用低级的特征进行迭代提取;
(5.2)在卷积层后设置注意力模块,通过注意力层计算多个向量或向量组的加权平均;
(5.3)在注意力模块后增加池化层,通过池化层进行池化计算。
较佳地,所述的步骤(6)具体包括以下步骤:
通过Softmax分类器进行归一化处理后,得到预测的网络请求数据所属的类别概率,计算损失函数Lxent。
较佳地,所述的步骤(6)中计算损失函数Lxent,具体为:
根据以下公式计算损失函数Lxent:
其中,yi为网络请求数据真实类别的One-Hot表示,pi为网络请求数据所属类别概率,C为类别数。
该用于实现信创环境下基于人工智能的网络请求数据分类的装置,其主要特点是,所述的装置包括:
处理器,被配置成执行计算机可执行指令;
存储器,存储一个或多个计算机可执行指令,所述的计算机可执行指令被所述的处理器执行时,实现上述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
该用于实现信创环境下基于人工智能的网络请求数据分类的处理器,其主要特点是,所述的处理器被配置成执行计算机可执行指令,所述的计算机可执行指令被所述的处理器执行时,实现上述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
该计算机可读存储介质,其主要特点是,其上存储有计算机程序,所述的计算机程序可被处理器执行以实现上述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
采用了本发明的信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其计算机可读存储介质,具有较高的分类精度,且所提出的模型具有较高的鲁棒性和泛化能力。此外,本发明能够有效避免训练样本不足给模型性能造成负面影响的情况。
附图说明
图1为本发明的信创环境下基于人工智能实现网络请求数据分类的方法的流程图。
具体实施方式
为了能够更清楚地描述本发明的技术内容,下面结合具体实施例来进行进一步的描述。
本发明的该信创环境下基于人工智能实现网络请求数据分类的方法,其中包括以下步骤:
(1)获取网络请求数据;
(2)把数据转换为机器能够识别的向量样本;
(3)对数据进行批归一化处理操作;
(4)对数据进行混类增强操作;
(5)对网络请求数据进行特征提取操作;
(6)利用Softmax分类器进行分类。
作为本发明的优选实施方式,所述的步骤(1)具体包括以下步骤:
(1.1)获取网络请求数据;
(1.2)进行人工进行标注,通过利用带标签的数据进行人工智能模型的训练。
作为本发明的优选实施方式,所述的步骤(2)具体包括以下步骤:
(2.1)建立word2Vec模型;
(2.2)通过word2Vec模型训练数据得到向量样本。
作为本发明的优选实施方式,所述的步骤(3)中进行批归一化处理,具体为:
根据以下公式进行批归一化处理:
其中,z(i)为原激活值,为经过批归一化变化之后的激活值,γ和β的取值是反向传播的过程中模型学习的参数。
作为本发明的优选实施方式,所述的步骤(5)具体包括以下步骤:
(5.1)通过连续3层卷积的第1层卷积提取低级的特征,通过第2层和第3层卷积利用低级的特征进行迭代提取;
(5.2)在卷积层后设置注意力模块,通过注意力层计算多个向量或向量组的加权平均;
(5.3)在注意力模块后增加池化层,通过池化层进行池化计算。
作为本发明的优选实施方式,所述的步骤(6)具体包括以下步骤:
通过Softmax分类器进行归一化处理后,得到预测的网络请求数据所属的类别概率,计算损失函数Lxent。
作为本发明的优选实施方式,所述的步骤(6)中计算损失函数Lxent,具体为:
根据以下公式计算损失函数Lxent:
其中,yi为网络请求数据真实类别的One-Hot表示,pi为网络请求数据所属类别概率,C为类别数。
本发明的该用于实现信创环境下基于人工智能的网络请求数据分类的装置,其中所述的装置包括:
处理器,被配置成执行计算机可执行指令;
存储器,存储一个或多个计算机可执行指令,所述的计算机可执行指令被所述的处理器执行时,实现上述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
本发明的该用于实现信创环境下基于人工智能的网络请求数据分类的处理器,其中所述的处理器被配置成执行计算机可执行指令,所述的计算机可执行指令被所述的处理器执行时,实现上述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
本发明的该计算机可读存储介质,其上存储有计算机程序,所述的计算机程序可被处理器执行以实现上述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
网络请求数据在许多方面都是至关重要的,因为它允许用户获取全球信息,连接到互联网,进行网上购物,参与社交网络等。本发明的具体实施方式中,提出一种信创环境下基于人工智能的网络请求数据分类方法,首先,获取网络请求数据,并人工进行标注,以利用带标签的数据进行人工智能模型的训练。其次,把数据转换为机器能够识别的向量样本。再次,对数据进行批归一化处理操作。最后,对数据进行混类增强操作。
本发明提出一种独立于数据集的数据扩增方式,通过挖掘出不同类不同样本之间的关系,构建虚拟的数据样本。然后对网络请求数据进行特征提取操作,采用多尺寸卷积神经网络进行特征提取,并提出一种注意力模块进行注意力增强操作。最后,利用Softmax分类器进行分类。
本发明提出一种信创环境下基于人工智能的网络请求数据分类方法,主要步骤如下:
步骤一:网络请求数据获取
首先,获取网络请求数据,获取的来源包括:
HTTP请求:通过使用HTTP客户端库(如requests库)发送HTTP请求,然后从响应中获取数据。
WebAPI:通过向WebAPI发送HTTP请求,获取JSON或XML格式的数据。
Socket编程:通过创建和连接套接字,从网络上接收数据。
网络请求数据获取后,需人工进行标注,以利用带标签的数据进行人工智能模型的训练。
步骤二:把数据转换为机器能够识别的向量样本
本发明采用word2Vec方法,进行向量转化。word2Vec是一种现有的将文本数据转为向量的方法,word2Vec模型实际上分为了两个部分,第一部分为建立模型,第二部分是通过模型获取嵌入词向量。word2Vec的整个建模过程实际上与自编码器的思想很相似,即先基于训练数据构建一个神经网络,当这个模型训练好以后,并不会用这个训练好的模型处理新的任务,而是这个模型通过训练数据所学得的参数。
步骤三:对数据进行批归一化
在每次训练中,一个批次中所有激活值的方差用σ2表示,μ表示一个批次中所有激活值的平均值,用ε为了防止σ2的取值为0时出现的异常,ε的取值大于0。原激活值用z(i)表示,经过批归一化变化之后的激活值用表示,下式表示传统的标准化的流程,方式是通过让所有激活函数的方差为1,均值为0。
下式表示批归一化,它在标准规范化的基础上加上了一个线性变化,γ和β的取值是反向传播的过程中模型学习的参数。
步骤四:对数据进行混类增强操作
目前对于网络请求数据分类任务,往往采用大规模深度神经网络加以实现,它们训练模型以使训练数据的平均误差最小化,即经验风险最小化原则。本发明期望增加模型的泛化能力,减少模型对噪声的敏感性,提升模型训练时的稳定性。对此,考虑增加样本的多样性,使得模型能够从丰富的样本数据中学习到一般规律,提升其泛化能力,本发明引入了数据增强策略,可以实现对每一类的样本分别进行数据扩增,属于同类增强,但是这种方法与数据集密切相关,且需要一定的领域知识。
本发明提出一种独立于数据集的数据扩增方式,通过挖掘出不同类不同样本之间的关系,构建虚拟的数据样本。本发明引入并改进了Mixup的思想,按照一定的权重对训练集中随机抽取出的两个样本以及它们的标签进行加权求和,实现虚拟数据样本的构建。公式如下:
其中,xja是增强前的网络请求数据样本,yja是增强前的网络请求数据样本标签,Beta()是贝塔函数,是增强后的网络请求数据样本,/>是增强后的网络请求数据样本标签,符号λ表示组合的权重,超参数γ控制特征-标签对之间的插值强度。通过数据增强操作,获得增强后的网络请求数据。
步骤五:对网络请求数据进行特征提取操作
本步骤中采用的卷积神经网络网络包含连续的3层卷积,第1层卷积负责提取一些低级的特征,第2和第3层卷积利用低级的特征进行迭代提取,获得数据全局的更深层更复杂的特征。第1层卷积使用双曲正切激活函数,第2和第3层使用指数线性单元激活函数,具体如下:
x1=tanh(b1+w1*r1)
其中,m=2或3。上述公式分别为第1层卷积和第2、3层卷积的的计算过程。其中,xm为第m层卷积的输出,bm为偏置参数,rm为第m层的数据特征值,rm-1为第m-1层的数据特征值,wm为卷积核,“*”表示卷积运算,exp是以自然常数e为底的指数函数。
在卷积层后设置注意力模块。为获得对网络请求数据分类具有判别性的关键特征,提高检测精度,本发明引入注意力层以使模型可以动态地关注有助于执行当下决策的数据特征。注意力层负责计算多个向量或向量组的加权平均。注意力机制对每个从卷积层输出的数据流向量组计算注意力分布,得到注意力权重,最后加权得到数据流最终的向量表示。注意力权重系数αi为:
其中,为数据的深层特征的特征向量,exp是以自然常数e为底的指数函数,xw为上下位置相关的选择向量,用来评估/>的重要性。加权得到的向量特征s为:
s=∑αixi
其中,xi表示未对数据的深层特征进行转置的特征向量。
在注意力模块后增加池化层。池化计算用来压缩数据和减少参数数量,以减小计算量,提高下层网络的处理效率,同时防止过拟合,提高模型整体的泛化能力和收敛速度。池化层的操作与卷积层基本相同,下采样的卷积核对输入的向量取对应位置的最大值,其计算过程为:
其中,Hout和Wout为输出向量的高度和宽度,T为滤波器每次扫描的步长,hin和hfilter分别为输入向量和滤波器的高度,win和wfiller分别为输入向量和滤波器的宽度。
步骤六:利用Softmax分类器进行分类。
网络请求数据通过特征提取操作以后,经过Softmax分类器进行归一化处理后,即可以得到预测的网络请求数据所属的类别概率,Softmax函数的计算方法如下式所示:
损失函数Lxent如下式所示:
其中,yi为网络请求数据真实类别的One-Hot表示,pi为网络请求数据所属类别概率,C为类别数。
本实施例的具体实现方案可以参见上述实施例中的相关说明,此处不再赘述。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行装置执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,相应的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
采用了本发明的信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其计算机可读存储介质,具有较高的分类精度,且所提出的模型具有较高的鲁棒性和泛化能力。此外,本发明能够有效避免训练样本不足给模型性能造成负面影响的情况。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (10)
1.一种信创环境下基于人工智能实现网络请求数据分类的方法,其特征在于,所述的方法包括以下步骤:
(1)获取网络请求数据;
(2)把数据转换为机器能够识别的向量样本;
(3)对数据进行批归一化处理操作;
(4)对数据进行混类增强操作;
(5)对网络请求数据进行特征提取操作;
(6)利用Softmax分类器进行分类。
2.根据权利要求1所述的信创环境下基于人工智能实现网络请求数据分类的方法,其特征在于,所述的步骤(1)具体包括以下步骤:
(1.1)获取网络请求数据;
(1.2)进行人工进行标注,通过利用带标签的数据进行人工智能模型的训练。
3.根据权利要求1所述的信创环境下基于人工智能实现网络请求数据分类的方法,其特征在于,所述的步骤(2)具体包括以下步骤:
(2.1)建立word2Vec模型;
(2.2)通过word2Vec模型训练数据得到向量样本。
4.根据权利要求1所述的信创环境下基于人工智能实现网络请求数据分类的方法,其特征在于,所述的步骤(3)中进行批归一化处理,具体为:
根据以下公式进行批归一化处理:
其中,z(i)为原激活值,为经过批归一化变化之后的激活值,γ和β的取值是反向传播的过程中模型学习的参数。
5.根据权利要求1所述的信创环境下基于人工智能实现网络请求数据分类的方法,其特征在于,所述的步骤(5)具体包括以下步骤:
(5.1)通过连续3层卷积的第1层卷积提取低级的特征,通过第2层和第3层卷积利用低级的特征进行迭代提取;
(5.2)在卷积层后设置注意力模块,通过注意力层计算多个向量或向量组的加权平均;
(5.3)在注意力模块后增加池化层,通过池化层进行池化计算。
6.根据权利要求1所述的信创环境下基于人工智能实现网络请求数据分类的方法,其特征在于,所述的步骤(6)具体包括以下步骤:
通过Softmax分类器进行归一化处理后,得到预测的网络请求数据所属的类别概率,计算损失函数Lxent。
7.根据权利要求6所述的信创环境下基于人工智能实现网络请求数据分类的方法,其特征在于,所述的步骤(6)中计算损失函数Lxent,具体为:
根据以下公式计算损失函数Lxent:
其中,yi为网络请求数据真实类别的One-Hot表示,pi为网络请求数据所属类别概率,C为类别数。
8.一种用于实现信创环境下基于人工智能的网络请求数据分类的装置,其特征在于,所述的装置包括:
处理器,被配置成执行计算机可执行指令;
存储器,存储一个或多个计算机可执行指令,所述的计算机可执行指令被所述的处理器执行时,实现权利要求1至7中任一项所述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
9.一种用于实现信创环境下基于人工智能的网络请求数据分类的处理器,其特征在于,所述的处理器被配置成执行计算机可执行指令,所述的计算机可执行指令被所述的处理器执行时,实现权利要求1至7中任一项所述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述的计算机程序可被处理器执行以实现权利要求1至7中任一项所述的信创环境下基于人工智能实现网络请求数据分类的方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310627837.8A CN116644359A (zh) | 2023-05-30 | 2023-05-30 | 信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310627837.8A CN116644359A (zh) | 2023-05-30 | 2023-05-30 | 信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116644359A true CN116644359A (zh) | 2023-08-25 |
Family
ID=87639518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310627837.8A Pending CN116644359A (zh) | 2023-05-30 | 2023-05-30 | 信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116644359A (zh) |
-
2023
- 2023-05-30 CN CN202310627837.8A patent/CN116644359A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111369563B (zh) | 一种基于金字塔空洞卷积网络的语义分割方法 | |
CN114120102A (zh) | 边界优化的遥感图像语义分割方法、装置、设备及介质 | |
WO2020083073A1 (zh) | 非机动车图像多标签分类方法、系统、设备及存储介质 | |
CN108197652B (zh) | 用于生成信息的方法和装置 | |
CN110210513B (zh) | 数据分类方法、装置及终端设备 | |
KR20200094622A (ko) | 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치 | |
CN110738242B (zh) | 一种深度神经网络的贝叶斯结构学习方法及装置 | |
CN112115967B (zh) | 一种基于数据保护的图像增量学习方法 | |
CN112132959A (zh) | 数字岩心图像处理方法、装置、计算机设备及存储介质 | |
CN112598053A (zh) | 基于半监督学习的主动显著性目标检测方法 | |
CN109858972B (zh) | 广告点击率的预测方法和装置 | |
CN114022359A (zh) | 图像超分辨率模型训练方法、装置、存储介质及设备 | |
CN112950480A (zh) | 一种融合多感受野和密集残差注意的超分辨率重建方法 | |
WO2021139351A1 (zh) | 图像分割方法、装置、介质及电子设备 | |
CN109840561A (zh) | 一种可用于垃圾分类的垃圾图像自动生成方法 | |
CN110728666B (zh) | 基于数字病理玻片进行慢性鼻窦炎的分型方法及其系统 | |
CN115841464A (zh) | 基于自监督学习的多模态脑肿瘤影像分割方法 | |
CN114266927A (zh) | 一种无监督的显著性目标检测方法、系统、设备及介质 | |
CN111523578B (zh) | 图像分类方法及装置、神经网络模型的训练方法及装置 | |
CN110768864B (zh) | 一种网络流量批量生成图像的方法及装置 | |
CN112927236A (zh) | 一种基于通道注意力和自监督约束的服装解析方法及系统 | |
CN116644359A (zh) | 信创环境下基于人工智能实现网络请求数据分类的方法、装置、处理器及其可读存储介质 | |
CN115019183B (zh) | 基于知识蒸馏和图像重构的遥感影像模型迁移方法 | |
KR102432766B1 (ko) | 알츠하이머 병 분류를 위한 mr 이미지 분석 시스템 및 방법 | |
CN115063374A (zh) | 模型训练、人脸图像质量评分方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |