CN112926303A - 一种基于BERT-BiGRU的恶意URL检测方法 - Google Patents

一种基于BERT-BiGRU的恶意URL检测方法 Download PDF

Info

Publication number
CN112926303A
CN112926303A CN202110201467.2A CN202110201467A CN112926303A CN 112926303 A CN112926303 A CN 112926303A CN 202110201467 A CN202110201467 A CN 202110201467A CN 112926303 A CN112926303 A CN 112926303A
Authority
CN
China
Prior art keywords
vector
matrix
bigru
query
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110201467.2A
Other languages
English (en)
Other versions
CN112926303B (zh
Inventor
任勋益
杨晓晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202110201467.2A priority Critical patent/CN112926303B/zh
Publication of CN112926303A publication Critical patent/CN112926303A/zh
Application granted granted Critical
Publication of CN112926303B publication Critical patent/CN112926303B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Abstract

本发明提出一种基于BERT‑BiGRU的恶意URL检测的方法,解决当前对于恶意URL检测识别准确度不高的问题。本发明首先使用BERT模型的Transformer特征提取器,代替了传统常用的CNN或者RNN的固有模式,利用其能够提取词向量的动态特征特点以及其本身并行计算的优点,此外由于其多头自注意力机制,可以获得相关性更强的URL文本特征。然后将训练得到的特征向量,输入到BiGRU网络结构,由于其双向各训练一个GRU模型,使得序列中每个词完整依赖上下文信息,接着把神经网络向量拼接之后得到的结果向量,通过全连接层结合softmax分类器,实现URL分类。本发明通过这些模型方法的结合应用,能够提高URL分类的准确性和稳定性,具有良好的实施性和实效性。

Description

一种基于BERT-BiGRU的恶意URL检测方法
技术领域
本发明提出了一种基于BERT和BiGRU的恶意URL识别方法,属于网络安全,自然语言处理,深度学习,神经网络等交叉技术领域。
背景技术
近年来,文本分类是自然语言处理领域中的一个重要研究课题,具有重要的理论意义与实际应用价值。在网络安全中,运用优秀的自然语言处理算法对网络中的恶意URL分类,极具现实意义。
随着信息技术的高速发展,以网络作为应用的服务、信息的开放、信息资源与数据共享等服务深入生活的各个角落,日益广泛应用于生活的点点滴滴中,如今全球范围内爆发信息革命,机器学习和深度学习正在迅速发展,带来极大便利同时,网络安全问题也开始逐渐复杂了起来。无论是从企业还是个人来说,其隐私信息和安全信息,都已经成为网络信息安全的保障性问题。
目前在恶意URL检测方式上,常用的分析方法主要分为基于黑名单和机器学习方式两大类。其中较为传统的黑名单技术已经逐渐无法适用于复杂且多变的原始URL句子,在一些传统机器学习算法中,有使用Logistic回归分析、决策树模型、朴素贝叶斯分类器与支持向量机,这些方法在实际应用中均有利弊。在近年大热的深度学习中,循环神经网络(RNN)是其中较有代表性的网络之一,循环神经网络(RNN)算法通过对输入的时序信息进行处理,充分挖掘语义信息,提取特征。基于这一特点,在文本分类领域,循环神经网络有着广泛的运用。此后基于RNN而衍生出的LSTM和GRU模型,同样获得了更好的效果。
然而究其本质,因为RNN系列模型都依赖于序列的前一状态,不能够并行运算,所以在商业化或者工业化的计算效率上,要想获得更大的突破,还需要进行大量的研究工作。
发明内容
技术问题:本发明使用BERT模型的Transformer编码器,从原始URL句子中提取特征,充分挖掘句子的文本信息,其次使用结构简单高效的BiGRU单元进行完整上下文学习,提高对恶意URL识别的准确度。
技术方案:本发明的一种基于BERT-BiGRU的恶意URL检测方法系统包括以下步骤:
一种基于BERT-BiGRU的恶意URL检测方法,包括以下步骤:
步骤1)输入URL数据集作为分类任务中的集合,并且针对数据集中重复或者格式紊乱的数据,进行相应的处理;
步骤2)使用步骤1处理后的数据集,将其输入特征处理器Transformer中,利用多头自注意力机制动态地生成不同连接的权重;首先计算self-attention,对同一个句子的embedding变换得到Query向量,Key向量,Value向量,之后计算Attention Score;多头注意力机制即把每一个self-attention的输出结果拼接而成,最后Transformer输出融合多头注意力机制的词向量特征矩阵;
步骤3)训练一个BiGRU网络,将预处理获得的向量输入该网络中,BiGRU通过更新门与重置门可保留文本重要特征,确保上下文关系不会丢失;
步骤4)最后一个构建softmax分类器,把BiGRU的结果送入其中,输出最终分类标签。
所述步骤1)具体如下:
步骤11)针对数据集部分格式紊乱的URL数据,统一将URL转化为UTF-8格式;部分URL携带图片,视频链接占据大量长度,对其携带的静态文件名进行过滤以减少数据量;去除重复的数据和无效的数据,保留可用数据;
所述步骤2)具体如下:
步骤21)Transformer是一种基于自注意力序列模型,主要结构是其编码(Encoder)部分,Encoder结构先将一组input:I=[I1,…,IN],经过一段Embedding,做一个线性变换α=WI,W是一个权重矩阵,可以将高维词向量矩阵转换为低维矩阵,I矩阵最原始是one-hot编码的高维稀疏词向量矩阵,通过W矩阵,高维稀疏词向量矩阵I会线性转换为低维词向量稠密矩阵α,然后让其与句子token的position信息求和,即X=P+α;用X=[x1,…,xN]表示个输入信息;通过线性变换得到为Query向量,Key向量,Value向量,如式(1)、(2)、(3)所示,
Query=WQX#(1)
Key=WKX#(2)
Value=WVX#(3)
步骤22)计算Query与Key之间的点乘,然后为了防止其结果过大,会除以一个尺度标度
Figure BDA0002947984260000021
其中dk为一个Query或Key向量的维度。再利用softmax操作将其结果归一化为概率分布,然后再乘以矩阵Value就得到权重求和的表示。如式(4)所示;
Figure BDA0002947984260000022
步骤23)在BERT-BiGRU中,多头注意力机制(Multi-Head Attention)赋予attention层多个“子表示空间”。多头注意力机制会有多组WQ,WK,WV的权重矩阵,每一组注意力的多组WQ,WK,WV的权重矩阵都是随机初始化的,将Embedding的向量切成多份,与权重相乘,构成输入向量WiX,如式(5)、(6)、(7)所示,形成Queryi,Keyi,Valuei,i=1,…,h,其中h表示切分的head个数。然后计算Attention权重矩阵得到每个head,最后将多个head合并,点乘权重WO,将切分后的head,线性转换为原维度的矩阵,得到Multi-Head矩阵,这个矩阵包含了所有attention heads的信息。如式(8)、(9)所示,
Queryi=QWi Q#(5)
Keyi=KWi K#(6)
Valuei=VWi V#(7)
headi=Attention(Queryi,Keyi,Valuei),i=1,…,h#(8)
MultiHead(Query,Key,Value)=Concact(head1,…,headh)WO#(9)
步骤24)将多头注意力层输出的向量,输入一层Add&Norm层,Add将自注意力层的输入和输出相加,Norm进行归一化,得到的向量列表会传入一层全连接的前馈神经网络,经过相应的Add&Norm层处理,输出全新的归一化的词向量列表。
所述步骤3)具体如下:
步骤31)门控循环单元GRU由重置门rt和更新门zt组成,其中更新门由输入门和遗忘门组成。首先,由重置门控制并决定从旧元胞状态和当前输入中丢弃哪些信息,如式(10)所示;
rt=σ(Wrxt+Urht-1)#(10)
式中:σ代表Sigmod激活函数;xt代表当前输入;ht-1代表上一时刻隐层的输出;Wr和Ur是权重矩阵;
步骤32)使用改进的双向GRU信息可用同一个训练序列分别向前和向后各训练一个GRU模型,分为两个部分:
1)由更新门zt实现忘记之前信息和添加信息的操作,xt代表当前输入,ht-1代表上一时刻隐层的输出,Wz和Uz是权重矩阵,如式(11)所示;
zt=σ(Wzxt+Uzht-1)#(11)
2)由tanh层创建一个新的候选值
Figure BDA0002947984260000031
该值可能会加入到元胞状态中,Uh是当前时刻输入层与隐藏层之间的权值矩阵,Wh和Uh是权重矩阵,如式子(12)所示;
Figure BDA0002947984260000032
步骤33)最后再将两个模型的输出进行线性组合起来用于更新旧元胞状态ht-1到新元胞状态ht,如式(13)所示;
Figure BDA0002947984260000033
所述步骤4)具体如下:
步骤41)获取分类标签的得分向量,输出最终的分类标签,softmax分类器输出各类别的概率,Wf是全连接权重矩阵,s是输入向量,bf为偏置量,如式(14)所示;
y=softmax(Wfs+bf)#(14)
步骤42)通过反向传播机制对模型中的参数不断进行训练和更新,使用交叉熵损失函数对模型进行优化,如式(15)所示;
Figure BDA0002947984260000041
D代表训练数据集大小;C表示类别数;
Figure BDA0002947984260000042
为恶意URL类别标签;
Figure BDA0002947984260000043
为模型预测概率。
神经网络的训练优化使用Adam方法,初始学习率设为0.001,学习率衰减速率设为0.0001,词向量维度设为200,batch_size=64,Epoch=10,在输入层Dropout设为0.2,隐藏层Dropout设为0.5,其余权重、偏置等参数随模型优化不断变化。
有益效果:本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明对原始URL数据集进行了基本的预处理和清洗,使用BERT的Transformer编码模型提取原始数据特征,由于其内部采取了多头注意力机制,所以比起RNN或者CNN,Transformer获取的文本特征更加完整。此外由于Transformer算法的并行性很好,符合目前的硬件环境,然后采用BiGRU神经网络对处理后的文本数据进行分类。
附图说明
图1是基于BERT-BiGRU的恶意URL检测方法模型构建方法流程。
图2是Transformer编码(Encoder部分)模型图。
图3是GRU神经网络结构图。
图4是BiGRU神经网络结构图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明是一种基于BERT-BiGRU的恶意URL检测方法模型构建方法,包括以下步骤:在具体实施中,图1是基于BERT-BiGRU的恶意URL检测方法模型构建方法流程。首先对原始URL数据集进行预处理,包括去除一些特殊标记以及截取固定长度。
其次将预处理后的数据集输入到BERT的Transformer编码模型中,如图2所示,Encoder结构先将一组input:I=[I1,…,IN],经过一段Embedding,做一个线性变换α=WI,然后让其与文本中每一个字段的position信息求和,即X=P+α,之后利用self-attention机制,将X经过三个不同的线性变换WQ,WK,WV,得到三个结果分别代表Query,Key和Value,可以表示为Query=WQX,Key=WKX,Value=WVX,然后将每个Query元素与每个Key元素相乘,相当于是一种双向的传播,然后为了防止其结果过大,会除以一个尺度标度
Figure BDA0002947984260000051
其中dk为一个Query或Key向量的维度。再利用softmax操作将其结果归一化为概率分布,然后再乘以矩阵V就得到权重求和Z。该操作可以表示为
Figure BDA0002947984260000052
多头注意力机制即把输入X切分为n段,分别做线性变换,之后再将其结果拼接为同一个维度的整体。接下来做一个Dropout操作防止过拟合,再把得到的输出Z和之前的输入X做一个残差和Add,再使用Norm做归一化,最后把Norm后的结果输入到全连接层Feed Forward,最后经过多次循环,就完成了Encoder编码部分。
接下来将特征矩阵输入到BiGRU层神经网络中,单向GRU如图3所示。首先,由重置门控制并决定从旧元胞状态和当前输入中丢弃哪些信息rt=σ(Wrxt+Urht-1),由更新门实现忘记之前信息和添加信息的操作,zt=σ(Wzxt+Uzht-1),接着由tanh层创建一个新的候选值
Figure BDA0002947984260000053
该值可能会加入到元胞状态中,Uh是当前时刻输入层与隐藏层之间的权值矩阵,
Figure BDA0002947984260000054
最后再将两个模型的输出进行线性组合起来用于更新旧元胞状态ht-1到新元胞状态ht
Figure BDA0002947984260000055
图4表明使用改进的双向GRU信息可用同一个训练序列分别向前和向后各训练一个GRU模型,最后将其结果输入到softmax分类器中,获取分类结果。

Claims (5)

1.一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,包括以下步骤:
步骤1)输入URL数据集作为分类任务中的集合,并且针对数据集中重复或者格式紊乱的数据,进行相应的处理;
步骤2)使用步骤1处理后的数据集,将其输入特征处理器Transformer中,利用多头自注意力机制动态地生成不同连接的权重;首先计算self-attention,对同一个句子的embedding变换得到Query向量,Key向量,Value向量,之后计算Attention Score;多头注意力机制即把每一个self-attention的输出结果拼接而成,最后Transformer输出融合多头注意力机制的词向量特征矩阵;
步骤3)训练一个BiGRU网络,将Query向量,Key向量,Value向量输入该网络中,BiGRU通过更新门与重置门可保留文本重要特征,确保上下文关系不会丢失;
步骤4)最后一个构建softmax分类器,把BiGRU的结果送入其中,输出最终分类标签。
2.根据权利要求1所诉的一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,所述步骤1)具体如下:
步骤11)针对数据集部分格式紊乱的URL数据,统一将URL转化为UTF-8格式;部分URL携带图片,视频链接占据大量长度,对其携带的静态文件名进行过滤以减少数据量;去除重复的数据和无效的数据,保留可用数据。
3.根据权利要求1所诉的一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,所述步骤2)具体如下:
步骤21)Transformer包括Encoder结构,Encoder结构先将一组input:I=[I1,…,IN],N表示步骤1)处理后的数据集中的数据数量,经过一段Embedding,做一个线性变换α=WI,W是一个权重矩阵,可将高维词向量矩阵转换为低维矩阵,I矩阵最原始是one-hot编码的高维稀疏词向量矩阵,通过W矩阵,高维稀疏词向量矩阵I会线性转换为低维词向量稠密矩阵α,然后让其与句子token的position信息求和,即X=P+α;用X=[x1,…,xN]表示N个输入信息;通过线性变换得到Query向量,Key向量,Value向量,如式(1)、(2)、(3)所示,
Query=WQX#(1)
Key=WKX#(2)
Value=WVX#(3)
步骤22)计算Query与Key之间的点乘,然后为了防止其结果过大,除以一个尺度标度
Figure FDA0002947984250000011
其中dk为一个Query或Key向量的维度;再利用softmax操作将其结果归一化为概率分布,然后再乘以Value就得到权重求和的表示,如式(4)示;
Figure FDA0002947984250000021
步骤23)多头注意力机制有多组WQ,WK,WV的权重矩阵,每一组注意力的多组WQ,WK,WV的权重矩阵都是随机初始化的,将Embedding的向量切成多份,与权重相乘,构成输入向量WiX,如式(5)、(6)、(7)所示,形成Queryi,Keyi,Valuei,i=1,…,h,其中i表示切分的head个数;然后计算Attention权重矩阵得到每个head,最后将所有head合并,点乘权重WO,将切分后的head,线性转换为原维度的矩阵,得到Multi-Head矩阵,这个矩阵包含了所有attention heads的信息,如式(8)、(9)所示
Queryi=QWi Q#(5)
Keyi=KWi K#(6)
Valuei=VWi V#(7)
headi=Attention(Queryi,Keyi,Valuei),i=1,…,h#(8)
MultiHead(Query,Key,Value)=Concact(head1,…,headh)WO#(9)
上标Q、K、V分别表示对应权重矩阵;
步骤24)将Query向量,Key向量,Value向量,输入一层Add&Norm层,Add将自注意力层的输入和输出相加,Norm进行归一化,得到的向量列表会传入一层全连接的前馈神经网络,经过相应的Add&Norm层处理,输出融合多头注意力机制的词向量特征矩阵。
4.根据权利要求1所诉的一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,所述步骤3)具体如下:
步骤31)门控循环单元GRU由重置门rt和更新门zt组成,其中更新门由输入门和遗忘门组成;首先,由重置门控制并决定从旧元胞状态和当前输入中丢弃哪些信息,如式(10)所示;
rt=σ(Wrxt+Urht-1)#(10)
式中:σ代表Sigmod激活函数;xt代表当前输入;ht-1代表上一时刻隐层的输出;Wr和Ur是权重矩阵;
步骤32)使用改进的双向GRU信息可用同一个训练序列分别向前和向后各训练一个GRU模型,分为两个部分:
1)由更新门zt实现忘记之前信息和添加信息的操作,xt代表当前输入,ht-1代表上一时刻隐层的输出,Wz和Uz是权重矩阵,其中如式(11)所示;
zt=σ(Wzxt+Uzht-1)#(11)
2)由tanh层创建一个新的候选值
Figure FDA0002947984250000031
该值可能会加入到元胞状态中,Uh是当前时刻输入层与隐藏层之间的权值矩阵,Wh和Uh是权重矩阵,如式(12)所示;
Figure FDA0002947984250000032
步骤33)最后再将两个模型的输出进行线性组合起来用于更新旧元胞状态ht-1到新元胞状态ht,如式(13)所示;
Figure FDA0002947984250000033
5.根据权利要求1所诉的一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,所述步骤4)具体如下:
步骤41)获取分类标签的得分向量,输出最终的分类标签,softmax分类器输出各类别的概率,Wf是全连接权重矩阵,s是输入向量,bf为偏置量,如式(14)所示;
y=softmax(Wfs+bf)#(14)
步骤42)通过反向传播机制对模型中的参数不断进行训练和更新,使用交叉熵损失函数对模型进行优化,如式(15)所示;
Figure FDA0002947984250000034
D代表训练数据集大小;C表示类别数;
Figure FDA0002947984250000035
为URL类别标签;
Figure FDA0002947984250000036
为模型预测概率。
CN202110201467.2A 2021-02-23 2021-02-23 一种基于BERT-BiGRU的恶意URL检测方法 Active CN112926303B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110201467.2A CN112926303B (zh) 2021-02-23 2021-02-23 一种基于BERT-BiGRU的恶意URL检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110201467.2A CN112926303B (zh) 2021-02-23 2021-02-23 一种基于BERT-BiGRU的恶意URL检测方法

Publications (2)

Publication Number Publication Date
CN112926303A true CN112926303A (zh) 2021-06-08
CN112926303B CN112926303B (zh) 2023-06-27

Family

ID=76170436

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110201467.2A Active CN112926303B (zh) 2021-02-23 2021-02-23 一种基于BERT-BiGRU的恶意URL检测方法

Country Status (1)

Country Link
CN (1) CN112926303B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113591084A (zh) * 2021-07-26 2021-11-02 福州大学 基于电路路径语句的Transformer恶意芯片识别方法及系统
CN113626597A (zh) * 2021-07-22 2021-11-09 杭州电子科技大学 一种基于门控三塔的智能制造装备故障预测方法
CN113742188A (zh) * 2021-08-25 2021-12-03 宁波大学 一种基于bert的非侵入式电脑行为监测方法及系统
CN113791791A (zh) * 2021-09-01 2021-12-14 中国船舶重工集团公司第七一六研究所 基于自然语言理解与转化的业务逻辑无代码开发方法
CN114513355A (zh) * 2022-02-14 2022-05-17 平安科技(深圳)有限公司 恶意域名检测方法、装置、设备及存储介质
CN114915496A (zh) * 2022-07-11 2022-08-16 广州番禺职业技术学院 基于时间权重和深度神经网络的网络入侵检测方法和装置
CN115658886A (zh) * 2022-09-20 2023-01-31 广东技术师范大学 基于语义文本的智能肝癌分期方法、系统及介质
WO2023056808A1 (zh) * 2021-10-08 2023-04-13 中兴通讯股份有限公司 加密恶意流量检测方法、装置、存储介质及电子装置
CN116192666A (zh) * 2023-02-09 2023-05-30 西安电子科技大学 一种基于时空相关的网络节点和链路剩余资源预测方法
CN117235532A (zh) * 2023-11-09 2023-12-15 西南民族大学 一种基于M-Bert的恶意网站检测模型的训练及检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444343A (zh) * 2020-03-24 2020-07-24 昆明理工大学 基于知识表示的跨境民族文化文本分类方法
US20200314122A1 (en) * 2019-03-26 2020-10-01 Proofpoint, Inc. Uniform Resource Locator Classifier and Visual Comparison Platform for Malicious Site Detection
CN112364160A (zh) * 2020-06-02 2021-02-12 湖北大学 一种结合ALBERT和BiGRU的专利文本分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200314122A1 (en) * 2019-03-26 2020-10-01 Proofpoint, Inc. Uniform Resource Locator Classifier and Visual Comparison Platform for Malicious Site Detection
CN111444343A (zh) * 2020-03-24 2020-07-24 昆明理工大学 基于知识表示的跨境民族文化文本分类方法
CN112364160A (zh) * 2020-06-02 2021-02-12 湖北大学 一种结合ALBERT和BiGRU的专利文本分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
廖祥文;黄知;杨定达;程学旗;陈国龙;: "基于分层注意力网络的社交媒体谣言检测", 中国科学:信息科学, no. 11 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113626597A (zh) * 2021-07-22 2021-11-09 杭州电子科技大学 一种基于门控三塔的智能制造装备故障预测方法
CN113591084B (zh) * 2021-07-26 2023-08-04 福州大学 基于电路路径语句的Transformer恶意芯片识别方法及系统
CN113591084A (zh) * 2021-07-26 2021-11-02 福州大学 基于电路路径语句的Transformer恶意芯片识别方法及系统
CN113742188A (zh) * 2021-08-25 2021-12-03 宁波大学 一种基于bert的非侵入式电脑行为监测方法及系统
CN113791791A (zh) * 2021-09-01 2021-12-14 中国船舶重工集团公司第七一六研究所 基于自然语言理解与转化的业务逻辑无代码开发方法
CN113791791B (zh) * 2021-09-01 2023-07-25 中国船舶重工集团公司第七一六研究所 基于自然语言理解与转化的业务逻辑无代码开发方法
WO2023056808A1 (zh) * 2021-10-08 2023-04-13 中兴通讯股份有限公司 加密恶意流量检测方法、装置、存储介质及电子装置
CN114513355A (zh) * 2022-02-14 2022-05-17 平安科技(深圳)有限公司 恶意域名检测方法、装置、设备及存储介质
CN114915496B (zh) * 2022-07-11 2023-01-10 广州番禺职业技术学院 基于时间权重和深度神经网络的网络入侵检测方法和装置
CN114915496A (zh) * 2022-07-11 2022-08-16 广州番禺职业技术学院 基于时间权重和深度神经网络的网络入侵检测方法和装置
CN115658886A (zh) * 2022-09-20 2023-01-31 广东技术师范大学 基于语义文本的智能肝癌分期方法、系统及介质
CN116192666A (zh) * 2023-02-09 2023-05-30 西安电子科技大学 一种基于时空相关的网络节点和链路剩余资源预测方法
CN117235532A (zh) * 2023-11-09 2023-12-15 西南民族大学 一种基于M-Bert的恶意网站检测模型的训练及检测方法
CN117235532B (zh) * 2023-11-09 2024-01-26 西南民族大学 一种基于M-Bert的恶意网站检测模型的训练及检测方法

Also Published As

Publication number Publication date
CN112926303B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN112926303A (zh) 一种基于BERT-BiGRU的恶意URL检测方法
Harshvardhan et al. A comprehensive survey and analysis of generative models in machine learning
CN114169330B (zh) 融合时序卷积与Transformer编码器的中文命名实体识别方法
CN110275936B (zh) 一种基于自编码神经网络的相似法律案例检索方法
CN111414461B (zh) 一种融合知识库与用户建模的智能问答方法及系统
CN111984791B (zh) 一种基于注意力机制的长文分类方法
CN113626589B (zh) 一种基于混合注意力机制的多标签文本分类方法
CN112560456B (zh) 一种基于改进神经网络的生成式摘要生成方法和系统
CN114780767B (zh) 一种基于深度卷积神经网络的大规模图像检索方法及系统
Aziguli et al. A robust text classifier based on denoising deep neural network in the analysis of big data
CN114925195A (zh) 一种融合词汇编码与结构编码的标准内容文本摘要生成方法
Wang et al. Human mitochondrial genome compression using machine learning techniques
CN116976505A (zh) 基于信息共享的解耦注意网络的点击率预测方法
CN113505240B (zh) 一种基于注意力引导图lstm关系提取方法及装置
CN116385946B (zh) 面向视频的目标片段定位方法、系统、存储介质及设备
CN117437499A (zh) 针对clip提取域不变特征与优化文本的迁移学习方法
CN116842934A (zh) 一种基于持续学习的多文档融合深度学习标题生成方法
Xu et al. Sequence generative adversarial network for long text summarization
CN116562286A (zh) 一种基于混合图注意力的智能配置事件抽取方法
CN110674265A (zh) 面向非结构化信息的特征判别与信息推荐系统
CN113505937B (zh) 一种基于多视角编码器的法律判决预测系统及方法
CN115577111A (zh) 基于自注意力机制的文本分类方法
CN115422945A (zh) 一种融合情感挖掘的谣言检测方法及系统
CN114548293A (zh) 基于跨粒度自蒸馏的视频-文本跨模态检索方法
Lee et al. A two-level recurrent neural network language model based on the continuous Bag-of-Words model for sentence classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant