CN112926303A - 一种基于BERT-BiGRU的恶意URL检测方法 - Google Patents
一种基于BERT-BiGRU的恶意URL检测方法 Download PDFInfo
- Publication number
- CN112926303A CN112926303A CN202110201467.2A CN202110201467A CN112926303A CN 112926303 A CN112926303 A CN 112926303A CN 202110201467 A CN202110201467 A CN 202110201467A CN 112926303 A CN112926303 A CN 112926303A
- Authority
- CN
- China
- Prior art keywords
- vector
- matrix
- bigru
- query
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明提出一种基于BERT‑BiGRU的恶意URL检测的方法,解决当前对于恶意URL检测识别准确度不高的问题。本发明首先使用BERT模型的Transformer特征提取器,代替了传统常用的CNN或者RNN的固有模式,利用其能够提取词向量的动态特征特点以及其本身并行计算的优点,此外由于其多头自注意力机制,可以获得相关性更强的URL文本特征。然后将训练得到的特征向量,输入到BiGRU网络结构,由于其双向各训练一个GRU模型,使得序列中每个词完整依赖上下文信息,接着把神经网络向量拼接之后得到的结果向量,通过全连接层结合softmax分类器,实现URL分类。本发明通过这些模型方法的结合应用,能够提高URL分类的准确性和稳定性,具有良好的实施性和实效性。
Description
技术领域
本发明提出了一种基于BERT和BiGRU的恶意URL识别方法,属于网络安全,自然语言处理,深度学习,神经网络等交叉技术领域。
背景技术
近年来,文本分类是自然语言处理领域中的一个重要研究课题,具有重要的理论意义与实际应用价值。在网络安全中,运用优秀的自然语言处理算法对网络中的恶意URL分类,极具现实意义。
随着信息技术的高速发展,以网络作为应用的服务、信息的开放、信息资源与数据共享等服务深入生活的各个角落,日益广泛应用于生活的点点滴滴中,如今全球范围内爆发信息革命,机器学习和深度学习正在迅速发展,带来极大便利同时,网络安全问题也开始逐渐复杂了起来。无论是从企业还是个人来说,其隐私信息和安全信息,都已经成为网络信息安全的保障性问题。
目前在恶意URL检测方式上,常用的分析方法主要分为基于黑名单和机器学习方式两大类。其中较为传统的黑名单技术已经逐渐无法适用于复杂且多变的原始URL句子,在一些传统机器学习算法中,有使用Logistic回归分析、决策树模型、朴素贝叶斯分类器与支持向量机,这些方法在实际应用中均有利弊。在近年大热的深度学习中,循环神经网络(RNN)是其中较有代表性的网络之一,循环神经网络(RNN)算法通过对输入的时序信息进行处理,充分挖掘语义信息,提取特征。基于这一特点,在文本分类领域,循环神经网络有着广泛的运用。此后基于RNN而衍生出的LSTM和GRU模型,同样获得了更好的效果。
然而究其本质,因为RNN系列模型都依赖于序列的前一状态,不能够并行运算,所以在商业化或者工业化的计算效率上,要想获得更大的突破,还需要进行大量的研究工作。
发明内容
技术问题:本发明使用BERT模型的Transformer编码器,从原始URL句子中提取特征,充分挖掘句子的文本信息,其次使用结构简单高效的BiGRU单元进行完整上下文学习,提高对恶意URL识别的准确度。
技术方案:本发明的一种基于BERT-BiGRU的恶意URL检测方法系统包括以下步骤:
一种基于BERT-BiGRU的恶意URL检测方法,包括以下步骤:
步骤1)输入URL数据集作为分类任务中的集合,并且针对数据集中重复或者格式紊乱的数据,进行相应的处理;
步骤2)使用步骤1处理后的数据集,将其输入特征处理器Transformer中,利用多头自注意力机制动态地生成不同连接的权重;首先计算self-attention,对同一个句子的embedding变换得到Query向量,Key向量,Value向量,之后计算Attention Score;多头注意力机制即把每一个self-attention的输出结果拼接而成,最后Transformer输出融合多头注意力机制的词向量特征矩阵;
步骤3)训练一个BiGRU网络,将预处理获得的向量输入该网络中,BiGRU通过更新门与重置门可保留文本重要特征,确保上下文关系不会丢失;
步骤4)最后一个构建softmax分类器,把BiGRU的结果送入其中,输出最终分类标签。
所述步骤1)具体如下:
步骤11)针对数据集部分格式紊乱的URL数据,统一将URL转化为UTF-8格式;部分URL携带图片,视频链接占据大量长度,对其携带的静态文件名进行过滤以减少数据量;去除重复的数据和无效的数据,保留可用数据;
所述步骤2)具体如下:
步骤21)Transformer是一种基于自注意力序列模型,主要结构是其编码(Encoder)部分,Encoder结构先将一组input:I=[I1,…,IN],经过一段Embedding,做一个线性变换α=WI,W是一个权重矩阵,可以将高维词向量矩阵转换为低维矩阵,I矩阵最原始是one-hot编码的高维稀疏词向量矩阵,通过W矩阵,高维稀疏词向量矩阵I会线性转换为低维词向量稠密矩阵α,然后让其与句子token的position信息求和,即X=P+α;用X=[x1,…,xN]表示个输入信息;通过线性变换得到为Query向量,Key向量,Value向量,如式(1)、(2)、(3)所示,
Query=WQX#(1)
Key=WKX#(2)
Value=WVX#(3)
步骤22)计算Query与Key之间的点乘,然后为了防止其结果过大,会除以一个尺度标度其中dk为一个Query或Key向量的维度。再利用softmax操作将其结果归一化为概率分布,然后再乘以矩阵Value就得到权重求和的表示。如式(4)所示;
步骤23)在BERT-BiGRU中,多头注意力机制(Multi-Head Attention)赋予attention层多个“子表示空间”。多头注意力机制会有多组WQ,WK,WV的权重矩阵,每一组注意力的多组WQ,WK,WV的权重矩阵都是随机初始化的,将Embedding的向量切成多份,与权重相乘,构成输入向量WiX,如式(5)、(6)、(7)所示,形成Queryi,Keyi,Valuei,i=1,…,h,其中h表示切分的head个数。然后计算Attention权重矩阵得到每个head,最后将多个head合并,点乘权重WO,将切分后的head,线性转换为原维度的矩阵,得到Multi-Head矩阵,这个矩阵包含了所有attention heads的信息。如式(8)、(9)所示,
Queryi=QWi Q#(5)
Keyi=KWi K#(6)
Valuei=VWi V#(7)
headi=Attention(Queryi,Keyi,Valuei),i=1,…,h#(8)
MultiHead(Query,Key,Value)=Concact(head1,…,headh)WO#(9)
步骤24)将多头注意力层输出的向量,输入一层Add&Norm层,Add将自注意力层的输入和输出相加,Norm进行归一化,得到的向量列表会传入一层全连接的前馈神经网络,经过相应的Add&Norm层处理,输出全新的归一化的词向量列表。
所述步骤3)具体如下:
步骤31)门控循环单元GRU由重置门rt和更新门zt组成,其中更新门由输入门和遗忘门组成。首先,由重置门控制并决定从旧元胞状态和当前输入中丢弃哪些信息,如式(10)所示;
rt=σ(Wrxt+Urht-1)#(10)
式中:σ代表Sigmod激活函数;xt代表当前输入;ht-1代表上一时刻隐层的输出;Wr和Ur是权重矩阵;
步骤32)使用改进的双向GRU信息可用同一个训练序列分别向前和向后各训练一个GRU模型,分为两个部分:
1)由更新门zt实现忘记之前信息和添加信息的操作,xt代表当前输入,ht-1代表上一时刻隐层的输出,Wz和Uz是权重矩阵,如式(11)所示;
zt=σ(Wzxt+Uzht-1)#(11)
步骤33)最后再将两个模型的输出进行线性组合起来用于更新旧元胞状态ht-1到新元胞状态ht,如式(13)所示;
所述步骤4)具体如下:
步骤41)获取分类标签的得分向量,输出最终的分类标签,softmax分类器输出各类别的概率,Wf是全连接权重矩阵,s是输入向量,bf为偏置量,如式(14)所示;
y=softmax(Wfs+bf)#(14)
步骤42)通过反向传播机制对模型中的参数不断进行训练和更新,使用交叉熵损失函数对模型进行优化,如式(15)所示;
神经网络的训练优化使用Adam方法,初始学习率设为0.001,学习率衰减速率设为0.0001,词向量维度设为200,batch_size=64,Epoch=10,在输入层Dropout设为0.2,隐藏层Dropout设为0.5,其余权重、偏置等参数随模型优化不断变化。
有益效果:本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明对原始URL数据集进行了基本的预处理和清洗,使用BERT的Transformer编码模型提取原始数据特征,由于其内部采取了多头注意力机制,所以比起RNN或者CNN,Transformer获取的文本特征更加完整。此外由于Transformer算法的并行性很好,符合目前的硬件环境,然后采用BiGRU神经网络对处理后的文本数据进行分类。
附图说明
图1是基于BERT-BiGRU的恶意URL检测方法模型构建方法流程。
图2是Transformer编码(Encoder部分)模型图。
图3是GRU神经网络结构图。
图4是BiGRU神经网络结构图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明是一种基于BERT-BiGRU的恶意URL检测方法模型构建方法,包括以下步骤:在具体实施中,图1是基于BERT-BiGRU的恶意URL检测方法模型构建方法流程。首先对原始URL数据集进行预处理,包括去除一些特殊标记以及截取固定长度。
其次将预处理后的数据集输入到BERT的Transformer编码模型中,如图2所示,Encoder结构先将一组input:I=[I1,…,IN],经过一段Embedding,做一个线性变换α=WI,然后让其与文本中每一个字段的position信息求和,即X=P+α,之后利用self-attention机制,将X经过三个不同的线性变换WQ,WK,WV,得到三个结果分别代表Query,Key和Value,可以表示为Query=WQX,Key=WKX,Value=WVX,然后将每个Query元素与每个Key元素相乘,相当于是一种双向的传播,然后为了防止其结果过大,会除以一个尺度标度其中dk为一个Query或Key向量的维度。再利用softmax操作将其结果归一化为概率分布,然后再乘以矩阵V就得到权重求和Z。该操作可以表示为多头注意力机制即把输入X切分为n段,分别做线性变换,之后再将其结果拼接为同一个维度的整体。接下来做一个Dropout操作防止过拟合,再把得到的输出Z和之前的输入X做一个残差和Add,再使用Norm做归一化,最后把Norm后的结果输入到全连接层Feed Forward,最后经过多次循环,就完成了Encoder编码部分。
接下来将特征矩阵输入到BiGRU层神经网络中,单向GRU如图3所示。首先,由重置门控制并决定从旧元胞状态和当前输入中丢弃哪些信息rt=σ(Wrxt+Urht-1),由更新门实现忘记之前信息和添加信息的操作,zt=σ(Wzxt+Uzht-1),接着由tanh层创建一个新的候选值该值可能会加入到元胞状态中,Uh是当前时刻输入层与隐藏层之间的权值矩阵,最后再将两个模型的输出进行线性组合起来用于更新旧元胞状态ht-1到新元胞状态ht,
图4表明使用改进的双向GRU信息可用同一个训练序列分别向前和向后各训练一个GRU模型,最后将其结果输入到softmax分类器中,获取分类结果。
Claims (5)
1.一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,包括以下步骤:
步骤1)输入URL数据集作为分类任务中的集合,并且针对数据集中重复或者格式紊乱的数据,进行相应的处理;
步骤2)使用步骤1处理后的数据集,将其输入特征处理器Transformer中,利用多头自注意力机制动态地生成不同连接的权重;首先计算self-attention,对同一个句子的embedding变换得到Query向量,Key向量,Value向量,之后计算Attention Score;多头注意力机制即把每一个self-attention的输出结果拼接而成,最后Transformer输出融合多头注意力机制的词向量特征矩阵;
步骤3)训练一个BiGRU网络,将Query向量,Key向量,Value向量输入该网络中,BiGRU通过更新门与重置门可保留文本重要特征,确保上下文关系不会丢失;
步骤4)最后一个构建softmax分类器,把BiGRU的结果送入其中,输出最终分类标签。
2.根据权利要求1所诉的一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,所述步骤1)具体如下:
步骤11)针对数据集部分格式紊乱的URL数据,统一将URL转化为UTF-8格式;部分URL携带图片,视频链接占据大量长度,对其携带的静态文件名进行过滤以减少数据量;去除重复的数据和无效的数据,保留可用数据。
3.根据权利要求1所诉的一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,所述步骤2)具体如下:
步骤21)Transformer包括Encoder结构,Encoder结构先将一组input:I=[I1,…,IN],N表示步骤1)处理后的数据集中的数据数量,经过一段Embedding,做一个线性变换α=WI,W是一个权重矩阵,可将高维词向量矩阵转换为低维矩阵,I矩阵最原始是one-hot编码的高维稀疏词向量矩阵,通过W矩阵,高维稀疏词向量矩阵I会线性转换为低维词向量稠密矩阵α,然后让其与句子token的position信息求和,即X=P+α;用X=[x1,…,xN]表示N个输入信息;通过线性变换得到Query向量,Key向量,Value向量,如式(1)、(2)、(3)所示,
Query=WQX#(1)
Key=WKX#(2)
Value=WVX#(3)
步骤22)计算Query与Key之间的点乘,然后为了防止其结果过大,除以一个尺度标度其中dk为一个Query或Key向量的维度;再利用softmax操作将其结果归一化为概率分布,然后再乘以Value就得到权重求和的表示,如式(4)示;
步骤23)多头注意力机制有多组WQ,WK,WV的权重矩阵,每一组注意力的多组WQ,WK,WV的权重矩阵都是随机初始化的,将Embedding的向量切成多份,与权重相乘,构成输入向量WiX,如式(5)、(6)、(7)所示,形成Queryi,Keyi,Valuei,i=1,…,h,其中i表示切分的head个数;然后计算Attention权重矩阵得到每个head,最后将所有head合并,点乘权重WO,将切分后的head,线性转换为原维度的矩阵,得到Multi-Head矩阵,这个矩阵包含了所有attention heads的信息,如式(8)、(9)所示
Queryi=QWi Q#(5)
Keyi=KWi K#(6)
Valuei=VWi V#(7)
headi=Attention(Queryi,Keyi,Valuei),i=1,…,h#(8)
MultiHead(Query,Key,Value)=Concact(head1,…,headh)WO#(9)
上标Q、K、V分别表示对应权重矩阵;
步骤24)将Query向量,Key向量,Value向量,输入一层Add&Norm层,Add将自注意力层的输入和输出相加,Norm进行归一化,得到的向量列表会传入一层全连接的前馈神经网络,经过相应的Add&Norm层处理,输出融合多头注意力机制的词向量特征矩阵。
4.根据权利要求1所诉的一种基于BERT-BiGRU的恶意URL检测方法,其特征在于,所述步骤3)具体如下:
步骤31)门控循环单元GRU由重置门rt和更新门zt组成,其中更新门由输入门和遗忘门组成;首先,由重置门控制并决定从旧元胞状态和当前输入中丢弃哪些信息,如式(10)所示;
rt=σ(Wrxt+Urht-1)#(10)
式中:σ代表Sigmod激活函数;xt代表当前输入;ht-1代表上一时刻隐层的输出;Wr和Ur是权重矩阵;
步骤32)使用改进的双向GRU信息可用同一个训练序列分别向前和向后各训练一个GRU模型,分为两个部分:
1)由更新门zt实现忘记之前信息和添加信息的操作,xt代表当前输入,ht-1代表上一时刻隐层的输出,Wz和Uz是权重矩阵,其中如式(11)所示;
zt=σ(Wzxt+Uzht-1)#(11)
步骤33)最后再将两个模型的输出进行线性组合起来用于更新旧元胞状态ht-1到新元胞状态ht,如式(13)所示;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110201467.2A CN112926303B (zh) | 2021-02-23 | 2021-02-23 | 一种基于BERT-BiGRU的恶意URL检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110201467.2A CN112926303B (zh) | 2021-02-23 | 2021-02-23 | 一种基于BERT-BiGRU的恶意URL检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112926303A true CN112926303A (zh) | 2021-06-08 |
CN112926303B CN112926303B (zh) | 2023-06-27 |
Family
ID=76170436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110201467.2A Active CN112926303B (zh) | 2021-02-23 | 2021-02-23 | 一种基于BERT-BiGRU的恶意URL检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112926303B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591084A (zh) * | 2021-07-26 | 2021-11-02 | 福州大学 | 基于电路路径语句的Transformer恶意芯片识别方法及系统 |
CN113626597A (zh) * | 2021-07-22 | 2021-11-09 | 杭州电子科技大学 | 一种基于门控三塔的智能制造装备故障预测方法 |
CN113742188A (zh) * | 2021-08-25 | 2021-12-03 | 宁波大学 | 一种基于bert的非侵入式电脑行为监测方法及系统 |
CN113791791A (zh) * | 2021-09-01 | 2021-12-14 | 中国船舶重工集团公司第七一六研究所 | 基于自然语言理解与转化的业务逻辑无代码开发方法 |
CN114513355A (zh) * | 2022-02-14 | 2022-05-17 | 平安科技(深圳)有限公司 | 恶意域名检测方法、装置、设备及存储介质 |
CN114915496A (zh) * | 2022-07-11 | 2022-08-16 | 广州番禺职业技术学院 | 基于时间权重和深度神经网络的网络入侵检测方法和装置 |
CN115658886A (zh) * | 2022-09-20 | 2023-01-31 | 广东技术师范大学 | 基于语义文本的智能肝癌分期方法、系统及介质 |
WO2023056808A1 (zh) * | 2021-10-08 | 2023-04-13 | 中兴通讯股份有限公司 | 加密恶意流量检测方法、装置、存储介质及电子装置 |
CN116192666A (zh) * | 2023-02-09 | 2023-05-30 | 西安电子科技大学 | 一种基于时空相关的网络节点和链路剩余资源预测方法 |
CN117235532A (zh) * | 2023-11-09 | 2023-12-15 | 西南民族大学 | 一种基于M-Bert的恶意网站检测模型的训练及检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444343A (zh) * | 2020-03-24 | 2020-07-24 | 昆明理工大学 | 基于知识表示的跨境民族文化文本分类方法 |
US20200314122A1 (en) * | 2019-03-26 | 2020-10-01 | Proofpoint, Inc. | Uniform Resource Locator Classifier and Visual Comparison Platform for Malicious Site Detection |
CN112364160A (zh) * | 2020-06-02 | 2021-02-12 | 湖北大学 | 一种结合ALBERT和BiGRU的专利文本分类方法 |
-
2021
- 2021-02-23 CN CN202110201467.2A patent/CN112926303B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200314122A1 (en) * | 2019-03-26 | 2020-10-01 | Proofpoint, Inc. | Uniform Resource Locator Classifier and Visual Comparison Platform for Malicious Site Detection |
CN111444343A (zh) * | 2020-03-24 | 2020-07-24 | 昆明理工大学 | 基于知识表示的跨境民族文化文本分类方法 |
CN112364160A (zh) * | 2020-06-02 | 2021-02-12 | 湖北大学 | 一种结合ALBERT和BiGRU的专利文本分类方法 |
Non-Patent Citations (1)
Title |
---|
廖祥文;黄知;杨定达;程学旗;陈国龙;: "基于分层注意力网络的社交媒体谣言检测", 中国科学:信息科学, no. 11 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113626597A (zh) * | 2021-07-22 | 2021-11-09 | 杭州电子科技大学 | 一种基于门控三塔的智能制造装备故障预测方法 |
CN113591084B (zh) * | 2021-07-26 | 2023-08-04 | 福州大学 | 基于电路路径语句的Transformer恶意芯片识别方法及系统 |
CN113591084A (zh) * | 2021-07-26 | 2021-11-02 | 福州大学 | 基于电路路径语句的Transformer恶意芯片识别方法及系统 |
CN113742188A (zh) * | 2021-08-25 | 2021-12-03 | 宁波大学 | 一种基于bert的非侵入式电脑行为监测方法及系统 |
CN113791791A (zh) * | 2021-09-01 | 2021-12-14 | 中国船舶重工集团公司第七一六研究所 | 基于自然语言理解与转化的业务逻辑无代码开发方法 |
CN113791791B (zh) * | 2021-09-01 | 2023-07-25 | 中国船舶重工集团公司第七一六研究所 | 基于自然语言理解与转化的业务逻辑无代码开发方法 |
WO2023056808A1 (zh) * | 2021-10-08 | 2023-04-13 | 中兴通讯股份有限公司 | 加密恶意流量检测方法、装置、存储介质及电子装置 |
CN114513355A (zh) * | 2022-02-14 | 2022-05-17 | 平安科技(深圳)有限公司 | 恶意域名检测方法、装置、设备及存储介质 |
CN114915496B (zh) * | 2022-07-11 | 2023-01-10 | 广州番禺职业技术学院 | 基于时间权重和深度神经网络的网络入侵检测方法和装置 |
CN114915496A (zh) * | 2022-07-11 | 2022-08-16 | 广州番禺职业技术学院 | 基于时间权重和深度神经网络的网络入侵检测方法和装置 |
CN115658886A (zh) * | 2022-09-20 | 2023-01-31 | 广东技术师范大学 | 基于语义文本的智能肝癌分期方法、系统及介质 |
CN116192666A (zh) * | 2023-02-09 | 2023-05-30 | 西安电子科技大学 | 一种基于时空相关的网络节点和链路剩余资源预测方法 |
CN117235532A (zh) * | 2023-11-09 | 2023-12-15 | 西南民族大学 | 一种基于M-Bert的恶意网站检测模型的训练及检测方法 |
CN117235532B (zh) * | 2023-11-09 | 2024-01-26 | 西南民族大学 | 一种基于M-Bert的恶意网站检测模型的训练及检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112926303B (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112926303A (zh) | 一种基于BERT-BiGRU的恶意URL检测方法 | |
Harshvardhan et al. | A comprehensive survey and analysis of generative models in machine learning | |
CN114169330B (zh) | 融合时序卷积与Transformer编码器的中文命名实体识别方法 | |
CN110275936B (zh) | 一种基于自编码神经网络的相似法律案例检索方法 | |
CN111414461B (zh) | 一种融合知识库与用户建模的智能问答方法及系统 | |
CN111984791B (zh) | 一种基于注意力机制的长文分类方法 | |
CN113626589B (zh) | 一种基于混合注意力机制的多标签文本分类方法 | |
CN112560456B (zh) | 一种基于改进神经网络的生成式摘要生成方法和系统 | |
CN114780767B (zh) | 一种基于深度卷积神经网络的大规模图像检索方法及系统 | |
Aziguli et al. | A robust text classifier based on denoising deep neural network in the analysis of big data | |
CN114925195A (zh) | 一种融合词汇编码与结构编码的标准内容文本摘要生成方法 | |
Wang et al. | Human mitochondrial genome compression using machine learning techniques | |
CN116976505A (zh) | 基于信息共享的解耦注意网络的点击率预测方法 | |
CN113505240B (zh) | 一种基于注意力引导图lstm关系提取方法及装置 | |
CN116385946B (zh) | 面向视频的目标片段定位方法、系统、存储介质及设备 | |
CN117437499A (zh) | 针对clip提取域不变特征与优化文本的迁移学习方法 | |
CN116842934A (zh) | 一种基于持续学习的多文档融合深度学习标题生成方法 | |
Xu et al. | Sequence generative adversarial network for long text summarization | |
CN116562286A (zh) | 一种基于混合图注意力的智能配置事件抽取方法 | |
CN110674265A (zh) | 面向非结构化信息的特征判别与信息推荐系统 | |
CN113505937B (zh) | 一种基于多视角编码器的法律判决预测系统及方法 | |
CN115577111A (zh) | 基于自注意力机制的文本分类方法 | |
CN115422945A (zh) | 一种融合情感挖掘的谣言检测方法及系统 | |
CN114548293A (zh) | 基于跨粒度自蒸馏的视频-文本跨模态检索方法 | |
Lee et al. | A two-level recurrent neural network language model based on the continuous Bag-of-Words model for sentence classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |