CN110348227A - 一种软件漏洞的分类方法及系统 - Google Patents

一种软件漏洞的分类方法及系统 Download PDF

Info

Publication number
CN110348227A
CN110348227A CN201910634705.1A CN201910634705A CN110348227A CN 110348227 A CN110348227 A CN 110348227A CN 201910634705 A CN201910634705 A CN 201910634705A CN 110348227 A CN110348227 A CN 110348227A
Authority
CN
China
Prior art keywords
vulnerability
word
text
iteration
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910634705.1A
Other languages
English (en)
Other versions
CN110348227B (zh
Inventor
王倩
李亚洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN201910634705.1A priority Critical patent/CN110348227B/zh
Publication of CN110348227A publication Critical patent/CN110348227A/zh
Application granted granted Critical
Publication of CN110348227B publication Critical patent/CN110348227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/57Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
    • G06F21/577Assessing vulnerabilities and evaluating computer system security
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种软件漏洞的分类方法及系统。所述分类方法使用Skip‑gram语言模型进行漏洞词向量的训练和生成,将每条漏洞文本中的词映射到有限维度的空间中,以此表征语义信息,降低了词向量的稀疏性,然后充分利用卷积神经网络和循环神经网络提取特征和表征语义信息的优势,构建了C‑GRU神经网络模型,利用卷积神经网络提取文本向量的局部特征,利用GRU提取与文本上下文相关的全局特征,将两种互补模型提取的特征进行融合。本发明克服了基于机器学习算法漏洞自动分类方法在处理高维和稀疏问题上表现的效果不是很好,而且不能很好地提取文本特征和表征语义信息,同时忽略了特定的漏洞信息的技术缺陷,提高了软件分类准确性。

Description

一种软件漏洞的分类方法及系统
技术领域
本发明涉及软件漏洞检测领域,特别涉及一种软件漏洞的分类方法及系统。
背景技术
随着信息技术的快速发展,互联网以及计算机的应用已经深入到各个行业,从能源、交通、生产、军事、医疗到人们的日常生活,都已经离不开互联网的支持。信息技术在给我们带来极大便利的同时,也带来了巨大的风险和隐患。近几年屡屡发生的计算机安全事故,如信息系统被攻击造成机密信息泄露,隐私数据丢失和其他重大损失的安全事件等,给各大企业、组织和个人带来了巨大的损失,而造成计算机安全事故的原因则是系统的漏洞被恶意攻击利用。因此,安全问题得到了广泛的关注,各种组织、论坛、会议还有论文的主题等直指安全问题,使得信息安全问题成为近些年科学研究的热点。在过去的十几年中,漏洞数量增长迅速,对美国国家漏洞数据库(National Vulnerability Database,NVD)从2002年到2019年5月份的数据统计显示,漏洞总数高达121279条,其中包括未知漏洞类型38868条。面对如此海量的计算机漏洞,传统的人工漏洞分类方法局限性愈加明显,如何对其进行有效的分类管理显得尤为重要。为了减少系统被攻击和破坏的风险,降低漏洞修复的成本,有效提高漏洞分类管理的效率,漏洞自动化分类模型的研究越来越受到重视。
近些年来,机器学习算法被越来越多的应用在漏洞分类领域中,以实现漏洞的自动分类。HovsepyanA等人提出了一种新颖的软件组件的漏洞预测方法,该方法将机器学习与文本分析技术结合对软件漏洞源码进行分析,并取得了较好的效果。DumiduWijayasekara等人通过使用来自错误描述的文本信息,对Bayes分类器进行了测试,分析说明了Bayes分类器根据漏洞描述文本信息实现分类上的可行性。Sarang Na等人提出了一种使用Bayes分类器将CVE条目分类为漏洞类型的分类方法,对一些无法提供足够信息的CVE条目进行了研究,同时较好的分析了尚未分类的CVE条目以及未分类的漏洞文档。Davari M等人提出了一种基于激活漏洞条件的自动漏洞分类框架,使用不同的机器学习技术(随机森林,C4.5决策树,逻辑回归和朴素贝叶斯)来构建具有最高F-score的分类器,以标记未知漏洞,并通过实验分析了Firefox项目的580个软件安全缺陷来评估分类的有效性。Marian Gawron等人又将Naive Bayes算法和简单的人工神经网络算法应用于漏洞分类,并在相同的数据集上进行对比,对比实验结果表明人工神经网络算法在漏洞分类效果上要优于Naive Bayes算法。Harer J A等人提出一种使用机器学习进行漏洞检测的数据驱动方法,将深度神经网络模型的应用与随机森林等更传统的模型进行了比较,并发现最佳性能来自将深度模型学习的特征与基于树的模型相结合,最终,提出的最高性能模型在精确-召回曲线下的面积为0.49,ROC曲线下的面积达到了0.87。G Huang等人提出了基于深度神经网络的软件漏洞自动分类方法,该方法基于TF-IDF、信息增益和深度神经网络构建的漏洞自动分类器,以美国国家漏洞数据库(National VulnerabilityDatabase,NVD)中的漏洞为实验数据,漏洞分类的准确率达到了87%,表明该模型具有较高的分类性能。
但是由于软件漏洞的种类和数量比较多,每一条漏洞的描述信息相对较少,使得每条漏洞在生成的词向量空间上呈现出高维度和稀疏的特点。这些基于机器学习算法漏洞自动分类方法在处理高维和稀疏问题上表现的效果不是很好,而且不能很好地提取文本特征和表征语义信息,同时忽略了特定的漏洞信息,而使得软件漏洞分类的准确性不高。
发明内容
本发明的目的是提供一种软件漏洞的分类方法及系统,以提高软件漏洞分类的准确性。
为实现上述目的,本发明提供了如下方案:
本发明提供一种软件漏洞的分类方法,所述分类方法包括如下步骤:
从漏洞数据库中获取训练集和测试集;
构建C-GRU模型(将卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Gated Recurrent Unit,GRU)进行结合构建的模型);
采用所述训练集和所述测试集训练和测试所述C-GRU模型,得到训练后的C-GRU模型;
获取软件漏洞文本集;
采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵;
将所述二维文本特征矩阵输入所述训练后的C-GRU模型进行分类,获得分类结果。
可选的,所述C-GRU模型包括嵌入层、卷积层、最大池化层、GRU层和输出层。
可选的,所述采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵,具体包括:
采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量;
将漏洞文本中的所有词的漏洞词向量纵向堆叠,生成所述漏洞文本的二维文本特征矩阵。
可选的,所述采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量,具体包括:
将所述漏洞文本中的第i个词输入所述Skip-gram语言模型获得第i个词的初始预设维数输出向量,并利用目标函数计算初始的目标函数值;
采用负样本对第i个词进行更新,得到第j次迭代的第i个词;
将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量;
采用公式计算第j次迭代的目标函数值;其中,wo是指输入的词,是词wo的输出向量,h∈RN是隐含层的值,Sneg是任意抽取的负样本集合,wn是输入的负样本,表示负样本wn的输出向量;
判断第j次迭代的目标函数值与第j-1次迭代的目标函数值的差值是否小于预设阈值,得到第一判断结果;
若所述第一判断结果表示差值小于预设阈值,则判断迭代次数是否小于预设迭代次数,得到第二判断结果;
若所述第二判断结果表示所述迭代次数小于所述预设迭代次数,则采用负样本对第j次迭代的第i个词进行更新,得到第j+1次迭代的第i个词,令迭代次数的数值增加1,返回步骤“将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量”;
若所述第二判断结果表示所述迭代次数不小于所述预设迭代次数,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量;
若所述第一判断结果表示差值不小于预设阈值,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量。
可选的,所述采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵,之前还包括:
过滤漏洞文本的标点符号和特殊字符,得到过滤后的漏洞文本;
将过滤后的漏洞文本中的大写字符转换成小写字符,得到转换后的漏洞文本;
将转换后的漏洞文本中的英文单词转换成名词形式,得到形式转化后的漏洞文本;
过滤所述形式转化后的漏洞文本中的停用词,得到预处理后的漏洞文本。
本发明还提供一种软件漏洞的分类系统,所述分类系统包括:
训练集和测试集获取模块,用于从漏洞数据库中获取训练集和测试集;
C-GRU模型构建模块,用于构建C-GRU模型;
C-GRU模型训练和测试模块,用于采用所述训练集和所述测试集训练和测试所述C-GRU模型,得到训练后的C-GRU模型;
漏洞文本集获取模块,用于获取软件漏洞文本集;
漏洞文本映射模块,用于采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵;
分类模块,用于将所述二维文本特征矩阵输入所述训练后的C-GRU模型进行分类,获得分类结果。
可选的,所述C-GRU模型包括嵌入层、卷积层、最大池化层、GRU层和输出层。
可选的,所述漏洞文本映射模块,具体包括:
漏洞词向量训练生成子模块,用于采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量;
纵向堆叠子模块,用于将漏洞文本中的所有词的漏洞词向量纵向堆叠,生成所述漏洞文本的二维文本特征矩阵。
可选的,所述漏洞词向量训练生成子模块,具体包括:
初始化单元,用于将所述漏洞文本中的第i个词输入所述Skip-gram语言模型获得第i个词的初始预设维数输出向量,并利用目标函数计算初始的目标函数值;
更新单元,用于采用负样本对第i个词进行更新,得到第j次迭代的第i个词;
向量输出单元,用于将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量;
目标函数值计算单元,用于采用公式计算第j次迭代的目标函数值;其中,wo是指输入的词,是词wo的输出向量,h∈RN是隐含层的值,Sneg是任意抽取的负样本集合,wn是输入的负样本,表示负样本wn的输出向量;
第一判断单元,用于判断第j次迭代的目标函数值与第j-1次迭代的目标函数值的差值是否小于预设阈值,得到第一判断结果;
第二判断单元,用于若所述第一判断结果表示差值小于预设阈值,则判断迭代次数是否小于预设迭代次数,得到第二判断结果;
第二判断结果处理单元,用于若所述第二判断结果表示所述迭代次数小于所述预设迭代次数,则采用负样本对第j次迭代的第i个词进行更新,得到第j+1次迭代的第i个词,令迭代次数的数值增加1,返回步骤“将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量”;若所述第二判断结果表示所述迭代次数不小于所述预设迭代次数,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量;
第一判断结果处理单元,用于若所述第一判断结果表示差值不小于预设阈值,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量。
可选的,所述分类系统,还包括:
第一过滤模块,用于过滤漏洞文本的标点符号和特殊字符,得到过滤后的漏洞文本;
大小写转换模块,用于将过滤后的漏洞文本中的大写字符转换成小写字符,得到转换后的漏洞文本;
形式转化模块,用于将转换后的漏洞文本中的英文单词转换成名词形式,得到形式转化后的漏洞文本;
第二漏洞模块,用于过滤所述形式转化后的漏洞文本中的停用词,得到预处理后的漏洞文本。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供一种软件漏洞的分类方法及系统。所述分类方法使用Skip-gram语言模型进行漏洞词向量的训练和生成,将每条漏洞文本中的词映射到有限维度的空间中,以此表征语义信息,降低了词向量的稀疏性,然后充分利用卷积神经网络和循环神经网络提取特征和表征语义信息的优势,构建了C-GRU神经网络模型,利用卷积神经网络提取文本向量的局部特征,利用GRU提取与文本上下文相关的全局特征,将两种互补模型提取的特征进行融合。本发明克服了基于机器学习算法漏洞自动分类方法在处理高维和稀疏问题上表现的效果不是很好,而且不能很好地提取文本特征和表征语义信息,同时忽略了特定的漏洞信息的技术缺陷,能更好的提取漏洞特征,表征语义信息,同时也能更好的处理词向量空间的高维性和稀疏性。在提高了软件分类准确性的同时,在召回率、精度和F1-score等指标中均具有很好的性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种软件漏洞的分类方法的流程图;
图2为本发明提供的一种软件漏洞的分类方法的原理图;
图3为本发明提供的GRU模型的结构示意图;
图4为本发明提供的C-GRU模型的结构示意图;
图5为本发明提供的Skip-gram语言模型的结构示意图;
图6为本发明提供的一种软件漏洞的分类系统的流程图。
具体实施方式
本发明的目的是提供一种软件漏洞的分类方法及系统,以提高软件漏洞分类的准确性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对发明作进一步详细的说明。
如图1和2所示,本发明提供一种软件漏洞的分类方法,所述分类方法包括如下步骤:
步骤101,从漏洞数据库中获取训练集和测试集。
使用美国国家计算机通用漏洞数据库(National Vulnerability Database,NVD)中的漏洞数据进行软件漏洞分类研究。首先从美国国家计算机通用漏洞数据库获取训练集和测试集。但是本发明的实施所使用的漏洞数据库不限于美国国家计算机通用漏洞数据库。
步骤102,构建C-GRU模型。
本发明将卷积神经网络(CNN)和循环神经网络(GRU)进行结合构建了C-GRU模型。
CNN的结构主要包括:输入层,卷积层和最大池化层。其中卷积层和池化层组合而成的特征抽取器在C-GRU模型中具有重要的影响,尤其是对网络结构复杂度的简化,以及模型参数个数的减少有着显著的作用。
输入层(EmbeddingLayer)的输入是基于Word2vec训练的词向量矩阵。首先将词wn利用Word2vec转化为对应的词向量v(wn),并将由词wn组成的句子映射为句子矩阵sj,句子矩阵sj作为CNN的嵌入层(输入层)的向量矩阵,句子矩阵表示如下:
sj={v(w1),v(w2),...,v(wN)}
其中,v(wn)∈Rk,sj∈Rm*k,k表示词向量的维度,m表示句子的个数。
卷积层(ConvolutionLayer)能够很好地对输入数据的局部特征进行描述,本文使用大小为r·k的滤波器对句子矩阵sj进行卷积操作,提取sj的局部特征。公式如下:
ci=f((r·k)·xi:i+r-1+b
其中,f表示非线性激活函数,该模型使用Relu激活函数,Xi:i+r-1表示sj中i:i+r-1的r行向量,b表示偏置向量,ci表示通过卷积操作得到的局部特征。
滤波器以步长为1从上往下进行滑动,走过整个sj,最终得到局部特征的向量集合c。
c=[c1,c2,...,cN-r+1]
最大池化层(max-pooling)是在卷积操作的基础之上进一步提取局部特征中最重要的部分。池化操作大大降低特征向量的大小。
GRU是LSTM的一个变体,在保留LSTM效果的同时,使结构更加简单,迭代速度也更快。如图3所示GRU包括两个门控结构,分别为重置门rt和更新门zt
GRU内部结构的具体计算公式如下:
rt=σ(xtUr+ht-1Wr+br)
xt=σ(xtUz+ht-1Wz+bz)
ct=tanh(xtUc+rt⊙ht-1Wc+bc)
ht=(1-zt)⊙ht-1+zt⊙ct
yt=σ(Woht+bo)
其中,ht-1为t-1时刻隐藏层的输出,xt为t时刻的输入,ht为t时刻隐藏层的输出,rt表示重置门,zt表示更新门,ct表示t时刻隐藏层节点的候选值,yt表示输出,U、W表示参数矩阵,b表示偏置向量,⊙表示矩阵元素相乘,σ表示sigmoid激活函数。
为了将输出层转换为分类类别的概率分布,添加softmax层,计算公式如下:
其中,yj表示类别j的输出,pj表示类别j的概率,J表示类别总数。
使用交叉熵损失函数计算模型的损失,交叉熵损失计算公式如下:
其中,y(i)为样本i的真实标签,为样本i的预测输出。
本发明的C-GRU模型设置如下:
如图4所示,C-GRU模型主要包括嵌入层,卷积层,最大池化层,GRU层和输出层。
其中嵌入层是50*300的二维矩阵,卷积层的滤波器为3*300的二维矩阵,向下移动的步长为1,卷积层之后使用Relu激活函数,最大池化层的池化窗口大小设置为2,GRU层的神经元个数设置为256,使用Dropout防止模型过拟合,其Dropout值设置为0.5,输出层的神经元个数设置为16,并且使用softmax作为输出层的激活函数。使用交叉熵损失函数计算该模型的损失,使用Adam优化器最小化损失函数,模型训练的批次大小设置为800,迭代次数设置为25。
步骤103,采用所述训练集和所述测试集训练和测试所述C-GRU模型,得到训练后的C-GRU模型。
步骤104,获取软件漏洞文本集。
对所述漏洞文本集进行预处理,预处理的过程为:
(1)去除标点符号和特殊字符
过滤漏洞文本的标点符号和特殊字符(与office中的特殊字符相同,包括:长划线—,短划线–,版权所有等等),得到过滤后的漏洞文本。原始漏洞文本中包含很多标点符号和特殊字符,而这些元素与上下文并不存在语义上的联系,因此首先需要对文本中的所有标点符号和特殊字符进行过滤,只保留含有较多语义信息的词汇。
(2)分词并将所有字符的大写转换为小写
将过滤后的漏洞文本中的大写字符转换成小写字符,得到转换后的漏洞文本。对漏洞文本进行分词是指将连贯的漏洞文本信息切分成一个一个的单词,即将整个漏洞文本信息转换为可以通过统计学进行统计的最小语义单元。对于英文描述的漏洞文本,分词是非常简单的,只需要通过识别文本之间的空格或者标点符号即可将整条漏洞文本划分成一个一个的单词。然后将单词中所有字母的大写形式转换为字母的小写形式。
(3)词形还原
将转换后的漏洞文本中的英文单词转换成名词形式,得到形式转化后的漏洞文本。词形还原是把一个任何形式的英文单词还原为名词形式,即将英文描述中的动词根据人称不同而变化的单词转换为动词原形;将名词的复数形式转换为名词的单数形式;将动名词形式转换为动词原形等,这些词都应该属于同一类的语义相近的词。
(4)停用词过滤
过滤所述形式转化后的漏洞文本中的停用词,得到预处理后的漏洞文本。停用词过滤是指在漏洞文本中频繁出现且对文本信息的内容或分类类别贡献不大甚至无贡献的词语,如常见的介词、冠词、助词、情态动词、代词以及连词等对于漏洞分类来说毫无意义,因此这类词语应该被过滤掉。本文使用的英文通用停用词表对漏洞信息进行停用词过滤。
步骤105,采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵。
Skip-gram语言模型结构如图5所示。Skip-gram模型主要包括输入层(input)、投影层(hidden)和输出层(output),其基本原理是输入wn的词向量去预测wn的上下文词wn-2,wn-1,wn+1,wn+2所对应的词向量。
输入层单词是经过one-hot编码的词向量,给出一系列的训练词(w1,w2,w3,…,WN),该模型的优化目标函数取平均对数似然函数,公式如下:
其中,s是训练上下文的大小,即窗口的大小,N是词汇表中的单词数,wn是中心词。
输出层使用softmax函数求出每个词的概率,此概率的大小表示词典中每个词与输入词(input word)同时出现的可能性。公式如下:
其中,是词的输入和输出的向量表示。
为了提高词向量的训练效率,本文使用负采样(Negative Sampling,NS)来优化Skip-gram模型,NS的主要思想是选择部分负样本(非目标特征词)对正样本(目标特征词)的相关参数(“输出向量”)进行更新。其目标函数如下:
其中,wo是指输入的正样本,是词wo的输出向量,h∈RN是隐含层的值,Sneg是任意抽取的负样本集合。该目标函数的优化目标是使正样本出现的概率尽可能大,而让负样本出现的概率尽可能小。
本发明使用基于Word2vec提供的Skip-gram语言模型进行词向量的训练和生成,将每条文本中的词映射到有限维数的空间中,在该空间内,通过映射关系实现词与词的位置关系来反应它们在语义层面的联系。Skip-gram语言模型通过无监督算法来训练出词的分布式特征表示,即word embedding,然后将每条文本的所有word embedding纵向堆叠即可得到二维文本特征矩阵。具体包括:采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量;将漏洞文本中的所有词的漏洞词向量纵向堆叠,生成所述漏洞文本的二维文本特征矩阵。
其中,采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量,具体包括:将所述漏洞文本中的第i个词输入所述Skip-gram语言模型获得第i个词的初始预设维数输出向量,并利用目标函数计算初始的目标函数值;采用负样本对第i个词进行更新,得到第j次迭代的第i个词;将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量;采用公式计算第j次迭代的目标函数值;其中,wo是指输入的词,是词wo的输出向量,h∈RN是隐含层的值,Sneg是任意抽取的负样本集合,wn是输入的负样本,表示负样本wn的输出向量;判断第j次迭代的目标函数值与第j-1次迭代的目标函数值的差值是否小于预设阈值,得到第一判断结果;若所述第一判断结果表示差值小于预设阈值,则判断迭代次数是否小于预设迭代次数,得到第二判断结果;若所述第二判断结果表示所述迭代次数小于所述预设迭代次数,则采用负样本对第j次迭代的第i个词进行更新,得到第j+1次迭代的第i个词,令迭代次数的数值增加1,返回步骤“将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量”;若所述第二判断结果表示所述迭代次数不小于所述预设迭代次数,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量;若所述第一判断结果表示差值不小于预设阈值,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量。
本发明使用的word2vec中基于Skip-gram语言模型的词分布式表示方法对漏洞实验数据集进行词向量的训练和生成,同时使用了负采样的方法对Skip-gram模型进行优化,来提高词向量的训练效率。将漏洞数据作为词向量训练语料库,Skip-gram训练生成的词向量维度设置为300,将语料中词频小于10的词去掉,使用负采样进行优化时的采样个数设置为5。
步骤106,将所述二维文本特征矩阵输入所述训练后的C-GRU模型进行分类,获得分类结果。
如图6所示,本发明还提供一种软件漏洞的分类系统,所述分类系统包括:
训练集和测试集获取模块601,用于从漏洞数据库中获取训练集和测试集;
C-GRU模型构建模块602,用于构建C-GRU模型。
所述C-GRU模型包括嵌入层、卷积层、最大池化层、GRU层和输出层。
C-GRU模型训练和测试模块603,用于采用所述训练集和所述测试集训练和测试所述C-GRU模型,得到训练后的C-GRU模型;
漏洞文本集获取模块604,用于获取软件漏洞文本集。
所述漏洞文本映射模块604,具体包括:漏洞词向量训练生成子模块,用于采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量;纵向堆叠子模块,用于将漏洞文本中的所有词的漏洞词向量纵向堆叠,生成所述漏洞文本的二维文本特征矩阵。
其中,所述漏洞词向量训练生成子模块,具体包括:初始化单元,用于将所述漏洞文本中的第i个词输入所述Skip-gram语言模型获得第i个词的初始预设维数输出向量,并利用目标函数计算初始的目标函数值;更新单元,用于采用负样本对第i个词进行更新,得到第j次迭代的第i个词;向量输出单元,用于将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量;目标函数值计算单元,用于采用公式计算第j次迭代的目标函数值;其中,wo是指输入的词,是词wo的输出向量,h∈RN是隐含层的值,Sneg是任意抽取的负样本集合,wn是输入的负样本,表示负样本wn的输出向量;第一判断单元,用于判断第j次迭代的目标函数值与第j-1次迭代的目标函数值的差值是否小于预设阈值,得到第一判断结果;第二判断单元,用于若所述第一判断结果表示差值小于预设阈值,则判断迭代次数是否小于预设迭代次数,得到第二判断结果;第二判断结果处理单元,用于若所述第二判断结果表示所述迭代次数小于所述预设迭代次数,则采用负样本对第j次迭代的第i个词进行更新,得到第j+1次迭代的第i个词,令迭代次数的数值增加1,返回步骤“将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量”;若所述第二判断结果表示所述迭代次数不小于所述预设迭代次数,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量;第一判断结果处理单元,用于若所述第一判断结果表示差值不小于预设阈值,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量。
漏洞文本映射模块605,用于采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵;
分类模块606,用于将所述二维文本特征矩阵输入所述训练后的C-GRU模型进行分类,获得分类结果。
所述分类系统,还包括:
第一过滤模块,用于过滤漏洞文本的标点符号和特殊字符,得到过滤后的漏洞文本;
大小写转换模块,用于将过滤后的漏洞文本中的大写字符转换成小写字符,得到转换后的漏洞文本;
形式转化模块,用于将转换后的漏洞文本中的英文单词转换成名词形式,得到形式转化后的漏洞文本;
第二漏洞模块,用于过滤所述形式转化后的漏洞文本中的停用词,得到预处理后的漏洞文本。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供一种软件漏洞的分类方法及系统。所述分类方法使用Skip-gram语言模型进行漏洞词向量的训练和生成,将每条漏洞文本中的词映射到有限维度的空间中,以此表征语义信息,降低了词向量的稀疏性,然后充分利用卷积神经网络和循环神经网络提取特征和表征语义信息的优势,构建了C-GRU神经网络模型,利用卷积神经网络提取文本向量的局部特征,利用GRU提取与文本上下文相关的全局特征,将两种互补模型提取的特征进行融合。本发明克服了基于机器学习算法漏洞自动分类方法在处理高维和稀疏问题上表现的效果不是很好,而且不能很好地提取文本特征和表征语义信息,同时忽略了特定的漏洞信息的技术缺陷,能更好的提取漏洞特征,表征语义信息,同时也能更好的处理词向量空间的高维性和稀疏性。在提高了软件分类准确性的同时,在召回率、精度和F1-score等指标中均具有很好的性能。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

Claims (10)

1.一种软件漏洞的分类方法,其特征在于,所述分类方法包括如下步骤:
从漏洞数据库中获取训练集和测试集;
构建C-GRU模型;
采用所述训练集和所述测试集训练和测试所述C-GRU模型,得到训练后的C-GRU模型;
获取软件漏洞文本集;
采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵;
将所述二维文本特征矩阵输入所述训练后的C-GRU模型进行分类,获得分类结果。
2.根据权利要求1所述软件漏洞的分类方法,其特征在于,所述C-GRU模型包括嵌入层、卷积层、最大池化层、GRU层和输出层。
3.根据权利要求1所述的软件漏洞的分类方法,其特征在于,所述采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵,具体包括:
采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量;
将漏洞文本中的所有词的漏洞词向量纵向堆叠,生成所述漏洞文本的二维文本特征矩阵。
4.根据权利要求3所述的软件漏洞的分类方法,其特征在于,所述采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量,具体包括:
将所述漏洞文本中的第i个词输入所述Skip-gram语言模型获得第i个词的初始预设维数输出向量,并利用目标函数计算初始的目标函数值;
采用负样本对第i个词进行更新,得到第j次迭代的第i个词;
将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量;
采用公式计算第j次迭代的目标函数值;其中,wo是指输入的词,是词wo的输出向量,h∈RN是隐含层的值,Sneg是任意抽取的负样本集合,wn是输入的负样本,表示负样本wn的输出向量;
判断第j次迭代的目标函数值与第j-1次迭代的目标函数值的差值是否小于预设阈值,得到第一判断结果;
若所述第一判断结果表示差值小于预设阈值,则判断迭代次数是否小于预设迭代次数,得到第二判断结果;
若所述第二判断结果表示所述迭代次数小于所述预设迭代次数,则采用负样本对第j次迭代的第i个词进行更新,得到第j+1次迭代的第i个词,令迭代次数的数值增加1,返回步骤“将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量”;
若所述第二判断结果表示所述迭代次数不小于所述预设迭代次数,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量;
若所述第一判断结果表示差值不小于预设阈值,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量。
5.根据权利要求1所述的软件漏洞的分类方法,其特征在于,所述采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵,之前还包括:
过滤漏洞文本的标点符号和特殊字符,得到过滤后的漏洞文本;
将过滤后的漏洞文本中的大写字符转换成小写字符,得到转换后的漏洞文本;
将转换后的漏洞文本中的英文单词转换成名词形式,得到形式转化后的漏洞文本;
过滤所述形式转化后的漏洞文本中的停用词,得到预处理后的漏洞文本。
6.一种软件漏洞的分类系统,其特征在于,所述分类系统包括:
训练集和测试集获取模块,用于从漏洞数据库中获取训练集和测试集;
C-GRU模型构建模块,用于构建C-GRU模型;
C-GRU模型训练和测试模块,用于采用所述训练集和所述测试集训练和测试所述C-GRU模型,得到训练后的C-GRU模型;
漏洞文本集获取模块,用于获取软件漏洞文本集;
漏洞文本映射模块,用于采用Skip-gram语言模型将每条漏洞文本中的词映射到预设维数的空间中,生成漏洞词向量,得到每条漏洞文本的二维文本特征矩阵;
分类模块,用于将所述二维文本特征矩阵输入所述训练后的C-GRU模型进行分类,获得分类结果。
7.根据权利要求6所述软件漏洞的分类系统,其特征在于,所述C-GRU模型包括嵌入层、卷积层、最大池化层、GRU层和输出层。
8.根据权利要求6所述的软件漏洞的分类系统,其特征在于,所述漏洞文本映射模块,具体包括:
漏洞词向量训练生成子模块,用于采用Skip-gram语言模型基于无监督学习算法训练生成漏洞文本中每个词的预设维数的漏洞词向量;
纵向堆叠子模块,用于将漏洞文本中的所有词的漏洞词向量纵向堆叠,生成所述漏洞文本的二维文本特征矩阵。
9.根据权利要求8所述的软件漏洞的分类系统,其特征在于,所述漏洞词向量训练生成子模块,具体包括:
初始化单元,用于将所述漏洞文本中的第i个词输入所述Skip-gram语言模型获得第i个词的初始预设维数输出向量,并利用目标函数计算初始的目标函数值;
更新单元,用于采用负样本对第i个词进行更新,得到第j次迭代的第i个词;
向量输出单元,用于将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量;
目标函数值计算单元,用于采用公式计算第j次迭代的目标函数值;其中,wo是指输入的词,是词wo的输出向量,h∈RN是隐含层的值,Sneg是任意抽取的负样本集合,wn是输入的负样本,表示负样本wn的输出向量;
第一判断单元,用于判断第j次迭代的目标函数值与第j-1次迭代的目标函数值的差值是否小于预设阈值,得到第一判断结果;
第二判断单元,用于若所述第一判断结果表示差值小于预设阈值,则判断迭代次数是否小于预设迭代次数,得到第二判断结果;
第二判断结果处理单元,用于若所述第二判断结果表示所述迭代次数小于所述预设迭代次数,则采用负样本对第j次迭代的第i个词进行更新,得到第j+1次迭代的第i个词,令迭代次数的数值增加1,返回步骤“将所述第j次迭代的第i个词输入所述Skip-gram语言模型获得第i个词的第j次迭代预设维数输出向量”;若所述第二判断结果表示所述迭代次数不小于所述预设迭代次数,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量;
第一判断结果处理单元,用于若所述第一判断结果表示差值不小于预设阈值,则输出第i个词的第j次迭代预设维数输出向量作为第i个词的预设维数的漏洞词向量。
10.根据权利要求6所述的软件漏洞的分类系统,其特征在于,所述分类系统,还包括:
第一过滤模块,用于过滤漏洞文本的标点符号和特殊字符,得到过滤后的漏洞文本;
大小写转换模块,用于将过滤后的漏洞文本中的大写字符转换成小写字符,得到转换后的漏洞文本;
形式转化模块,用于将转换后的漏洞文本中的英文单词转换成名词形式,得到形式转化后的漏洞文本;
第二漏洞模块,用于过滤所述形式转化后的漏洞文本中的停用词,得到预处理后的漏洞文本。
CN201910634705.1A 2019-07-15 2019-07-15 一种软件漏洞的分类方法及系统 Active CN110348227B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910634705.1A CN110348227B (zh) 2019-07-15 2019-07-15 一种软件漏洞的分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910634705.1A CN110348227B (zh) 2019-07-15 2019-07-15 一种软件漏洞的分类方法及系统

Publications (2)

Publication Number Publication Date
CN110348227A true CN110348227A (zh) 2019-10-18
CN110348227B CN110348227B (zh) 2021-01-29

Family

ID=68175276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910634705.1A Active CN110348227B (zh) 2019-07-15 2019-07-15 一种软件漏洞的分类方法及系统

Country Status (1)

Country Link
CN (1) CN110348227B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035846A (zh) * 2020-09-07 2020-12-04 江苏开博科技有限公司 一种基于文本分析的未知漏洞风险评估方法
CN112398862A (zh) * 2020-11-18 2021-02-23 深圳供电局有限公司 一种基于gru模型的充电桩攻击聚类检测方法
CN113010673A (zh) * 2021-03-05 2021-06-22 中标软件有限公司 一种基于熵优化支持向量机的漏洞自动分类方法
CN113010895A (zh) * 2020-12-08 2021-06-22 四川大学 一种基于深度学习的漏洞危害评估指标技术
CN113343248A (zh) * 2021-07-19 2021-09-03 北京有竹居网络技术有限公司 一种漏洞识别方法、装置、设备和存储介质
CN116108428A (zh) * 2023-01-04 2023-05-12 北京宗亮网络科技有限公司 一种基于信息安全大数据的软件在线升级方法及系统
CN117473511A (zh) * 2023-12-27 2024-01-30 中国联合网络通信集团有限公司 边缘节点漏洞数据处理方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809069A (zh) * 2015-05-11 2015-07-29 中国电力科学研究院 一种基于集成神经网络的源代码漏洞检测方法
CN105389379A (zh) * 2015-11-20 2016-03-09 重庆邮电大学 一种基于文本分布式特征表示的垃圾稿件分类方法
CN107102861A (zh) * 2017-04-25 2017-08-29 中南大学 一种获取开源代码库中函数的向量的方法和系统
CN107885999A (zh) * 2017-11-08 2018-04-06 华中科技大学 一种基于深度学习的漏洞检测方法及系统
US20180232523A1 (en) * 2017-02-15 2018-08-16 International Business Machines Corporation Method, system and product for using a predictive model to predict if inputs reach a vulnerability of a program
US20180285740A1 (en) * 2017-04-03 2018-10-04 Royal Bank Of Canada Systems and methods for malicious code detection
CN109886020A (zh) * 2019-01-24 2019-06-14 燕山大学 基于深度神经网络的软件漏洞自动分类方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809069A (zh) * 2015-05-11 2015-07-29 中国电力科学研究院 一种基于集成神经网络的源代码漏洞检测方法
CN105389379A (zh) * 2015-11-20 2016-03-09 重庆邮电大学 一种基于文本分布式特征表示的垃圾稿件分类方法
US20180232523A1 (en) * 2017-02-15 2018-08-16 International Business Machines Corporation Method, system and product for using a predictive model to predict if inputs reach a vulnerability of a program
US20180285740A1 (en) * 2017-04-03 2018-10-04 Royal Bank Of Canada Systems and methods for malicious code detection
CN107102861A (zh) * 2017-04-25 2017-08-29 中南大学 一种获取开源代码库中函数的向量的方法和系统
CN107885999A (zh) * 2017-11-08 2018-04-06 华中科技大学 一种基于深度学习的漏洞检测方法及系统
CN109886020A (zh) * 2019-01-24 2019-06-14 燕山大学 基于深度神经网络的软件漏洞自动分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨东: "基于Attention-Based C-GRU模型的文本分类研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035846A (zh) * 2020-09-07 2020-12-04 江苏开博科技有限公司 一种基于文本分析的未知漏洞风险评估方法
CN112398862A (zh) * 2020-11-18 2021-02-23 深圳供电局有限公司 一种基于gru模型的充电桩攻击聚类检测方法
CN113010895A (zh) * 2020-12-08 2021-06-22 四川大学 一种基于深度学习的漏洞危害评估指标技术
CN113010895B (zh) * 2020-12-08 2022-12-30 四川大学 一种基于深度学习的漏洞危害评估方法
CN113010673A (zh) * 2021-03-05 2021-06-22 中标软件有限公司 一种基于熵优化支持向量机的漏洞自动分类方法
CN113343248A (zh) * 2021-07-19 2021-09-03 北京有竹居网络技术有限公司 一种漏洞识别方法、装置、设备和存储介质
CN116108428A (zh) * 2023-01-04 2023-05-12 北京宗亮网络科技有限公司 一种基于信息安全大数据的软件在线升级方法及系统
CN116108428B (zh) * 2023-01-04 2023-09-01 广州铭诚计算机科技有限公司 一种基于信息安全大数据的软件在线升级方法及系统
CN117473511A (zh) * 2023-12-27 2024-01-30 中国联合网络通信集团有限公司 边缘节点漏洞数据处理方法、装置、设备及存储介质
CN117473511B (zh) * 2023-12-27 2024-04-02 中国联合网络通信集团有限公司 边缘节点漏洞数据处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110348227B (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
CN110348227B (zh) 一种软件漏洞的分类方法及系统
Mo et al. Large language model (llm) ai text generation detection based on transformer deep learning algorithm
Tang et al. Deep learning for sentiment analysis: successful approaches and future challenges
CN104834747B (zh) 基于卷积神经网络的短文本分类方法
Liu et al. An attention-gated convolutional neural network for sentence classification
Le et al. Text classification: Naïve bayes classifier with sentiment Lexicon
Hossain et al. Bengali text document categorization based on very deep convolution neural network
Wu et al. Sentiment classification using attention mechanism and bidirectional long short-term memory network
Bhushan et al. Classification of text documents based on score level fusion approach
CN112232087B (zh) 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
Li et al. Word embedding and text classification based on deep learning methods
CN112231477A (zh) 一种基于改进胶囊网络的文本分类方法
Zhang et al. Continuous word embeddings for detecting local text reuses at the semantic level
Wang et al. An automatic algorithm for software vulnerability classification based on CNN and GRU
Hosseini et al. Deep text clustering using stacked AutoEncoder
Thakur et al. A review on text based emotion recognition system
Qiu et al. Chinese Microblog Sentiment Detection Based on CNN‐BiGRU and Multihead Attention Mechanism
Lee et al. Detecting suicidality with a contextual graph neural network
Bokolo et al. Cyberbullying detection on social media using machine learning
Tiwari et al. Comparative Analysis of Different Machine Learning Methods for Hate Speech Recognition in Twitter Text Data
Tian et al. Chinese short text multi-classification based on word and part-of-speech tagging embedding
Musdholifah et al. FVEC feature and machine learning approach for Indonesian opinion mining on YouTube comments
Sun et al. Entity disambiguation with decomposable neural networks
CN113177120B (zh) 一种基于中文文本分类的情报快速整编方法
Shuang et al. Combining word order and cnn-lstm for sentence sentiment classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant