CN115563604A - 基于深度神经网络和特征融合的口令强度评估方法及系统 - Google Patents
基于深度神经网络和特征融合的口令强度评估方法及系统 Download PDFInfo
- Publication number
- CN115563604A CN115563604A CN202211279524.XA CN202211279524A CN115563604A CN 115563604 A CN115563604 A CN 115563604A CN 202211279524 A CN202211279524 A CN 202211279524A CN 115563604 A CN115563604 A CN 115563604A
- Authority
- CN
- China
- Prior art keywords
- password
- probability
- construction
- neural network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
- G06F21/46—Structures or tools for the administration of authentication by designing passwords or checking the strength of passwords
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明公开了基于深度神经网络和特征融合的口令强度评估方法及系统,获取口令数据集;对口令数据集中的每一条原始口令和小写口令,提取口令构造规则类特征、口令构造模式类特征和口令构造概率特征;将训练口令集对应的口令构造规则类特征、口令构造模式类特征和口令构造概率特征作为特征向量,训练深度神经网络,得到基于多分类问题的深度神经网络模型,将用户输入口令输入基于多分类问题的深度神经网络模型,将输出预测概率值最大的强度标签作为当前口令的强度评估结果。本发明更全面、多角度地对口令进行评估;同时结合深度神经网络构造口令强度分类器,进一步提升了口令强度评估方法的准确性与鲁棒性。
Description
技术领域
本发明属于信息安全技术领域,涉及口令安全技术,具体地说,是一种基于深度神经网络和特征融合的口令强度评估方法及系统。
背景技术
口令认证凭借其实现简单、低成本、高效率的特点在众多身份认证方式中占据主流地位,其安全性直接关系到整个应用系统及用户隐私安全。然而大多数用户安全意识不足,倾向于设置简单、便于记忆的口令,容易被攻击者破解,从而带来安全隐患。因此,向用户提供及时、准确的口令强度反馈是非常必要的。
近年来提出了一系列口令强度评价器(password strength meter,PSM)。根据设计思路的不同,可以将这些PSM分为三类:基于规则、基于模式检测和基于攻击算法。以NIST为代表的基于规则的PSM依据口令中大小写字母、数字和特殊字符的数量综合评价口令强度;以Zxcvbn为代表的基于模式检测的PSM通过检测口令中子串所属的构造模式(如键盘模式、顺序字符模式、字典模式、常见语义模式)来为口令打分;基于攻击算法的PSM则以基于概率上下文无关文法(Probabilistic Context-Free Grammar,PCFG)及马尔可夫(Markov)模型的PSM为代表,通过预测口令的构造概率对口令进行强弱判定。
目前,口令强度评估方法仍存在以下问题:
1)上述三类口令强度评估方法的评价角度各异,通用性不佳。基于规则的PSM从口令字符组成的角度出发,只能提供一个粗略的评估结果,容易产生误判;基于模式检测的PSM从口令模式识别的角度出发,过分依赖于该方法所选定的模式规则;基于攻击算法的PSM从口令攻击的角度出发,更适用于评价较为复杂的口令,对于简单口令的评价能力不足。由于方法之间的评价角度不同,因此各方法对口令的评价较为片面,这样往往会导致不同方法给出的评估结果存在冲突,以口令“ejtqmsaw”为例,对于Zxcvbn来说是个强口令,而对于NIST来说却为一个弱口令,这在实际应用中存在一定局限性。
2)基于攻击算法的PSM在预测口令构造概率时存在缺陷。传统PCFG模型无法生成新的口令子段,因此无法对训练集中不存在的未登录词(out-of-vocabulary,OOV)进行概率评估,Markov模型虽然可以生成新的子段,但其训练过程也只是简单地对已有训练样本进行概率统计,模型效果易受训练数据的影响,容易过拟合。另外,传统PCFG方法将一条口令中各子段的构造概率累积作为整条口令的构造概率,但结构越长的口令在概率连乘的情况下其概率值必然越小,口令的构造概率受口令结构长度影响较大,这样会导致传统PCFG方法在刻画口令概率时出现概率计算不平衡的问题,例如部分口令结构长度为2的口令在口令数据集中的出现频率远大于口令结构长度为1的口令,但因其结构长度大于后者,导致其计算出的构造概率反而低于前者。上述这些问题将不可避免地影响基于攻击方法的PSM评估口令强度的准确性。
3)抗攻击能力差。传统的口令评估方法均规定了明确的评价规则,一旦恶意攻击者掌握了评价方法的评价规则,则可以刻意避开其制订的规则,从而更有针对性地进行用户口令攻击,对用户口令的保护效果甚微。
综上,现有的口令强度评估方法中由于评价角度不同,相同口令在不同方法中评估结果不确定,不具体通用性,以及由于以上口令评估方法具有明确的评价规则,容易遭受用户口令攻击等问题。
发明内容
本发明的目的在于提供一种基于深度神经网络和特征融合的口令强度评估方法及系统,用于解决现有技术中口令强度评估方法存在不具备通用性、固定评价规则容易遭受口令攻击的问题,以及解决现有技术中由于构造预测口令概率存在缺陷导致影响的评估准确性的问题。
一种基于深度神经网络和特征融合的口令强度评估方法,包括:
步骤S100、训练基于多分类问题的深度神经网络模型,包括:
步骤S110、收集并处理已泄露的真实用户口令,将真实用户口令作为原始口令,将真实用户口令中大写字母转换为小写字母得到小写口令,原始口令和小写口令组成口令数据集;
步骤S120、对口令数据集中的每一条原始口令和小写口令,提取口令构造规则类特征,口令构造规则类特征包括原始口令的口令长度、大写字母个数占比、小写字母个数占比、数字个数占比、特殊字符个数占比、连续小写字母组成的字符串长度占比、连续大写字母组成的字符串长度占比、连续数字组成的字符串长度占比、连续特殊字符组成的字符串长度占比、口令中不重复字符个数占比、连续辅音字母组成的字母串长度占比、元音字母个数占比和信息熵以及小写口令的不重复字符个数占比;
步骤S130、构建常用英文单词字典、常用中文拼音字典和口令黑名单字典,且常用英文单词字典、常用中文拼音字典和口令黑名单字典中的字母均为小写;对口令数据集中的每一条口令,提取其包含常用英文单词字典中的单词的个数、包含常用中文拼音字典中的拼音的个数和包含口令黑名单字典中的口令的个数,提取符合顺序词模式的字母串个数和字母串总长度,以及提取符合键盘词模式的子串个数和子串总长度,得到口令构造模式类特征;
步骤S140、将所述口令数据集划分为训练口令集和测试口令集,采用训练口令集训练多阶RNN模型,结合变阶算法构建基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征;
步骤S150、将训练口令集对应的口令构造规则类特征、口令构造模式类特征和口令构造概率特征作为特征向量,训练深度神经网络,训练完成并使用测试口令集测试通过后得到基于多分类问题的深度神经网络模型;
步骤S200、对新的用户输入口令,提取口令构造规则类特征、口令构造模式类特征和口令构造概率特征作为基于多分类问题的深度神经网络模型的输入,将基于多分类问题的深度神经网络模型输出的预测概率值最大的强度标签作为当前口令的强度评估结果。
所述步骤S140具体包括:
步骤S141、统计口令数据集中每一条原始口令的出现频次,根据出现频次由低到高为其打上“强”、“中”或“弱”的强度标签,从这三种强度标签的口令中,等比例随机划分为训练口令集和测试口令集;将训练口令集中的每一条原始口令对应的小写口令按照字母、数字、特殊字符进行划分,得到口令结构structpw′、字母子段、数字子段和特殊字符子段;对所有口令结构structpw′进行频率统计,得到口令结构频率字典,口令结构频率字典中的键为口令结构structpw′,值为structpw′的出现频率P(structpw′):
所有的字母子段构成字母子段集,所有的数字子段构成数字子段集,所有的特殊字符子段构成特殊字符子段集;
步骤S142、训练多阶RNN模型:
向字母子段集、数字子段集和特殊字符子段集中的子段尾部添加结束符<EOS>,再使用字母子段集训练基于字母的多阶RNN模型LRNN1~m,使用数字子段集训练基于数字的多阶RNN模型DRNN1~m,使用特殊字符子段集训练基于特殊字符的多阶RNN模型SRNN1~m,其中m为多阶RNN模型的最高阶数;在训练中,对于n阶模型RNNn,其中,n∈[1,m],选择长度不小于n的子段且不包含结束符作为其训练数据,对每一个子段,从第一个字符开始,以滑动窗口的方式,截取窗口大小为n的子串作为输入序列,并将当前窗口后的下一个字符作为字符标签,滑动窗口以1为步长不断向后滑动,直到获取到的字符标签为结束符<EOS>;
步骤S143、构建基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征。
所述步骤S143具体包括:
A10、获取口令结构概率:对口令数据集中的每一条原始口令对应的小写口令,提取口令结构structpw′及子段,从所述口令结构频率字典中查找口令结构structpw′的出现频率P(structpw′),若口令结构structpw′不在口令结构频率字典中,则将口令结构频率字典中口令结构概率的最小值赋给P(structpw′);
A20、结合多阶RNN模型和变阶算法构建变阶RNN模型,获取口令子段的构造概率,具体步骤为:
A21、对n元语法构建频率字典,n元语法为n阶模型RNNn的所有输入序列,频率字典中的键为n元语法,值为该n元语法的出现频率:
出现频率=(n元语法的出现次数)/(输入序列中所有相同长度n元语法的个数)
设置n元语法的出现频率的阈值thresholdn,其中1元语法不需要设置,阈值的选择依赖于阈值百分比PERC,即将n元语法频率字典中的频率降序排列,若频率字典的大小为size,则将第PERC*size处的频率作为阈值,基于该阈值动态地选择适合阶数的RNN模型,用以预测下一位字符的生成概率;
A22、子段w:x1x2…xi<EOS>的构造概率P(w):
其中,子段w包括字母子段、数字子段和特殊字符子段,p(x1)为在1元语法频率字典中字符x1的出现频率,p(x2)为将x1作为一阶RNN模型的输入,得到结果为x2的预测概率,用Se,r代表子段从位置e到r的子串,p(xl)表示在S1,l-1后出现xl的概率(l>2),在计算p(xl)时,变阶算法会寻找一个最小的e,确保Se,l-1出现的频率大于等于阈值thresholdl-e,其中,l-e≤m,此时将Se,l-1作为RNNl-e模型的输入,得到xl的预测概率,继续循环此步骤,得到xl+1的预测概率,直到生成结束符<EOS>;
A30、使用基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征:
根据公式计算得到口令的构造概率P(structpw′),并将此概率值作为原始口令基于攻击算法的构造概率特征,式中o表示被拆分出的字母子段、数字子段和特殊字符子段的个数,p(wx)表示基于步骤A20所生成的口令中第x个子段的构造概率。
所述步骤S150具体为:
步骤S151、将训练口令集中所有口令对应的口令构造规则类特征、口令构造模式类特征及其强度标签进行组合,作为深度神经网络模型的训练集,将测试口令集所有口令对应的口令构造规则类特征、口令构造模式类特征及其强度标签,作为深度神经网络模型的测试集;
步骤S152、深度神经网络模型包括输入层、多个隐藏层和输出层,输入层的每个神经元代表一个特征,使用训练集训练深度神经网络,首先随机初始化权值向量,在前向传播中,通过多个非线性隐藏层将输入转发到输出,并最终将计算出的输出与对应输入的实际输出进行比较,在反向传播中利用梯度下降调整权值,使误差最小化,这一过程持续多次,直到在模型预测中达到预期;模型训练结束后,使用测试集,结合准确率Accuracy、精确率Precision、召回率Recall以及综合评价指标F1值作为评价指标,对模型进行测试,测试通过后得到基于多分类问题的深度神经网络模型。
所述步骤S200具体为:对于一条新的用户输入口令,分别按照所述步骤S110提取口令构造规则类特征、按照步骤S120提取口令构造模式类特征、按照步骤A20提取口令构造概率特征,并作为基于多分类问题的深度神经网络模型的输入,基于多分类问题的深度神经网络模型的输出层给出用户输入口令为“强”、“中”和“弱”这三类强度标签的预测概率,三者的预测概率之和为1,预测概率值最大的强度标签则为当前口令的强度评估结果。
基于深度神经网络和特征融合的口令强度评估系统,包括用户口令收集模块、口令构造规则类特征提取模块、口令构造模式类特征提取模块、基于攻击算法的口令构造概率特征提取模块、基于多分类问题的深度神经网络模型以及口令强度评估模块,其中:
用户口令收集模块,用于收集已泄露的真实用户口令,对收集到的每一条原始口令,将大写字母转换为小写字母,得到小写口令;
口令构造规则类特征提取模块,用于提取口令构造规则类特征,口令构造规则类特征包括原始口令的口令长度、大写字母个数占比、小写字母个数占比、数字个数占比、特殊字符个数占比、连续小写字母组成的字符串长度占比、连续大写字母组成的字符串长度占比、连续数字组成的字符串长度占比、连续特殊字符组成的字符串长度占比、口令中不重复字符个数占比、连续辅音字母组成的字母串长度占比、元音字母个数占比和信息熵以及小写口令的不重复字符个数占比;
口令构造模式类特征提取模块,用于构造常用英文单词字典、常用中文拼音字典和用户口令黑名单字典,提取口令中符合常用英文单词字典的字符子串个数、符合常用中文拼音字典的字符子串个数、符合用户口令黑名单字典的字符子串个数、符合顺序词模式的字母串个数、符合顺序词模式的字母串总长度、符合键盘词模式的子串个数和符合键盘词模式的子串总长度,得到口令构造模式类特征;
基于攻击算法的口令构造概率特征提取模块,用于进行口令的预处理后训练多阶RNN模型,结合多阶RNN模型和变阶算法,构建变阶RNN模型,获取口令子段的构造概率,再基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征;
基于多分类问题的深度神经网络模型,由训练口令集中所有口令对应的口令构造规则类特征和口令构造模式类特征及其强度标签进行组合后训练深度神经网络模型、采用测试口令集中所有口令对应的口令构造规则类特征和口令构造模式类特征及其强度标签测试通过后得到,用于输出用户输入口令为“强”、“中”和“弱”这三类强度标签的预测概率;
口令强度评估模块,用于提取用户输入口令的口令构造规则类特征、口令构造模式类特征和口令构造概率特征,并输入基于多分类问题的深度神经网络模型,以及将基于多分类问题的深度神经网络模型输出的预测概率值最大的强度标签作为当前口令的强度评估结果。
本发明通过下述技术方案解决上述问题:
本发明与现有技术相比,具有以下优点及有益效果:
(1)本发明综合提取了口令基于构造规则类、构造模式类及基于攻击算法的构造概率这三评价角度下的口令特征,相较于现有方法,更全面、多角度地对口令进行刻画与描述;同时结合深度神经网络构造口令强度分类器(基于多分类问题的深度神经网络模型),进一步提升了口令强度评估方法的准确性与鲁棒性,指导用户避免弱口令、生成强度更高的口令。
(2)本发明采用变阶RNN模型来计算口令子段的构造概率,解决了传统方法无法处理OOV的问题;相较于传统RNN模型,本发明在模型阶数的选择上更加灵活,能够动态平衡模型拟合问题;本发明根据口令结构长度对概率值进行标准化,避免口令结构长度对口令构造概率的影响,能为口令提供更准确的构造概率估计。
(3)由于深度学习模型类似于一个黑盒,通常情况下,攻击者很难获取其内部结构与参数,其评价规则的提取则更加困难,因此恶意攻击者也就无法像传统方法那样有针对性地规避规则,从而加大了攻击者对用户口令的攻击难度,达到了对用户口令的保护效果。
附图说明
图1为本发明的系统框图;
图2为本发明的整体流程图;
图3为多阶RNN模型训练示意图;
图4为变阶RNN模型计算构造概率的流程图;
图5为多层深度神经网络结构图。
具体实施方式
下面结合实施例对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例1:
结合附图2所示,一种基于深度神经网络和特征融合的口令强度评估方法,包括以下步骤:
A.收集并处理已泄露的真实用户口令作为口令数据集
收集已泄露的真实用户口令,对收集到的每一条原始口令pw,将大写字母转换为小写字母,得到小写口令pw′。所有的原始口令pw及其对应的小写口令pw′组成口令数据集E。
B.提取14个口令构造规则类特征
B1.对口令数据集E中的每一条原始口令pw,依次提取口令长度、大写字母个数占比、小写字母个数占比、数字个数占比、特殊字符个数占比、连续小写字母字符串长度占比、连续大写字母字符串长度占比、连续数字字符串长度占比、连续特殊字符字符串长度占比、不重复字符个数占比(大小写敏感)、连续辅音字母字母串长度占比、元音字母个数占比和信息熵这13个口令构造规则类特征;
B2.对原始口令pw对应的小写口令pw′,提取其不重复字符个数占比,作为原始口令pw的1个口令构造规则类特征。
C.提取7个口令构造模式类特征
C1.构造用户常用英文单词字典、常用中文拼音字典和口令黑名单字典,且字典中的字母均为小写;
C2.对口令数据集E中的每一条原始口令pw对应的小写口令pw′,提取其包含常用英文单词字典中的单词的个数、包含常用中文拼音字典中的拼音的个数、包含口令黑名单字典中的口令的个数,并将它们作为原始口令pw的3个口令构造模式类特征;
C3.对口令数据集E中的每一条原始口令pw对应的小写口令pw′,提取其符合顺序词模式的字母串个数、符合顺序词模式的字母串总长度、符合键盘词模式的子串个数、符合键盘词模式的子串总长度,并将它们作为原始口令pw的4个口令构造模式类特征。
D.训练多阶RNN模型,结合变阶算法构建基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征;
D1.数据集划分与预处理,具体步骤为:
D11.统计口令数据集E中每一条原始口令pw的出现频次,根据出现频次由低到高为其打上“强”、“中”、“弱”的强度标签。从这三种强度标签的口令中,按相同比例,随机划分为训练口令集ETrain和测试口令集ETest;
D12.将训练口令集ETrain作为训练口令攻击模型的训练集,将其中的每一条原始口令pw对应的小写口令pw′按照字母、数字、特殊字符进行划分,得到口令结构structpw′、字母子段(Li)、数字子段(Dj)和特殊字符子段(Sk),其中i、j、k表示子段的长度。对所有口令结构进行频率统计,得到口令结构频率字典,字典中的键为口令结构structpw′,值为structpw′的出现频率P(structpw′),同时,所有的字母子段构成字母子段集,所有的数字子段构成数字子段集,所有的特殊字符子段构成特殊字符子段集;
D2.训练多阶RNN模型。首先向字母子段集、数字子段集和特殊字符子段集中的子段尾部添加结束符<EOS>,再使用字母子段集训练基于字母的多阶RNN模型LRNN1~m,使用数字子段集训练基于数字的多阶RNN模型DRNN1~m,使用特殊字符子段集训练基于特殊字符的多阶RNN模型SRNN1~m,其中m为多阶RNN模型的最高阶数。在训练中,对于n阶模型RNNn,(n∈[1,m]),选则长度不小于n的子段(不包含结束符)作为其训练数据。对每一个子段,从第一个字符开始,以滑动窗口的方式,截取窗口大小为n的子串作为输入序列,并将当前窗口后的下一个字符作为标签,滑动窗口以1为步长不断向后滑动,直到获取到的字符标签为结束符<EOS>。
D3.使用基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令的构造概率特征,具体步骤为:
D31.获取口令结构概率。对口令数据集E中的每一条原始口令pw对应的小写口令pw′,提取其口令结构structpw′及子段,从步骤D12得到的口令结构频率字典中查找structpw′对应的概率值P(structpw′),若structpw′不在字典中,则将字典中口令结构概率的最小值赋给P(structpw′);
D32.将多阶RNN模型结合变阶算法,构造变阶RNN模型,获取口令子段的构造概率,具体步骤为:
D321.首先,为作为输入数据参与模型训练的n元语法(对应为步骤D2中n阶RNN模型的所有输入序列,n∈[1,m])构建频率字典,字典中的键为n元语法,值为该n元语法的出现频率,其中并在此基础上为n元语法的出现频率设置一个阈值thresholdn,其中1元语法不需要设置。阈值的选择依赖于阈值百分比PERC,即将n元语法频率字典中的频率降序排列,若字典的大小为size,则将第PERC*size处的频率作为阈值,基于该阈值动态地选择适合阶数的RNN模型,用以预测下一位字符的生成概率;
D322.为了方便表述,这里将字母子段、数字子段和特殊字符子段统一表示为w,对于子段w:x1x2…xi<EOS>,其构造概率的计算公式为 式中p(x1)为在1元语法频率字典中字符x1的出现频率,p(x2)为将x1作为一阶RNN模型的输入,得到结果为x2的预测概率,用Se,r代表子段从位置e到r的子串,p(xl)表示在S1,l-1后出现xl的概率(l>2),在计算p(xl)时,变阶算法会寻找一个最小的e,确保Se,l-1出现的频率大于等于阈值thresholdl-e,其中,l-e≤m,此时将Se,l-1作为RNNl-e的输入,得到xl的预测概率,继续循环此步骤,得到xl+1的预测概率,直到生成结束符<EOS>。
D33.使用基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令的构造概率特征。根据公式计算得到口令的构造概率,并将此概率值作为原始口令pw基于攻击算法的构造概率特征,式中o表示被拆分出的字母子段、数字子段和特殊字符子段的个数,p(wx)表示基于步骤D32所生成的口令中第x个子段的构造概率。
E.将上述步骤中提取的多维特征作为特征向量,训练深度神经网络;
E1.将步骤D1中的训练口令集ETrain中所有口令对应的22个口令特征及其强度标签进行组合,作为用于训练深度神经网络模型的训练集Trainwith_label,将测试口令集ETest中所有口令对应的特征及标签,作为模型的测试集Testwith_label;
E2.设计深度神经网络模型结构,使用训练集Trainwith_label训练深度神经网络。神经网络分类器可以简化为输入层、多个隐藏层和输出层,输入层的每个神经元代表一个特征,模型的训练过程包括连续多次的前向和反向传播。首先随机初始化权值向量,在前向传播中,通过多个非线性隐藏层将输入转发到输出,并最终将计算出的输出与对应输入的实际输出进行比较,在反向传播中利用梯度下降调整权值,使误差最小化,这一过程将持续多次,直到在模型预测中获得了预期的改进。模型训练结束后,使用测试集Testwith_label,结合准确率(Accuracy,Ac)、精确率(Precision,Pr)、召回率(Recall,Re)以及综合评价指标F1值(F1-measure,F1)作为评价指标,对模型进行测试。
F.构建基于多分类问题的口令强度评估模型,实现用户口令强度评估
对于一条新的用户输入口令,首先按照上述步骤B、C、D3依次提取口令的口令构造规则类特征、口令构造模式类特征和基于攻击算法的口令构造概率特征共22个口令特征,将其作为步骤E中基于多分类问题的深度神经网络模型的输入。模型的输出层会给出输入口令对于“强、中、弱”这三类强度标签的预测概率,三者的预测概率之和为1,预测概率值最大的标签则为当前口令的强度评估结果。
实施例2:
结合附图1和图2所示,基于深度神经网络和特征融合的口令强度评评估系统由用户口令收集模块、口令构造规则类特征提取模块、口令构造模式类特征提取模块、基于攻击算法的口令构造概率特征提取模块、基于多分类问题的深度神经网络模型以及口令强度评估模块组成,各模块实现的功能具体如下:
1.用户口令收集模块
收集已泄露的真实用户口令,对收集到的每一条原始口令pw,将大写字母转换为小写字母,得到小写口令pw′。所有的原始口令pw及其对应的小写口令pw′组成口令数据集E。
2.口令构造规则类特征提取模块
定义口令中元素x的长度为len(x),下同。遍历口令数据集E中每一条原始口令pw,依次提取下述14个口令规则类特征:口令长度len(pw)、大写字母个数占比小写字母个数占比数字个数占比特殊字符个数占比连续小写字母组成的字符串长度占比连续大写字母组成的字符串长度占比连续数字组成的字符串长度占比连续特殊字符组成的字符串长度占比口令中不重复字符个数占比(大小写敏感)连续辅音字母组成的字母串长度占比元音字母个数占比信息熵p(xi)表示字符xi在口令中出现的概率,最后统计小写口令pw′中不重复字符个数占比
例如,口令“pw:haPPy$112”的长度为12,大写字母个数占比为0.17,小写字母个数占比为0.42,数字个数占比为0.25,特殊字符个数占比0.17,连续小写字母组成的字符串长度占比为0.33,连续大写字母组成的字符串长度占比为0.17,连续数字组成的字符串长度占比为0.25,连续特殊字符组成的字符串长度占比为0,口令中不重复字符为“pw:haPy$12”,则口令中不重复字符个数占比(大小写敏感)为0.83,连续辅音字母长度占比为0.71,元音字母个数占比为0.14,信息熵为2.9,转化为小写字母后的口令为:“pw:happy$112”,此时口令中不重复字符为“pw:hay$12”,则口令中不重复字符个数占比为0.75。
3.口令构造模式类特征提取模块
构造常用英文单词字典、常用中文拼音字典、用户口令黑名单字典,其中常用英文单词字典由常用英文单词、英文名和地名组成,拼音字典由中文用户常用汉语拼音组成,用户口令黑名单字典由网站NordPass所统计的用户常用的200条口令组成。提取口令中符合字典模式的字符子串个数,例如口令“jenny123456”中的“jenny”在常用英文单词字典中,“123456”在用户口令黑名单字典中,则该口令对应的包含常用英文单词字典中的单词个数为1、包含常用中文拼音字典中的拼音个数为0、包含口令黑名单字典中的口令个数为1。同样地,对于口令“zhangpassword”由于子串“password”既在常用英文单词字典中,又在用户口令黑名单字典中,因此上述特征则依次为1、1、1;
判断口令的字母子段中是否存在顺序词模式:例如“abcdefg”、“xyz”等即为顺序词,提取口令中符合顺序词模式的字母串个数、符合顺序词模式的字母串总长度。例如口令“xyz#$abcd”中符合顺序词模式的字母串个数为2、符合顺序词模式的字母串总长度为7;
判断口令中是否存在键盘词模式:口令由95个可打印字符组成,对于其中的每一位字符而言,在键盘布局中,均有与其相邻的若干字符。通过判断口令x1x2x3…xn中第i个字符xi与其后一位字符xi+1是否在键盘排列中构成相邻关系,来提取口令中符合键盘词模式的子串个数和符合键盘词模式的子串总长度。例如,口令“!qaz@wsx”中“!qaz”以及“@wsx”均构成键盘词模式,且两子串在键盘中的位置同样是相邻的,因此可以识别为该口令键盘词模式的子串总长度为8、子串个数为1,而口令“zxcvpwasdf”符合键盘词模式的子串总长度为8、子串个数为2。注意,键盘词的识别过程中不考虑已被识别为字典模式的子串,如“password”中的“assd”部分不做考虑。
仍以口令“pw:haPPy$112”为例,其对应的小写形式为“pw:happy$112”,口令中“happy”子串在常用英文单词字典中,且“112”构成键盘词模式,因此其对应的7个构造模式类特征分别为:包含常用英文单词字典中的单词个数为1、包含常用中文拼音字典中的拼音个数为0、包含口令黑名单字典中的口令个数为0、符合键盘词模式的子串个数为1、符合键盘词模式的子串总长度为3、符合顺序词模式的字母串个数为0、符合顺序词模式的字母串总长度为0。
4.基于攻击算法的口令构造概率特征提取模块
此模块从基于变阶RNN及概率平衡的PCFG口令攻击算法的角度出发,获取口令在此攻击算法下的构造概率,此概率值可反映出口令的抗攻击能力,本模块又可细分为数据集划分与预处理、训练多阶RNN模型及生成口令构造概率三个步骤,其中:
数据集划分与预处理过程为:
统计口令数据集E中每一条原始口令pw的出现频次,根据出现频次由低到高为其打上“强、中、弱”的标签。从这三种标签的口令中,按相同比例,随机划分为训练口令集ETrain和测试口令集ETest;
将训练口令集ETrain作为本步骤用于训练口令攻击模型的训练集,将其中的每一条原始口令pw对应的小写口令pw′按照字母、数字、特殊字符进行划分,得到口令结构structpw′、字母子段(Li)、数字子段(Dj)和特殊字符子段(Sk),其中i、j、k表示子段的长度。对所有口令结构进行频率统计,得到口令结构频率字典,字典中的键为口令结构structpw′,值为structpw′的出现频率P(structpw′),同时,所有的字母子段构成字母子段集,所有的数字子段构成数字子段集,所有的特殊字符子段构成特殊字符子段集;
多阶RNN模型的训练过程为:
首先向字母子段集、数字子段集和特殊字符子段集中的子段尾部添加结束符<EOS>,再使用字母子段集训练基于字母的多阶RNN模型LRNN1~m,使用数字子段集训练基于数字的多阶RNN模型DRNN1~m,使用特殊字符子段集训练基于特殊字符的多阶RNN模型SRNN1~m,其中m为多阶RNN模型的最高阶数。在训练中,对于n阶模型RNNn,n∈[1,m],选则长度不小于n的子段(不包含结束符)作为其训练数据。对每一个子段,从第一个字符开始,以滑动窗口的方式,截取窗口大小为n的子串作为输入序列,并将当前窗口后的下一个字符作为标签,滑动窗口以1为步长不断向后滑动,直到获取到的字符标签为结束符<EOS>。本发明中模型的层数均为2,隐藏层的节点个数为64,优化器为adam,训练时学习率初始化为5×10-3,损失函数为categorical_crossentropy,RNN模型的最高阶数为5;
如图3所示,以使用数字子段集来训练DRNN1~5为例,假设数字子段集为{“159753”,“4321”}。
训练DRNN1时,<输入序列,标签>对为:
{<1,5>,<5,9>,<9,7>,<7,5>,<5,3>,<3,<EOS>>,<4,3>,<3,2>,<2,1>,<1,<EOS>>}。
训练DRNN2时,<输入序列,标签>对为:
{<15,9>,<59,7>,<97,5>,<75,3>,<53,<EOS>>,<43,2>,<32,1>,<21,<EOS>>}。
训练DRNN3时,<输入序列,标签>对为:
{<159,7>,<597,5>,<975,3>,<753,<EOS>>,<432,1>,<321,<EOS>>}。
训练DRNN4时,<输入序列,标签>对为:
{<1597,5>,<5975,3>,<9753,<EOS>>,<4321,<EOS>>}。训练DRNN5时,<输入序列,标签>对为{<15975,3>,<59753,<EOS>>}。
口令构造概率生成过程为:
首先,获取口令结构概率。对口令数据集E中的每一条原始口令pw对应的小写口令pw′,提取其口令结构structpw′及子段,例如口令“pw#123456”可被划分为基本结构L2S1D6及子段“pw”、“#”、“123456”。在口令结构频率字典中找到结构L2S1D6对应的概率值P(structpw′),若结构L2S1D6不在字典中,则将字典中口令结构概率的最小值赋给P(structpw′);
接着,将多阶RNN模型结合变阶算法,构造变阶RNN模型,获取口令子段的构造概率。为作为输入数据参与模型训练的n元语法(对应为步骤D13中n阶RNN模型的所有输入序列,n∈[1,m])构建频率字典,字典中的键为n元语法,值为该n元语法的出现频率,其中在此基础上为n元语法的出现频率设置一个阈值thresholdn,其中1元语法不需要设置。阈值的选择依赖于阈值百分比PERC,即将n元语法频率字典中的频率降序排列,若字典的大小为size,则将第PERC*size处的频率作为阈值,本发明中阈值百分比PERC为80%,基于该阈值动态地选择适合阶数的RNN模型,用以预测下一位字符的生成概率;
为了方便表述,这里将字母子段、数字子段和特殊字符子段统一表示为w,如图4所示,对于一条子段w:x1x2x3…xi<EOS>,首先获取x1在1元语法频率字典中对应的频率,记为p(x1),将x1作为一阶RNN模型的输入序列,获取标签为x2的预测概率p(x2)。此时,根据流程seqSelect,判断x1x2在2元语法频率字典中对应的概率freq(x1x2)是否大于threshold2,若是,则将x1x2作为二阶RNN模型的输入序列seq,若不是则降阶,将x2作为一阶RNN模型的输入序列,获取标签为x3的预测概率p(x3)。接着再判断x1x2x3在3元语法频率字典中对应的概率freq(x1x2x3)是否大于threshold3,若是,将x1x2x3作为三阶RNN模型的输入序列,若不是则降阶,同上,继续判断使用x2x3还是x3作为模型的输入序列,获取标签为x4的预测概率p(x4),……
一般地,在预测xt+1的生成概率时,若t<5,则可从x1x2…xt、x2…xt、…、xt中不断尝试,若t≥5,则需要从xt-4xt-3…xt、xt-3xt-2…xt、xt中不断尝试,直到找到满足阈值条件的最长子串。子段w的构造概率为P(w)=P(x1)*P(x2)*…*P(xi)*P(<EOS>)。为避免概率连乘导致数值过小而造成浮点数向下溢出的问题,本发明将原式通过对数的形式进行转化,即:
最后,使用基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令的构造概率特征。本发明按照口令结构长度对概率值进行标准化,根据公式计算得到口令的构造概率,并将此概率值作为原始口令pw基于攻击算法的构造概率特征,式中n表示被拆分出的字母子段、数字子段、特殊字符子段的个数,p(wx)表示基于上述步骤所生成的口令中第x个子段的构造概率。
至此完成口令的全部特征提取,仍以口令“pw:haPPy$112”为例,若其基于攻击算法下的口令构造概率为3.01×10-5,则其对应的22个口令特征为(12、0.17、0.42、0.25、0.17、0.33、0.17、0.25、0、0.83、0.71、0.14、2.9、0.75、1、0、0、1、3、0、0、3.01×10-5)。
5.基于多分类问题的深度神经网络模型
将训练口令集ETrain中所有口令对应的22个口令特征及其强度标签进行组合,作为用于训练深度神经网络模型的训练集Trainwith_label,将测试口令集ETest中所有口令对应的特征及强度标签,作为模型的测试集Testwith_label。深度神经网络分类器可以简化为三层结构:输入层、隐藏层和输出层。本发明所构建的神经网络模型如图5所示,输入层的每个神经元代表一个特征,本发明共提取口令22个特征,因此输入层节点个数为22,输出层代表对口令强度评估为“强、中、弱”这三类强度标签的概率。模型的训练过程包括连续多次的前向和反向传播,首先随机初始化权值向量,在前向传播中,通过多个非线性隐藏层将输入转发到输出,并最终将计算出的输出与对应输入的实际输出进行比较,然后在反向传播中利用梯度下降调整权值使误差最小化,其交叉熵损失只考虑样本的标记类别,可表示为:yi为样本被正确分类的输出,yj为样本y对于三个类别的输出,每次对损失进行计算后,会根据损失对模型中的参数进行更新,参数更新过程就是模型学习过程,这一过程将持续多次,直到在模型预测中获得了预期的改进。本实例中隐藏层使用的是ReLU激活函数,输出层使用的是Softmax激活函数,选择的损失函数是categorical_crossentropy,隐藏层节点个数分别为30、10,epochs为15,batch_size为32。
6.口令强度评估模块
对于一条新的用户输入口令,首先按照上述步骤B、C、D3依次提取口令的构造规则类特征、构造模式类特征和基于攻击算法的口令构造概率特征共22个口令特征,将其作为步骤E中基于多分类问题的深度神经网络模型的输入。模型的输出层会给出输入口令对于“强、中、弱”这三类标签的预测概率,三者的预测概率之和为1,预测概率值最大的标签则为当前口令的强度评估结果。例如,对于输入的待检测口令:“pw:haPPy$112”,模型对“强、中、弱”这三类强度标签的预测概率分别为(0.75,0.2,0.05),则该口令强度的评估结果则为“强”。
尽管这里参照本发明的解释性实施例对本发明进行了描述,上述实施例仅为本发明较佳的实施方式,本发明的实施方式并不受上述实施例的限制,应该理解,本领域技术人员可以设计出很多其他的修改和实施方式,这些修改和实施方式将落在本申请公开的原则范围和精神之内。
Claims (6)
1.一种基于深度神经网络和特征融合的口令强度评估方法,其特征在于,包括:
步骤S100、训练基于多分类问题的深度神经网络模型,包括:
步骤S110、收集并处理已泄露的真实用户口令,将真实用户口令作为原始口令,将真实用户口令中大写字母转换为小写字母得到小写口令,原始口令和小写口令组成口令数据集;
步骤S120、对口令数据集中的每一条原始口令和小写口令,提取口令构造规则类特征,口令构造规则类特征包括原始口令的口令长度、大写字母个数占比、小写字母个数占比、数字个数占比、特殊字符个数占比、连续小写字母组成的字符串长度占比、连续大写字母组成的字符串长度占比、连续数字组成的字符串长度占比、连续特殊字符组成的字符串长度占比、口令中不重复字符个数占比、连续辅音字母组成的字母串长度占比、元音字母个数占比和信息熵以及小写口令的不重复字符个数占比;
步骤S130、构建常用英文单词字典、常用中文拼音字典和口令黑名单字典,且常用英文单词字典、常用中文拼音字典和口令黑名单字典中的字母均为小写;对口令数据集中的每一条口令,提取其包含常用英文单词字典中的单词的个数、包含常用中文拼音字典中的拼音的个数和包含口令黑名单字典中的口令的个数,提取符合顺序词模式的字母串个数和字母串总长度,以及提取符合键盘词模式的子串个数和子串总长度,得到口令构造模式类特征;
步骤S140、将所述口令数据集划分为训练口令集和测试口令集,采用训练口令集训练多阶RNN模型,结合变阶算法构建基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征;
步骤S150、将训练口令集对应的口令构造规则类特征、口令构造模式类特征和口令构造概率特征作为特征向量,训练深度神经网络,训练完成并使用测试口令集测试通过后得到基于多分类问题的深度神经网络模型;
步骤S200、对新的用户输入口令,提取口令构造规则类特征、口令构造模式类特征和口令构造概率特征作为基于多分类问题的深度神经网络模型的输入,将基于多分类问题的深度神经网络模型输出的预测概率值最大的强度标签作为当前口令的强度评估结果。
2.根据权利要求1所述的基于深度神经网络和特征融合的口令强度评估方法,其特征在于,所述步骤S140具体包括:
步骤S141、统计口令数据集中每一条原始口令的出现频次,根据出现频次由低到高为其打上“强”、“中”或“弱”的强度标签,从这三种强度标签的口令中,等比例随机划分为训练口令集和测试口令集;将训练口令集中的每一条原始口令对应的小写口令按照字母、数字、特殊字符进行划分,得到口令结构structpw′、字母子段、数字子段和特殊字符子段;对所有口令结构structpw′进行频率统计,得到口令结构频率字典,口令结构频率字典中的键为口令结构structpw′,值为structpw′的出现频率P(structpw′):
所有的字母子段构成字母子段集,所有的数字子段构成数字子段集,所有的特殊字符子段构成特殊字符子段集;
步骤S142、训练多阶RNN模型:
向字母子段集、数字子段集和特殊字符子段集中的子段尾部添加结束符<EOS>,再使用字母子段集训练基于字母的多阶RNN模型LRNN1~m,使用数字子段集训练基于数字的多阶RNN模型DRNN1~m,使用特殊字符子段集训练基于特殊字符的多阶RNN模型SRNN1~m,其中m为多阶RNN模型的最高阶数;在训练中,对于n阶模型RNNn,其中,n∈[1,m],选择长度不小于n的子段且不包含结束符作为其训练数据,对每一个子段,从第一个字符开始,以滑动窗口的方式,截取窗口大小为n的子串作为输入序列,并将当前窗口后的下一个字符作为字符标签,滑动窗口以1为步长不断向后滑动,直到获取到的字符标签为结束符<EOS>;
步骤S143、构建基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征。
3.根据权利要求2所述的基于深度神经网络和特征融合的口令强度评估方法,其特征在于,所述步骤S143具体包括:
A10、获取口令结构概率:对口令数据集中的每一条原始口令对应的小写口令,提取口令结构structpw′及子段,从所述口令结构频率字典中查找口令结构structpw′的出现频率P(structpw′),若口令结构structpw′不在口令结构频率字典中,则将口令结构频率字典中口令结构概率的最小值赋给P(structpw′);
A20、结合多阶RNN模型和变阶算法构建变阶RNN模型,获取口令子段的构造概率,具体步骤为:
A21、对n元语法构建频率字典,n元语法为n阶模型RNNn的所有输入序列,频率字典中的键为n元语法,值为该n元语法的出现频率:
出现频率=(n元语法的出现次数)/(输入序列中所有相同长度n元语法的个数)
设置n元语法的出现频率的阈值thresholdn,其中1元语法不需要设置,阈值的选择依赖于阈值百分比PERC,即将n元语法频率字典中的频率降序排列,若频率字典的大小为size,则将第PERC*size处的频率作为阈值,基于该阈值动态地选择适合阶数的RNN模型,用以预测下一位字符的生成概率;
A22、子段w:x1x2…xi<EOS>的构造概率P(w):
其中,子段w包括字母子段、数字子段和特殊字符子段,p(x1)为在1元语法频率字典中字符x1的出现频率,p(x2)为将x1作为一阶RNN模型的输入,得到结果为x2的预测概率,用Se,r代表子段从位置e到r的子串,p(xl)表示在S1,l-1后出现xl的概率(l>2),在计算p(xl)时,变阶算法会寻找一个最小的e,确保Se,l-1出现的频率大于等于阈值thresholdl-e((l-e)≤m),此时将Se,l-1作为RNNl-e模型的输入,得到xl的预测概率,继续循环此步骤,得到xl+1的预测概率,直到生成结束符<EOS>;
A30、使用基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征:
4.根据权利要求3所述的基于深度神经网络和特征融合的口令强度评估方法,其特征在于,所述步骤S150具体为:
步骤S151、将训练口令集中所有口令对应的口令构造规则类特征、口令构造模式类特征及其强度标签进行组合,作为深度神经网络模型的训练集,将测试口令集所有口令对应的口令构造规则类特征、口令构造模式类特征及其强度标签,作为深度神经网络模型的测试集;
步骤S152、深度神经网络模型包括输入层、多个隐藏层和输出层,输入层的每个神经元代表一个特征,使用训练集训练深度神经网络,首先随机初始化权值向量,在前向传播中,通过多个非线性隐藏层将输入转发到输出,并最终将计算出的输出与对应输入的实际输出进行比较,在反向传播中利用梯度下降调整权值,使误差最小化,这一过程持续多次,直到在模型预测中达到预期;模型训练结束后,使用测试集,结合准确率Accuracy、精确率Precision、召回率Recall以及综合评价指标F1值作为评价指标,对模型进行测试,测试通过后得到基于多分类问题的深度神经网络模型。
5.根据权利要求4所述的基于深度神经网络和特征融合的口令强度评估方法,其特征在于,所述步骤S200具体为:对于一条新的用户输入口令,分别按照所述步骤S110提取口令构造规则类特征、按照所述步骤S120提取口令构造模式类特征以及按照步骤A20提取口令构造概率特征,并作为基于多分类问题的深度神经网络模型的输入,基于多分类问题的深度神经网络模型的输出层给出用户输入口令为“强”、“中”和“弱”这三类强度标签的预测概率,三者的预测概率之和为1,预测概率值最大的强度标签则为当前口令的强度评估结果。
6.基于深度神经网络和特征融合的口令强度评估系统,其特征在于,包括用户口令收集模块、口令构造规则类特征提取模块、口令构造模式类特征提取模块、基于攻击算法的口令构造概率特征提取模块、基于多分类问题的深度神经网络模型以及口令强度评估模块,其中:
用户口令收集模块,用于收集已泄露的真实用户口令,对收集到的每一条原始口令,将大写字母转换为小写字母,得到小写口令;
口令构造规则类特征提取模块,用于提取口令构造规则类特征,口令构造规则类特征包括原始口令的口令长度、大写字母个数占比、小写字母个数占比、数字个数占比、特殊字符个数占比、连续小写字母组成的字符串长度占比、连续大写字母组成的字符串长度占比、连续数字组成的字符串长度占比、连续特殊字符组成的字符串长度占比、口令中不重复字符个数占比、连续辅音字母组成的字母串长度占比、元音字母个数占比和信息熵以及小写口令的不重复字符个数占比;
口令构造模式类特征提取模块,用于构造常用英文单词字典、常用中文拼音字典和用户口令黑名单字典,提取口令中符合常用英文单词字典的字符子串个数、符合常用中文拼音字典的字符子串个数和符合用户口令黑名单字典的字符子串个数,提取符合顺序词模式的字母串个数和字母串总长度,以及提取符合键盘词模式的子串个数和子串总长度,得到口令构造模式类特征;
基于攻击算法的口令构造概率特征提取模块,用于进行口令的预处理后训练多阶RNN模型,结合多阶RNN模型和变阶算法,构建变阶RNN模型,获取口令子段的构造概率,再基于变阶RNN及概率平衡的PCFG口令攻击模型,提取口令构造概率特征;
基于多分类问题的深度神经网络模型,由训练口令集中所有口令对应的口令构造规则类特征和口令构造模式类特征及其强度标签进行组合后训练深度神经网络模型、采用测试口令集中所有口令对应的口令构造规则类特征和口令构造模式类特征及其强度标签测试通过后得到,用于输出用户输入口令为“强”、“中”和“弱”这三类强度标签的预测概率;
口令强度评估模块,用于提取用户输入口令的口令构造规则类特征、口令构造模式类特征和口令构造概率特征,并输入基于多分类问题的深度神经网络模型,以及将基于多分类问题的深度神经网络模型输出的预测概率值最大的强度标签作为当前口令的强度评估结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211279524.XA CN115563604A (zh) | 2022-10-19 | 2022-10-19 | 基于深度神经网络和特征融合的口令强度评估方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211279524.XA CN115563604A (zh) | 2022-10-19 | 2022-10-19 | 基于深度神经网络和特征融合的口令强度评估方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115563604A true CN115563604A (zh) | 2023-01-03 |
Family
ID=84746176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211279524.XA Pending CN115563604A (zh) | 2022-10-19 | 2022-10-19 | 基于深度神经网络和特征融合的口令强度评估方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115563604A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117371299A (zh) * | 2023-12-08 | 2024-01-09 | 安徽大学 | 一种托卡马克新经典环向粘滞力矩的机器学习方法 |
-
2022
- 2022-10-19 CN CN202211279524.XA patent/CN115563604A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117371299A (zh) * | 2023-12-08 | 2024-01-09 | 安徽大学 | 一种托卡马克新经典环向粘滞力矩的机器学习方法 |
CN117371299B (zh) * | 2023-12-08 | 2024-02-27 | 安徽大学 | 一种托卡马克新经典环向粘滞力矩的机器学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109992782B (zh) | 法律文书命名实体识别方法、装置及计算机设备 | |
EP2486470B1 (en) | System and method for inputting text into electronic devices | |
CN107122479B (zh) | 一种基于深度学习的用户密码猜测系统 | |
EP2585962B1 (en) | Password checking | |
Ayache et al. | Explaining black boxes on sequential data using weighted automata | |
CN111966786B (zh) | 一种微博谣言检测方法 | |
CN111209370A (zh) | 一种基于神经网络可解释性的文本分类方法 | |
CN113742733B (zh) | 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置 | |
CN112101009A (zh) | 一种基于知识图谱的红楼梦人物关系框架相似度评判方法 | |
CN107180084A (zh) | 词库更新方法及装置 | |
CN109086274B (zh) | 基于约束模型的英文社交媒体短文本时间表达式识别方法 | |
CN111368529B (zh) | 基于边缘计算的移动终端敏感词识别方法、装置及系统 | |
CN114429132A (zh) | 一种基于混合格自注意力网络的命名实体识别方法和装置 | |
CN115563604A (zh) | 基于深度神经网络和特征融合的口令强度评估方法及系统 | |
CN114510946B (zh) | 基于深度神经网络的中文命名实体识别方法及系统 | |
Chen et al. | Malicious URL detection based on improved multilayer recurrent convolutional neural network model | |
Deng et al. | Efficient password guessing based on a password segmentation approach | |
CN115422939A (zh) | 一种基于大数据的细粒度商品命名实体识别方法 | |
Mansour et al. | Text vectorization method based on concept mining using clustering techniques | |
CN108628826B (zh) | 候选词评估方法、装置、计算机设备和存储介质 | |
CN116720519B (zh) | 一种苗医药命名实体识别方法 | |
CN116318845B (zh) | 一种正负样本比例不平衡条件下的dga域名检测方法 | |
CN116227486A (zh) | 一种基于检索和对比学习的情感分析方法 | |
CN112632526B (zh) | 一种基于综合分段的用户口令建模与强度评估方法 | |
CN113282746B (zh) | 一种网络媒体平台变体评论对抗文本生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |