CN113051873A - 基于变分自编码器的轻量级口令猜测字典生成方法及装置 - Google Patents
基于变分自编码器的轻量级口令猜测字典生成方法及装置 Download PDFInfo
- Publication number
- CN113051873A CN113051873A CN202110300886.1A CN202110300886A CN113051873A CN 113051873 A CN113051873 A CN 113051873A CN 202110300886 A CN202110300886 A CN 202110300886A CN 113051873 A CN113051873 A CN 113051873A
- Authority
- CN
- China
- Prior art keywords
- password
- encoder
- passwords
- model
- variational self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 49
- 239000013598 vector Substances 0.000 claims abstract description 45
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000012216 screening Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 16
- 238000012360 testing method Methods 0.000 description 9
- 238000011160 research Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
- G06F21/46—Structures or tools for the administration of authentication by designing passwords or checking the strength of passwords
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Hardware Design (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
本发明属于网络安全技术领域,特别涉及一种基于变分自编码器的轻量级口令猜测字典生成方法及装置,该方法包括对训练集中的口令按预设条件进行预处理,获取统一格式的口令集合;对所述口令集合按结构进行划分得到口令片段,并使用n‑gram方法将每个口令片段切分为字符组合;根据预设参数筛选出常用字符组合,然后将口令编码为向量形式;初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降;使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典。本发明极大的缩短了模型训练时间和口令猜测字典的生成时间,提高了口令猜测的成功率,保证了字典猜测攻击的时效性。
Description
技术领域
本发明属于网络安全技术领域,特别涉及一种基于变分自编码器的轻量级口令猜测字典生成方法及装置。
背景技术
随着计算机网络、通信技术的迅猛发展,人们的日常工作、生活已经离不开网络,网络安全已成为当前信息时代的一个重要问题。身份认证是网络安全的一道重要防线,口令以其简单、易部署的特性长期以来一直是身份认证的主流方式。口令攻击是口令安全研究的重要手段,也是密码学研究的重要方向之一,可以用于口令恢复以及口令强度评估等研究领域。
字典猜测攻击技术是一种常用的口令攻击方法。现在主流的口令猜测字典生成的方法主要有基于概率上下文无关文法(probabilistic context-free grammar,PCFG)、基于Markov链的算法、基于循环神经网络(Recurrent Neural Networks,RNNs)的算法和PassGAN等。但是这些方法有的会受限于先验知识,生成的口令猜测字典泛化能力差;有的模型结构复杂,生成口令猜测字典需要的时间长。为此,需要提出更轻量级的模型缩短口令猜测字典的生成时间,提升字典猜测攻击效率。
发明内容
为了解决现有技术中口令猜测字典生成速度慢、准确性低、泛化能力差的问题,本发明提供一种基于变分自编码器的轻量级口令猜测字典生成方法及装置。
为解决上述技术问题,本发明采用以下的技术方案:
本发明提供了一种基于变分自编码器的轻量级口令猜测字典生成方法,包含以下步骤:
对训练集中的口令按预设条件进行预处理,获取统一格式的口令集合;
对所述口令集合按结构进行划分得到口令片段,并使用n-gram方法将每个口令片段切分为字符组合;
根据预设参数筛选出常用字符组合,然后将口令编码为向量形式;
初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降;
使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典。
进一步地,所述对训练集中的口令按预设条件进行预处理,其中的预设条件包括:
口令的长度在6~20个字符之间;
口令中仅包含ASCII字符中的96个可打印字符。
进一步地,对所述口令集合按结构进行划分得到口令片段包括:
将口令集合中的口令按照字母L/数字D/特殊字符S的结构进行划分,获取口令片段。
进一步地,所述使用n-gram方法将每个口令片段切分为字符组合包括:
设置n-gram中的n值,若口令片段的长度超过n,将其切分为多个字符组合,若口令片段的长度未超过n,直接作为字符组合。
进一步地,所述根据预设参数筛选出常用字符组合,然后将口令编码为向量形式包括:
所述预设参数为限制常用字符组合数量的参数,根据参数从字符组合中筛选出出现频次较高的预设数量的字符组合作为常用字符组合;
根据上述筛选出的常用字符组合和96个可打印ASCII字符将口令编码为向量形式。
进一步地,初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降,具体过程如下:
步骤a,初始化变分自编码器模型的网络参数,所述变分自编码器模型包括编码器和解码器;
步骤b,将向量形式表示的口令作为编码器的输入,编码器将输入映射到一个满足正态分布的隐层空间,并以均值和方差来描述隐层空间;
步骤c,根据均值和方差重构多维正态分布,并从中随机采样作为解码器的输入,解码器输出一组向量;
步骤d,计算编码器输入向量和解码器输出向量之间的交叉熵损失,计算根据所述均值和方差重构的多维正态分布与标准正态分布的Kullback-Leibler差异;对交叉熵损失和Kullback-Leibler差异加权求和得到损失函数;
步骤e,根据步骤d所得的损失函数值,计算梯度下降值,并更新变分自编码器模型参数;
步骤f,重复操作步骤b~e,循环训练直至损失函数的下降值小于设定阈值。
进一步地,所述变分自编码器模型的编码器和解码器两部分均由多层门限卷积神经网络GCNN和全连接层构成。
进一步地,使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典,具体过程如下:
从高维正态分布中采样,并使用变分自编码器模型生成向量表示的口令;
依据编码方法将向量表示的口令还原为字符表示的口令,得到猜测口令集;
统计每个口令在猜测口令集中出现的频次,根据频次降序排列得到口令猜测字典。
本发明还提供了一种基于变分自编码器的轻量级口令猜测字典生成装置,包括:
预处理单元,用于对训练集中的口令按预设条件进行预处理,获取统一格式的口令集合;
字符组合划分单元,用于对所述口令集合按结构进行划分得到口令片段,并使用n-gram方法将每个口令片段切分为字符组合;
常用字符组合提取和编码单元,用于根据预设参数筛选出常用字符组合,然后将口令编码为向量形式;
模型训练单元,用于初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降;
口令猜测字典生成单元,用于使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典。
进一步地,所述模型训练单元包括:
模型构建模块,用于构建变分自编码器模型和初始化变分自编码器模型的网络参数;
模型训练模块,用于使用向量形式表示的口令迭代训练模型,直至损失函数的下降值小于设定阈值;
所述口令猜测字典生成单元包括:
猜测口令集生成模块,用于使用训练后的变分自编码器模型生成猜测口令集;
口令猜测字典生成模块,用于按生成口令出现的频次降序排列,得到口令猜测字典。
与现有技术相比,本发明具有以下优点:
本发明的方法首先对训练集中的口令进行预处理后,形成统一格式的口令集合,根据字符组合出现的频次筛选出常用字符组合,然后将口令编码为向量形式,使用向量形式口令对模型进行训练;使用训练后的基于变分自编码器构建的神经网络模型生成猜测口令集,统计猜测口令集中每个口令出现的频次,按频次降序排列,得到口令猜测字典,极大的缩短了模型训练时间和口令猜测字典的生成时间,提高了口令猜测的成功率,保证了字典猜测攻击的时效性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的基于变分自编码器的轻量级口令猜测字典生成方法的流程图;
图2是本发明实施例的基于变分自编码器的轻量级口令猜测字典生成装置的结构框图;
图3是本发明实施例的变分自编码器模型的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本实施例的基于变分自编码器的轻量级口令猜测字典生成方法,包含以下步骤:
步骤S101,对训练集中的口令按预设条件进行预处理,获取统一格式的口令集合。
其中训练集用于根据已知口令训练模型,统一格式指口令的长度在一定范围内,可以包括字母、数字和特殊字符,预处理后形成规范格式的口令集合。
在本实例中,预设条件包括:
口令的长度在6~20个字符之间;
口令中仅包含ASCII字符中的96个可打印字符。
步骤S102,对所述口令集合按结构进行划分得到口令片段,并使用n-gram方法将每个口令片段切分为字符组合。
具体地,将口令集合中的口令按照字母L/数字D/特殊字符S的结构进行划分,获取口令片段,口令片段可以是字母段L,也可以是数字段D,还可以是特殊字符段S,例如口令“1234qwaz56#”被划分为四段,分别为数字段“1234”、“56”,字母段“qwaz”,特殊字符段“#”。
设置n-gram中的n值,对上面长度超过n的口令片段,按照n-gram方式将其划分为多个字符组合,其他长度未超过n的口令片段,直接作为字符组合。例如设置n为3,数字段“1234”被切分为字符组合“123”和“234”,数字段“56”长度不超过3,保留为字符组合“56”。
步骤S103,根据预设参数筛选出常用字符组合,然后将口令编码为向量形式。
其中预设参数为可以限制常用字符组合数量的参数,根据参数从字符组合中筛选出出现频次较高的预设数量的字符组合作为常用字符组合,例如将预设参数(数量)设置为筛选出训练集中口令总数的2.5‰个出现频次最高的字符组合作为常用字符组合。
根据上面得到的常用字符组合和96个可打印ASCII字符将口令编码为向量形式,编码方法包括但不限于独热编码(One-Hot),词嵌入编码(Word Embedding)。
步骤S104,初始化变分自编码器模型,其结构如图3所示,并使用所述向量形式口令进行训练,直至损失函数值不再下降;具体的迭代过程如下:
步骤S1041,初始化变分自编码器模型的网络参数,所述变分自编码器模型包括编码器和解码器两部分,变分自编码器模型由门限卷积神经网络(GateConvolutionalNeural Networks,GCNN)和全连接层构成。
步骤S1042,将步骤S103中向量形式表示的口令作为编码器的输入,编码器将输入映射到一个满足正态分布的隐层空间,并以均值和方差来描述隐层空间。
步骤S1043,根据均值和方差重构多维正态分布,并从中随机采样作为解码器的输入,解码器输出一组向量。
步骤S1044,计算编码器输入向量和解码器输出向量之间的交叉熵损失,计算根据所述均值和方差重构的多维正态分布与标准正态分布的Kullback-Leibler(KL)差异;对交叉熵损失和KL差异加权求和得到损失函数。
步骤S1045,根据步骤S1044所得的损失函数值,计算梯度下降值,并更新变分自编码器模型参数。
步骤S1046,重复操作步骤S1042~S1045,循环训练直至损失函数的下降值小于设定阈值(损失函数的下降值小于设定阈值后可认为损失函数不再下降)。
本实例中编码器由两层GCNN网络构成,解码器由一层GCNN网络构成;词向量维度为512,隐藏层维度为512;模型采用的优化器为Adam;学习率取0.001;批次大小取1024;梯度平均值的衰减率取0.9,梯度平方的平均值的衰减率取0.999;损失函数的下降值阈值设置为10-4。
步骤S105,使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典,具体过程如下:
步骤S1051,从高维正态分布中采样,并使用变分自编码器模型生成向量表示的口令;
步骤S1052,根据步骤S103中的编码方法,将向量表示的口令还原为字符表示的口令,得到猜测口令集;
步骤S1053,统计每个口令在猜测口令集中出现的频次,根据频次降序排列得到口令猜测字典。
与上述基于变分自编码器的轻量级口令猜测字典生成方法相应地,本实施例还提出了一种基于变分自编码器的轻量级口令猜测字典生成装置,如图2所示,该装置包括:
预处理单元21,用于对训练集中的口令按预设条件进行预处理,获取统一格式的口令集合。
字符组合划分单元22,用于对所述口令集合按结构进行划分得到口令片段,并使用n-gram方法将每个口令片段切分为字符组合。
常用字符组合提取和编码单元23,用于根据预设参数筛选出常用字符组合,然后将口令编码为向量形式。
模型训练单元24,用于初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降。
口令猜测字典生成单元25,用于使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典。
进一步地,所述模型训练单元包括:
模型构建模块,用于构建变分自编码器模型和初始化变分自编码器模型的网络参数;
模型训练模块,用于使用向量形式表示的口令迭代训练模型,直至损失函数的下降值小于设定阈值;
进一步地,所述口令猜测字典生成单元包括:
猜测口令集生成模块,用于使用训练后的变分自编码器模型生成猜测口令集;
口令猜测字典生成模块,用于按生成口令出现的频次降序排列,得到口令猜测字典。
此外,为评价本发明方法的有效性,测试本发明方法生成的口令猜测字典在同构测试集、异构测试集上的口令覆盖率,并与最先进的方法PassGAN方法作比较。从RockYou字典库中随机抽取29,000,000个互不相同的口令,按照8:2分为训练集与测试集,即训练集中有23,200,000个口令,测试集中有5,800,000个口令。另外从LinkedIn字典库中,随机抽取44,000,000个口令作为异构测试集合(RockYou和LinkedIn字典库都是公开的可供口令研究的字典库)。使用训练集训练模型,并生成口令猜测字典,与两个测试集合内的口令对比并计算覆盖率。覆盖率越高,说明效果越好。实验结果如表1所示。
表1为本发明方法与PassGAN方法生成的口令猜测字典在不同测试集上的覆盖率
使用23,200,000个RockYou训练口令集训练本发明提出的模型,产生441,357,719个不重复口令,在5,800,000个RockYou测试口令集合上覆盖率达到47.44%,在44,000,000个LinkedIn测试集合上覆盖率达到10.08%;均实现了比PsaaGAN更好的效果。可见,本发明提出的基于变分自编码器的轻量级口令猜测字典生成方法具有较好的口令覆盖率。
如表2所示,将本发明方法的参数数量与训练时间与PassGAN做比较,本发明方法的参数数量仅为PassGAN的29.65%,每轮次的平均训练时间仅为PassGAN的11.00%。可见本发明提出的基于变分自编码器的轻量级口令猜测字典生成方法具有模型轻量级,训练时间快的优点。
表2本发明方法与PassGAN方法参数数量与训练时间对比
本发明的方法在对训练集中的口令进行编码后,使用构建的变分自编码器模型学习口令潜在的构造规律,然后生成高质量的口令猜测字典,本发明生成的口令猜测字典可适用于口令恢复和口令强度评估等研究领域,本发明首次将变分自编码器应用到口令猜测字典生成中,能够解决口令猜测字典生成速度慢、准确性低以及泛化能力差的问题。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
最后需要说明的是:以上所述仅为本发明的较佳实施例,仅用于说明本发明的技术方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所做的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,包含以下步骤:
对训练集中的口令按预设条件进行预处理,获取统一格式的口令集合;
对所述口令集合按结构进行划分得到口令片段,并使用n-gram方法将每个口令片段切分为字符组合;
根据预设参数筛选出常用字符组合,然后将口令编码为向量形式;
初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降;
使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典。
2.根据权利要求1所述的基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,所述对训练集中的口令按预设条件进行预处理,其中的预设条件包括:
口令的长度在6~20个字符之间;
口令中仅包含ASCII字符中的96个可打印字符。
3.根据权利要求2所述的基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,对所述口令集合按结构进行划分得到口令片段包括:
将口令集合中的口令按照字母L/数字D/特殊字符S的结构进行划分,获取口令片段。
4.根据权利要求3所述的基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,所述使用n-gram方法将每个口令片段切分为字符组合包括:
设置n-gram中的n值,若口令片段的长度超过n,将其切分为多个字符组合,若口令片段的长度未超过n,直接作为字符组合。
5.根据权利要求4所述的基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,所述根据预设参数筛选出常用字符组合,然后将口令编码为向量形式包括:
所述预设参数为限制常用字符组合数量的参数,根据参数从字符组合中筛选出出现频次较高的预设数量的字符组合作为常用字符组合;
根据上述筛选出的常用字符组合和96个可打印ASCII字符将口令编码为向量形式。
6.根据权利要求5所述的基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降,具体过程如下:
步骤a,初始化变分自编码器模型的网络参数,所述变分自编码器模型包括编码器和解码器;
步骤b,将向量形式表示的口令作为编码器的输入,编码器将输入映射到一个满足正态分布的隐层空间,并以均值和方差来描述隐层空间;
步骤c,根据均值和方差重构多维正态分布,并从中随机采样作为解码器的输入,解码器输出一组向量;
步骤d,计算编码器输入向量和解码器输出向量之间的交叉熵损失,计算根据所述均值和方差重构的多维正态分布与标准正态分布的Kullback-Leibler差异;对交叉熵损失和Kullback-Leibler差异加权求和得到损失函数;
步骤e,根据步骤d所得的损失函数值,计算梯度下降值,并更新变分自编码器模型参数;
步骤f,重复操作步骤b~e,循环训练直至损失函数的下降值小于设定阈值。
7.根据权利要求6所述的基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,所述变分自编码器模型的编码器和解码器两部分均由多层门限卷积神经网络GCNN和全连接层构成。
8.根据权利要求6或者7所述的基于变分自编码器的轻量级口令猜测字典生成方法,其特征在于,使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典,具体过程如下:
从高维正态分布中采样,并使用变分自编码器模型生成向量表示的口令;
依据编码方法将向量表示的口令还原为字符表示的口令,得到猜测口令集;
统计每个口令在猜测口令集中出现的频次,根据频次降序排列得到口令猜测字典。
9.一种基于变分自编码器的轻量级口令猜测字典生成装置,其特征在于,包括:
预处理单元,用于对训练集中的口令按预设条件进行预处理,获取统一格式的口令集合;
字符组合划分单元,用于对所述口令集合按结构进行划分得到口令片段,并使用n-gram方法将每个口令片段切分为字符组合;
常用字符组合提取和编码单元,用于根据预设参数筛选出常用字符组合,然后将口令编码为向量形式;
模型训练单元,用于初始化变分自编码器模型,并使用所述向量形式口令进行训练,直至损失函数值不再下降;
口令猜测字典生成单元,用于使用训练后的变分自编码器模型生成猜测口令,并按生成口令出现的频次降序排列,得到口令猜测字典。
10.根据权利要求9所述的基于变分自编码器的轻量级口令猜测字典生成装置,其特征在于,
所述模型训练单元包括:
模型构建模块,用于构建变分自编码器模型和初始化变分自编码器模型的网络参数;
模型训练模块,用于使用向量形式表示的口令迭代训练模型,直至损失函数的下降值小于设定阈值;
所述口令猜测字典生成单元包括:
猜测口令集生成模块,用于使用训练后的变分自编码器模型生成猜测口令集;
口令猜测字典生成模块,用于按生成口令出现的频次降序排列,得到口令猜测字典。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110300886.1A CN113051873A (zh) | 2021-03-22 | 2021-03-22 | 基于变分自编码器的轻量级口令猜测字典生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110300886.1A CN113051873A (zh) | 2021-03-22 | 2021-03-22 | 基于变分自编码器的轻量级口令猜测字典生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113051873A true CN113051873A (zh) | 2021-06-29 |
Family
ID=76513991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110300886.1A Pending CN113051873A (zh) | 2021-03-22 | 2021-03-22 | 基于变分自编码器的轻量级口令猜测字典生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113051873A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113254905A (zh) * | 2021-07-09 | 2021-08-13 | 中国人民解放军国防科技大学 | 一种基于概率权重的口令字典融合方法和系统 |
CN115098848A (zh) * | 2022-06-10 | 2022-09-23 | 西安电子科技大学 | 基于多任务学习的小样本口令集合猜测方法 |
CN118277797A (zh) * | 2024-06-04 | 2024-07-02 | 中国人民解放军海军航空大学 | 一种贝叶斯变分自编码器模型及其建立方法、应用 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886388A (zh) * | 2019-01-09 | 2019-06-14 | 平安科技(深圳)有限公司 | 一种基于变分自编码器的训练样本数据扩充方法和装置 |
CN111191008A (zh) * | 2019-12-31 | 2020-05-22 | 华东师范大学 | 一种基于数字因子逆序的口令猜测方法 |
CN111966998A (zh) * | 2020-07-23 | 2020-11-20 | 华南理工大学 | 基于变分自动编码器的口令生成方法、系统、介质和设备 |
-
2021
- 2021-03-22 CN CN202110300886.1A patent/CN113051873A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886388A (zh) * | 2019-01-09 | 2019-06-14 | 平安科技(深圳)有限公司 | 一种基于变分自编码器的训练样本数据扩充方法和装置 |
CN111191008A (zh) * | 2019-12-31 | 2020-05-22 | 华东师范大学 | 一种基于数字因子逆序的口令猜测方法 |
CN111966998A (zh) * | 2020-07-23 | 2020-11-20 | 华南理工大学 | 基于变分自动编码器的口令生成方法、系统、介质和设备 |
Non-Patent Citations (1)
Title |
---|
段大高 等: "基于条件变分自编码的密码攻击算法", 计算机应用研究 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113254905A (zh) * | 2021-07-09 | 2021-08-13 | 中国人民解放军国防科技大学 | 一种基于概率权重的口令字典融合方法和系统 |
CN113254905B (zh) * | 2021-07-09 | 2021-09-24 | 中国人民解放军国防科技大学 | 一种基于概率权重的口令字典融合方法和系统 |
CN115098848A (zh) * | 2022-06-10 | 2022-09-23 | 西安电子科技大学 | 基于多任务学习的小样本口令集合猜测方法 |
CN115098848B (zh) * | 2022-06-10 | 2024-09-24 | 西安电子科技大学 | 基于多任务学习的小样本口令集合猜测方法 |
CN118277797A (zh) * | 2024-06-04 | 2024-07-02 | 中国人民解放军海军航空大学 | 一种贝叶斯变分自编码器模型及其建立方法、应用 |
CN118277797B (zh) * | 2024-06-04 | 2024-08-23 | 中国人民解放军海军航空大学 | 一种贝叶斯变分自编码器模型及其建立方法、应用 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113051873A (zh) | 基于变分自编码器的轻量级口令猜测字典生成方法及装置 | |
CN109145582B (zh) | 一种基于字节对编码的密码猜测集生成方法、密码破解方法及装置 | |
CN110570346B (zh) | 一种基于循环生成对抗网络对书法进行风格迁移的方法 | |
CN110991549A (zh) | 一种针对图像数据的对抗样本生成方法及系统 | |
CN110334488B (zh) | 基于随机森林模型的用户认证口令安全评估方法及装置 | |
EP3614645A1 (en) | Embedded dga representations for botnet analysis | |
CN110636445B (zh) | 基于wifi的室内定位方法、装置、设备及介质 | |
CN109831422A (zh) | 一种基于端到端序列网络的加密流量分类方法 | |
CN111723846B (zh) | 基于随机性特征的加密和压缩流量识别方法及装置 | |
CN109670303A (zh) | 基于条件变分自编码的密码攻击评估方法 | |
CN111966998A (zh) | 基于变分自动编码器的口令生成方法、系统、介质和设备 | |
CN115883109B (zh) | 一种航空系统的数据压缩加密方法及系统 | |
CN113378160A (zh) | 一种基于生成式对抗网络的图神经网络模型防御方法及装置 | |
CN112667979B (zh) | 密码生成方法及装置、密码识别方法及装置、电子设备 | |
CN110968845A (zh) | 基于卷积神经网络生成的针对lsb隐写的检测方法 | |
CN107579816A (zh) | 基于递归神经网络的密码字典生成方法 | |
CN115296862A (zh) | 一种基于数据编码的网络数据安全传输方法 | |
CN113554047B (zh) | 图像处理模型的训练方法、图像处理方法及对应的装置 | |
Wang et al. | Password guessing using random forest | |
Yang et al. | VAEPass: A lightweight passwords guessing model based on variational auto-encoder | |
CN110472385B (zh) | 一种口令破解方法及装置 | |
Ali et al. | Image Denoising with Color Scheme by Using Autoencoders | |
CN111737688B (zh) | 基于用户画像的攻击防御系统 | |
CN112153045B (zh) | 一种私有协议的加密字段的识别方法及系统 | |
CN112149388B (zh) | 一种识别口令中词汇变形并产生猜测规则的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210629 |