选择语言

SOPG:基于搜索的自回归神经网络有序密码生成方法

分析SOPG,一种利用自回归神经网络按概率降序生成密码的新方法,显著提升了密码猜测效率。
strongpassword.org | PDF Size: 0.5 MB
评分: 4.5/5
您的评分
您已经为此文档评过分
PDF文档封面 - SOPG:基于搜索的自回归神经网络有序密码生成方法

1. 引言

密码仍然是用户身份验证中最普遍使用的方法,在简单性和有效性之间取得了平衡。然而,其安全性始终受到密码猜测攻击的挑战,这种攻击既是渗透测试的关键组成部分,也是防御强度评估的重要环节。传统方法,从基于规则的枚举到马尔可夫链和PCFG等统计模型,在多样性和效率方面存在固有的局限性。深度学习的出现,特别是自回归神经网络,预示着范式的转变。然而,一个关键的疏忽持续存在:生成方法本身。标准的采样技术引入了随机性,导致密码重复和无序输出,严重阻碍了攻击效率。本文介绍了SOPG(基于搜索的有序密码生成),这是一种新颖的方法,它迫使自回归模型按照概率近似降序生成密码,从而彻底改变了基于神经网络的密码猜测效率。

2. 背景与相关工作

2.1 密码猜测技术的发展

该领域经历了不同的发展阶段:启发式规则方法依赖于手动字典和转换规则(例如,John the Ripper规则),这些方法依赖经验且缺乏理论基础。2009年后真实密码泄露事件的激增催生了统计方法。如OMEN中使用的马尔可夫模型,基于固定长度的历史预测下一个字符;而概率上下文无关文法(PCFG)则将密码分割为模式(字母、数字、符号)并学习其概率。虽然系统化,但这些模型常常过拟合,并且在泛化方面存在困难。

2.2 神经网络方法

能够学习复杂高维分布的深度学习模型,作为强大的后继者出现。PassGAN利用生成对抗网络(GAN)生成密码,尽管GAN在处理离散数据时以不稳定著称。VAEPass应用了变分自编码器。最新且最相关的方法是PassGPT,它利用了GPT(生成式预训练变换器)架构,这是一种自回归模型,根据所有先前的标记预测下一个标记。然而,所有这些模型在生成过程中通常都依赖于标准采样(例如,随机采样、top-k采样、核心采样),这无法保证输出的顺序性或唯一性。

3. SOPG方法

3.1 核心概念

SOPG解决了随机采样的根本低效问题。它不是随机生成密码,而是将密码生成构建为一个搜索问题。目标是在由模型词汇表和最大长度定义的可能密码的广阔空间中,按照底层自回归神经网络分配的概率近似降序进行遍历。

3.2 搜索算法

虽然PDF摘要未详述具体算法,但SOPG很可能采用或改编了一种由模型概率估计引导的最佳优先搜索或束搜索策略。候选密码表示为一个标记序列。搜索维护一个部分或完整序列的优先队列(例如,堆),根据其累积概率或由此衍生的启发式分数进行排序。在每一步,通过追加可能的下一个标记(来自词汇表)来扩展最有希望的候选序列,并对新候选序列进行评分并插回队列。这确保了输出流大致按从最可能到最不可能的顺序排列。

3.3 SOPGesGPT模型

作者通过构建SOPGesGPT来实例化他们的方法,这是一个基于GPT架构的密码猜测模型。该模型在泄露的密码数据集上进行训练,以学习底层分布。关键在于,在生成阶段,它使用SOPG算法代替标准采样,使其成为展示SOPG优越性的载体。

4. 技术细节与数学表述

给定一个自回归模型(如GPT),密码序列 $S = (s_1, s_2, ..., s_T)$ 的概率分解为: $$P(S) = \prod_{t=1}^{T} P(s_t | s_1, ..., s_{t-1})$$ 其中 $s_t$ 是位置 $t$ 的标记,$P(s_t | s_1, ..., s_{t-1})$ 是模型的输出概率分布。

标准随机采样从该分布中抽取 $s_t$,导致随机游走。相比之下,SOPG旨在找到最大化 $P(S)$ 的序列 $S^*$,或者系统地枚举高概率序列。这可以视为: $$S^* = \arg\max_{S \in \mathcal{V}^*} P(S)$$ 其中 $\mathcal{V}^*$ 是最大长度内所有可能序列的集合。穷举搜索是难以处理的。因此,SOPG采用一种启发式搜索算法(例如,使用对数概率成本的 $A^*$ 算法)来高效地近似这种有序枚举。搜索使用负对数概率作为成本:$\text{cost}(S) = -\sum_{t=1}^{T} \log P(s_t | s_1, ..., s_{t-1})$。该算法旨在按成本递增的顺序输出序列。

5. 实验结果与分析

覆盖率(SOPGesGPT)

35.06%

单站点测试中达到的最高覆盖率。

相对于PassGPT的提升

81%

比最新模型更高的覆盖率。

相对于PassGAN的提升

421%

相较于基于GAN的方法的巨大提升。

5.1 与随机采样的对比

本文首先在同一底层模型上,验证了SOPG相对于标准随机采样的核心效率主张。主要发现:

  • 零重复: SOPG生成一个唯一的、有序的列表,消除了在重复猜测上浪费计算资源的问题。
  • 相同覆盖率所需推断次数更少: 为了达到相同的覆盖率(从测试集中破解密码的百分比),与随机采样相比,SOPG需要的模型推断(前向传播)次数显著减少。
  • 总猜测次数少得多: 因此,SOPG通过生成小得多的猜测列表来破解相同数量的密码,直接转化为更快的攻击时间。
该实验最终证明,生成方法是主要瓶颈,而SOPG有效地消除了它。

5.2 与前沿技术的基准测试

在单站点测试中,将SOPGesGPT与主要基准模型进行了比较:OMEN(马尔可夫)、FLA、PassGAN(GAN)、VAEPass(VAE)以及最新的PassGPT(采用随机采样的GPT)。

  • 覆盖率: SOPGesGPT实现了35.06%的覆盖率。提升幅度惊人:比OMEN高254%,比FLA高298%,比PassGAN高421%,比VAEPass高380%,比PassGPT高81%
  • 有效率: 论文还提到了在“有效率”方面领先,这可能指的是单位时间或计算量内生成的唯一有效密码数量,进一步强调了SOPG的效率。
图表描述: 条形图的Y轴显示“覆盖率(%)”,X轴显示模型名称。SOPGesGPT的条形将显著高于所有其他模型,PassGPT位居第二但明显较低。叠加的折线可以显示达到20%覆盖率所需的猜测次数,其中SOPGesGPT的折线将在早期急剧上升,展示其“快速重击”的能力。

6. 分析框架与案例示例

框架:密码猜测效率象限
我们可以从两个维度分析模型:模型容量(学习复杂分布的能力,例如 GPT > 马尔可夫)和生成效率(输出的最优排序)。

  • 象限I(高容量,低效率): PassGPT,VAEPass。强大的模型因随机采样而受限。
  • 象限II(高容量,高效率): SOPGesGPT。本工作实现的目标状态。
  • 象限III(低容量,低效率): 基本的基于规则的攻击。
  • 象限IV(低容量,高效率): OMEN,FLA。它们的生成本质上是按概率排序的,但其模型容量限制了最终性能。
非代码案例示例: 想象两个拥有相同高质量地图(训练好的GPT模型)的寻宝者(攻击者)。一个寻宝者(随机采样)随机行走,经常重复访问地点,缓慢地找到宝藏。另一个寻宝者(SOPG)有一个金属探测器,首先指向附近最有希望的位置,遵循一个系统的、不重复的路径。对于相同数量的步数,SOPG寻宝者找到的宝藏要多得多。SOPG就是神经网络地图的那个金属探测器。

7. 应用前景与未来方向

直接应用:

  • 主动密码强度评估: 安全公司可以使用SOPG驱动的工具来审计密码策略,通过以数量级更快的速度生成最可能的攻击猜测,提供现实的风险评估。
  • 数字取证与合法恢复: 在时间紧迫的法律调查中加速密码恢复。
未来研究方向:
  • 混合搜索策略: 将SOPG与有限的随机性相结合,以更早地探索概率稍低但可能有成效的“创造性”猜测,平衡利用与探索。
  • 硬件加速搜索: 在GPU/TPU上实现搜索算法,以并行化候选评估,减少搜索过程本身的开销。
  • 超越密码: 将有序生成范式应用于其他自回归模型任务,其中有序、唯一的输出具有价值,例如为软件生成测试用例,或按可行性顺序创建多样化的设计变体。
  • 防御对策: 研究如何检测和防御此类高效、有序的攻击,可能通过研究SOPG生成的猜测列表与随机列表的“指纹”差异来实现。

8. 参考文献

  1. M. Jin, J. Ye, R. Shen, H. Lu, "Search-based Ordered Password Generation of Autoregressive Neural Networks," Manuscript Submitted for Publication.
  2. A. Narayanan and V. Shmatikov, "Fast dictionary attacks on passwords using time-space tradeoff," in Proceedings of the 12th ACM conference on Computer and communications security, 2005.
  3. M. Weir, S. Aggarwal, B. de Medeiros, and B. Glodek, "Password cracking using probabilistic context-free grammars," in 2009 30th IEEE Symposium on Security and Privacy, 2009.
  4. J. Ma, W. Yang, M. Luo, and N. Li, "A study of probabilistic password models," in 2014 IEEE Symposium on Security and Privacy, 2014.
  5. B. Hitaj, P. Gasti, G. Ateniese, and F. Perez-Cruz, "PassGAN: A Deep Learning Approach for Password Guessing," in Applied Cryptography and Network Security Workshops, 2019.
  6. OpenAI, "Improving Language Understanding by Generative Pre-Training," 2018. [Online]. Available: https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf
  7. M. Pasquini, D. Bernardo, and G. Ateniese, "PassGPT: Password Modeling and (Guessing) with Large Language Models," in arXiv preprint arXiv:2306.01745, 2023.

9. 原创分析与专家评论

核心洞见

本文的突破并非新的神经架构;而是对生成瓶颈的一次精准打击。多年来,密码猜测领域,如同生成式AI的趋势一样,痴迷于模型容量——更大的变换器、更好的GAN——同时将采样过程视为已解决的次要问题。Jin等人正确地指出这是一个关键谬误。从强大模型中随机采样,就像用一把精确的狙击步枪随机扫射;SOPG则增加了瞄准镜和策略。这种从建模搜索的焦点转移,是本文最重要的概念贡献。它表明,在输出顺序直接映射到成功率(先破解最容易的密码)的安全应用中,搜索效率可以超过模型保真度的边际增益。

逻辑脉络

论证过程引人注目且结构清晰:(1)确立当前神经猜测方法(随机、充满重复)的重要性和低效性。(2)提出SOPG作为基于搜索的解决方案,以强制实现概率有序、唯一的生成。(3)在同一模型上通过实验证明SOPG相对于随机采样的效率——一个干净的消融研究。(4)通过构建SOPGesGPT并超越现有基准,展示端到端的优越性。相对于PassGPT的81%提升尤其说明问题;它通过比较相同GPT架构下两种不同生成方案,孤立出了SOPG的价值。

优势与不足

优势: 核心思想优雅且影响深远。实验设计稳健,结果清晰、决定性。性能提升不是渐进式的,而是变革性的,表明SOPG可能成为新的标准组件。这项工作与经典AI中的搜索算法深度结合,将其应用于现代深度学习背景——这是一种富有成效的交叉融合。

不足与开放性问题: PDF摘录缺少关键细节:具体的搜索算法(A*、束搜索、最佳优先?)及其计算开销。搜索并非免费;维护优先队列和对许多候选序列进行评分是有成本的。论文声称“推断次数更少”,但这是否考虑了搜索内部的推断?需要进行全面的成本效益分析。此外,“近似降序”这个限定词是模糊的——近似程度如何?对于非常长或复杂的密码,排序是否会退化?虽然令人印象深刻,但比较是“单站点测试”。需要验证其在不同数据集(企业密码与社交媒体密码)上的泛化能力。最后,与所有攻击技术的进步一样,它存在双重用途的风险,既赋能防御者,也赋能恶意行为者。

可操作的见解

对于安全从业者:立即使用类似SOPG的方法对您组织的密码进行压力测试,而不仅仅是针对旧的马尔可夫或GAN模型。更新密码强度评估器,以纳入这种新一代高效、有序的攻击。

对于AI/ML研究人员:这是一个重新审视面向目标的自回归模型中生成策略的号角。不要只关注损失曲线;分析推断路径的效率。探索混合神经符号方法,其中学习到的模型引导经典搜索。

对于供应商与政策制定者:加速向超越密码的方向迈进。SOPG使得字典攻击如此高效,以至于即使是中等复杂度的密码也面临更大风险。投资并强制要求将抗钓鱼的多因素认证(如FIDO2/WebAuthn)作为主要身份验证方法。对于遗留密码系统,实施严格的速率限制和异常检测,以识别有序、高速攻击的模式。

总之,本文不仅推进了密码猜测技术,还提供了一个关于如何优化AI流水线最后一步——生成策略——可以在现实世界中获得比无限扩展模型本身更大的性能提升的范例。这是一堂关于应用AI效率的课程,其影响远远超出了网络安全领域。