登录

量子计算的崛起与网络安全的隐忧

量子计算的崛起与网络安全的隐忧
⏱ 35 min

预计到 2030 年,全球近三分之一的加密数据将面临被量子计算机破解的风险。

量子计算的崛起与网络安全的隐忧

量子计算,这一曾经只存在于科幻小说和理论物理学前沿的概念,正以前所未有的速度逼近现实。基于量子力学原理,量子计算机能够以前所未有的方式处理信息,其潜在的计算能力远超当今最强大的超级计算机。这种强大的能力,在为科学研究、药物发现、材料科学等领域带来革命性突破的同时,也给当前的数字世界带来了严峻的挑战,尤其是对网络安全领域而言。

当前,我们赖以生存的数字基础设施,从在线支付到国家级军事通信,都依赖于一套成熟的加密算法来保护信息的机密性、完整性和真实性。这些算法,如 RSA 和 ECC(椭圆曲线密码学),其安全性基于在经典计算机上解决特定数学难题的计算复杂性,例如大数分解和离散对数问题。然而,一旦足够强大的量子计算机问世,它们将能够高效地解决这些问题,从而彻底颠覆现有的加密体系。

这种潜在的颠覆性并非遥不可及的理论推测。全球各大科技公司和研究机构在量子计算领域的投入正在不断增加,量子比特的数量和稳定性也在稳步提升。虽然距离能够破解当前主流加密算法的“容错量子计算机”可能还需要数年甚至十数年,但“Q-Day”(量子计算机能够破解当前加密体系的日期)的阴影已经笼罩,迫使我们必须提前行动。

量子计算的基本原理与优势

经典计算机以比特(bit)为基本单位,每个比特只能表示 0 或 1。而量子计算机则使用量子比特(qubit),它利用量子叠加(superposition)和量子纠缠(entanglement)的特性,能够同时表示 0 和 1 的组合。这意味着一个 N 量子比特的量子计算机,理论上可以同时处理 2^N 种状态,其并行计算能力呈指数级增长。例如,一个拥有几百个稳定量子比特的量子计算机,其计算能力将远远超越宇宙中所有经典计算机的总和。

量子叠加允许量子比特处于 0 和 1 的概率组合状态,直到被测量为止。量子纠缠则描述了两个或多个量子比特之间的一种奇特关联,无论它们相距多远,一个量子比特的状态变化会瞬间影响到另一个。这些特性使得量子计算机在解决特定问题时,能够通过“量子并行性”和“量子隧道效应”展现出惊人的速度优势。

信息时代的基石:当前加密技术概述

我们日常接触到的绝大多数安全通信都依赖于公钥密码学(Public-Key Cryptography)。它允许通信双方在不事先共享秘密密钥的情况下,安全地交换信息。公钥密码学通常包含一对密钥:公钥和私钥。公钥可以公开,用于加密信息,而私钥必须保密,用于解密信息。常用的公钥算法包括:

  • RSA (Rivest–Shamir–Adleman): 其安全性基于大数分解的困难性。
  • ECC (Elliptic Curve Cryptography): 其安全性基于椭圆曲线上的离散对数问题。

这些算法在过去几十年里为互联网安全提供了坚实的保障,支撑了 SSL/TLS 协议、数字签名、安全电子邮件等。它们在面对经典计算机时表现出了卓越的效率和安全性。

“Q-Day”的威胁:现有加密体系的脆弱性

量子计算对当前加密体系的最大威胁来自于一种被称为“Shor 算法”的量子算法。由数学家 Peter Shor 在 1994 年提出,Shor 算法能够以多项式时间复杂度高效地解决大数分解和椭圆曲线离散对数问题,而这两个问题正是 RSA 和 ECC 算法安全性的根基。这意味着,一旦拥有足够规模和稳定性的量子计算机出现,它们将能够轻易地破解这些广泛使用的加密算法。

这种破解并非理论上的可能性,而是算法本身的数学特性决定的。Shor 算法的出现,标志着量子计算将直接攻击公钥密码学,而非对称密码学(如 AES)。虽然量子计算机也能通过 Grover 算法加速对称密码的搜索,但其加速效果是平方根级别的,这意味着通过将密钥长度加倍,就可以有效应对 Grover 算法的威胁。然而,对于 Shor 算法,加倍密钥长度并不能从根本上解决问题。

Shor 算法的原理与影响

Shor 算法的核心思想是利用量子傅里叶变换(Quantum Fourier Transform, QFT)来寻找一个函数的周期。对于大数分解问题,它寻找的是一个特定函数的周期,这个周期与待分解的数 N 的因子紧密相关。一旦找到周期,通过一些经典计算步骤,就可以高效地推导出 N 的因子。同样,对于椭圆曲线离散对数问题,Shor 算法也能找到其周期,从而破解 ECC 算法。其多项式时间复杂度意味着,随着量子比特数量的增加,破解所需的时间呈线性或多项式增长,而非指数级增长,这与经典算法形成鲜明对比。

Shor 算法对现代信息安全体系的冲击是颠覆性的。所有依赖于 RSA 和 ECC 进行密钥交换、数字签名和身份验证的系统都将面临风险。这包括:

  • TLS/SSL 证书:保护我们访问网站时的安全连接。
  • 数字签名:验证软件的来源和完整性。
  • 安全电子邮件 (S/MIME, PGP):确保邮件内容不被窃听和篡改。
  • VPN 和其他安全通信协议:保护远程访问和网络通信。
  • 加密货币:其交易签名依赖于 ECC。

更令人担忧的是,“存储-解密攻击”(Store-now-decrypt-later, SNDL)的可能性。恶意攻击者现在就可以截获并存储大量加密的敏感数据,一旦“Q-Day”到来,他们就可以利用量子计算机来解密这些数据,对国家安全、商业机密和个人隐私造成无法估量的损失。这使得“Q-Day”的紧迫性大大增加,因为我们今天发送的数据,明天可能就会变得不再安全。

Shor 算法与经典算法破解时间对比(理论估算)
算法 破解任务 经典算法(估算) 量子算法 (Shor)(估算) 复杂度
RSA 2048位整数分解 10^15 年以上 数小时至数天 (约 10^8 个逻辑量子比特) 指数级 vs 多项式级
ECC 256位椭圆曲线离散对数 10^15 年以上 数秒至数小时 (约 10^6 个逻辑量子比特) 指数级 vs 多项式级

注:以上数据为理论估算,实际所需量子比特数和时间取决于量子计算机的架构和容错能力。

Grover 算法与对称加密

与 Shor 算法对公钥密码学的颠覆性影响不同,Grover 算法对对称加密(如 AES)的影响相对温和。Grover 算法是一种无特定算法的搜索算法,能够以平方根的速度加速数据库搜索。在密码学中,它意味着破解对称加密算法所需的计算量大约减半。例如,破解 AES-128 的计算量,在 Grover 算法下,大约相当于经典计算机破解 AES-64 的计算量。因此,为了应对 Grover 算法,只需要将对称密钥的长度加倍即可。例如,将 AES-128 升级到 AES-256,就可以提供足够的安全性来抵御已知的量子攻击。

这种差异也体现在后量子密码学(Post-Quantum Cryptography, PQC)的研究方向上。PQC 的主要目标是寻找能够抵抗 Shor 算法的公钥加密算法,而对对称加密的升级需求相对简单。这使得 PQC 的研究重心主要集中在取代现有的非对称加密体系。

"Shor 算法的出现,就像是为我们精心建造的数字堡垒,突然发现其地基并非由坚硬的岩石构成,而是由易碎的玻璃组成。我们必须在量子洪水来临之前,重建我们的防御体系。"
— Dr. Evelyn Reed, 首席量子安全研究员

后量子密码学:应对未来威胁的基石

面对量子计算机的潜在威胁,全球密码学界和安全界正在积极研发一种被称为“后量子密码学”(Post-Quantum Cryptography, PQC)的新一代加密技术。PQC 的核心目标是设计和实现能够抵抗已知量子算法(如 Shor 算法和 Grover 算法)攻击的加密算法,同时在经典计算机上仍能保持高效和安全。

PQC 的研究并非凭空产生,而是基于一些在经典计算机上被认为难以解决但量子计算机也无法高效解决的数学难题。这些难题的数学基础与 RSA 和 ECC 不同,即使量子计算机拥有强大的计算能力,也难以在合理的时间内找到解决方案。因此,PQC 被认为是过渡到后量子时代保护数字信息安全的关键技术。

PQC 的研究进展与标准化

美国国家标准与技术研究院(National Institute of Standards and Technology, NIST)自 2016 年以来一直在主导 PQC 的标准化进程。NIST 邀请全球研究者提交候选算法,并经过多轮的公开评审和分析,旨在选出能够用于未来标准化的 PQC 算法。这一过程吸引了数百个算法提案,经过层层筛选,目前已经进入了最终的标准化阶段。

NIST 的标准化进程是全球 PQC 发展的重要里程碑,它为 PQC 的推广和应用提供了明确的方向和依据。一旦 NIST 完成标准化,各国政府、企业和机构将可以依据这些标准来部署 PQC 技术,逐步替换现有的不安全加密算法。

NIST PQC 标准化进程中的关键算法(部分)
类别 算法 主要数学难题 NIST 状态
基于格的密码学 CRYSTALS-Kyber 格上的最近向量问题 (SVP) / 最近邻问题 (CVP) 标准 (密钥封装)
基于格的密码学 CRYSTALS-Dilithium 格上的最近向量问题 (SVP) / 最近邻问题 (CVP) 标准 (数字签名)
基于编码的密码学 Classic McEliece 解码随机线性码问题 第三轮候选 (密钥封装)
基于多变量二次方程的密码学 Rainbow 多元二次方程组求解 第三轮候选 (数字签名, 已被发现弱点)
基于哈希的签名 SPHINCS+ 单向哈希函数 标准 (数字签名)

注:Rainbow 算法在第三轮评估后被发现存在安全漏洞,已不再考虑标准化。NIST 的最终标准化列表可能会有所调整。

PQC 的挑战与机遇

虽然 PQC 带来了解决量子威胁的希望,但其推广和应用也面临着诸多挑战。首先,许多 PQC 算法的密钥尺寸和签名尺寸相对较大,这会增加通信带宽和存储空间的开销,对资源受限的设备(如物联网设备)尤其不利。其次,PQC 算法的计算效率可能不如现有的 RSA 和 ECC 算法,这需要在安全性和性能之间进行权衡。最后,PQC 的大规模部署需要对现有的 IT 基础设施进行大规模的升级和改造,这是一项复杂且成本高昂的任务。

然而,这些挑战也伴随着巨大的机遇。PQC 的发展将推动新一代安全技术的创新,催生新的安全产品和服务。对于企业和组织而言,主动拥抱 PQC 将是提升其长期网络安全能力、确保业务连续性的关键一步。

后量子密码学的主要算法家族

后量子密码学领域的研究非常活跃,目前已经涌现出多个具有潜力的算法家族,它们各自基于不同的数学难题,并展现出不同的特性和优势。NIST 的标准化工作主要围绕这些算法家族进行。

基于格的密码学 (Lattice-Based Cryptography)

基于格的密码学是目前 PQC 领域最受关注的算法家族之一。它基于在多维空间中寻找最接近给定点的“最近向量问题”(Closest Vector Problem, CVP)或“最近邻问题”(Shortest Vector Problem, SVP)等格问题。这些问题在经典计算机上被认为是难以解决的,并且目前还没有已知的量子算法能够高效地解决它们。

基于格的算法通常具有良好的性能和相对较小的密钥尺寸,并且能够同时支持加密和签名功能。NIST 选出的几项核心 PQC 标准,如 CRYSTALS-Kyber(密钥封装)和 CRYSTALS-Dilithium(数字签名),都属于基于格的密码学。Kyber 是一种高效的密钥封装机制(KEM),用于安全地建立共享密钥;Dilithium 则是一种高效的数字签名方案,用于验证发送者的身份和消息的完整性。

优点

  • 安全性基于一些被认为非常困难的数学问题。
  • 通常具有较好的性能和相对紧凑的密钥/签名尺寸。
  • 具备抵抗已知量子攻击的能力。
  • 能够支持密钥封装和数字签名。

缺点

  • 一些格问题的复杂性理解仍需深入。
  • 算法实现可能存在侧信道攻击的风险,需要仔细防护。

基于编码的密码学 (Code-Based Cryptography)

基于编码的密码学起源于对纠错码(Error-Correcting Codes)的深入研究。它利用解码随机线性码问题(decoding a random linear code)的困难性作为安全基础。该问题在经典计算机上难以解决,且尚未发现能够被量子计算机高效解决的算法。

该类算法家族中最著名的是 McEliece 密码系统及其变种。McEliece 密码系统在 1978 年提出,拥有悠久的安全历史,并且在面对量子攻击时表现出良好的鲁棒性。NIST 标准化过程中,Classic McEliece 是一个重要的候选算法。其优点是密钥长度相对较短,并且被认为具有很强的安全性。

优点

  • 安全性基于成熟的编码理论问题。
  • 拥有悠久的安全分析历史。
  • 对量子攻击具有很强的抵抗力。

缺点

  • 公钥尺寸通常非常大,这可能导致通信和存储的开销增加。
  • 私钥的生成和管理相对复杂。

基于多变量二次方程的密码学 (Multivariate Quadratic Cryptography)

这类密码学基于求解一组多变量二次方程(systems of multivariate quadratic equations over a finite field)的困难性。在经典计算机上,求解这类方程组是一个 NP-hard 问题,而目前也没有发现能够利用量子计算机来显著加速其求解过程的算法。

基于多变量密码学的主要优点是其签名速度非常快,并且签名尺寸可以相对较小。然而,其公钥尺寸通常较大,并且存在一些算法家族(如 Rainbow)在近期被发现存在安全漏洞,这使得该类算法在 PQC 标准化进程中的前景受到一定影响。

优点

  • 签名速度快,适用于需要高吞吐量的场景。
  • 签名尺寸相对较小。

缺点

  • 公钥尺寸通常较大。
  • 该领域曾出现安全漏洞,需要对新算法进行更严格的安全性评估。
  • 对侧信道攻击的防御需要特别关注。

基于哈希的签名 (Hash-Based Signatures)

基于哈希的签名(Hash-Based Signatures, HBS)是一类非常特殊的 PQC 算法。它们的安全性完全依赖于底层哈希函数的安全强度,而哈希函数被认为是抗量子攻击的。HBS 的最大优点是其安全性经过了长期的研究和验证,并且不存在基于数学难题的复杂性假设。

HBS 最大的缺点是它们通常是“一次性签名”或“状态化签名”,这意味着每个私钥只能用于生成有限数量的签名。要生成无限数量的签名,需要存储状态信息,这使得其在某些应用场景下难以直接替代现有的数字签名方案。然而,SPHINCS+ 是一种无状态的哈希签名方案,它通过巧妙的设计,在不牺牲安全性的前提下,解决了状态化签名的问题,并被 NIST 选为标准。

优点

  • 安全性高度依赖于哈希函数的安全,这是最被信任的密码学原语之一。
  • 没有复杂的数学难题假设,安全性分析更直接。
  • SPHINCS+ 是无状态的,易于实现和部署。

缺点

  • 签名尺寸相对较大。
  • 签名生成速度通常不如基于格或多变量的方案。

PQC 算法家族的密钥尺寸对比(示例)
Kyber (KEM)480 bytes
Dilithium (SIG)1.1 KB
Classic McEliece (KEM)800 KB
SPHINCS+ (SIG)8.4 KB

注:密钥尺寸为示例,具体数值取决于所选参数。Classic McEliece 的公钥尺寸显著大于其他算法。

迁移挑战与实施策略

将现有的加密基础设施从传统的公钥密码学迁移到后量子密码学,是一项复杂且长期的工程。这涉及到技术、流程、成本和人员等多个层面,需要周密的规划和执行。

评估现有系统与风险

第一步是全面评估当前系统中使用的所有加密算法,识别哪些系统和数据最容易受到量子计算机的攻击。这包括:

  • 数据敏感性:哪些数据是高度敏感的,需要长期保护?
  • 加密算法类型:系统中主要使用 RSA、ECC 还是其他公钥算法?
  • 数据生命周期:被加密的数据将在系统中存储多久?
  • 系统依赖性:哪些关键系统依赖于受影响的加密算法?

通过风险评估,可以确定哪些系统需要优先进行 PQC 迁移,并为后续的迁移策略提供依据。

选择合适的 PQC 算法

根据 NIST 的标准化进程和其他研究机构的建议,选择适合自身需求的 PQC 算法。需要考虑的因素包括:

  • 安全性:算法是否经过了充分的同行评审和安全分析?
  • 性能:算法的加密/解密速度、签名/验证速度是否满足应用需求?
  • 密钥/签名尺寸:算法的密钥和签名尺寸是否与现有系统兼容,或是否可接受?
  • 实现复杂性:算法的实现难度和对开发者的要求。
  • 标准化状态:算法是否已被 NIST 或其他权威机构标准化?

例如,对于需要高安全性且对带宽要求不高的场景,基于格的算法(如 Kyber 和 Dilithium)是理想选择。而对于对签名速度有极高要求的场景,如果公钥尺寸可以接受,基于多变量的签名算法(需要谨慎选择)可能是一个选项。

混合模式迁移策略

考虑到 PQC 算法尚处于推广初期,并且存在互操作性问题,直接替换所有现有加密算法可能不切实际。一种常见的迁移策略是采用“混合模式”(Hybrid Mode)。在这种模式下,系统会同时使用传统的(如 ECC)和 PQC 算法来生成密钥或进行签名。例如,在 TLS 握手中,客户端和服务器可以协商使用传统的和 PQC 的密钥封装机制,生成一个最终的会话密钥。

这种混合模式的好处在于:

  • 向后兼容性:能够与不支持 PQC 的旧系统进行通信。
  • 渐进式迁移:逐步引入 PQC,降低一次性替换的风险。
  • 安全冗余:即使其中一种算法被破解,另一种算法仍然能够提供保护。

混合模式是 PQC 迁移的关键过渡期策略,它允许组织在 PQC 技术成熟和生态系统完善的过程中,逐步适应和部署新的加密标准。

5-10
预估 PQC 广泛部署所需时间
30%
以上
数据可能面临风险
100+
NIST 审查的 PQC 算法提案

软件和硬件的更新

PQC 算法的部署需要对现有的软件库、操作系统、应用程序和固件进行更新。对于嵌入式系统和物联网设备,可能还需要对硬件加速器进行升级。这可能是一个漫长且资源密集型的过程,需要跨部门的协作和长期的投入。

例如,TLS 库需要更新以支持 PQC 算法,Web 服务器和浏览器需要支持新的握手协议,数据库系统需要处理更大的加密数据,数字签名工具需要更新以生成 PQC 签名。硬件方面,一些安全芯片(如 TPM)可能需要进行硬件层面的更新或替换,以支持 PQC 算法的加速运算和安全存储。

培训与意识提升

PQC 的引入不仅是技术问题,也是人员和流程的问题。组织需要对其 IT 安全团队、开发人员和相关利益相关者进行 PQC 相关的培训,使其了解 PQC 的基本原理、潜在风险以及如何正确实施和管理 PQC 解决方案。提升全员的安全意识,确保 PQC 技术的有效落地至关重要。

“向后兼容性和过渡策略是 PQC 部署成功的关键。我们不能期望一夜之间完成替换。混合模式和渐进式部署,将是未来几年内最现实的路径。”

— Professor Jian Li, 密码学与网络安全专家

量子安全生态系统的构建与未来展望

应对后量子时代的挑战,需要整个科技行业、政府机构、学术界以及用户共同努力,构建一个强大的量子安全生态系统。这不仅仅是关于算法的升级,更是关于安全理念、技术标准、行业协作和全球治理的全面革新。

标准化与互操作性

NIST 的 PQC 标准化进程是构建量子安全生态系统的关键一步。随着标准的最终确定,全球将有统一的 PQC 算法可供选择和部署。然而,标准化并非终点,而是一个起点。未来需要继续关注 PQC 算法的性能优化、安全性分析以及在不同应用场景下的兼容性研究。

互操作性是 PQC 生态系统能否顺利运作的另一个重要因素。确保不同厂商、不同平台之间的 PQC 实现能够相互兼容,对于实现大规模的 PQC 部署至关重要。这需要行业组织、标准化机构和企业共同协作,制定清晰的互操作性规范。

量子密钥分发 (QKD) 的角色

除了 PQC,另一种应对量子威胁的技术是量子密钥分发(Quantum Key Distribution, QKD)。QKD 利用量子力学的原理,通过传输单个光子来生成和分发密钥。由于任何窃听行为都会干扰量子态,从而被通信双方察觉,因此 QKD 理论上可以提供无条件的安全密钥分发。

然而,QKD 也有其局限性。它需要专门的硬件设备(如光纤或卫星链路),并且传输距离有限。QKD 主要用于密钥分发,而非数据加密本身,因此它通常被视为 PQC 的补充,而不是替代品。未来,PQC 和 QKD 的结合,可能会为极端敏感的应用场景提供更高级别的安全保障。

供应链安全与信任

在 PQC 迁移过程中,供应链安全变得尤为重要。确保所有用于构建 PQC 解决方案的软件库、硬件组件和第三方服务都是安全可靠的,是防止“后门”和漏洞的关键。企业需要建立严格的供应商审查机制,并对整个供应链进行安全审计。

同时,建立对 PQC 技术的信任也需要时间。通过公开透明的研发过程、严格的安全评估和广泛的应用实践,才能逐渐赢得用户和市场的信任。教育和宣传也将是关键,帮助公众理解 PQC 的重要性以及它如何保护我们的数字生活。

国际合作与治理

量子计算和 PQC 的发展是全球性的。不同国家在量子计算研发和 PQC 标准化方面扮演着不同的角色。加强国际合作,共享研究成果,协调标准化进程,对于应对全球性的量子安全挑战至关重要。

未来,国际社会可能需要建立更完善的治理框架,以应对量子计算带来的复杂安全和伦理问题。这包括信息共享、威胁情报交流、以及在必要时制定国际公约,共同维护全球数字空间的安全性。

"量子安全是一个持续演进的领域。今天我们部署的 PQC 解决方案,可能在未来面临新的理论突破。因此,建立一个灵活、可升级、并且能够快速响应新威胁的安全架构,是我们在后量子时代必须追求的目标。"
— Dr. Anya Sharma, 量子信息安全架构师

后量子时代的到来,是科技发展必然的趋势。它带来了前所未有的挑战,但也孕育着无限的机遇。通过积极拥抱 PQC,加强技术研发,促进产业协作,并建立健全的治理体系,我们才能确保数字世界的安全与稳定,让科技的进步真正服务于人类的美好未来。

FAQ:您可能关心的后量子安全问题

Q1: 我现在需要担心量子计算机破解我的数据吗?

对于大多数个人用户而言,当前立即担心数据被量子计算机破解的风险相对较低。然而,对于存储有长期敏感数据的企业、政府机构或研究机构,例如涉及国家安全、商业机密、金融信息、个人隐私等,则需要立即开始规划和部署后量子安全措施。因为攻击者可能正在“存储-解密”未来的敏感数据。

Q2: PQC 算法真的安全吗?会不会像 RSA 一样最终被破解?

PQC 算法的安全性基于与当前公钥密码学不同的数学难题,这些难题被认为即使在量子计算机上也很难在合理时间内解决。例如,基于格的密码学、基于编码的密码学等。然而,密码学是一个不断发展的领域。PQC 算法的安全性也需要经过长期的理论分析和实践检验。NIST 的标准化过程就是为了确保选出的算法具有最高的安全性。同时,PQC 也在不断发展,未来可能会出现更优的算法或对抗新威胁的解决方案。

Q3: PQC 算法的性能如何?会影响我的设备运行速度吗?

PQC 算法的性能与传统算法相比,可能在某些方面有所不同。一些 PQC 算法的密钥尺寸和签名尺寸可能比 RSA 或 ECC 更大,这会增加通信和存储的开销。计算速度也可能有所差异,某些 PQC 算法的签名或验证速度可能不如传统算法快。但 NIST 在选择标准化算法时,已经考虑了性能因素,选出的算法在安全性和性能之间取得了较好的平衡。对于大多数应用场景,PQC 的性能影响是可以接受的,特别是当安全性是首要考量时。未来,随着硬件加速和算法优化,PQC 的性能还将进一步提升。

Q4: 什么时候应该开始迁移到 PQC?

“越早越好”是应对 PQC 迁移的最佳策略。虽然强大的量子计算机尚未出现,但“Q-Day”的到来是不可避免的。考虑到数据生命周期和“存储-解密”的风险,以及 PQC 部署所需的漫长周期,现在是时候开始规划和准备了。建议企业和组织:

  • 了解 PQC 的基本概念和 NIST 的标准化进程。
  • 评估现有系统的加密需求和风险。
  • 探索 PQC 算法的性能和兼容性。
  • 制定 PQC 迁移路线图,并考虑采用混合模式进行过渡。
  • 开始对 IT 人员进行 PQC 相关培训。

尽早开始规划和测试,将有助于在 PQC 部署浪潮来临时,处于更有利的位置。

Q5: PQC 和 QKD 有什么区别?它们会一起使用吗?

PQC(后量子密码学)是一套基于数学难题的加密算法,旨在用新的公钥加密和数字签名算法替代现有的、易受量子计算机攻击的算法。它可以在经典计算机上运行,并且对现有的 IT 基础设施改造相对较小。QKD(量子密钥分发)则利用量子力学的原理,通过物理过程来安全地分发密钥。它理论上能提供无条件安全,但需要专门的硬件,且传输距离有限,主要用于密钥分发而非数据加密。

未来,PQC 和 QKD 可能会协同工作。例如,QKD 可以用于在两个地点之间安全地建立一个共享密钥,然后这个密钥可以用于加密大量数据,或者作为 PQC 算法的辅助,提供额外的安全层。