人工智能证明 (Proof of Intelligence, PoI) 是一种旨在将人工智能 (AI) 与网络验证及安全性相结合的 区块链 共识机制。与工作量证明 (PoW) 等传统机制不同(后者要求参与者解决任意的数学难题),PoI 将计算能力引导至解决有价值的现实世界 AI 问题。在 PoI 系统中,网络节点因执行和验证有用的 AI 相关任务(如训练机器学习模型或处理大型数据集)而获得奖励。
这种方法使区块链既能作为安全、去中心化的账本运行,又能作为 AI 开发的分布式超级计算机,将为维护网络安全而消耗的能源转化为生产性输出。 [1]
智能证明(Proof of Intelligence, PoI)代表了早期共识协议的概念演进。工作量证明(PoW)通过计算密集但抽象的工作来保护网络安全,而权益证明(PoS)则依赖于与质押资本挂钩的经济激励,PoI 则引入了“有用功”的概念。
其核心思想是利用去中心化网络巨大的集体计算能力,并将其应用于在人工智能领域具有内在价值的任务。这有效地允许区块链执行多任务处理,在维护自身完整性的同时,为人工智能的研究和开发做出贡献。[1]
PoI 的主要目标是实现人工智能开发的去中心化、促进创新并增加对人工智能系统的信任。通过创建一个社区驱动、开源人工智能的框架,PoI 旨在防止人工智能权力集中在少数大公司手中,从而抵制潜在的审查和控制。[2] 该机制利用区块链技术固有的透明度和不可篡改性,为人工智能的学习过程和决策创建可验证的记录。这种链上审计追踪允许人类专家审查和验证人工智能的工作,从而增强利益相关者的信任。[2]
尽管这一概念已从理论论文发展到在几个活跃项目中的实际应用,但 PoI 尚未实现主流普及。其发展与人工智能市场的增长息息相关,一些观察家指出存在炒作驱动预期的风险。截至 2025 年初,大规模实际应用的案例仍然有限,关于该机制实际局限性的详细技术文献仍在不断涌现。[2] [1]
智能证明(Proof of Intelligence)的运行框架建立在几个关键组件之上,这些组件使其区别于传统的共识机制。其中包括任务分配、复杂的验证过程,以及与“计算智能”概念挂钩的激励结构。
在智能证明(PoI)网络中,节点不再通过竞争解决加密哈希难题,而是被分配或选择特定的AI相关计算任务。这些任务旨在产生价值和实用性,直接助力AI模型的开发与增强。受网络奖励的可验证任务包括:AI模型训练、AI模型推理(利用训练好的模型进行预测)以及AI模型优化。
这些计算结果旨在更广泛的 Web3 和 AI 生态系统中使用,从而创建一个持续开发的循环。该模式将网络验证的重点从抽象的问题求解转向执行实用的AI工作,利用网络的能源和处理能力来产生切实的知识产出。 [2] [1]
验证所贡献的AI计算是否正确且诚实地执行,是PoI(影响力证明)中一个至关重要且高度复杂的组成部分。这一过程比PoW(工作量证明)简单的哈希验证要困难得多,在PoW中,任何节点都可以快速确认解的有效性。
AI输出(例如训练模型的权重或推理结果)具有细微差别,如果不重新运行计算,很难进行验证,而重新运行计算则会违背委托任务的初衷。
这种困难带来了潜在的安全漏洞,因为恶意行为者可能会尝试提交有缺陷、被操纵或低效的计算。例如,一个节点可能会提交训练不佳的模型结果,或者提交旨在通过对抗性攻击欺骗验证系统的计算。
开发稳健、高效且去信任的验证方法仍然是PoI系统面临的主要技术障碍。 [1]
为了鼓励参与,PoI 网络会奖励那些成功完成并提交可验证 AI 工作的节点。类似于 PoW 中的挖矿奖励或 PoS 中的验证奖励,这些激励通常以网络的原生加密货币形式支付。
该系统为个人和组织将其计算资源贡献给网络定义的“计算智能”创造了直接的经济激励。
节点所贡献工作的价值和准确性(例如机器学习模型)可以直接影响其获得网络奖励的机会。这激励了高质量的贡献,并有助于推动去中心化 AI 平台的增长和实力。[2] [1]
某些PoI(影响力证明)实现的一个关键特性是对AI学习决策和输出进行链上记录。通过将这些信息存储在区块链上,系统为AI的开发过程创建了一个不可篡改且透明的账本。
这一公开记录允许人类专家、审计员和其他利益相关者审查AI所使用的数据、模型和决策逻辑。这种可审计性旨在提高AI系统的信任度和问责制,因为AI系统常因其“黑箱”性质而受到批评。可验证的链上追踪提供了一种机制,用于追究AI系统的责任并理解它们是如何得出结论的。[2]
与工作量证明(PoW)和权益证明(PoS)等既有机制相比,智能证明(PoI)从根本上改变了验证者的角色和资源的使用方式。
| 特性 | 智能证明 (PoI) | 工作量证明 (PoW) | 权益证明 (PoS) |
|---|---|---|---|
| 主要目标 | 通过执行有用的 AI 计算来保护网络安全。 | 通过解决计算密集型的抽象谜题来保护网络安全。 | 通过让验证者质押自有资本来保护网络安全。 |
| 资源利用 | 计算量大,但用于“有意义”的 AI 任务。 | 计算量大,常因在抽象问题上消耗高能耗而受到批评。 | 能耗较低,因为安全性基于经济激励而非原始算力。 |
| 验证者角色 | 提供算力以解决 AI 问题。 | 提供算力以寻找有效的加密哈希值。 | 质押加密货币以被选中进行区块验证。 |
| 验证方式 | 复杂;需要特定方法确保 AI 任务被正确执行。 | 简单;生成的哈希值易于任何节点验证。 | 基于加密签名和按质押权重的选择过程。 |
| 准入门槛 | 高;需要专业硬件(如强大的 GPU)和 AI 技术知识。 | 高;需要专业的挖矿硬件(ASIC、GPU)。 | 硬件要求较低,但需要大量的资本投入进行质押。 |
这一对比突显了 PoI 如何尝试将区块链安全中资源密集型的特性转化为另一个技术领域的生产力,尽管这在验证和可访问性方面也带来了其特有的复杂性。 [1]
智能证明(Proof of Intelligence, PoI)通过连接区块链与人工智能领域,提供了多项潜在优势。
这些优势共同为开发更复杂、更强大的去中心化应用 (dApps) 和平台铺平了道路,这些应用和平台由原生集成且可审计的 AI 功能驱动。 [2]
尽管具有潜力,但智能证明(Proof of Intelligence, PoI)仍面临重大的技术障碍、准入问题以及市场相关风险。
将人工智能(AI)计算集成到区块链的核心功能中,开启了多个潜在的应用领域。各项目正在探索有用工作证明(PoI)的一系列使用场景,包括:
这些应用利用PoI来创建更强大、更智能的去中心化系统。[2]
虽然这一概念仍处于新兴阶段,但已有多个项目实现了类似于人工智能证明(Proof of Intelligence)或直接受其启发的机制,且通常与其他共识模型相结合。
为了缓解纯影响力证明(PoI)系统中的某些挑战,例如验证复杂性和高准入门槛,一些项目正在开发混合共识模型。这些模型通常将 PoI 的元素与权益证明(PoS)等成熟机制相结合。这种方法允许网络利用 PoS 经过验证的安全性和可访问性,同时逐步整合有用的 AI 驱动计算的优势,从而创建一个更平衡、更安全的系统。 [1]
智能证明(Proof of Intelligence)通常被定位为超越第一代和第二代共识机制(如 PoW 和 PoS)的进化步骤。[2] 人工智能与区块链技术的融合代表了一个不断增长的市场细分领域。根据 Weiss Ratings 引用 Precedence Research 的预测,2024 年区块链与人工智能的合并市场估值约为 5.507 亿美元。同一来源预计,到 2033 年,该市场的复合年增长率(CAGR)将达到 23.64%。[1]
另外,PoI 等技术旨在服务于更广泛的人工智能市场,据预测其规模将大得多。2025 年初引用的一项预测表明,人工智能市场到 2030 年可能达到 2 万亿美元,这表明能够成功连接人工智能和去中心化基础设施的技术具有巨大的潜在前景。[2]
尽管有这些预测,但 PoI 的概念虽然正在积极实施中,但在更广泛的技术领域尚未实现大规模的主流应用。[1]