Cocoon(Confidential Compute Open Network,保密计算开放网络)是由 Telegram 创始人 Pavel Durov 开发和推出的去中心化人工智能 (AI) 计算网络。[1] [2] 它作为一个建立在 开放网络 (TON) 区块链上的双边市场,旨在连接图形处理单元 (GPU) 的所有者和需要计算能力来完成 AI 任务的开发者。该网络的核心功能是利用保密计算技术,以确保 AI 模型和用户数据在处理过程中保持私密和安全。[3]
Cocoon 的创建旨在提供一种去中心化、保护隐私且经济高效的替代方案,以取代亚马逊网络服务和微软 Azure 等大型科技公司提供的中心化云计算服务。[4] Telegram 创始人 Pavel Durov 阐述了该项目的愿景,即普及 AI 计算的访问,并防止 AI 权力集中在少数公司手中。[5] 它旨在解决其支持者所描述的与传统 AI 云提供商相关的高成本和数据隐私漏洞。[6]
该网络作为一个去中心化物理基础设施网络 (DePIN) 运行,参与者贡献硬件以换取加密货币奖励。GPU 所有者可以将他们兼容的硬件连接到网络,并通过处理 AI 推理任务来赚取 Toncoin (TON)。[7] 反过来,开发者可以访问全球分布的计算资源池,以在开放市场确定的价格下运行他们的 AI 应用程序。至关重要的是,使用保密计算旨在保证提供硬件的 GPU 所有者无法访问开发者的专有 AI 模型或最终用户的数据。[3]
Telegram 作为该项目的战略发起者和第一个主要客户,旨在利用其庞大的用户群来产生对网络的初始需求。这种集成旨在解决许多去中心化网络面临的“冷启动”问题,并为 Telegram 应用程序中的新隐私型 AI 功能提供支持。[2] 该项目的源代码是开源的,托管在 GitHub 上的官方 Telegram Messenger 组织下。[8]
Cocoon 背后的技术概念于 2024 年 4 月首次公开讨论。在 TON DEV CONF DUBAI '24 会议期间,Telegram 的一位开发者发表了题为“TON 上的保密 AI 计算”的技术演讲,其中预览了在 TON 区块链上以安全、可验证的方式运行 AI 模型的核心架构。[7]
以下视频是 TON DEV CONF DUBAI '24 活动的演示,其中首次介绍了 Cocoon 的核心技术概念。
2024 年 11 月 21 日,Telegram 创始人 Pavel Durov 通过社交媒体平台 X(前身为 Twitter)上的一篇文章正式宣布了 Cocoon 项目。[7] 此后,Durov 在 2025 年 10 月 29 日于迪拜举行的 Blockchain Life 2025 会议的主题演讲中更详细地介绍了 Cocoon 的愿景。他将 Cocoon 视为迈向更开放和去中心化 AI 格局的关键一步,并确认 Telegram 将成为该网络的第一个主要客户。[9]
2025 年 11 月 30 日,Pavel Durov 宣布 Cocoon 网络已上线,并已开始处理来自用户的第一个 AI 请求。他确认网络上的 GPU 所有者已经因其贡献而赚取 TON 代币。[4] 同一天,该项目的初始源代码以 Apache-2.0 许可证发布在 TelegramMessenger/cocoon GitHub 存储库上。发布后的初始路线图侧重于通过引入更多 GPU 提供商和吸引开发者需求来扩展网络。[6] [8]
Cocoon 的架构建立在三个支柱之上:用于隐私的保密计算、用于基础设施的去中心化网络模型以及与 TON 区块链 的集成,用于支付和协调。该系统通常由三个主要参与方组成:客户端(提交请求的开发者或用户)、代理(将请求与工作者匹配的中介)和工作者(执行任务的 GPU 服务器)。[6]
Cocoon 隐私承诺的核心是强制使用保密计算,它利用基于硬件的 可信执行环境 (TEE) 来隔离和保护处理过程中的数据和代码。[3]
Cocoon 的工作节点在“保密虚拟机”或“TDX 访客”中运行 AI 模型,这些虚拟机是由 Intel TDX 技术创建的硬件隔离环境。这可以防止主机服务器运营商(包括 GPU 所有者)检查或篡改在虚拟机中处理的 AI 模型或用户数据。[7]
该网络还利用 Intel SGX 来实现一个名为 seal-server 的组件。此组件在主机上运行,并使用 SGX enclave(内存的受保护区域)来安全地派生、管理和“密封” TDX 访客的加密密钥。这确保了工作者的身份和密钥与其特定的硬件和软件状态相关联,并且可以跨重启持久存在,而不会暴露给主机系统。[7]
为了将安全性扩展到 GPU 本身,Cocoon 需要支持保密计算的 NVIDIA GPU,例如 H100 系列及更高版本中的 GPU。这项技术可以在 GPU 上使用时保护数据,从而在保持 TEE 安全边界的同时实现硬件加速的 AI 推理。[7]
在客户端发送任何敏感数据之前,它会执行远程证明,以加密方式验证远程工作节点的完整性。此过程确保客户端正在与真正的 Cocoon 工作者通信,该工作者在合法的 Intel TDX 环境中运行正确的软件。Cocoon 通过 RA-TLS(通过传输层安全的远程证明)来实现这一点,该技术将证明证据集成到 TLS 握手中,以建立安全的端到端加密通道。[3]
开放网络 (TON) 充当 Cocoon 的无信任经济和协调支柱。
health-client): GPU 所有者用于监控其工作节点的状态、性能和日志的命令行实用程序。[7]Cocoon 的市场围绕几个关键群体的互动而设计。
GPU 所有者是网络的供应方。通过贡献他们的计算资源,他们可以赚取 TON 奖励。要参与,他们必须拥有一台具有特定硬件的服务器,包括支持 TDX 的 Intel CPU 和支持保密计算的 NVIDIA GPU。设置包括在 BIOS 中启用安全功能、下载官方 Cocoon 发行版以及运行 seal-server 和 cocoon-launch 脚本。所有者可以通过配置文件为其服务设置价格乘数。[7]
开发者是网络的需求方。他们集成 Cocoon 以运行其应用程序的 AI 模型,从而受益于竞争市场设定的较低成本以及提供以隐私为中心的 AI 功能的能力。开发者的工作流程包括通过链上注册表发现工作节点、执行远程证明、建立安全的 RA-TLS 通道、发送加密的输入以进行推理以及接收加密的结果,支付由 TON 智能合约自动处理。[3]
建立在 Cocoon 上的应用程序的最终用户(包括 Telegram 中未来的 AI 功能)是网络隐私模型的最终受益者。他们可以与高级 AI 工具交互,并确保他们的数据和查询对包括硬件运营商在内的所有第三方保密。[6]