作者:@anci_hu49074 (Biteye)、@Jesse_meta (Biteye)、@lviswang (Biteye)、@0xjacobzhao (Biteye)、@bz1022911(PANews)
概述 背景近年来,OpenAI、Anthropic、Google、Meta等头部科技公司不断推动大语言模型(LLM)的飞速发展。LLM在各行各业展现出前所未有的能力,极大地拓展了人类的想象空间,甚至在部分场景下展现了替代人类劳动的潜力。然而,这些技术的核心却牢牢掌握在少数中心化科技巨头手中。凭借雄厚的资本和对高昂算力资源的把控,这些公司建立起了难以逾越的壁垒,使绝大多数开发者和创新团队难以与之抗衡。
来源:BONDAI 趋势分析报告
同时,在AI快速演进的初期,社会舆论往往聚焦于技术带来的突破和便利,而对隐私保护、透明度、安全性等核心问题的关注却相对不足。长期来看,这些问题将深刻影响AI行业的健康发展和社会接受度。如果无法妥善解决,AI“向善”还是“向恶”的争议将愈发突出,而中心化巨头在逐利本能驱动下,往往缺乏足够的动力去主动应对这些挑战。
区块链技术凭借其去中心化、透明和抗审查的特性,为AI行业的可持续发展提供了新的可能性。目前,Solana、Base等主流区块链上已经涌现出众多“ Web3 AI”应用。但深入分析可以发现,这些项目仍存在诸多问题:一方面,去中心化程度有限,关键环节和基础设施仍依赖中心化云服务,meme属性过重,难以支撑真正意义上的开放生态;另一方面,与Web2世界的AI产品相比,链上AI在模型能力、数据利用和应用场景等方面仍显局限,创新深度和广度有待提升。
要真正实现去中心化AI的愿景,使区块链能够安全、高效、民主地承载大规模AI应用,并在性能上与中心化方案相抗衡,我们需要设计一条专为AI量身打造的Layer1区块链。这将为AI的开放创新、治理民主和数据安全提供坚实基础,推动去中心化AI生态的繁荣发展。
AI Layer 1 的核心特性AI Layer 1作为一条专为AI应用量身定制的区块链,其底层架构和性能设计紧密围绕AI任务的需求,旨在高效支撑链上AI生态的可持续发展与繁荣。具体而言,AI Layer 1应具备以下核心能力:
-
高效的激励与去中心化共识机制:AI Layer 1的核心在于构建一个开放的算力、存储等资源的共享网络。与传统区块链节点主要聚焦于账本记账不同,AI Layer 1的节点需要承担更复杂的任务,不仅要提供算力、完成AI模型的训练与推理,还需贡献存储、数据、带宽等多样化资源,从而打破中心化巨头在AI基础设施上的垄断。这对底层共识和激励机制提出了更高要求:AI Layer 1必须能够准确评估、激励并验证节点在AI推理、训练等任务中的实际贡献,实现网络的安全性与资源的高效分配。唯有如此才能保证网络的稳定与繁荣,并有效降低整体算力成本。#p#分页标题#e#
-
卓越的高性能与异构任务支持能力:AI任务,尤其是LLM的训练与推理,对计算性能和并行处理能力提出了极高的要求。更进一步,链上AI生态往往还需支持多样化、异构的任务类型,包括不同模型结构、数据处理、推理、存储等多元场景。AI Layer 1必须在底层架构上针对高吞吐、低延迟和弹性并行等需求进行深度优化,并预设对异构计算资源的原生支持能力,确保各种AI任务都能高效运行,实现从“单一型任务”到“复杂多元生态”的平滑扩展。
-
可验证性与可信输出保障:AI Layer 1不仅要防止模型作恶、数据篡改等安全隐患,更要从底层机制上确保AI输出结果的可验证性和对齐性。通过集成可信执行环境(TEE)、零知识证明(ZK)、多方安全计算(MPC)等前沿技术,平台能够让每一次模型推理、训练和数据处理过程都可以被独立验证,确保AI系统的公正性和透明度。同时,这种可验证性还能帮助用户明确AI输出的逻辑和依据,实现“所得即所愿”,提升用户对AI产品的信任和满意度。
-
数据隐私保护:AI应用经常涉及用户敏感数据,在金融、医疗、社交等领域,数据隐私保护尤为关键。AI Layer 1应在保障可验证性的同时,采用基于加密的数据处理技术、隐私计算协议和数据权限管理等手段,确保数据在推理、训练及存储等全过程中的安全性,有效防止数据泄露和滥用,消除用户在数据安全方面的后顾之忧。
-
强大的生态承载与开发支持能力:作为AI原生的Layer 1基础设施,平台不仅要具备技术上的领先性,还需为开发者、节点运营者、AI服务提供商等生态参与者提供完善的开发工具、集成SDK、运维支持和激励机制。通过持续优化平台可用性和开发者体验,促进丰富多元的AI原生应用落地,实现去中心化AI生态的持续繁荣。
基于以上背景与期望,本文将详细介绍包括 Sentient、Sahara AI、Ritual 、Gensyn、Bittensor以及 0G在内的六个AI Layer1 代表项目,系统梳理赛道的最新进展,剖析项目发展现状,并探讨未来趋势。
Sentient:构建忠诚的开源去中心化AI模型 项目概述Sentient 是一个开源协议平台,正在打造一条 AI Layer1 区块链(初始阶段为 Layer 2,之后将迁移至 Layer 1),通过结合 AI Pipeline 和区块链技术,构建去中心化的人工智能经济体。其核心目标是通过“OML”框架(开放、可盈利、忠诚)解决中心化 LLM 市场中的模型归属、调用追踪和价值分配问题,使 AI 模型实现链上所有权结构、调用透明化和价值分润化。Sentient 的愿景是让任何人都能够构建、协作、拥有并将 AI 产品货币化,从而推动一个公平、开放的 AI Agent 网络生态。#p#分页标题#e#
Sentient Foundation 团队汇聚了全球顶尖的学术专家、区块链创业者和工程师,致力于构建一个社区驱动、开源且可验证的 AGI 平台。核心成员包括普林斯顿大学教授 Pramod Viswanath 和印度科学研究所教授 Himanshu Tyagi,分别负责 AI 安全性与隐私保护,同时由 Polygon 联合创始人 Sandeep Nailwal 主导区块链战略与生态布局。团队成员背景横跨 Meta、Coinbase、Polygon 等知名企业,以及普林斯顿大学、印度理工学院等顶尖高校,覆盖 AI/ML、NLP、计算机视觉等领域,协力推动项目落地。
作为 Polygon 联合创始人 Sandeep Nailwal的二次创业项目,Sentient 在成立之初便自带光环,拥有丰富的资源、人脉和市场认知度,为项目发展提供了强大背书。2024 年中,Sentient 完成了 8500 万美元的种子轮融资,由 Founders Fund、Pantera 和 Framework Ventures 领投,其他投资机构包括 Delphi、Hashkey 和 Spartan 等数十家知名 VC。
设计架构与应用层 基建层 核心架构Sentient 的核心架构由 AI 管道(AI Pipeline) 和 区块链系统 两部分组成:
AI 管道是开发和训练“忠诚 AI”工件的基础,包含两个核心过程:
-
数据策划(Data Curation):由社区驱动的数据选择过程,用于模型的对齐。
-
忠诚度训练(Loyalty Training):确保模型保持与社区意图一致的训练过程。
区块链系统为协议提供透明性和去中心化控制,确保 AI 工件的所有权、使用跟踪、收益分配与公平治理。具体架构分为四层:
-
存储层:存储模型权重与指纹注册信息;
-
分发层:授权合约控制模型调用入口;
-
访问层:通过权限证明验证用户是否授权;
-
激励层:收益路由合约将每次调用支付分配给训练者、部署者与验证者。
Sentient系统工作流程图
OML 模型框架OML 框架(开放 Open、可货币化 Monetizable、忠诚 Loyal)是 Sentient 提出的核心理念,旨在为开源 AI 模型提供明确的所有权保护和经济激励机制。通过结合链上技术和 AI 原生加密学,具有以下特点:
-
开放性: 模型必须开源,代码和数据结构透明,便于社区复现、审计和改进。
-
货币化: 每次模型调用都会触发收益流,链上合约会将收益分配给训练者、部署者和验证者。
-
忠诚性: 模型归属于贡献者社区,升级方向和治理由 DAO 决定,使用和修改受到加密机制的控制。
AI原生加密是利用 AI 模型的连续性、低维流形结构与模型可微特性,开发出“可验证但不可移除”的轻量级安全机制。其核心技术是:#p#分页标题#e#
-
指纹嵌入:在训练时插入一组隐蔽的 query-response 键值对形成模型唯一签名;
-
所有权验证协议:通过第三方探测器(Prover)以 query 提问形式验证指纹是否保留;
-
许可调用机制:调用前需获取模型所有者签发的“权限凭证”,系统再据此授权模型对该输入解码并返回准确答案。
这种方式可在无重加密成本的情况下实现“基于行为的授权调用 + 所属验证”。
模型确权与安全执行框架Sentient 当前采用的即为 Melange混合安全:以指纹确权、TEE 执行、链上合约分润结合。其中指纹方法为 OML 1.0 实现主线,强调“乐观安全(Optimistic Security)”思想,即默认合规、违规后可检测并惩罚。
指纹机制 是 OML 的关键实现,它通过嵌入特定的“问题-回答”对,让模型在训练阶段生成独特的签名。通过这些签名,模型拥有者可以验证归属,防止未经授权的复制和商业化。该机制不仅保护了模型开发者的权益,还为模型的使用行为提供了可追踪的链上记录。
此外,Sentient 推出了 Enclave TEE 计算框架,利用可信执行环境(如 AWS Nitro Enclaves)确保模型只响应授权请求,防止未经许可的访问和使用。虽然 TEE 依赖硬件且存在一定安全隐患,但其高性能和实时性优势使其成为当前模型部署的核心技术。
未来,Sentient 计划引入零知识证明(ZK)和全同态加密(FHE)技术,进一步增强隐私保护和可验证性,为 AI 模型的去中心化部署提供更成熟的解决方案。
OML提出五种可验证性方法的评估和对比
应用层目前,Sentient 的产品主要包括去中心化聊天平台 Sentient Chat、开源模型 Dobby 系列以及 AI Agent 框架
Dobby 系列模型SentientAGI 已发布多个“Dobby”系列模型,主要基于 Llama 模型,聚焦自由、去中心化和加密货币支持的价值观。其中,leashed 版本风格较为约束和理性,适合稳健输出的场景;unhinged 版本偏向自由大胆,具备更丰富的对话风格。Dobby 模型已经被集成到多个 Web3 原生项目中,如 Firework AI 和 Olas,用户也可以在 Sentient Chat 中直接调用这些模型进行互动。Dobby 70B 是有史以来最去中心化的模型,拥有超过 60 万名所有者(持有 Dobby 指纹 NFT 的人同时也是该模型的共同拥有者)。
Sentient 还计划推出 Open Deep Search,这是一个试图超越 ChatGPT 和 Perplexity Pro 的搜索代理系统。该系统结合了 Sensient 的搜索功能(如查询重述、文档处理)与推理代理,通过开源 LLM(如 Llama 3.1 和 DeepSeek)提升搜索质量。在 Frames Benchmark 上,其性能已超过其他开源模型,甚至接近部分闭源模型,展现了强大的潜力。#p#分页标题#e#
Sentient Chat:去中心化聊天与链上 AI Agent 集成Sentient Chat 是一个去中心化聊天平台,结合了开源大型语言模型(如 Dobby 系列)与先进的推理代理框架,支持多代理集成和复杂任务执行。平台内嵌的推理代理可以完成搜索、计算、代码执行等复杂任务,为用户提供高效的交互体验。此外,Sentient Chat 还支持链上智能体的直接集成,目前包括占星学 Agent Astro247、加密分析 Agent QuillCheck、钱包分析 Agent Pond Base Wallet Summary 和灵修指引 Agent ChiefRaiin。用户可以根据需求选择不同的智能代理进行互动。Sentient Chat 将作为代理的分发和协调平台使用。用户的提问可以被路由到任意一个已集成的模型或代理,以提供最优的响应结果。
AI Agent 框架Sentient 提供两大 AI Agent 框架:
-
Sentient Agent Framework:一个轻量级开源框架,专注于通过自然语言指令实现 Web 任务自动化(如搜索、播放视频)。框架支持构建具备感知、规划、执行和反馈闭环的智能体,适合链下 Web 任务的轻量化开发。
-
Sentient Social Agent:针对社交平台(如 Twitter、Discord 和 Telegram)开发的 AI 系统,支持自动化互动与内容生成。通过多智能体协作,该框架能够理解社交环境,并为用户提供更加智能化的社交体验,同时可与 Sentient Agent Framework 集成,进一步扩展其应用场景。
Sentient Builder Program 目前设有 100 万美元资助计划,旨在鼓励开发者利用其开发套件,构建通过 Sentient Agent API 接入、并可在 Sentient Chat 生态中运行的 AI Agent。Sentient 官网公布的生态伙伴涵盖Crypto AI多个领域的项目方团队,如下
Sentient生态图
此外,Sentient Chat 目前处于测试阶段,需要通过邀请码进入白名单后才可访问,普通用户可以提交waitlist。根据官方信息,已有超过 50,000 名用户和 1,000,000 次查询记录。Sentient Chat 的候补名单上有 2,000,000 名用户等待加入。
挑战和展望Sentient 从模型端入手,致力于解决当前大规模语言模型(LLM)面临的不对齐、不可信等核心问题,通过 OML 框架和区块链技术,为模型提供明确的所有权结构、使用追踪和行为约束,极大推动了去中心化开源模型的发展。
凭借 Polygon 联合创始人 Sandeep Nailwal 的资源支持,以及顶级 VC 和行业伙伴的背书,Sentient 在资源整合和市场关注度上处于领先地位。不过在当前市场对高估值项目逐渐祛魅的背景下,Sentient 能否交付真正具有影响力的去中心化 AI 产品,将是其能否成为去中心化 AI 所有权标准的重要考验。这些努力不仅关乎 Sentient 自身的成功,也对整个行业的信任重建和去中心化发展具有深远影响。#p#分页标题#e#
Sahara AI:打造人人参与的去中心化AI世界 项目概述Sahara AI 是一个为 AI × Web3 新范式而生的去中心化基础设施致力于构建一个开放、公平且协作的人工智能经济。项目通过去中心化账本技术,实现数据集、模型和智能 Agent 的链上管理与交易,确保数据和模型的主权与可追溯性。同时,Sahara AI 引入透明、公平的激励机制,让所有贡献者,包括数据提供者、标注员和模型开发者,都能在协作过程中获得不可篡改的收入回报。平台还通过一个无需许可的“版权”系统,保护贡献者对 AI 资产的所有权和归属,并鼓励开放共享和创新。
Sahara AI 提供从数据收集、标注到模型训练、AI Agent 创建、AI 资产交易等服务的一站式解决方案,覆盖整个 AI 生命周期,成为满足 AI 开发需求的全方位生态平台。其产品质量和技术能力已获得微软、亚马逊、麻省理工学院(MIT)、Motherson 集团和 Snap 等全球顶尖企业和机构的高度认可,展现出强大的行业影响力和广泛的适用性。
Sahara 不只是一个科研项目,而是由一线技术创业者与投资人联合推动、具备落地导向的深科技平台。其核心架构有可能成为 AI × Web3 应用落地的关键支点。Sahara AI 已获得 Pantera Capital、Binance Labs、红杉中国等头部机构累计 4,300 万美元的投资支持;由南加州大学终身教授、2023 年度三星研究员 Sean Ren 和前 Binance Labs 投资总监 Tyler Zhou 共同创立,核心团队成员来自斯坦福大学、加州大学伯克利分校、微软、谷歌、币安等顶尖机构,融合了学术界与产业界的深厚积累。
设计架构Sahara AI 架构图
基础层Sahara AI 的基础层分为:1.链上层用于 AI 资产的注册与变现,2.链下层用于运行 Agents 与 AI 服务。由链上系统与链下系统协同构成,负责 AI 资产的注册、确权、执行与收益分配,支撑整个 AI 生命周期的可信协作。
Sahara 区块链与 SIWA 测试网(链上基础设施)SIWA 测试网是 Sahara 区块链的第一个公开版本。Sahara 区块链协议(SBP)是 Sahara 区块链的核心,这是一套专为 AI 构建的智能合约系统,实现了 AI 资产的链上所有权、溯源记录与收益分配。核心模块包括资产注册系统、所有权协议、贡献追踪、权限管理、收益分配、执行证明等,构建出面向 AI 的“链上操作系统”。
AI 执行协议(链下基础设施)为支撑模型运行与调用的可信性,Sahara 同时构建了链下的 AI 执行协议体系,结合可信执行环境(TEE),支持 Agent 创建、部署、运行与协同开发。每次任务执行均自动生成可验证记录,并上传链上,确保全流程可追溯、可验证。链上系统负责注册、授权与所有权记录,链下 AI 执行协议则支持 AI Agent 的实时运行与服务交互。#p#分页标题#e#
由于Sahara 跨链兼容,因此基于 Sahara AI 的基础设施构建的应用可以部署在任何链上,甚至链下。
应用层 Sahara AI 数据服务平台(DSP)数据服务平台(DSP)是 Sahara 应用层的基础模块,任何人都可通过 Sahara ID 接受数据任务,参与数据标注、去噪与审核,并获得链上积分奖励(Sahara Points)作为贡献凭证。这一机制不仅保障了数据溯源与权属,同时推动“贡献-奖励-模型优化”形成闭环。目前进行到了第四季活动,这也是普通用户可以参与贡献的主要方式。
在此基础上,为了鼓励用户提交高质量的数据与服务,通过介紹双重激励机制,不仅可获得 Sahara 提供的奖励,还能获得生态伙伴的额外回报,实现一次贡献、多方收益。以数据贡献者为例,一旦其数据被模型反复调用或用于生成新应用,即可持续获取收益,真正参与 AI 价值链。这一机制不仅延长了数据资产的生命周期,也为协作与共建注入了强大动能,例如,BNB Chain 上的 MyShell 就通过 DSP 众包生成定制数据集,提升模型性能,用户则获得 MyShell 代币激励,形成双赢闭环。
AI企业可以基于数据服务平台来众包定制数据集,通过发布专门的数据任务,快速从位于全球的数据标注者获得响应。AI企业不再只依赖传统中心化数据供应商,就可大规模获取高质量标注数据。
Sahara AI Developer PlatformSahara AI Developer Platform 是一个面向开发者与企业的一站式 AI 构建与运营平台,提供从数据获取、模型训练到部署执行与资产变现的全流程支持。用户可以直接调用 Sahara DSP 中的高质量数据资源,将其用于模型的训练与微调;处理完成的模型可在平台内进行组合、注册并上架至 AI 市场,通过 Sahara 区块链实现所有权确权与灵活授权。Studio 同时整合去中心化计算能力,支持模型训练与 Agent 的部署运行,确保计算过程的安全性与可验证性。开发者还可将关键数据和模型存储,进行加密托管和权限控制,防止未授权访问。通过 Sahara AI AI Developer Platform,开发者无需自建基础设施,即可以更低门槛构建、部署并商业化 AI 应用,并通过协议化机制全面融入链上 AI 经济体系。
AI MarkerplaceSahara AI Marketplace 是一个面向模型、数据集与 AI Agent 的去中心化资产市场。它不仅支持资产的注册、交易与授权,更构建了一套透明且可追踪的收益分配机制。开发者可以将自己构建的模型或收集的数据集注册为链上资产,设置灵活的使用授权与分润比例,系统将根据调用频次自动执行收益结算。数据贡献者也能因其数据被重复调用而持续获得分润,实现“持续变现”。
这一市场与 Sahara 区块链协议深度整合,所有资产交易、调用、分润记录都将链上可验证,确保资产归属明确、收益可追踪。借助该市场,AI 开发者不再依赖传统 API 平台或中心化模型托管服务,而是拥有自主、可编程的商业化路径。#p#分页标题#e#
生态层Sahara AI 的生态层串连了资料提供者、AI 开发者、消费者、企业用户与跨链合作伙伴。无论是想贡献资料、开发应用、使用产品,还是推动企业内部 AI 化,都能发挥作用并找到收益模式。资料标注者、模型开发团队与算力供应者可以将其资源注册为链上资产,透过 Sahara AI 的协议机制进行授权与分润,让每一次被使用的资源都能自动获得回报。开发者则能通过一站式的平台串接资料、训练模型、部署 Agent,在 AI Marketplace 中直接商业化他们的成果。
一般用户无需技术背景,也可参与资料任务、使用 AI App、收藏或投资链上资产,成为 AI 经济的一部分。对企业来说,Sahara 提供从资料众包、模型开发到私有部署与收益变现的全流程支持。除此之外,Sahara 支援跨链部署,任何公链生态都可使用 Sahara AI提供的协议与工具来建构 AI 应用、接入去中心化 AI 资产,实现与多链世界的兼容与扩展。这使得 Sahara AI不只是单一平台,更是一个链上 AI 生态的底层协作标准。
生态进展
自项目启动以来,Sahara AI 不仅仅提供一套 AI 工具或算力平台,还在在链上重构 AI 的生产与分配秩序,打造一个人人都能参与、确权、贡献与共享的去中心化协作网络。正因如此,Sahara选择以区块链作为底层架构,为 AI 构建可验证、可追踪、可分配的经济体系。
围绕这一核心目标,Sahara 生态已取得显著进展。在尚处于私测阶段的情况下,平台已累计生成超 320 万个链上账户,日活跃账户稳定在 140 万以上,显示出用户参与度与网络活力。其中,超过 20 万名用户通过 Sahara 数据服务平台参与了数据标注、训练与验证任务,并获得链上激励奖励。同时,仍有数百万用户在等待加入白名单,印证了市场对去中心化 AI 平台的强烈需求与共识。
在企业合作方面,Sahara 已与微软、亚马逊、麻省理工学院(MIT)等全球领先机构建立合作,为其提供定制化的数据采集与标注服务。企业可通过平台提交具体任务,由 Sahara 全球数据标注者组成的网络高效执行,实现规模化众包,执行效率、灵活性、多样化需求支持方面的优势。
Sahara AI生态图
参与方式SIWA 将分四个阶段推出。目前第一阶段为链上数据所有权打基础,贡献者可以将自己的数据集注册并代币化。目前对外公开开放,不需要白名单。需要确保上传的是对AI 有用的数据,抄袭或者不当内容可能会受到处理。
SIWA测试网
第二阶段实现数据集与模型的链上变现。第三阶段开放测试网,并开源协议。 第四阶段推出 AI 数据流注册、溯源追踪与贡献证明机制。#p#分页标题#e#
除了SIWA测试网,现阶段普通用户可以参与Sahara Legends,通过游戏化任务了解Sahara AI的功能。完成任务后收获守护者碎片,最后可以合成一个NFT来记录对网络的贡献。
或者在数据服务平台标注数据,贡献有价值数据,以及担任审核员。Sahara 后续计划和生态伙伴合作发布任务,让参与者除了获得Sahara的积分外还可获得生态伙伴的激励。第一次双奖励任务和Myshell一起举办,用户完成任务可获得Sahara的积分和Myshell的代币奖励。
根据路线图,Sahara 预计于2025年Q3 推出主网,届时可能也会迎来TGE。
挑战和展望
Sahara AI 让AI不再局限于开发人员或者大的AI公司,让AI更加开放包容和民主化。对于普通用户,无须编程知识即参与贡献并获取收益,Sahara AI 打造的是一个人人都能参与的去中心化 AI 世界。对于技术开发人员,Sahara AI 打通Web2和Web3开发路径,提供了去中心化但灵活强大的开发工具和高质量的数据集。对于 AI 基础设施提供者,Sahara AI 提供了模型、数据、算力与服务的去中心化变现新路径。Sahara AI 不仅仅只做公链基础设施,还下场做核心应用,利用区块链技术促进AI版权系统的发展。现阶段 Sahara AI 已经和多个顶级AI机构达成合作,取得初步成功。后续是否成功,还应观察主网上线后的性能表现,生态产品发展和采用率以及经济模型能否在TGE后驱动用户继续为数据集做贡献。
Ritual:创新设计突破异构任务等AI核心难题 项目概述Ritual 旨在解决当前 AI 行业中存在的中心化、封闭性和信任问题,为 AI 提供透明的验证机制、公平的计算资源分配以及灵活的模型适配能力;允许任何协议、应用或智能合约以几行代码的形式集成可验证的AI 模型;并通过其开放的架构和模块化的设计,推动 AI 在链上的广泛应用,打造一个开放、安全且可持续的 AI 生态系统。
Ritual 于 2023 年 11 月完成 2500 万美元 A 轮融资,由 Archetype 领投,Accomplice 等多家机构及知名天使投资人参与,展示了市场认可和团队的强大社交能力。创始人 Niraj Pant 和 Akilesh Potti 均为前 Polychain Capital 合伙人,曾主导投资 Offchain Labs、EigenLayer 等行业巨头,展现出深刻洞见与判断力。团队在密码学、分布式系统、AI 等领域经验丰富,顾问阵容包括 NEAR 和 EigenLayer 等项目创始人,彰显了其强大的背景与潜力。
设计架构 从 Infernet 到Ritual ChainRitual Chain 是从 Infernet 节点网络自然过渡而来的第二代产品,代表了 Ritual 在去中心化 AI 计算网络上的全面升级。
Infernet 是 Ritual 推出的第一阶段产品,于 2023 年正式上线。这是一个为异构计算任务设计的去中心化预言机网络,旨在解决中心化 API 的局限性,让开发者能够更加自由、稳定地调用透明且开放的去中心化 AI 服务。#p#分页标题#e#
Infernet 采用了灵活简单的轻量化框架,由于其易用性和高效性,在推出后迅速吸引了 8,000 多个独立节点加入。这些节点具备多样化的硬件能力,包括 GPU 和 FPGA,能够为 AI 推理和零知识证明生成等复杂任务提供强大的计算能力。然而,为了保持系统的简洁性,Infernet 放弃了一些关键功能,例如通过共识协调节点或集成稳健的任务路由机制。这些限制使 Infernet 难以满足更广泛的 Web2 和 Web3 开发者的需求,从而促使 Ritual 推出了更加全面和强大的 Ritual Chain。
Ritual Chain工作流程图
Ritual Chain 是专为 AI 应用设计的下一代 Layer 1 区块链,旨在弥补 Infernet 的局限性,并为开发者提供更加稳健和高效的开发环境。通过 Resonance 技术,Ritual Chain 为 Infernet 网络提供了简洁且可靠的定价和任务路由机制,大幅优化了资源分配效率。此外,Ritual Chain 基于 EVM++ 框架,这是对以太坊虚拟机(EVM)的向后兼容扩展,具备更强大的功能,包括预编译模块、原生调度(scheduling)、内置账户抽象(Account Abstraction, AA)以及一系列先进的以太坊改进提案(EIPs)。这些特性共同构建了一个功能强大、灵活且高效的开发环境,为开发者提供了全新的可能性。
预编译 Sidecars与传统预编译相比,Ritual Chain 的设计提升了系统的扩展性和灵活性,允许开发者以容器化方式创建自定义功能模块,而无需修改底层协议。这种架构不仅显著降低了开发成本,还为去中心化应用提供了更强大的计算能力。
具体来说Ritual Chain 通过模块化架构将复杂计算从执行客户端中解耦,并以独立的 Sidecars形式实现。这些预编译模块能够高效处理复杂的计算任务,包括 AI 推理、零知识证明生成和可信执行环境(TEE)操作等。
原生调度(Native Scheduling)原生调度解决了任务定时触发和条件执行的需求。传统区块链通常依赖中心化的第三方服务(如 keeper)来触发任务执行,但这种模式存在中心化风险和高额成本。Ritual Chain 通过内置调度器彻底摆脱了对中心化服务的依赖,开发者可以直接在链上设置智能合约的入口点和回调频率(callback frequency)。区块生产者会维护挂起调用的映射表,在生成新区块时优先处理这些任务。结合 Resonance 的资源动态分配机制,Ritual Chain 能够高效且可靠地处理计算密集型任务,为去中心化 AI 应用提供了稳定的保障。
技术创新Ritual 的核心技术创新确保了其在性能、验证和扩展性上的领先地位,为链上 AI 应用提供了强大的支持。
1. Resonance:优化资源分配Resonance 是一个优化区块链资源分配的双边市场机制,解决异构交易的复杂性。随着区块链交易从简单转账演变为智能合约、AI 推理等多样化形式,现有的费用机制(如 EIP-1559)难以高效匹配用户需求与节点资源。Resonance 通过引入 Broker 和 Auctioneer 两个核心角色,实现了用户交易与节点能力之间的最佳匹配:#p#分页标题#e#
-
Broker 负责分析用户交易的费用意愿和节点的资源成本函数,以实现交易与节点之间的最佳匹配,提升计算资源的利用率。
-
Auctioneer 通过双边拍卖机制组织交易费用分配,确保公平性和透明性。节点根据自身硬件能力选择交易类型,而用户则可根据优先条件(如速度或成本)提交交易需求。
这一机制显著提高了网络的资源利用效率和用户体验,同时通过去中心化的拍卖流程进一步增强了系统的透明性和开放性。
Resonance机制下:Auctioneer根据Broker的分析,将合适的任务分配给节点
2. Symphony:提升验证效率Symphony 则专注于提升验证效率,解决传统区块链“重复执行”模式在处理和验证复杂计算任务时的低效问题。Symphony 基于“执行一次,多次验证”(EOVMT)的模型,通过将计算与验证流程分离,大幅减少重复计算带来的性能损耗。
-
计算任务由指定节点执行一次,计算结果通过网络广播,验证节点利用非交互证明(succinct proofs)确认结果的正确性,而无需重复执行计算。
-
Symphony 支持分布式验证,将复杂任务分解为多个子任务,由不同的验证节点并行处理,从而进一步提升验证效率,并确保隐私保护和安全性。
Symphony 对可信执行环境(TEE)和零知识证明(ZKP)等证明系统高度兼容,为快速确认交易和隐私敏感的计算任务提供灵活支持。这一架构不仅显著降低了重复计算带来的性能开销,还确保了验证过程的去中心化和安全性。
Symphony 将复杂任务分解为多个子任务,由不同的验证节点并行处理
3. vTune:可追踪的模型验证vTune 是 Ritual 提供的一种用于模型验证和来源追踪的工具,对模型性能几乎没有影响,同时具备良好的抗干扰能力,特别适用于保护开源模型的知识产权并促进公平分发。vTune 结合了水印技术和零知识证明,通过嵌入隐蔽的标记实现模型来源追踪和计算完整性保障:
-
水印技术:通过权重空间水印、数据水印或函数空间水印嵌入标记,即使模型公开,其归属仍可以被验证。特别是函数空间水印能够在无需访问模型权重的情况下,通过模型输出验证归属,从而实现更强的隐私保护和鲁棒性。
-
零知识证明:在模型微调过程中引入隐蔽数据,用于验证模型是否被篡改,同时保护模型创建者的权益。
这一工具不仅为去中心化 AI 模型市场提供了可信的来源验证,还显著提升了模型的安全性和生态透明性。#p#分页标题#e#
生态发展Ritual目前处于私有测试网阶段,对于普通用户来说参与机会较少;开发者可以申请并参与官方推出的Altar和Realm激励计划,加入Ritual的AI生态建设,获得来自官方的全栈技术支持以及资金支持。
目前官方公布了一批来自Altar计划的原生应用:
-
Relic:基于机器学习的自动做市商(AMM),通过 Ritual 的基础设施动态调整流动性池参数,实现费用和底层池的优化;
-
Anima:专注于基于 LLM 的链上交易自动化工具,为用户提供流畅自然的 Web3 交互体验;
-
Tithe: AI 驱动的借贷协议,通过动态优化借贷池和信用评分,支持更广泛的资产类型。
此外,Ritual 还与多个成熟项目展开了深度合作,推动去中心化 AI 生态的发展。例如,与 Arweave 的合作为模型、数据和零知识证明提供了去中心化的永久存储支持;通过与 StarkWare 和 Arbitrum 的集成,Ritual 为这些生态系统引入了原生的链上 AI 能力;此外,EigenLayer 提供的再质押机制为 Ritual 的证明市场增加了主动验证服务,进一步增强了网络的去中心化和安全性。
挑战和展望Ritual 的设计从分配、激励、验证等关键环节入手,解决了去中心化 AI 面临的核心问题,同时通过 vTune 等工具实现了模型的可验证性,突破了模型开源与激励的矛盾,为去中心化模型市场的构建提供了技术支撑。
当下Ritual 处于早期阶段,主要针对模型的推理阶段,产品矩阵正在从基础设施扩展至模型市场、L2 即服务(L2aaS)以及 Agent 框架等领域。由于当下区块链仍处于私有测试阶段,Ritual提出的先进的技术设计方案仍有待大规模公开落地,需要持续关注。期待随着技术的不断完善和生态的逐步丰富,Ritual 能够成为去中心化 AI 基础设施的重要组成部分。
Gensyn:解决去中心化模型训练的核心问题 项目概述在人工智能加速演进、算力资源愈发稀缺的时代背景下,Gensyn 正试图重塑整个 AI 模型训练的底层范式。
传统 AI 模型训练流程,算力几乎被垄断在少数几家云计算巨头手中,训练成本高昂、透明度低,阻碍了中小团队与独立研究者的创新步伐。而 Gensyn 的愿景正是打破这一“中心化垄断”结构,它主张将训练任务“下沉”至全球范围内无数个具备基本计算能力的设备上——无论是 MacBook、游戏级 GPU,还是边缘设备、闲置服务器,都可接入网络、参与任务执行、获取报酬。
Gensyn 成立于2020年,专注于构建去中心化 AI 计算基础设施。早在 2022 年,团队便首次提出了意图在技术和制度层面重新定义 AI 模型的训练方式:不再依赖封闭的云平台或巨型服务器集群,而是将训练任务下沉至全球范围内的异构计算节点之中,构建一个无需信任的智能计算网络。#p#分页标题#e#
2023 年,Gensyn 对其愿景进行了进一步拓展:构建一个全球连接、开源自治、无许可门槛的 AI 网络——任何具备基本计算能力的设备,都可成为这个网络中的一份子。其底层协议基于区块链架构设计,不仅具备激励机制与验证机制的可组合性。
Gensyn 自创立以来,累计获得 5060 万美元支持,投资方涵盖 a16z、CoinFund、Canonical、
Protocol Labs、Distributed Global 等共计 17 家机构。其中,2023 年 6 月由 a16z 领投的 A 轮融资被广泛关注,标志着去中心化 AI 领域开始进入主流Web3风投的视野。
团队核心成员背景也颇具分量:联合创始人 Ben Fielding 曾在牛津大学攻读理论计算机科学,具备深厚的技术研究背景;另一位联合创始人 Harry Grieve 则长期参与去中心化协议的系统设计与经济建模,为 Gensyn 的架构设计与激励机制提供了坚实支撑。
设计架构当前去中心化人工智能系统的发展正面临三大核心技术瓶颈:执行(Execution)、验证(Verification)与通信(Communication)。这些瓶颈不仅限制了大模型训练能力的释放,也制约了全球算力资源的公平整合与高效利用。Gensyn 团队在系统性研究基础上,提出了三项具有代表性的创新机制——RL Swarm、Verde 以及 SkipPipe,针对上述问题分别构建了解决路径,推动了去中心化 AI 基础设施从概念走向落地。
一、执行挑战:如何让碎片化设备协同高效训练大模型?当前,大语言模型的性能提升主要依赖于“堆规模”策略:更大的参数量、更广的数据集以及更长的训练周期。但这也显著推高了计算成本——超大模型的训练往往需要被拆分至成千上万个 GPU 节点,这些节点之间还需进行高频的数据通信与梯度同步。在去中心化场景下,节点分布地域广泛、硬件异构、状态波动性高,传统的中心化调度策略难以奏效。
为应对这一挑战,Gensyn 提出 RL Swarm,一种点对点的强化学习后训练系统。其核心思路是将训练过程转化为一个分布式协作博弈。该机制分为“共享—批判—决策”三阶段:首先,节点独立完成问题推理并公开共享结果;随后,各节点对同伴答案进行评价,从逻辑性与策略合理性等角度提出反馈;最后,节点基于群体意见修正自身输出,生成更稳健的答案。该机制有效融合个体计算与群体协同,尤其适用于数学与逻辑推理等需要高精度和可验证性的任务。实验显示,RL Swarm 不仅提升了效率,也显著降低了参与门槛,具备良好的扩展性和容错性。
RL Swarm的“共享—批判—决策”三阶段强化学习训练系统#p#分页标题#e#
二、验证挑战:如何验证不可信供应者的计算结果是否正确?在去中心化训练网络中,“任何人都可提供算力”是优势也是风险。问题在于:如何在无需信任的前提下验证这些计算是否真实有效?
传统方式如重计算或白名单审核存在明显局限——前者成本极高,不具可扩展性;后者又排除了“长尾”节点,损害网络开放性。Gensyn 为此设计了 Verde,一套专为神经网络训练验证场景构建的轻量级仲裁协议。
Verde 的关键思想是“最小可信裁定”:当验证者怀疑供应者训练结果有误时,仲裁合约只需重算计算图中首个存在争议的操作节点,而无需重演整个训练过程。这大幅度降低了验证负担,同时确保了至少一方诚实时的结果正确性。为解决不同硬件间浮点非确定性问题,Verde 还配套开发了 Reproducible Operators(可复现操作符库),强制对常见数学操作如矩阵乘法设置统一执行顺序,从而实现跨设备的位级一致输出。这一技术显著提升了分布式训练的安全性与工程可行性,是目前去信任验证体系中的重要突破。
Vader的工作流程
整个机制建立在训练者记录关键中间状态(即检查点)的基础上,多个验证者被随机指派去复现这些训练步骤,从而判断输出的一致性。一旦有验证者复算结果与训练者存在分歧,系统不会粗暴地重跑整个模型,而是通过网络仲裁机制精确定位二者在计算图中首次发生分歧的操作,仅对该操作进行重放比对,从而以极低的开销实现争议裁决。通过这种方式,Verde 在无需信任训练节点的前提下,既保证了训练过程的完整性,又兼顾了效率与可扩展性,是为分布式 AI 训练环境量身定制的验证框架。
三、通信挑战:如何减少节点间高频同步带来的网络瓶颈?在传统的分布式训练中,模型要么被完整复制,要么被按层拆分(流水线并行),二者都要求节点间进行高频同步。特别是在流水线并行中,一个微批次必须严格按顺序经过每一层模型,导致只要某个节点延迟,就会阻塞整个训练流程。
Gensyn 针对这一问题提出 SkipPipe:一种支持跳跃执行与动态路径调度的高容错流水线训练系统。SkipPipe 引入了“跳跃比例(skip ratio)”机制,允许某些微批数据在特定节点负载过高时跳过部分模型层,同时使用调度算法动态选择当前最优计算路径。实验显示,在地理分布广、硬件差异大、带宽受限的网络环境下,SkipPipe 训练时间可降低高达 55%,并在高达 50% 节点故障率时仍能维持仅 7% 的损失,展现出极强的韧性和适应性。
参与方式 #p#分页标题#e#Gensyn 的公共测试网已于 2025 年 3 月 31 日上线,目前仍处于其技术路线图中的初期阶段(Phase 0),其功能重心集中在 RL Swarm 的部署与验证上。RL Swarm 是 Gensyn 的第一个应用场景,围绕强化学习模型的协作训练进行设计。每一个参与节点都将其行为绑定至链上身份,贡献过程被完整记录,这为后续激励分配和可信计算模型提供了验证基础。
Gensyn的节点排名
早期测试阶段的硬件门槛相对友好:Mac 用户使用 M 系列芯片 即可运行,Windows 用户则建议配备 3090 或 4090 等高性能 GPU,以及 16GB 以上内存,即可部署本地 Swarm 节点。
系统运行后通过网页登录邮箱(推荐 Gmail)完成验证流程,并可选择是否绑定 HuggingFace 的 Access Token,以激活更完整的模型能力。
挑战和展望目前 Gensyn 项目最大的不确定性,在于其测试网尚未涵盖所承诺的完整技术栈。Verde 与 SkipPipe 等关键模块仍处于待集成状态,这也使外界对其架构落地能力保持观望。官方给出的解释是:测试网将分阶段推进,每一阶段解锁新的协议能力,优先验证基础设施的稳定性与扩展性。首阶段以 RL Swarm 为起点,未来将逐步拓展至预训练、推理等核心场景,最终过渡至支持真实经济交易的主网部署。
尽管测试网启动之初采用了相对保守的推进节奏,但值得关注的是,仅一个月后,Gensyn 即推出了支持更大规模模型与复杂数学任务的新 Swarm 测试任务。此举在一定程度上回应了外界对其开发节奏的质疑,也展现出团队在局部模块推进上的执行效率。
然而,问题也随之而来:新版任务对硬件提出了极高门槛,推荐配置包括 A100、H100 等顶级 GPU(80GB 显存),这对于中小节点而言几乎不可达,也与 Gensyn 所强调的“开放接入、去中心化训练”的初衷形成一定张力。算力的集中化趋势,若未得到有效引导,或将影响网络的公平性和去中心化治理的可持续性。
接下来,若 Verde 与 SkipPipe 能顺利集成,将有助于提升协议的完整性与协同效率。但 Gensyn 能否在性能和去中心化之间找到真正的平衡,仍有待测试网更长时间、更广范围的实践检验。眼下,它已初步显现出潜力,也暴露出挑战,而这正是一个早期基础设施项目最真实的状态。
Bittensor:去中心化AI网络的创新与发展 项目概述Bittensor是一个结合区块链与人工智能的开创性项目,由Jacob Steeves和Ala Shaabana于2019年创立,旨在构建"机器智能的市场经济"。两位创始人均具备人工智能和分布式系统的深厚背景。项目白皮书的署名作者Yuma Rao被认为是团队核心技术顾问,为项目注入了密码学与共识算法方面的专业视角。#p#分页标题#e#
该项目旨在通过区块链协议整合全球算力资源,构建一个不断自我优化的分布式神经网络生态系统。这一愿景将计算、数据、存储和模型等数字资产转化为智能价值流,构建全新经济形态,确保AI发展红利的公平分配。有别于OpenAI等中心化平台,Bittensor建立了三大核心价值支柱:
-
打破数据孤岛:利用TAO代币激励体系促进知识共享与模型贡献
-
市场驱动的质量评价:引入博弈论机制筛选优质AI模型,实现优胜劣汰
-
网络效应放大器:参与者增长与网络价值呈指数级正相关,形成良性循环
在投资布局方面,Polychain Capital自2019年起孵化Bittensor,目前持有价值约2亿美元的TAO代币;Dao5持有约价值5000万美元的TAO,也是Bittensor 生态系统的早期支持者。2024年,Pantera Capital和Collab Currency通过战略投资进一步加码。同年8月,灰度集团将TAO纳入其去中心化AI基金,标志着机构投资者对项目价值的高度认可和长期看好。
设计架构与运行机制 网络架构Bittensor构建了一个由四个协同层级组成的精密网络架构:
-
区块链层:基于Substrate框架搭建,作为网络的信任基础,负责记录状态变化与代币发行。系统每12秒生成新区块并按规则发行TAO代币,确保网络共识与激励分配。
-
神经元层(Neuron):作为网络的计算节点,神经元运行各类AI模型提供智能服务。每个节点通过精心设计的配置文件明确声明其服务类型与接口规范,实现功能模块化和即插即用。
-
突触层(Synapse):网络的通信桥梁,动态优化节点间连接权重,形成类神经网络结构,保障信息高效传递。突触还内置经济模型,神经元间的互动与服务调用需支付TAO代币,形成价值流转闭环。
-
元图层(Metagraph):作为系统的全局知识图谱,持续监测与评估各节点的贡献价值,为整个网络提供智能导向。元图通过精确计算确定突触权重,进而影响资源分配、奖励机制以及节点在网络中的影响力。
Bittensor的网络框架
Yuma共识机制网络采用独特的Yuma共识算法,每72分钟完成一轮奖励分配。验证过程结合主观评价与客观度量:
-
人工评分:验证者对矿工输出质量进行主观评价
-
Fisher信息矩阵:客观量化节点对网络整体贡献
这种"主观+客观"的混合机制,有效平衡了专业判断与算法公正。
子网(Subnet)架构和dTAO升级每个子网专注于特定AI服务领域,如文本生成、图像识别等,独立运行但与主区块链subtensor保持连接,形成高度灵活的模块化扩展架构。2025年2月,Bittensor完成了具有里程碑意义的dTAO(Dynamic TAO)升级,这一系统将每个子网转变为独立经济单元,通过市场需求信号智能调控资源分配。其核心创新是子网代币(Alpha代币)机制:#p#分页标题#e#
-
运作原理:参与者通过质押TAO获取各子网发行的Alpha代币,这些代币代表了对特定子网服务的市场认可与支持力度
-
资源分配逻辑:Alpha代币的市场价格作为衡量子网需求强度的关键指标,初始状态下各子网Alpha代币价格一致,每个流动性池内仅有1个TAO和1个Alpha代币。随着交易活跃度提升和流动性注入,Alpha代币价格动态调整,TAO的分配按子网代币价格占比智能分配,市场热度高的子网获得更多资源倾斜,实现真正的需求驱动型资源优化配置
Bittensor子网代币排放分配
dTAO升级显著提升了生态活力与资源利用效率,子网代币市场总市值已达5亿美元,展现出强劲的增长动能。
Bittensor子网alpha代币价值
Bittensor网络经历了三个关键发展阶段:
-
2021年1月:主网正式启动,奠定基础架构
-
2023年10月:"Revolution"升级引入子网架构,实现功能模块化
-
2025年2月:完成dTAO升级,建立市场驱动的资源分配机制
子网生态呈爆发式增长:截至2025年4月,已有95个专业子网,预计年内可能突破200个。
Bittensor子网数量
生态项目类型多元化,覆盖AI代理(如Tatsu)、预测市场(如Bettensor)、DeFi协议(如TaoFi)等多个前沿领域,构成了AI与金融深度融合的创新生态。
代表性子网生态项目TAOCAT:TAOCAT 是 Bittensor 生态中的原生 AI 代理,直接构建在子网上,为用户提供数据驱动的决策工具。利用 Subnet 19 的大语言模型、Subnet 42 的实时数据以及 Subnet 59 的 Agent Arena,提供市场洞察和决策支持。获得 DWF Labs 投资,纳入其 2000 万美元 AI 代理基金,并在binance alpha上线。
OpenKaito:由 Kaito 团队在 Bittensor 上推出的子网,旨在构建去中心化的加密行业搜索引擎。目前已索引5亿网页资源,展示了去中心化AI处理海量数据的强大能力。与传统搜索引擎相比,其核心优势在于减少商业利益干扰,提供更透明、中立的数据处理服务,为Web3时代信息获取提供新范式。
Tensorplex Dojo:由 Tensorplex Labs 开发的52号子网,专注于通过去中心化平台众包高质量人类生成数据集,鼓励用户通过数据标注赚取 TAO 代币。2025 年 3 月,YZi Labs(原 Binance Labs)宣布投资 Tensorplex Labs,支持 Dojo 和 Backprop Finance 的发展。#p#分页标题#e#
CreatorBid:运行在 Subnet 6,是一个结合 AI 和区块链的创作平台,与 Olas 和其他 GPU 网络(如 io.net)集成,支持内容创作者和 AI 模型开发。
技术与行业合作Bittensor在跨领域合作方面取得了突破性进展:
-
与Hugging Face建立深度模型集成通道,实现50个主流AI模型的链上无缝部署
-
2024年携手高性能AI芯片制造商Cerebras联合发布BTLM-3B模型,累计下载量突破16万次
-
2025年3月与DeFi巨头Aave达成战略合作,共同探索rsTAO作为优质借贷抵押品的应用场景
Bittensor设计了多元化的生态参与路径,形成完整的价值创造与分配体系:
-
挖矿:部署矿工节点生产高质量数字商品(如AI模型服务),根据贡献质量获取TAO奖励
-
验证:运行验证者节点评估矿工工作成果,维护网络质量标准,获取相应TAO激励
-
质押:持有并质押TAO支持优质验证者节点,根据验证者表现获取被动收益
-
开发:利用Bittensor SDK和CLI工具构建创新应用、实用工具或全新子网,积极参与生态建设
-
使用服务:通过友好的客户端应用界面使用网络提供的AI服务,如文本生成或图像识别
-
交易:参与子网资产化代币的市场交易,捕捉潜在价值增长机会
子网alpha代币给参与者的分配
Bittensor尽管展现出卓越潜力,但作为前沿技术探索,仍面临多维度挑战。在技术层面,分布式AI网络面临的安全威胁(如模型窃取与对抗攻击)比中心化系统更为复杂,需持续优化隐私计算与安全防护方案;经济模型方面,早期存在通胀压力,子网代币市场波动性较高,需警惕可能的投机泡沫;监管环境上,虽然SEC已将TAO归类为效用型代币,但全球各地区监管框架差异仍可能限制生态扩张;同时,面对资源雄厚的中心化AI平台激烈竞争,去中心化解决方案需在用户体验和成本效益方面证明其长期竞争优势。
随着2025年减半周期临近,Bittensor发展将聚焦四大战略方向:进一步深化子网专业化分工,提升垂直领域应用的服务质量与性能;加速与DeFi生态的深度整合,借助新引入的EVM兼容性拓展智能合约应用边界;通过dTAO机制在未来100天内平稳将网络治理权重从TAO逐步转向Alpha代币,推动治理去中心化进程;同时积极拓展与其他主流公链的互操作性,扩大生态边界与应用场景。这些协同发展的战略举措将共同推动Bittensor向"机器智能市场经济"的宏伟愿景稳步迈进。
0G:以存储为基础的模块化 AI 生态系统 项目概述 #p#分页标题#e#0G 是一个专为 AI 应用设计的模块化 Layer 1 公链,旨在为数据密集型和高计算需求场景提供高效、可靠的去中心化基础设施。通过模块化架构,0G 实现了共识、存储、计算和数据可用性等核心功能的独立优化,支持动态扩展,能够高效处理大规模 AI 推理和训练任务。
创始团队由 Michael Heinrich(CEO,曾创立融资超 1 亿美元的 Garten)、Ming Wu(CTO,微软研究员,Conflux 联合创始人)、Fan Long(Conflux 联合创始人)和 Thomas Yao(CBO,Web3 投资者)组成,拥有 8 名计算机科学博士,成员背景涵盖微软、苹果等,具备深厚的区块链和 AI 技术经验。
融资方面,0G Labs 完成 3500 万美元 Pre-seed 轮和 4000 万美元 Seed 轮,总计 7500 万美元,投资方包括 Hack VC、Delphi Ventures 和 Animoca Brands 等。此外,0G Foundation 获得 2.5 亿美元代币购买承诺、3060 万美元公开节点销售和 8888 万美元生态基金。
设计架构 0G Chain0G Chain 的目标是打造最快的模块化 AI 公链,其模块化架构支持对共识、执行和存储等关键组件进行独立优化,并集成了数据可用性网络、分布式存储网络和 AI 计算网络。这种设计为系统在应对复杂的 AI 应用场景时提供了卓越的性能和灵活性。以下是 0G Chain 的三大核心特色:
-
模块化可扩展性(Modular Scalability for AI)
0G 采用横向可扩展的架构,能够高效处理大规模的数据工作流。其模块化设计将数据可用性层(DA 层)与数据存储层分离,为 AI 任务(如大规模训练或推理)的数据访问和存储提供了更高的性能和效率。 -
0G 共识(0G Consensus)
0G 的共识机制由多个独立的共识网络组成,这些网络可以根据需求动态扩展。随着数据量的指数级增长,系统吞吐量也能同步提升,支持从 1 个到数百甚至上千个网络的扩展。这种分布式架构不仅提升性能,还能确保系统的灵活性和可靠性。 -
共享质押(Shared Staking)
验证者需在以太坊主网上质押资金,为所有参与的 0G 共识网络提供安全保障。如果任意 0G 网络发生可罚事件,验证者在以太坊主网上的质押资金将被削减。这一机制将以太坊主网的安全性扩展至所有 0G 共识网络,确保整个系统的安全性和稳健性。
0G Chain 具备EVM 兼容性,确保以太坊、Layer 2 Rollup 或其他链的开发者可以轻松集成 0G 的服务(如数据可用性和存储),无需迁移。同时 0G 还在探索支持 Solana VM、Near VM 和比特币兼容性,以便 AI 应用扩展至更广泛的用户群体。
0G 存储(0G Storage)0G Storage 是一个高度优化的分布式存储系统,专为去中心化应用和数据密集型场景设计。其核心通过一种独特的共识机制——随机访问证明(Proof of Random Access, PoRA),激励矿工存储和管理数据,从而实现安全性、性能和公平性的平衡。#p#分页标题#e#
其架构可以分为三层:
-
日志层(Log Layer):实现非结构化数据的永久存储,适用于归档或数据日志等用途。
-
键值存储层(Key-Value Layer):管理可变的结构化数据,并支持权限控制,适合动态应用场景。
-
事务处理层(Transaction Layer):支持多用户的并发写入,提升协作和数据处理效率。
随机访问证明(Proof of Random Access, PoRA)是 0G Storage 的关键机制,用于验证矿工是否正确存储了指定的数据块。矿工会周期性地接受挑战,需提供有效的加密哈希作为证明,类似于工作量证明。为确保公平竞争,0G 对每次挖矿操作的数据范围限制为 8 TB,避免大规模运营商垄断资源,小规模矿工也能在公平环境中参与竞争。
随机访问证明示意图
通过纠删编码技术,0G Storage 将数据分割成多个冗余的小片段,并分布到不同的存储节点上。这种设计确保即使部分节点下线或发生故障,数据仍然可以被完整恢复,不仅显著提升了数据的可用性和安全性,还使系统在处理大规模数据时表现出色。此外,数据存储通过扇区级和数据块级的精细化管理,不仅优化了数据访问效率,还增强了矿工在存储网络中的竞争力。
提交的数据以顺序方式组织,这种顺序被称为数据流(data flow),可以被理解为日志条目列表或固定大小数据扇区的序列。在 0G 中,每一块数据都可以通过一个通用的 偏移量(offset) 快速定位,从而实现高效的数据检索和挑战查询。默认情况下,0G 提供一个称为 主数据流(main flow) 的通用数据流,用于处理大部分应用场景。同时,系统还支持 专用数据流(specialized flows),这些数据流专门接受特定类别的日志条目,并提供独立的连续地址空间,针对不同的应用需求进行优化。
通过以上设计, 0G Storage 能够灵活适配多样化的使用场景,同时保持高效的性能和管理能力,为需要处理大规模数据流的 AI x Web3 应用提供强大的存储支持。
0G 数据可用性(0G DA)
数据可用性(Data Availability, DA) 是 0G 的核心组件之一,旨在提供可访问、可验证且可检索的数据。这一功能是去中心化 AI 基础设施的关键,例如验证训练或推理任务的结果,以满足用户需求并确保系统激励机制的可靠性。0G DA 通过精心设计的架构和验证机制,实现了出色的可扩展性和安全性。
0G DA 的设计目标是在保证安全性的同时提供极高的扩展性能。其工作流程主要分为两个部分:
-
数据存储通道(Data Storage Lane):数据通过纠删编码技术被分割成多个小片段(“数据块”),并分布到 0G Storage 网络中的存储节点上。这种机制有效支持了大规模的数据传输,同时确保数据的冗余性与可恢复性。#p#分页标题#e#
-
数据发布通道(Data Publishing Lane):数据的可用性由 DA 节点通过聚合签名进行验证,并将结果提交到共识网络。通过这种设计,数据发布仅需要处理少量关键数据流,避免了传统广播方式中的瓶颈问题,从而显著提升了效率。
为了确保数据的安全性和高效性,0G DA 使用了一种基于随机性的验证方法,结合聚合签名