# 第六章:行业现状

# 2.1 GPUs

去中心化

2.1.1 Aethir Edge

Aethir Edge 概述 Aethir Edge 是最先进的GPU计算设备,能够为AI、游戏、云移动和代币奖励等应用解锁无限的可能性。Aethir Edge由Aethir平台提供支持,具备强大的边缘计算能力,允许用户访问去中心化的计算资源,并参与Aethir生态系统,用户还可以通过贡献计算能力等方式获得ATH代币(及其他奖励)。

Aethir Edge的关键特性:

  • 高性能计算:Aethir Edge由高通骁龙865芯片驱动,提供快速的处理能力和减少延迟的体验,支持AI、游戏和视频流应用的“实时处理”。
  • 去中心化GPU云:该设备连接到Aethir的分布式GPU云,减少了对集中式云服务的依赖,同时通过更接近数据源处理数据增强隐私性。
  • DePIN奖励:用户通过向网络贡献计算能力等方式,获得Aethir的原生代币(ATH)及多个合作伙伴的代币奖励。

Aethir Edge的优势:

  • 强大的边缘计算能力:通过高通骁龙芯片的利用,Aethir Edge在边缘设备上实现了快速数据处理,适用于多种应用。
  • 去中心化基础设施:利用Aethir的分布式GPU云,Aethir Edge增强了安全性和隐私性,减少了用户对集中服务的依赖。
  • 超低能耗效率:Aethir Edge设备安静、轻便,适合放置在桌面或架子上。其功耗在18-22瓦之间,每天的运行成本在大多数国家不到0.10美元。

2.1.2 Akash Network

Akash Network 概述 Akash Network 是一个开源的去中心化云计算平台,作为云资源的点对点市场运作。它的目标是通过提供比亚马逊AWS、谷歌云和微软Azure等集中式云提供商更实惠、可访问且更安全的替代方案,颠覆传统的云计算行业。

Akash Network的关键特性:

  • 去中心化云计算: Akash Network利用区块链技术减少对集中式云提供商的依赖,为用户的数据和交易提供更高的安全性、透明性和可扩展性。
  • 无许可市场: 该平台允许任何拥有计算资源的人成为云服务提供商,推动竞争并在开放市场中降低价格。
  • 灵活且安全的部署: 开发者可以轻松地在Akash上部署应用和工作负载,使用原生的$AKT代币确保网络上交易的完整性和真实性。
  • 质押与激励机制: $AKT代币持有者可以通过质押代币参与网络,帮助确保网络安全并赚取奖励。
  • 可互操作的生态系统: Akash Network基于Cosmos SDK构建,便于与其他区块链网络集成,并支持跨链协作。
  • AI托管的GPU市场: Akash的去中心化GPU市场为AI研究人员和开发者提供了一个成本效益高且可扩展的计算资源解决方案。

Akash Network的优势:

  • 成本节省 :Akash的去中心化模式和竞争性市场能够“将云计算成本降低多达85%”相比传统云提供商。
  • 完全开源 :社区完全开源,用户可以在Akash的Github上查看所有开发进展。所有项目和活动均由社区资助。
  • 可访问性 :Akash的无许可特性使任何人都能参与云计算生态系统,民主化了计算资源的访问。
  • 安全与隐私 :通过去中心化的云基础设施和区块链技术,Akash提升了用户数据和交易的安全性和隐私性。
  • 可扩展性 :网络的去中心化架构使得计算资源可以轻松扩展,以满足各种应用和工作负载的需求。
  • 可持续性 :Akash的权益证明(Proof-of-Stake)共识机制被认为比传统的工作量证明(Proof-of-Work)系统更具能源效率,是一种更加环保的云计算解决方案。

2.1.3 Bittensor

Bittensor 概述 Bittensor 是一个去中心化平台,旨在通过其独特的子网网络将计算、数据、存储、预测和机器智能等数字商品转变为有价值的资产。Bittensor 通过 TAO 加密货币赋能,用户可以参与成为矿工、验证者或子网所有者,推动去中心化 AI 和其他市场的创新。该平台的目标是构建一个开放、公平的生态系统,使数字商品能够高效交易,并基于参与者的贡献给予奖励。

Bittensor 的关键特性:

  • 去中心化的数字商品: 支持去中心化的数字商品生产和交换,如计算能力、数据和 AI 模型。
  • TAO 加密货币: 在生态系统内促进交易和激励,为参与者的贡献提供奖励。
  • 子网市场: 专门的子网为小众数字产品创建市场,提升了平台的可扩展性和专业化。
  • 开源生态系统: 为开发者提供工具和文档,帮助他们构建并参与去中心化的数字市场。

Bittensor 的优势:

  • AI 的民主化: 通过去中心化的资源访问降低了 AI 开发的门槛,促进了更广泛的参与。
  • 激励结构: 通过竞争性的去中心化市场奖励高质量的贡献。
  • 可扩展性和灵活性: 子网为不同的数字商品提供专门且可扩展的市场,提高了网络效率。
  • 创新友好: 提供灵活的开源环境,鼓励去中心化数字经济中的实验和增长。

2.1.5 io.net

io.net 概述 io.net 成立于2022年,位于纽约,是一个通过聚合全球 GPU 资源提供 AI 解决方案的去中心化计算网络。io.net 利用 Solana 区块链,为机器学习(ML)应用的开发、执行和扩展提供了一个高效的平台。

io.net 的关键特性:

  • 去中心化基础设施(DePIN): io.net 从数据中心和加密矿工等闲置资源中聚合 GPU,提供可扩展且可定制的计算能力访问。
  • 成本效益: 该平台提供的 GPU 访问成本比传统云服务商(如 AWS 和谷歌云)低达90%,对开发者和初创公司极具吸引力。
  • 快速部署: io.net 支持 GPU 集群的快速设置和访问,适合需要即时计算资源的机器学习工程师。

io.net 的优势:

  • 经济实惠的 AI 计算: io.net 比集中式云服务提供商的 GPU 资源访问便宜得多,使其对开发者来说具有成本效益。
  • 可扩展性: 该平台允许开发者快速部署和扩展 GPU 集群,优化 AI 模型训练和其他机器学习任务的资源。
  • 可定制的 GPU 访问: 通过使用去中心化资源,io.net 提供了低成本的灵活可扩展 GPU 基础设施访问。

2.1.6 Kaisar Network

Kaisar Network 概述 Kaisar Network 成立于2024年,正在通过创建一个分布式 GPU 资源的去中心化平台,革新计算领域,专为 AI 模型训练、推理等任务优化。

Kaisar 通过区块链技术,为个人和企业提供一个安全且可扩展的环境,用于出租和贡献闲置的 GPU 计算能力。这个开放的生态系统旨在将 AI 计算的访问民主化,使开发者、研究人员和企业能够以更实惠和高效的方式获取计算资源。

Kaisar Network 的关键特性:

  • 去中心化 GPU 协议 :Kaisar Network 的核心产品是一个 GPU 的 DePIN 协议,汇聚企业和消费设备(如 MacBook、PC、GPU)以及数据中心的闲置计算资源,形成一个用于 AI 和高性能计算任务的去中心化、可扩展网络。
  • DePinFi 收益优化 :Kaisar 将 DeFi 引入 DePIN,通过机器质押为计算提供者提供额外的收入来源。用户可以通过重新质押他们的设备获得收益,收益来自 Web2(如 AI 模型训练、渲染)和 Web3(如质押和 DeFi 协议),为贡献者解锁流动性和盈利能力。
  • 代币化激励($KAI) :GPU 提供者和其他贡献者通过参与网络获得 $KAI 代币奖励,$KAI 可用于治理、质押以及生态系统内的其他用途。该代币在激励用户长期参与网络中发挥了关键作用。

Kaisar Network 的优势:

  • AI 计算的真正可访问性 :不同于传统昂贵且面向大型企业的云服务,Kaisar 提供去中心化的计算资源,价格具有竞争力,且能够利用消费级设备。这降低了 AI 开发者、研究人员和初创企业的进入门槛。
  • 创新的收益生成 :通过 DePinFi,用户可以重新质押他们的设备以优化收益生成。Kaisar 结合现实世界 GPU 使用和 Web3 的金融工具,为贡献者提供了前所未有的硬件变现机会。
  • 可扩展性和灵活性 :Kaisar Network 的架构确保了无缝的扩展,无论用户是需要一小群 GPU 进行快速实验,还是大规模资源用于复杂的 AI 模型,平台都可以适应用户的需求,提供灵活的计算能力。
  • 以社区为中心的生态系统 :Kaisar 积极通过如 Kaisar Genesis NFT 系列、Kaisar Questverse、Kaisar ZeroNode Extension(目标用户+100万)等举措与社区互动。这个社区优先的策略确保了用户、节点操作员和开发者深入融入平台的增长和决策过程。

2.1.7 NetMind Power

NetMind Powe概述 NetMind Power 于 2021 年在伦敦由 NetMind.ai 创立,是一个去中心化的 AI 计算平台,旨在利用用户未使用的计算资源进行协作式深度学习和 AI 模型开发。该平台旨在民主化高级计算资源的访问,特别适合研究人员、初创公司和小型企业,提供比传统云服务更具成本效益的替代方案。

NetMind Power 的关键特性:

  • 成本效益的 AI 开发: NetMind Power 利用分布式计算网络,与传统云服务相比,显著降低了 AI 模型训练和推理的成本。
  • 去中心化的协作: 平台鼓励用户贡献闲置的计算能力,并以 NetMind 代币 ($NMT) 作为奖励。
  • 多功能 AI 工具: NetMind Power 支持分布式训练、模型微调和部署选项,成为 AI 实践者的一站式解决方案。

NetMind Power 的优势:

  • 成本效益: 通过使用分布式网络,NetMind Power 为 AI 训练和推理提供了低成本访问,使更多用户能够利用强大的计算资源。
  • 协作环境: 平台倡导以社区为驱动的 AI 开发,通过用户贡献提高资源利用率。
  • 创新功能: 平台支持先进的功能,如分布式模型训练和便捷部署,满足 AI 实践者的需求。

2.1.8 Nosana

Nosana概述

Nosana 是一个由 Solana 和 $NOS 代币驱动的去中心化 GPU 网络平台,允许用户、矿工和企业通过成为 Nosana 节点来货币化闲置的硬件。该平台为 AI 推理和其他计算任务提供按需、具成本效益的 GPU 资源,成本比传统云提供商低达 85%。

Nosana 的关键特性:

  • 去中心化 GPU 网络: Nosana 利用闲置的 GPU 构建全球计算网络,参与者可以通过贡献闲置的计算能力赚取 $NOS 代币。
  • 成本效益: 通过利用未充分利用的硬件,Nosana 提供了比传统云服务便宜得多的 GPU 访问服务。
  • 环保计算能力: 该平台通过减少对能源密集型数据中心的依赖,并利用现有硬件,强调可持续性。
  • AI 推理工作负载: Nosana 专注于 AI 推理任务,如模型训练和图像生成,适用于各种 AI 应用。
  • 区块链集成: Nosana 由 Solana 区块链驱动,利用区块链技术保障其网络安全,促进去中心化计算共享,并通过 $NOS 代币管理支付。

Nosana 的优势:

  • 可扩展性: Nosana 为需要大量 GPU 资源的企业提供可扩展解决方案,无需投资昂贵的基础设施。
  • 可访问性: 任何拥有闲置 GPU 的人——从游戏 PC 到专业工作站——都可以参与网络,使高性能计算更易于获取。
  • 低成本: 去中心化模式允许 Nosana 以较低的价格提供 GPU 资源,吸引 AI 开发人员和企业。
  • 激励参与: 区块链和 $NOS 代币的使用为平台提供了安全且具激励性的框架,确保了计算资源的持续可用性和可靠性能。

非去中心化

2.1.10 GPU.net

GPU.net 概述 GPU.net 是一个去中心化平台,为 AI 开发、科学研究和渲染等任务提供可扩展的 GPU 计算资源访问。平台允许用户租用或贡献其闲置的 GPU 资源,并使用区块链技术确保安全和高效的交易。GPU.net 通过其原生代币 GPoints 奖励贡献者。

GPU.net 的关键特性:

  • 去中心化 GPU 市场: GPU.net 连接需要计算能力的用户与拥有闲置 GPU 资源的人,创建了一个可扩展访问的市场。
  • 激励结构: 贡献者通过提供 GPU 资源获得 GPoints 奖励(1 GPoint = 1 美元),确保了计算资源的持续供应。
  • 计算证明(PoC): 该算法通过不断监控网络的计算健康状况,确保资源分配的公平性和任务执行的高质量。
  • 强大的共识机制: GPU 链结合了工作量证明(PoW)和权益证明(PoS),并将它们纳入独特的计算证明(PoC)算法中。这种机制通过监控任务执行和确保 GPU 资源的公平分配来保障网络安全。

GPU.net 的优势:

  • GPU 的民主化访问 :GPU.net 为没有自有 GPU 的用户提供高性能计算服务,解决了全球 GPU 短缺的问题。
  • 激励参与 :GPoints 和 $GPU 代币有效地激励用户贡献闲置的 GPU,创建了一个可持续的生态系统。
  • 用户友好平台 :GPU.net 简化了 GPU 资源共享,消除了对广泛技术知识的需求,使更多用户能够参与。
  • 具有竞争力的定价 :平台提供 GPU 租赁的优惠价格,使其对 AI 开发人员和企业具有吸引力。

Spheron Network概述

Spheron Network 正在开创一种突破性的方式,在边缘部署 AI 工作负载,大幅降低去中心化训练、微调和推理的整体成本。我们开发了世界上第一个能够有效管理零售级 GPU 和数据中心级服务器工作负载的计算编排和市场平台。配合创新的分级系统,用户可以根据价格、稳定性和性能进行对比,从而选择最适合其需求的解决方案。

Key Features of Spheron Network:

社区云 (Fizz Node):

  • 易于安装: Fizz 节点可以轻松安装在任何机器上,向市场开放其计算能力。
  • 低成本计算能力: 用户可以以比传统云服务低得多的价格购买这些计算核心。

供应商节点 (Secure Cloud):

  • 闲置计算货币化: 这些节点可以在数据中心或大型设备上运行,允许提供商无缝地将其闲置的计算能力出售给终端用户。
  • 服务等级协议 (SLAs): 提供商可以将 SLAs 附加到其计算服务中,以满足需要保证性能和可靠性的企业需求。

分级系统:

  • 稳定性与可靠性: 我们开发了一种创新的设计,通过根据多个因素(包括性能、正常运行时间、带宽等)对 GPU 和 CPU 进行分级,为进入网络的硬件带来稳定性和可靠性。
  • 链上 SLAs: 这个系统使我们能够为 Tier 1 和 Tier 2 提供商将 SLAs 放到链上,增强了信任和透明性。

匹配器 (Matchmakers):

  • 自动化计算部署: 引入了一种全新的方式来自动化计算部署领域的基础设施。
  • 工作负载编排: 匹配器充当计算工作负载的编排器,通过高效导航市场来分配请求的资源。

Slark 节点:

  • 无需信任的计算审计员: 这些节点可以由任何人运行,以验证 Spheron 生态系统中的新节点。
  • 分级系统维护: 他们负责维护分级系统,确保网络的完整性和性能标准。

Spheron Network 的优势

稳定性、可扩展性与可靠性:

  • 内置优势: Spheron 通过直接在网络架构中整合稳定性、可扩展性和可靠性,解决了去中心化基础设施的核心问题。

自动化:

  • 协议级集成: 自动化是扩展基础设施市场的关键支柱,Spheron 已在协议层面进行了无缝操作的自动化集成。

无缝的边缘 AI 工作负载部署:

  • 简易部署: 通过优化的性能和低延迟,Spheron Network 使得边缘 AI 工作负载的部署变得简单高效。

以开发者为中心的设计:

  • 多功能应用: Spheron 的设计使任何人都可以利用网络,无论是启动 LLM 网络、部署单实例模型,还是提供 GPU 即服务 (GPU-as-a-Service) 或节点即服务 (Node-as-a-Service)。

2.1.11 Prodia Labs

Prodia Labs 概述 Prodia Labs 是一个通过 Stable Diffusion 模型生成图像的 API 平台。该平台简化了图像生成过程,提供适用于不同应用场景的各种模型,例如动漫、摄影和奇幻风格。开发者可以通过 Prodia 的 API 生成图像,而无需管理自己的 GPU 基础设施,使图像生成快速且具备可扩展性。

Prodia Labs 的关键特性:

  • 快速图像生成: Prodia 提供快速的图像生成服务,平均每次请求的生成时间为 2 秒,并且依靠一个由 10,000 多个 GPU 组成的网络支持。
  • 多样化模型选择: 平台支持各种模型,包括 SD 1.4、适用于动漫的 Anything V4.5、摄影用的 Analog V1,以及适用于多种图像生成的 Elldreth’s Vivid。
  • 自定义选项: 用户可以通过调整 CFG Scale、Steps 和 Seed 等参数微调图像输出,还可以使用负面提示过滤不需要的元素。
  • 轻松集成: Prodia 提供一个易于集成的 API,开发者可以将其嵌入任何应用程序中,实现程序化图像生成。

Prodia Labs 的优势:

  • 使用便捷: Prodia 的 API 使得图像生成无需复杂的基础设施管理,用户易于上手。
  • 丰富的模型选择: 平台提供多样化的模型选择,适应不同的创作需求,从写实风格到动漫风格不等。
  • 快速响应: Prodia 利用其 10,000 多个 GPU 的网络,能够在 2 秒内生成图像,非常适合实时内容创作。

2.1.12 Together AI

Together AI概述

Together AI 是一个简化开源 AI 模型运行、微调和部署的平台。它提供从无服务器模型到专用 GPU 集群的服务,帮助开发者和企业无需管理底层基础设施即可利用高性能 AI 模型。

Together AI 的关键特性:

  • 无服务器模型推理: 通过无服务器端点提供 100 多种模型的访问,便于将 AI 集成到应用程序中。
  • 自定义模型训练: Together AI 支持使用先进的优化技术(如 FlashAttention-3)进行自定义模型训练,提高训练速度和成本效益。
  • 专用 GPU 集群: 为大型项目提供可扩展的 GPU 集群,用户可以微调模型并大规模部署。
  • 全面的模型范围: 支持多种模型,包括 Llama、GPT 和图像模型,提供易于使用的 API 以便于集成。

Together AI 的优势:

  • 可扩展基础设施: 平台允许用户根据项目需求,从小型项目扩展到大型 GPU 集群。
  • 高效的成本性能: Together AI 优化了成本和性能,与 GPT-4 等竞争对手相比,成本低至 11 倍。
  • 灵活的模型支持: 提供广泛的模型支持,便于定制和微调以满足特定领域任务需求。

# 2.2 训练

2.2.1 ChainML

ChainML概述 ChainML 是一个去中心化机器学习平台,专注于通过区块链支持的网络提供 AI 和机器学习模型。平台利用 NVIDIA H100 和 H200 GPU 集群,允许用户通过去中心化资源访问、训练和部署 AI 模型。ChainML 旨在通过分布式网络降低机器学习开发的进入门槛,使计算资源更经济实惠且易于获取。

ChainML的关键特性:

  • 去中心化的 AI 和 ML 模型: ChainML 提供去中心化的机器学习模型,允许开发者在分布式网络资源上训练和部署模型。
  • 区块链集成: 平台使用区块链技术保障交易安全,确保计算资源分配的透明度和信任度。
  • 代币化奖励: 为贡献计算资源的参与者提供 ChainML 代币作为奖励,激励他们参与网络。
  • 可扩展的基础设施: ChainML 通过全球去中心化资源网络帮助开发者扩展 AI 模型。

ChainML 的优势:

  • 去中心化 AI 开发: ChainML 提供了去中心化的 AI 和机器学习开发替代方案,降低了成本并提高了开发者的可访问性。
  • 激励资源贡献: 平台通过代币奖励鼓励资源贡献者,确保 AI 开发所需的计算资源持续流动。
  • 可扩展性: 通过使用去中心化网络,ChainML 使开发者能够比传统云服务更轻松地扩展其机器学习模型。

2.2.2 Gensyn

Gensyn 概述 Gensyn 是一个去中心化平台,允许 AI 开发者访问大规模分布式的 GPU 资源进行 AI 模型训练。该平台利用区块链技术创建了一个去中心化的计算资源市场,参与者可以贡献他们的 GPU 来获得奖励。Gensyn 旨在通过降低 AI 计算能力的成本,使其更加经济实惠并为开发者和企业提供更便捷的访问。

Gensyn 的关键特性:

  • 去中心化 GPU 市场: Gensyn 提供了一个市场,开发者可以以有竞争力的价格访问分布式的 GPU 资源进行 AI 模型训练。
  • 代币奖励: 贡献闲置 GPU 资源的参与者将获得 Gensyn 原生代币奖励。
  • 可扩展性与灵活性: 该平台允许开发者通过利用去中心化的 GPU 网络来扩展 AI 模型的计算能力。
  • 区块链集成: Gensyn 使用区块链技术保障交易安全,并促进透明、去中心化的资源分配。

Gensyn 的优势:

  • 经济实惠的计算访问: Gensyn 提供比传统云服务价格更低的 GPU 资源,使得开发者能够以更低的成本进行大规模 AI 工作负载。
  • 可扩展性: 平台的去中心化特性允许开发者通过全球 GPU 网络扩展 AI 模型。
  • 贡献者激励: Gensyn 通过代币奖励,激励参与者贡献计算资源,确保持续的计算资源供应。

2.2.3 Prime Intellect

Prime Intellect 概述 Prime Intellect 是一个成立于 2023 年的去中心化 AI 平台,专注于“民主化 AI 模型训练和开发的计算资源访问”。该平台促进了研究人员之间的协作,支持开发开源 AI 模型,并填补学术研究与工业之间的空白。

Prime Intellect 的关键特性:

  • 去中心化协作: 研究人员可以在去中心化环境中协作,合并计算资源以开发 AI 模型,促进社区驱动的创新。
  • 成本效益: Prime Intellect 将计算资源商品化,特别适合学术研究人员和小型开发者,提供了比传统云服务更经济实惠的选择。

Prime Intellect 的优势:

  • 协作式 AI 开发: 平台鼓励研究人员共享资源,促进创新,使小型实体也能参与 AI 开发。
  • 成本效益的访问: Prime Intellect 提供经济实惠的计算资源访问,降低了学术机构和小型组织的 AI 开发门槛。

# 2.3 推理

去中心化

2.3.1 Crynux

Crynux 概述 Crynux 是一个去中心化的边缘 AI 编排层。在中心化的 AI 环境中,数据提供者、计算能力、AI 任务和应用程序通常由同一企业(如 Google 和 OpenAI)管理。而在去中心化的环境中,边缘数据和边缘计算由不同实体提供,参与者之间缺乏信任。Crynux 构建了一个编排层,帮助这些参与者在无许可、无需信任和无服务器的环境中协作完成 AI 任务。

Crynux 网络的关键特性:

  • 边缘的去中心化计算: Crynux 在边缘设备上启动了第一个去中心化计算的测试网络,矿工只需下载应用程序并在他们的设备上运行。
  • 满足真实用户需求的 AI 服务: Crynux 提供多模态模型服务,包括文本、图像、音乐和视频。此外,Crynux 提供兼容 Lang-chain 的工作流部署,满足用户的实际需求。
  • 联邦微调: Crynux 支持基于社区数据的去中心化微调。
  • 边缘 AI 引擎: 通过分布式边缘推理和微调,用户可以使用他们自己的设备和数据运行 AI 模型。

Crynux 的优势:

  • 无许可性: Crynux 不通过白名单限制用户。任何人都可以加入网络,使用自己的设备提供服务,解锁数十亿设备的计算能力。
  • 无服务器: Crynux 没有任何集中式服务器运行协议,从而使操作成本为零。
  • 无需信任: Crynux 通过链上验证计算结果,使去中心化实体能够在无需信任的环境中协作完成 AI 任务。
  • 无处不在: Crynux 利用边缘设备进行计算,提供无缝的 AI 体验。
  • 隐私保护: Crynux 使用边缘数据进行计算,同时在设备上保护用户的隐私。

2.3.2 Exo Labs

Exo Labs概述

Exo Labs 是一个平台,通过聚合多设备的计算资源实现分布式 AI 推理。它动态分割 AI 模型,使用户可以在消费级硬件上运行大模型,如 Llama。

Exo Labs 的关键特性:

  • 动态模型分割: 基于可用资源将模型分割到多个设备上,从而实现无集中化主控架构的分布式 AI 推理。
  • 广泛的模型支持: 支持包括 Llama 在内的流行 AI 模型,以及 MLX 和 tinygrad 等框架。
  • 设备协作: 智能手机、笔记本电脑和台式机等设备可以聚合资源来运行模型。
  • 点对点架构: 网络中的所有设备平等运行,无需依赖单一控制器。

Exo Labs 的优势:

  • 硬件无关性: Exo 支持各种设备类型,从智能手机到台式机,使其对拥有不同硬件配置的用户具有高度可访问性。
  • 成本效益: 通过使用现有的消费级设备,Exo 消除了对昂贵专用 GPU 的需求。
  • 可扩展性: 点对点架构使网络能够随着更多设备的连接自然扩展。

2.3.3 HyperspaceAI

HyperspaceAI 概述 HyperspaceAI 是一个去中心化协议,能够在全球节点网络中分布式执行 AI 模型推理。用户可以通过该平台访问并交互超过 1,000 种 AI 模型,HyperspaceAI 通过去中心化的计算资源贡献,支持 AI 任务(如 LLM 推理),并采用加密技术保障安全性和防止欺诈。

HyperspaceAI 的关键特性:

  • 分布式模型推理: HyperspaceAI 通过去中心化网络分发 AI 推理任务,提升了计算效率。
  • 去中心化哈希表 (DHTs): 该协议利用 DHT 技术进行去中心化的数据存储和高效节点查找。
  • 激励机制: 通过贡献计算资源,节点可以获得奖励,确保计算能力的持续供应。
  • 防欺诈机制: 在发生冲突结果时,防欺诈挑战机制确保 AI 输出的正确性,错误计算将受到惩罚。
  • 安全和身份验证: 通过工作量证明 (PoW) 和公钥加密技术确保节点身份的安全性,防止攻击。

HyperspaceAI 的优势:

  • 去中心化访问: HyperspaceAI 通过去中心化计算能力民主化 AI 访问,允许小型实体和个人参与。
  • 激励参与: 动态奖励系统鼓励节点积极参与,确保 AI 任务有足够的资源。
  • 强大的安全性: 使用先进的加密技术确保网络的安全性和完整性,抵御常见攻击。
  • 可扩展性: 分布式网络的特性使 HyperspaceAI 能够处理大量的计算任务,具有良好的可扩展性。

2.3.4 Infera

Infera 概述 Infera Network 是一个去中心化的 AI 推理平台,利用全球闲置的 GPU 资源,提供了一个高效且具成本效益的解决方案,专为 AI 开发者服务。通过去中心化的方式处理 AI 推理任务(尤其是大规模语言模型推理),Infera 允许任何有闲置计算资源的人参与网络,并通过 INFER 代币获得奖励。

Infera 的关键特性:

  • 去中心化推理网络: 利用闲置的消费者级 GPU 执行 AI 推理任务,大幅降低计算成本。
  • 推理 API: 为开发者提供 API 访问开源和自定义微调的模型,方便在去中心化网络上部署 AI 应用。
  • 代币奖励: 贡献闲置 GPU 资源的用户可通过参与 AI 推理任务获得代币奖励。
  • 灵活的硬件支持: 支持多种 GPU,包括 Nvidia RTX 和 AMD 显卡,使更多日常用户能够参与。
  • 节点参与: 任何人都可以成为节点运营者,通过贡献 GPU 能力赚取 INFER 代币。

Infera 的优势:

  • 成本效益: 通过利用消费者级 GPU,Infera 与集中式供应商(如 Nvidia H100s)相比大大降低了 AI 推理成本。
  • API 便捷性: 开发者可以轻松通过与 OpenAI REST 标准兼容的 API 集成平台,简化使用。
  • 社区驱动: 平台的开源特性鼓励社区参与和创新。

2.3.5 Kuzco

Kuzco 概述 Kuzco 于 2024 年成立,运营一个基于 Solana 区块链的分布式 GPU 集群,利用网络参与者贡献的闲置计算资源,提供高效且具成本效益的大规模语言模型 (LLMs) 推理。参与者通过贡献计算资源获得 Kuzco 原生代币奖励。

Kuzco 的关键特性:

  • 分布式 GPU 集群: Kuzco 利用全球闲置的 GPU 网络,创建了一个统一的去中心化 AI 推理基础设施。
  • Solana 集成: 基于 Solana 区块链,Kuzco 受益于其高性能、低延迟和低成本的基础设施。
  • OpenAI 兼容 API: 开发者可以通过平台的 OpenAI 兼容 API 轻松集成流行的 LLMs,如 Llama3 和 Mistral。
  • 快速增长的网络: Kuzco 的 GPU 工作节点从 2024 年 3 月的 467 个增长到 7 月的 8,500 个,展示了其快速的市场采用。
  • 硬件支持: 平台支持 Mac、Windows 和 Linux 系统上的多种硬件配置,允许不同类型的设备广泛参与。

Kuzco 的优势:

  • 可扩展性与可访问性: Kuzco 使开发者能够轻松访问强大的模型,如 Llama3 和 Mistral,并快速扩展其 GPU 网络。
  • 成本效益: 通过使用参与者的闲置 GPU,Kuzco 显著降低了 AI 推理任务的成本,相比于集中式方案更具竞争力。
  • 全球覆盖: Kuzco 的节点遍布 70 多个国家,已建立了广泛的去中心化 AI 工作负载基础设施。

2.3.6 Lumino

Lumino 概述 Lumino 是一个去中心化平台,通过全球闲置 GPU 网络提供可扩展的 AI 推理服务。该平台旨在通过去中心化的计算资源,使 AI 推理变得更加经济实惠且可访问,专注于自然语言处理 (NLP)、图像识别和其他需要大量计算能力的 AI 工作负载。

Lumino 的关键特性:

  • 去中心化 GPU 网络: Lumino 连接全球的 GPU 资源,允许参与者贡献闲置的资源进行 AI 推理任务。
  • 经济实惠的 AI 推理: 通过使用闲置 GPU 资源,Lumino 提供了比传统云提供商低成本的 AI 推理服务。
  • AI 模型支持: Lumino 支持广泛的 AI 模型,开发者可以执行 NLP、图像识别等任务。
  • 代币化激励: 贡献者通过提供 GPU 资源参与 AI 推理任务,获得 Lumino 代币作为奖励。

Lumino 的优势:

  • 实惠的 AI 推理: 通过去中心化 GPU 资源,Lumino 显著降低了 AI 推理的成本,使开发者和企业能够更便捷地访问 AI 计算能力。
  • 可扩展基础设施: 该平台允许开发者通过全球 GPU 网络扩展 AI 模型,确保各种 AI 任务的灵活性。
  • 贡献者激励: 代币化的奖励系统鼓励用户贡献闲置 GPU,确保计算能力的持续供应。

2.3.7 Pin AI

Pin AI概述 Pin AI 是一个去中心化平台,将数十亿移动设备转变为全球网络中的 AI 驱动节点。平台能够处理“万亿级跨平台数据流”,使个性化 AI 更加高效和易于获取。Pin AI 专注于设备上的 AI 模型推理、个人数据管理和安全的去中心化云存储,同时确保数据隐私和用户自主权。通过利用边缘和云端的 AI,Pin AI 提供了可扩展且具成本效益的解决方案,用于数据标注、系统优化和个性化任务执行等任务。

Pin AI 的关键特性:

  • 设备上的 LLM 操作系统: 通过私密的设备上大语言模型 (LLM) 提供个人 AI 服务,确保数据在本地处理,增强隐私性。
  • AI 驱动的数据标注: 使用 AI 模型高效进行数据标注,企业可通过去中心化网络访问高质量且经济实惠的标注服务。
  • 去中心化数据和计算网络: 允许分布式 AI 推理和存储,结合边缘 AI 和云计算,最大限度提升价值并保护数据隐私。
  • 开放 AI 生态系统的路由器: 将复杂任务引导至开放生态系统中的外部 AI 服务,增强平台的灵活性和能力。
  • 数据连接器: 无缝提取并连接来自各种应用的个人数据,创建个性化的 AI 驱动体验,同时保护用户隐私。
  • 参与证明 (PoE) 协议: 通过加密技术奖励用户对数据和活动的参与,同时安全地验证交互行为。

Pin AI 的优势:

  • 高效和私密的 AI 处理: 通过利用设备上的模型和去中心化云基础设施,Pin AI 确保数据隐私,同时提供快速高效的 AI 驱动任务执行。
  • 可扩展且经济的数据标注: Pin AI 的去中心化网络通过 AI 贡献者减少了大规模数据标注的成本。
  • 贡献者货币化: 开发者可以通过向平台贡献 AI 模型实现货币化,并通过数据标注和推理等任务获得奖励。
  • 开放生态系统和灵活性: Pin AI 支持与外部 AI 服务的集成,拓展了功能性并通过一个开放灵活的生态系统提升能力。

2.3.8 Stable Edge

Stable Edge 概述 Stable Edge 是一个去中心化云计算平台,专为小型语言模型的生成 AI 开发设计,提供高性能的计算资源,用于 AI、机器学习和大数据应用。该平台允许用户贡献其闲置的计算能力,并通过市场机制为开发者提供可扩展的计算资源,成本低于传统云服务。

Stable Edge 的关键特性:

  • 去中心化云计算: Stable Edge 连接来自全球参与者的闲置计算资源,提供了传统云服务的去中心化替代方案。
  • 经济实惠的资源访问: 平台提供的高性能计算能力价格远低于传统云提供商。
  • 专注于 AI 和大数据: Stable Edge 专注于支持 AI、机器学习和大数据工作负载,适合开发资源密集型项目的开发者。
  • 资源市场: 用户可以通过 Stable Edge 市场购买和出售计算能力,创建一个灵活且动态的资源分配环境。

Stable Edge 的优势:

  • 成本降低: 通过利用去中心化计算资源,Stable Edge 提供的计算资源价格比传统云服务商低得多,使 AI 开发者更易于获取。
  • 可扩展性: 平台为用户提供了可扩展的解决方案,特别适合大规模 AI 和数据处理任务。
  • 资源市场: Stable Edge 的市场模型允许根据供需灵活定价和分配资源。

非去中心化

2.3.9 Inference Labs

Inference Labs 概述 Inference Labs 是一个提供去中心化 AI 推理解决方案的平台,专注于提供安全、可扩展且通过加密验证的 AI 基础设施,支持大规模 AI 推理任务。Inference Labs 专注于通过去中心化网络、加密证明和跨 AI 系统的互操作性来确保链上 AI 的安全性和可验证性。

Inference Labs 的关键特性:

  • 具有加密完整性的去中心化 AI: 该平台通过加密验证方法确保 AI 模型的计算完整性,允许去中心化治理和 AI 操作的透明性。
  • 数学可验证证明: Inference Labs 通过最先进的加密协议确保 AI 任务的安全性和可验证性,提供比传统信任模型更高的可靠性。
  • 互操作的 AI 智能: 平台设计支持与现有 AI 协议的集成,并允许跨链应用,支持安全且原子化执行的 AI 工作流。
  • 伦理和开源协议: Inference Labs 通过博弈论推动 AI 治理的市场驱动方法,确保 AI 进步具有伦理性和透明性。

Inference Labs 的优势:

  • AI 安全性和完整性: 通过使用类似于 HTTPS/TLS 的加密协议,平台确保了大规模 AI 推理任务的安全性,是 AI 治理和验证领域的先驱。
  • 去中心化 AI 所有权: 通过提供透明且安全的去中心化 AI 基础设施,促进参与者在 AI 生态系统中的参与。
  • 企业级可扩展性: Inference Labs 支持大规模 AI 任务,非常适合需要强大和可扩展 AI 基础设施的企业和开发者。

2.3.10 Inference

Inference 概述 Inference 是一个集中的 GPU 云平台,提供广泛的 AI 推理服务,包括自然语言处理 (NLP)、图像识别和机器学习,专注于企业级性能。平台声称提供全球 GPU 集群的可扩展、高性价比的访问,帮助企业快速高效地部署高性能 AI 模型。Inference 在全球设有数据中心,确保了计算资源的低延迟访问,使得 AI 任务和跨地域协作可以实时进行。

Inference 的关键特性:

  • 全面的推理服务: Inference 支持多种 AI 工作负载,包括 NLP、图像识别和机器学习任务,使其成为开发者和企业的多功能解决方案。
  • 全球 GPU 云基础设施: 平台提供对多种 GPU 的访问,包括最新的 NVIDIA 型号,全球分布的数据中心确保了低延迟和高速处理。
  • 经济高效且可扩展的解决方案: Inference 提供比 Microsoft、Google 和 AWS 等主要云提供商低 82% 成本的解决方案,使其成为企业减少成本、保持高性能的有力选择。
  • 企业重点: Inference 为企业客户提供可扩展、可靠和高性能的推理解决方案,支持广泛的 GPU SKU,以满足不同的计算需求。

Inference 的优势:

  • 加速的训练和推理: Inference 提供了对强大 GPU 的即时访问,显著减少了 AI 模型的训练和推理时间。
  • 全球可扩展性: 平台的全球数据中心网络确保了可扩展的计算资源,允许用户根据项目需求动态调整 GPU 使用。
  • 最新 GPU 硬件的访问: Inference 提供了对最新 NVIDIA GPU 和专用硬件的早期访问,确保企业能够利用最先进的技术进行 AI 工作负载。
  • 专注于模型开发,而非基础设施: 通过管理底层基础设施,Inference 使开发者和数据科学家能够专注于 AI 模型的开发和优化。

Ringfence概述 Ringfence 是一个去中心化协议,专注于聚合和结构化数据集,筛查现有数据冲突并建立数据来源系统。该系统确保任何新增数据与现有数据不冲突,并允许原始数据所有者在其数据被用于 AI 模型训练或微调时获得补偿。

Ringfence 的关键特性:

  • 知识产权冲突检测系统: Ringfence 确保所有数据都经过知识产权冲突的筛查,确认所有权并跟踪数据使用历史,从而保证原始数据所有者获得公平补偿。
  • 数据来源验证: Ringfence 的链下系统跟踪和验证数据的来源,确保多个生态系统中的透明度和完整性。
  • 数据使用补偿管理: Ringfence 的补偿管理系统计算并分发补偿金给原始数据所有者,当他们的数据用于 AI 训练时,确保其权益得到保障。
  • Web3 平台的 API 集成: Ringfence 提供了强大的 API,与 Web3 平台无缝集成,支持区块链生态系统的链下数据管理服务。

Ringfence 的优势:

  • 公平的数据补偿: 实时跟踪数据使用情况,当数据被用于 AI 训练或微调时,自动补偿数据创作者。
  • 数据来源与冲突检测: 通过知识产权冲突筛查和数据来源验证,Ringfence 提供了对未授权数据使用的强大保护,并跟踪 AI 模型中使用的数据。
  • 可扩展的集成解决方案: Ringfence 提供了强大的 API,使 Web3 平台能够无缝集成,提供可扩展的数据管理、数据货币化和数据来源验证功能。
  • 可定制的合规工具: Ringfence 提供帮助企业满足监管要求的工具,确保数据托管和使用的合规性。

2.1.4 DATS Project

DATS Project概述 DATS Project 是一个去中心化的网络安全平台,利用 DePIN(Decentralized Physical Infrastructure Networks)技术提供增强的安全解决方案。该平台致力于构建一个安全的生态系统,使企业和用户能够从去中心化基础设施中受益,减少对传统集中式安全机制的依赖。DATS 的目标是通过提供安全、经济高效且可扩展的解决方案,彻底改变网络安全行业。

DATS Project 的关键特性:

  • 去中心化安全基础设施: DATS 使用去中心化节点网络来提供强大的网络安全解决方案,最大限度减少单点故障的风险。
  • 激励的安全提供者: 用户可以贡献其基础设施或专业知识,并通过提供安全服务获得奖励。
  • 实时威胁检测: 平台提供去中心化的实时监控和威胁检测功能,确保对新兴网络威胁做出快速响应。

DATS Project 的优势:

  • 通过去中心化提升安全性: 通过去中心化网络安全基础设施,DATS 确保了更加弹性和安全的网络。
  • 成本效益: 去中心化的方式降低了维护集中式安全基础设施的成本。
  • 社区驱动的创新: DATS 促进了一个协作的环境,安全专家和开发者可以贡献和分享解决方案,推动网络安全领域的创新。

2.1.7 Masa Masa 概述

Masa 是一个去中心化的 AI 数据网络,旨在彻底改变 AI 开发者获取高质量、实时数据的方式。Masa 定位为去中心化的 Scale AI,通过一个全球矿工和验证者网络构建未来 AI 开发所需的数据基础设施。

Masa 在 CoinList Launchpad 上的 17 分钟抢购中获得了广泛关注,并得到了 Digital Currency Group、Anagram 和 Animoca 等著名投资者的支持。Masa 运营 Bittensor 子网 42 (SN42),构成了 Masa 可扩展基础设施的重要部分。

Masa 的关键特性:

  • 多样化的数据来源: 从 X-Twitter、Discord、Telegram、网页和语音转文本内容中抓取和结构化数据,为 AI 训练提供丰富的数据集。
  • 智能数据评分和奖励: 通过复杂的算法,根据数据质量和数量对工作者进行评分,使用统计分析和基于峰度的评分方法。
  • 数据质量保证: 使用余弦相似性评估和持续优化来确保高质量数据。
  • 可扩展基础设施: 运营 Bittensor 子网 42,构建未来 AI 应用的基础设施。

Masa 的优势:

  • 快速的网络扩展: 生态系统快速增长,拥有 48,000 多名全球节点工作者和 15 个以上的复杂机构验证者,创建了强大的去中心化数据基础设施。
  • 数据产品市场契合度: 培养了 100 多位 AI 开发者的活跃社区,他们正在构建尖端应用,为 AI 开发提供关键数据,推动创新。
  • 机构采用的先锋: 推动了去中心化 AI 基础设施在 web3 和 web2 领域的采用,尤其是在领先的 web2 机构中取得了显著进展。
  • 创新的双代币激励: 在 Bittensor 生态系统中引入了第一个实时代币,采用创新的 TAO-MASA 双代币模型。该系统创造了一个公平、动态的奖励机制,激励持续的高质量贡献,使利益相关者在整个网络中的利益保持一致。