产品概述
Crusoe Cloud是专为人工智能和机器学习工作负载构建的基础设施即服务(IaaS)平台。该平台独特地将闲置和可再生能源与下一代GPU集群相结合,提供比传统供应商快达20倍的计算性能,同时降低高达81%的成本。Crusoe运营垂直整合的数据中心,由创新的Digital Flare Mitigation技术驱动,将石油和天然气运营的废甲烷转化为清洁电力。该平台提供两个主要服务层级:具有灵活定价选项(按需、竞价和预留实例)的原始GPU计算,以及通过专有MemoryAlloy技术实现突破性推理速度的Crusoe托管推理,用于简化模型部署。
主要功能
| 高性能GPU计算 | 提供最新的NVIDIA和AMD GPU,包括GB200 NVL72、H200、H100和MI355X,具有灵活的实例配置和快速扩展能力,适用于大规模模型训练和推理。 |
| 托管推理服务 | 一站式推理平台,通过MemoryAlloy技术实现高达9.9倍的首token响应速度提升和5倍的token吞吐量提升,让开发者通过简单的API调用部署模型,无需管理基础设施。 |
| AutoClusters编排 | 自动化容错集群管理,支持Kubernetes、Slurm和自定义编排工具,具有智能错误检测、节点替换和99.98%正常运行时间可靠性。 |
| 可再生能源基础设施 | 数据中心由清洁能源驱动,包括太阳能、风能、水力发电和再利用天然气,通过能源套利降低计算碳足迹的同时保持成本效率。 |
| Intelligence Foundry开发者门户 | 统一界面用于快速模型实验,提供API密钥生成、性能监控,以及在单一平台内推理和基础设施资源之间的无缝切换。 |
| 灵活定价模式 | 多种消费选项,包括按需小时费率、长期折扣的预留实例、灵活工作负载的竞价定价,以及多样化模型目录的按使用付费托管推理。 |
使用场景
- 大规模模型训练:训练大语言模型和基础模型的组织可以利用GPU集群支持数周的训练作业,具有可靠的正常运行时间、企业级支持和通过预留容量实现的成本效率。
- 大规模模型推理:需要低延迟推理的生产部署可以利用Crusoe托管推理为数千名并发用户提供服务,具有突破性的速度和动态扩展,消除容量瓶颈。
- 实时应用:构建实时系统的开发团队,包括AI Agent、聊天机器人和任务自动化,可以通过托管端点快速部署模型,无需管理底层基础设施复杂性。
- 成本敏感的ML运营:预算意识强的组织可以通过预留实例、竞价定价和节能基础设施实现显著的成本降低,同时保持与高端替代方案的性能对等。
- 初创公司AI基础设施:早期AI公司可以快速从原型扩展到生产,运营开销最小,提供24/7支持和随业务增长扩展的灵活承诺条款。

