返回
其它AWS

AWS and OpenAI announce multi-year strategic partnership

AWS 与 OpenAI 达成多年期战略合作,OpenAI 将使用最高 380 亿美元的 AWS 算力资源

OpenAI News7 分钟阅读中文
阅读原文
AWS and OpenAI announce multi-year strategic partnership
TL;DR: AWS 与 OpenAI 达成多年期战略合作,OpenAI 将使用最高 380 亿美元的 AWS 算力资源
以下为 OpenAI News 原文(中文

OpenAI 这一合作伙伴关系将使 OpenAI 能够立即在 AWS 的世界级基础设施上运行先进的 AI 工作负载。核心要点:通过多年期的战略合作伙伴关系,OpenAI 能够即时并不断提升对 AWS 世界级基础设施的访问能力,以支持先进的人工智能工作负载。AWS 将为 OpenAI 提供 Amazon EC2 UltraServers,这些服务器配备数十万颗芯片,并可扩展至数千万 CPU,以支持先进的生成式人工智能工作负载。这一高达 380 亿美元的承诺,将使 OpenAI 能够迅速扩展算力规模,并充分受益于 AWS 在价格、性能、规模和安全方面的优势。今日,Amazon Web Services (AWS) 与 OpenAI 宣布达成多年期战略合作伙伴关系,即刻为 OpenAI 核心人工智能工作负载的运行和扩展提供 AWS 世界级的基础设施支持。根据这项总额高达 380 亿美元、未来七年将持续扩大的合作协议,OpenAI 将使用 AWS 计算资源,其中包括数十万颗先进的 NVIDIA GPU,并具备扩展至数千万 CPU 的能力,以快速提升智能体工作负载的规模。AWS 在安全可靠地运行大规模人工智能基础设施方面经验丰富,目前集群规模已超过 50 万颗芯片。AWS 的云基础设施优势结合 OpenAI 在生成式 AI 的突破,将让数百万用户持续受益于 ChatGPT。人工智能技术的快速发展带来了前所未有的算力需求。为推动模型迈向更高智能水平,前沿模型提供者正日益依赖 AWS 的性能、规模与安全优势。作为此次合作的一部分,OpenAI 将立即开始使用 AWS 的计算资源,所有算力预计将在 2026 年底前全面部署,并具备在 2027 年及以后进一步扩展的能力。AWS 为 OpenAI 打造的基础设施部署采用了先进的架构设计,专为实现最高效的人工智能处理性能而优化。通过 Amazon EC2 UltraServers 在同一网络上集群连接 NVIDIA GPU(包括 GB200 和 GB300),实现了跨系统的低延迟性能,使 OpenAI 能够高效运行工作负载并获得更佳表现。无论是为 ChatGPT 提供推理服务,还是用于训练下一代模型,这些集群均可支持多样化的工作负载,并具备高度灵活性,以适应 OpenAI 不断发展的需求。“扩展前沿人工智能需要庞大可靠的算力,”OpenAI 联合创始人兼首席执行官 Sam Altman 表示。“我们与 AWS 的合作强化了广泛的算力生态系统,这将开启新的时代,让先进的人工智能惠及所有人。”“随着 OpenAI 不断突破可能性的边界,AWS 的顶级基础设施将成为其人工智能愿景的支柱,”AWS 首席执行官 Matt Garman 表示。“凭借优化算力的广度和即时可用性,AWS 展现出在支撑 OpenAI 大规模 AI 工作负载方面的独特优势。”这一消息延续了双方的全球合作,目标是为企业提供前沿的人工智能技术。今年早些时候,OpenAI 的开放权重基础模型已在 Amazon Bedrock 上推出,为数百万 AWS 客户带来了更多模型选择。OpenAI 很快成为 Amazon Bedrock 上最受欢迎的公开模型提供者之一,已有数千家客户 — 包括 Bystreet、Comscore、Peloton、Thomson Reuters、Triomics 和 Verana Health — 在使用其模型开展智能体工作流、代码开发、科学分析、数学问题求解等多样化任务。