​Meta 计划于今年部署自家 AI 芯片,减少对 Nvidia GPU 的依赖

来源:互联网 更新时间2024-02-03 16:37:52 点击数:

社交媒体巨头 Meta 计划于今年在其数据中心部署一款定制的第二代 AI 芯片,代码名为 "Artemis"。

据路透社报道,新芯片将用于 Meta 的数据中心中的 "推断",即运行 AI 模型的过程。该举措的目标是减少对 Nvidia 芯片的依赖,并控制 AI 工作负载的成本。此外,Meta 还在其服务中提供生成式 AI 应用,并正在训练名为 Llama3的开源模型,旨在达到 GPT-4的水平。

64b6550ec922a.jpg

图源备注:图片由AI生成,图片授权服务商Midjourney

Meta 首席执行官马克・扎克伯格最近宣布,他计划在今年底使用34万个 Nvidia H100GPU,总共约有60万个 GPU 用于运行和训练 AI 系统。这使得 Meta 成为 Nvidia 除微软外最大的公开客户。然而,随着更强大和更大规模的模型,AI 工作负载和成本不断增加。除了 Meta 外,OpenAI 和微软等公司也试图通过专有 AI 芯片和更高效的模型来打破这种成本螺旋。

在2023年5月,Meta 首次推出了名为 Meta Training and Inference Accelerator(MTIA)的新芯片系列,旨在加速并降低运行神经网络的成本。据官方公告,第一款芯片预计将在2025年投入使用,并在当时已在 Meta 的数据中心进行测试。据路透社报道,Artemis 已经是 MTIA 的更高级版本。

Meta 的这一举措表明他们希望通过自家 AI 芯片的部署来降低对 Nvidia 芯片的依赖,以及控制 AI 工作负载的成本。他们计划在今年将 Artemis 芯片投入生产,并表示:"我们认为我们自主开发的加速器与市面上可购买的 GPU 在 Meta 特定工作负载上提供了性能和效率的最佳组合。" 这一举措将为 Meta 带来更大的灵活性和自主性,同时也有望降低 AI 工作负载的成本。


Tag: AI芯片 Meta
首页 AI对话 资讯 我的