GPT-3 训练成本与硬件规格 | AI生成和翻译

Home 2026.04

GPT-3 的训练细节

要训练 GPT-3(特别是 175B 参数版本),OpenAI 使用了 Microsoft 提供的海量超级计算机基础设施。下面是其开发中使用的估计成本、时间和硬件。


1. 训练成本

GPT-3 单次训练运行的成本估计在 460 万美元至 500 万美元 之间。

2. 训练时间

最终模型的实际训练时间估计使用了高度并行化的集群,耗时 34 天

3. 硬件(“卡片”)

OpenAI 使用了数据中心级 GPU,而不是消费级显卡。


总结表格

类别 详情
计算成本 每次运行 ~460 万美元 – 500 万美元
持续时间 ~34 天(在 1,024 个 GPU 集群上)
主要硬件 NVIDIA Tesla V100(后为 A100/H100)
总参数 1750 亿

参考文献:


Back Donate