AI提供商纷纷采用vLLM技术 | AI生成和翻译

Home 2025.10

AI提供商对vLLM的使用情况

vLLM是一款常被推荐用于高效部署开源权重模型的开源推理引擎。然而,其在生产环境中的实际应用情况各有不同。以下是根据现有信息的分析:

提供商/模型 是否在生产环境中使用vLLM? 详细信息
Claude (Anthropic) Anthropic依赖专有基础设施部署Claude模型。vLLM虽然支持通过兼容Anthropic API的方式进行本地或第三方部署,但无证据表明其内部使用vLLM。
OpenAI (GPT系列模型) OpenAI采用为大规模服务优化的定制化内部部署系统。vLLM支持OpenAI兼容API的本地推理,但OpenAI的生产环境并未基于vLLM构建。
Minimax AI MiniMax开源了MiniMax-M1/M2等模型,并因性能优势推荐用户使用vLLM进行部署。其核心生产API未确认使用vLLM,可能采用定制分支或专属方案。
Kimi (Moonshot AI) Moonshot推荐使用vLLM自部署Kimi-K2模型,其Checkpoint-Engine工具支持与vLLM集成更新权重。但生产环境推理很可能结合SGLang或TensorRT-LLM等引擎采用专有优化方案。
DeepSeek AI DeepSeek基于vLLM开源了定制化推理引擎,融入了其研究成果的优化技术。该引擎已应用于DeepSeek-V3、R1等模型,并为vLLM项目贡献代码。

参考资料


Back

x-ai/grok-4-fast

Donate