化解Gemma的显存容量限制 | AI生成和翻译

Home 2026.04

我们的操作步骤:

  1. 通过proxychains从HuggingFace下载 gemma-4-26B-A4B-it-UD-IQ3_S.gguf(10.4GB)
  2. 从源码重新编译llama.cpp(最新提交版本 b8-94ca829b6
  3. 使用Gemma 4 26B模型启动llama-server

关键发现:

运行配置:

-m ./models/gemma-4-26B-A4B-it-UD-IQ3_S.gguf
 -ngl 25
 -c 2048
 --host 0.0.0.0
 --port 8081
 --path ./tools/server/public

性能表现:

防火墙问题:

当前状态:


Back Donate