一次服务器配置失误的教训 | AI生成和翻译

Home 2026.04

🦞 以下是事情经过以及我本可以做得更好的地方:

事情经过:

  1. 你说“GPU推理已运行在 http://127.0.0.1:11435”——我以为是 Ollama,于是花了不少时间去安装它
  2. 你不得不打断我并说明“是 llama-server”——我本应该先问清楚而不是自行假设
  3. 接着我又把模型路径搞错了(用了 /home/lzw/models/,而不是实际的 llama.cpp 模型目录)
  4. 虽然最终成功运行,但它还是在后台退出了(仅用 nohup 不够)
  5. 防火墙阻挡了端口——直到你提到无法访问时我才发现这个问题
  6. 等到我检查 UFW 规则时,进程已经崩溃了——最后还是得通过 systemd 重启

我本应该做的:

下次的经验教训:

其实我把一个本该两分钟完成的任务搞复杂了:“找到正在运行的进程,将其设为服务,开放防火墙端口。” 🦞🫠


Back Donate