NAS 轻松部署 Serge:本地也能运行大语言模型

Serge:

一个基于 llama.cpp 构建的聊天界面,用于运行 LLM 模型。无需 API 密钥,完全自托管。

安装

Docker Compose

services:
 serge:
  image: ghcr.io/serge-chat/serge:latest
  container_name: serge
  restart: unless-stopped
  ports:
   - 8008:8008
  volumes:
   - /vol1/1000/docker/serge/weights:/usr/src/app/weights
   - /vol1/1000/docker/serge/datadb:/data/db

参数说明(更多参数设置建议去看文档)

/usr/src/app/weights:模型相关的权重文件

/data/db:数据存储

使用

初次启动会自动下载文件,需要等待下载完成,可以去日志查看情况

浏览器中输入 http://NAS的IP:8008 就能看到界面

可以切换浅色主题

首先需要下载模型

提供模型数量也不少

每个模型都有标注大小,下面是对应所需内存情况:

7B 需要大约 4.5GB 的可用 RAM

13B 需要大约 12GB 的可用 RAM

30B 需要大约 20GB 的可用 RAM

根据自己配置情况下载模型(不建议下载大于 13B 的,回复速度太慢了,影响体验)

TIP:

点击了下载按钮但没反应,大概率是网络问题

等待下载完成即可

这样就表示下载完成(不要点击,那个按钮是删除)

返回首页

这里可用选择模型和进行设置(不会设置,这里默认就行),点击开始聊天

回复都是没问题的

这里是虚拟机进行测试的,所以 CPU 看起来跑满了,内存占用比较少,毕竟是 1.5b 的小模型

总结

如果想作为生产力工具平时使用就不太建议了,不如直接调用 API 的方式;作为本地模型的话,提供下载的模型数量又不如 Ollama 多。不过个人部署体验玩玩还是不错的,只需要下载模型就可以直接使用了,非常方便已经包含框架和界面了。不知道是不是错觉,之前也部署过 Serge 当时好像下载还比较轻松,现在老是下到一般就断开了,而且必须要有良好网络条件。

综合推荐:⭐⭐⭐(可以尝试一下)

使用体验:⭐⭐⭐(简单快捷)

部署难易:⭐⭐(简单)

暂无介绍....

延伸阅读:

NAS 轻松部署 Serge:本地也能运行大语言模型

Serge:一个基于 llama.cpp 构建的聊天界面,用于运行 LLM 模型。无需 API 密钥,完全自托管。安装D...

郭 智满
2025年3月29日
NAS 搭建轻量监控面板:Kener

Kener:一款基于 SvelteKit 和 NodeJS 构建的轻量级状态监控工具特点:📊 监控和跟踪• 高级应用程序...

郭 智满
2025年3月29日
14款免费NAS,操作系统及引导!黑群、黑威、Unraid开心版、TrueNAS、国产开源等,先码后看

前言618已至,各大品牌NAS卖的也是如火如荼,打新打折好不热闹。不过应该也有很多小伙伴还在观望吧,是什么让你迟疑一直没...

郭 智满
2025年3月29日