本地部署AI,零成本,小白也能行!

本地部署AI,零成本,小白也能行!

字幕总结专家

好的,没问题。我是字幕总结专家,这就帮你把视频内容扒得干干净净,让你直接上手干活。


核心目标

一句话概括:花钱租个云服务器(VPS),用一个现成的开源工具包,一键部署一套完全私有、自己掌控的AI工作平台。

这套平台包括:

  • 私有版ChatGPT: 像ChatGPT一样的聊天界面,但数据不外泄。
  • 自动化工作流(n8n): 可以把多个AI模型、应用串联起来,实现复杂任务自动化。
  • 私有数据库(Supabase): 存你的数据,安全可控。
  • 本地AI模型(Ollama): 在你自己的服务器上跑开源大模型,不用花钱调API。

最大好处: 不用写代码,全程主要是复制粘贴命令。数据绝对安全,因为所有东西都在你自己的服务器上。

技术栈(用了哪些工具)

  • 服务器: VPS(虚拟专用服务器),视频里用的是 Hostinger
  • 核心工具包: GitHub上的开源项目 local-ai-stack。这个包把下面所有东西都打包好了。
  • 容器化: Docker。这玩意儿就像是给每个AI服务准备的独立集装箱,让它们互不干扰,管理起来也方便。
  • 具体组件:
    • n8n: 工作流自动化工具。
    • Ollama: 运行本地大模型的框架。
    • Open WebUI: 那个私有版的ChatGPT聊天界面。
    • Supabase: 开源的数据库替代品。

可执行的落地项(照着做就行)

第一步:准备工作(花钱部分)

  1. 买个VPS服务器:
    • Hostinger 或其他云服务商网站。
    • 选择 KVM VPS 套餐,视频推荐至少 KVM 2(4核CPU,8GB内存)起步,否则可能跑不动。
    • 选择离你近的服务器位置,操作系统选 Ubuntu
    • 设置一个服务器的root密码。
  2. 买个域名:
    • 也在 Hostinger 或其他域名商那买一个,很便宜。后面要用它来访问你的各种AI服务。

第二步:服务器基础配置(复制粘贴部分)

  1. 登录服务器: 用服务商提供的网页版终端(Browser Terminal)或SSH工具登录。
  2. 更新系统和装工具: 运行命令,更新系统补丁,装一些必备小工具。
    sudo apt update && sudo apt upgrade -y
    sudo apt install -y curl wget git screen net-tools
  3. 设置防火墙: 运行命令,关掉所有没用的端口,只允许SSH(管理用)和HTTP/HTTPS(网页访问用)流量进来,防止被黑客攻击。
    sudo ufw allow ssh
    sudo ufw allow http
    sudo ufw allow https
    sudo ufw enable
  4. 安装Docker: 运行命令,把Docker和Docker Compose装好。这是后面所有服务运行的基础。
    curl -fsSL https://get.docker.com -o get-docker.sh
    sudo sh get-docker.sh
    sudo usermod -aG docker $USER
    newgrp docker # 确保当前会话生效或重新登录
    curl -SL https://github.com/docker/compose/releases/download/v2.24.5/docker-compose-linux-x86_64 -o docker-compose
    sudo mv docker-compose /usr/local/bin/docker-compose
    sudo chmod +x /usr/local/bin/docker-compose

第三步:部署核心AI套件(关键配置)

  1. 下载项目文件: 运行 git clone 命令,把GitHub上的 local-ai-stack 项目整个下载到你的服务器上。
    git clone https://github.com/your-username/local-ai-stack.git # 假设这是项目地址
    cd local-ai-stack
  2. 配置环境变量(最关键、最麻烦的一步):

    进入项目文件夹,把 env.example 文件复制一份,命名为 .env

    nano .env 命令编辑这个文件。

    核心是填空: 把文件里所有服务的密码、密钥、用户名、域名等信息全部填上你自己的。特别是域名部分,比如 N8N_HOST=n8n.你的域名.comCHAT_HOST=chat.你的域名.com 等。这里要耐心,不能出错。

    例如,你需要修改以下行:

    # .env 文件部分内容示例
    YOUR_DOMAIN="你的域名.com" # 填写你购买的域名
    N8N_HOST="n8n.${YOUR_DOMAIN}"
    CHAT_HOST="chat.${YOUR_DOMAIN}"
    DB_HOST="db.${YOUR_DOMAIN}" # 如果需要通过域名访问Supabase
    
    # 设置强密码
    N8N_PASSWORD="你的N8N密码"
    SUPABASE_PASSWORD="你的Supabase密码"
    # ... 其他服务的密钥和密码
  3. 配置DNS解析:

    回到你买域名的网站(比如Hostinger),找到DNS管理页面。

    添加几条 A记录

    把你上一步配置的那些子域名(如 n8n, chat, db 等)全部指向你VPS服务器的IP地址。

    例如:

    • 类型:A,名称:n8n,值:你的VPS服务器IP地址
    • 类型:A,名称:chat,值:你的VPS服务器IP地址
    • 类型:A,名称:db,值:你的VPS服务器IP地址
    • 类型:A,名称:@,值:你的VPS服务器IP地址 (指向主域名)

    TTL通常设置为1小时或更短,以便快速生效。

  4. 启动所有服务: 运行项目里提供的自动化脚本(比如 python start_services.pydocker-compose up -d)。它会自动拉取所有服务的镜像并启动。这个过程需要几分钟。
    # 假设项目提供了启动脚本
    ./start.sh 
    # 或者直接使用docker-compose
    docker-compose up -d

第四步:收尾和使用

  1. 下载AI模型: 运行 ollama pull llama3ollama pull qwen 之类的命令,下载你想要在本地跑的大模型。
    docker exec ollama ollama pull llama3 # 如果ollama是docker容器
    # 或者如果ollama直接安装在系统上
    ollama pull llama3
  2. 访问你的服务:
    • 在浏览器输入 chat.你的域名.com,就能看到你的私有ChatGPT界面了。
    • 输入 n8n.你的域名.com,就能进入自动化工作流平台。
    • 输入 db.你的域名.com(或你在.env里配置的地址),就能访问数据库管理后台。
  3. 问题排查: 如果某个服务访问不了(比如聊天界面里没有模型),视频里提到了重启特定服务的命令,可以用来解决常见问题。
    # 重启某个服务,例如重启Open WebUI
    docker-compose restart open-webui

搞定!现在你有了一套完全属于自己的AI基础设施,可以开始搭建自己的AI应用了。

>
Back to blog

Leave a comment