HARDWARE ARCHITECTURE
Agent 硬件架构
四台设备分布式协同,通过 Tailscale 安全组网。5080 主机作为核心 AI 引擎,Mac Mini Pro 担任 24/7 系统网关,联想笔记本负责辅助计算,MacBook Pro 作为移动指挥中心。
Device Matrix
设备资源矩阵
四台设备各司其职,通过 Tailscale 安全组网协同工作。5080 主机作为计算核心,Mac Mini 作为 24/7 网关,联想笔记本辅助计算,MacBook Pro 随时随地远程指挥。

[PRIMARY]
5080 主机
核心 AI 引擎
NVIDIA RTX 5080
48GB 内存
2TB SSD
Ollama 本地 LLM 推理
NautilusTrader 量化回测
n8n 工作流自动化
[GATEWAY]
Mac Mini Pro
24/7 系统网关
Apple M 系列芯片
24GB 内存
512GB SSD
Tailscale 远程组网入口
Open WebUI 前端
Redis 缓存 / Docker
[COMPUTE]
联想 4070 笔记本
辅助计算节点
NVIDIA RTX 4070
16GB 内存
1TB SSD
数据管道处理
中等规模模型训练
Grafana 系统监控
[MOBILE]
MacBook Pro M1
移动指挥中心
Apple M1 芯片
16GB 内存
个人热点接入
远程访问与任务下发
轻量开发与分析
结果查阅与监控
Implementation Roadmap
分阶段实施路线
按照以下四个阶段依次执行,预计总耗时 3-4 小时即可完成全部部署。每个阶段都包含详细的终端命令,可直接复制执行。
在所有四台设备上安装 Tailscale,建立跨设备的安全虚拟局域网。这是一切远程操作的基础。
所有设备
macOS (Mac Mini / MacBook Pro)
brew install tailscale
sudo tailscaled &
tailscale upWindows (5080 主机 / 联想笔记本)
# 从 https://tailscale.com/download 下载安装包
# 安装后登录同一个 Tailscale 账户验证连通性
在 MacBook Pro 上测试
# 查看所有设备的 Tailscale IP
tailscale status
# ping 5080 主机
ping 100.x.x.x在 5080 主机上安装 Ollama(本地 LLM)、n8n(工作流自动化)和 NautilusTrader(量化交易框架)。
安装 Ollama
Linux
curl -fsSL https://ollama.com/install.sh | sh
# 拉取推荐模型
ollama pull llama3
ollama pull qwen2.5:14bWindows
# 从 https://ollama.com/download 下载安装
# 安装后在终端运行:
ollama pull llama3安装 n8n
Docker 部署(推荐)
docker run -d --name n8n \
-p 5678:5678 \
-v n8n_data:/home/node/.n8n \
--restart unless-stopped \
n8nio/n8n安装 NautilusTrader
Python 环境
# 安装 Rust 工具链(编译依赖)
curl https://sh.rustup.rs -sSf | sh
rustup default stable
# 使用 uv 创建虚拟环境
uv venv nautilus-env --python 3.12
source nautilus-env/bin/activate
uv pip install nautilus_trader在 Mac Mini 上部署 Open WebUI 和 Redis,使其成为 24/7 运行的统一入口,连接到 5080 主机的 Ollama 服务。
安装 Docker
macOS
brew install --cask docker
# 启动 Docker Desktop部署 Open WebUI
连接远程 Ollama
docker run -d --name open-webui \
-p 3000:8080 \
-e OLLAMA_BASE_URL=http://<5080主机Tailscale_IP>:11434 \
-v open-webui:/app/backend/data \
--restart unless-stopped \
ghcr.io/open-webui/open-webui:main部署 Redis
Docker 部署
docker run -d --name redis \
-p 6379:6379 \
--restart unless-stopped \
redis:alpine用 MacBook Pro 通过个人热点远程访问家中设备,验证整个链路是否畅通,测试 n8n 工作流和 MiniMax API 调用。
远程访问测试
MacBook Pro(外出时)
# 确保 Tailscale 已连接
tailscale status
# 访问 Open WebUI
open http://<MacMini_Tailscale_IP>:3000
# 访问 n8n
open http://<5080_Tailscale_IP>:5678MiniMax API 测试
在 n8n 中测试 TTS
# 在 n8n 中创建 HTTP Request 节点
# URL: https://api.minimax.chat/v1/t2a_v2
# Method: POST
# Headers: Authorization: Bearer YOUR_API_KEY
# Body: {"text": "系统部署完成", "voice_id": "male-qn-qingse"}