HARDWARE ARCHITECTURE

Agent 硬件架构

四台设备分布式协同,通过 Tailscale 安全组网。5080 主机作为核心 AI 引擎,Mac Mini Pro 担任 24/7 系统网关,联想笔记本负责辅助计算,MacBook Pro 作为移动指挥中心。

Device Matrix

设备资源矩阵

四台设备各司其职,通过 Tailscale 安全组网协同工作。5080 主机作为计算核心,Mac Mini 作为 24/7 网关,联想笔记本辅助计算,MacBook Pro 随时随地远程指挥。

设备网络拓扑
[PRIMARY]

5080 主机

核心 AI 引擎

NVIDIA RTX 5080
48GB 内存
2TB SSD
Ollama 本地 LLM 推理
NautilusTrader 量化回测
n8n 工作流自动化
[GATEWAY]

Mac Mini Pro

24/7 系统网关

Apple M 系列芯片
24GB 内存
512GB SSD
Tailscale 远程组网入口
Open WebUI 前端
Redis 缓存 / Docker
[COMPUTE]

联想 4070 笔记本

辅助计算节点

NVIDIA RTX 4070
16GB 内存
1TB SSD
数据管道处理
中等规模模型训练
Grafana 系统监控
[MOBILE]

MacBook Pro M1

移动指挥中心

Apple M1 芯片
16GB 内存
个人热点接入
远程访问与任务下发
轻量开发与分析
结果查阅与监控
Implementation Roadmap

分阶段实施路线

按照以下四个阶段依次执行,预计总耗时 3-4 小时即可完成全部部署。每个阶段都包含详细的终端命令,可直接复制执行。

在所有四台设备上安装 Tailscale,建立跨设备的安全虚拟局域网。这是一切远程操作的基础。

所有设备

macOS (Mac Mini / MacBook Pro)
brew install tailscale
sudo tailscaled &
tailscale up
Windows (5080 主机 / 联想笔记本)
# 从 https://tailscale.com/download 下载安装包
# 安装后登录同一个 Tailscale 账户

验证连通性

在 MacBook Pro 上测试
# 查看所有设备的 Tailscale IP
tailscale status

# ping 5080 主机
ping 100.x.x.x

在 5080 主机上安装 Ollama(本地 LLM)、n8n(工作流自动化)和 NautilusTrader(量化交易框架)。

安装 Ollama

Linux
curl -fsSL https://ollama.com/install.sh | sh

# 拉取推荐模型
ollama pull llama3
ollama pull qwen2.5:14b
Windows
# 从 https://ollama.com/download 下载安装
# 安装后在终端运行:
ollama pull llama3

安装 n8n

Docker 部署(推荐)
docker run -d --name n8n \
  -p 5678:5678 \
  -v n8n_data:/home/node/.n8n \
  --restart unless-stopped \
  n8nio/n8n

安装 NautilusTrader

Python 环境
# 安装 Rust 工具链(编译依赖)
curl https://sh.rustup.rs -sSf | sh
rustup default stable

# 使用 uv 创建虚拟环境
uv venv nautilus-env --python 3.12
source nautilus-env/bin/activate
uv pip install nautilus_trader

在 Mac Mini 上部署 Open WebUI 和 Redis,使其成为 24/7 运行的统一入口,连接到 5080 主机的 Ollama 服务。

安装 Docker

macOS
brew install --cask docker
# 启动 Docker Desktop

部署 Open WebUI

连接远程 Ollama
docker run -d --name open-webui \
  -p 3000:8080 \
  -e OLLAMA_BASE_URL=http://<5080主机Tailscale_IP>:11434 \
  -v open-webui:/app/backend/data \
  --restart unless-stopped \
  ghcr.io/open-webui/open-webui:main

部署 Redis

Docker 部署
docker run -d --name redis \
  -p 6379:6379 \
  --restart unless-stopped \
  redis:alpine

用 MacBook Pro 通过个人热点远程访问家中设备,验证整个链路是否畅通,测试 n8n 工作流和 MiniMax API 调用。

远程访问测试

MacBook Pro(外出时)
# 确保 Tailscale 已连接
tailscale status

# 访问 Open WebUI
open http://<MacMini_Tailscale_IP>:3000

# 访问 n8n
open http://<5080_Tailscale_IP>:5678

MiniMax API 测试

在 n8n 中测试 TTS
# 在 n8n 中创建 HTTP Request 节点
# URL: https://api.minimax.chat/v1/t2a_v2
# Method: POST
# Headers: Authorization: Bearer YOUR_API_KEY
# Body: {"text": "系统部署完成", "voice_id": "male-qn-qingse"}