在蓬勃发展的 AI 时代,效率与创新成为企业和个人成功的关键。n8n 作为一款强大的开源自动化工具,正成为连接智能技术与日常工作流的理想桥梁。
通过在您的服务器上部署 n8n,并无缝集成您私有的 AI 服务器或主流大模型(如 Kimi、ChatGPT、Gemini 等),您将能够构建出前所未有的强大自动化工作流。无论是自动生成高质量内容、智能处理海量数据、还是即时响应各类查询,n8n 都能让这一切化繁为简。这不仅能极大提升您的工作效率,更能显著节约宝贵的时间和人力成本。
本文重点介绍一下,如何在你的服务器上快速搭建n8n。
需要准备的装备:
一台运行 Linux 的服务器(推荐 Ubuntu 或 Debian)。
已安装 Docker 和 Docker Compose。
(可选)域名解析到你的服务器 IP 地址。
(可选)Nginx 或 Apache 作为反向代理,用于 SSL/TLS 加密和更友好的域名访问。
好了,回到正题。如何在你的服务器上部署n8n?如果还没有安装Docker,那就先安装。
1.安装Docker。
sudo apt update
sudo apt install docker.io docker-compose -y
sudo systemctl enable docker
创建 n8n 项目并写 docker-compose 文件。
mkdir ~/n8n && cd ~/n8n
nano docker-compose.yml
2.配置IP和密码。
version: '3.1'
services:
n8n:
image: n8nio/n8n
restart: always
ports:
- 5678:5678
environment:
- N8N_BASIC_AUTH_ACTIVE=true
- N8N_BASIC_AUTH_USER=admin
- N8N_BASIC_AUTH_PASSWORD=password
- TZ=Asia/Shanghai
- WEBHOOK_URL=http://your_ip_or_domain:5678/
volumes:
- ./n8n_data:/home/node/.n8n
记得把password改成你自己的密码,把your_ip_or_domain改成你的公网 IP 或绑定的域名。
3.启动服务。
docker-compose up -d
接下来就是使用n8n连接你的AI服务器或者AI大模型了。
4.连接 OpenAI / ChatGPT 接口。
创建一个 workflow,新建节点的时候,配置 API Key,这时候就可以选择OpenAI/ChatGPT的相关模型了:gpt-4o, gpt-4, gpt-3.5-turbo model。
5.用 HTTP Request 节点连接任何 AI 接口
使用HTTP Request模式非常智能化,基本上市面上的主流模型都可以接入,如Claude、Gemini、Mistral、LLaMA、Kimi、通义千问、文心一言。下面以调用Gemini为例子。
首先,需要在Gemini的官网生成一组 API 密钥。
接着,在n8n 中新建 HTTP Request 节点配置。记得将YOUR_API_KEY换成自己真实的API_KEY.
POST https://generativelanguage.googleapis.com/v1beta/models/gemini-pro:generateContent?key=YOUR_API_KEY
最后,根据您的具体业务需求,您需要配置 n8n 的触发器。这通常会涉及到新建一个 Webhook 节点,用于接收外部系统传递的参数或数据。
随后,您将根据所选择的 AI 大模型(如 Kimi、GPT 等)的 API 规则和要求,配置相应的 AI 节点以调用其能力。例如,将接收到的数据作为输入,触发 AI 生成文本、分析内容或执行其他智能任务。
为了确保数据的持久化和后续的深度开发,建议将这些经 AI 处理过的数据保存至您的服务器数据库中。这将为进一步的数据分析、功能扩展或前端展示奠定坚实基础。
如需获取更多关于 AI 应用与集成技巧的信息,请持续关注 https://iaiseek.com