🔐🦙🤖 Private & Local Ollama Self-Hosted LLM Router

该工作流实现了一个私有且本地部署的动态路由器,能够根据用户输入智能选择最适合的本地大型语言模型进行响应。支持多种专用模型,确保全流程本地运行,保障数据隐私与安全。内置决策树和分类规则,自动调度模型并管理上下文记忆,提升交互体验和任务处理效率,适合需要高效、多样化任务处理的用户群体。

流程图
🔐🦙🤖 Private & Local Ollama Self-Hosted LLM Router 工作流程图

工作流名称

🔐🦙🤖 Private & Local Ollama Self-Hosted LLM Router

主要功能和亮点

该工作流实现了一个私有且本地部署的 Ollama 大型语言模型(LLM)动态路由器,能够根据用户输入的提示智能选择最合适的本地 Ollama 模型进行响应。支持多种专用模型(文本推理、多语言对话、编程辅助、视觉分析等),全流程本地运行,保障数据隐私与安全。工作流内置复杂的决策树和分类规则,实现自动化模型调度与上下文记忆管理,提升交互体验与任务处理效率。

解决的核心问题

在拥有多种本地 Ollama LLM 模型的环境中,用户往往难以手动判断并选择最适合当前任务的模型。此工作流通过智能分析用户请求,自动路由到最匹配的模型,消除技术门槛,保证任务高效精准完成,同时避免数据上传云端,保护隐私。

应用场景

  • AI 爱好者和开发者需要本地化且安全的多模型语言智能处理平台
  • 需处理多语言对话、复杂推理、代码生成与修复、图像及文档视觉分析的多样化任务
  • 企业或个人追求数据隐私,避免外部访问敏感信息的场景
  • 需要统一管理本地多模型资源,实现智能调度的自动化办公或研发环境

主要流程步骤

  1. 通过 Webhook 接收用户聊天消息(“When chat message received”节点)
  2. 由“LLM Router”节点基于预设的决策树和分类规则,分析用户输入并确定最合适的 Ollama 模型名称
  3. 路由结果传递给“AI Agent with Dynamic LLM”节点,调用对应的 Ollama 模型进行响应生成
  4. 利用“Router Chat Memory”和“Agent Chat Memory”节点维护会话上下文,实现连续对话记忆
  5. 响应返回至用户,实现本地化、智能且动态的多模型协同服务

涉及的系统或服务

  • Ollama 本地部署的多款大型语言模型(包括 qwq、llama3.2、phi4、qwen2.5-coder、granite3.2-vision、llama3.2-vision)
  • n8n 自动化工作流平台节点,如 LangChain 集成的聊天触发器、代理、记忆缓冲等
  • Webhook 用于接收外部聊天消息输入

适用人群或使用价值

  • AI 技术爱好者和研究人员,寻求本地无数据外泄的智能问答及任务处理解决方案
  • 软件开发者希望通过动态模型选择提升多场景代码辅助与文本处理效率
  • 企业用户及隐私敏感行业,需保证数据安全的同时享受先进的 AI 多模型协同能力
  • 任何希望构建智能、灵活且隐私友好的本地化大语言模型服务的团队或个人

此工作流示范了如何利用 n8n 强大且灵活的自动化能力,结合本地 Ollama LLM,实现多模型智能路由与协作,保障用户数据完全本地化处理,满足多样化复杂任务需求。