🐋DeepSeek V3 Chat & R1 Reasoning Quick Start
该工作流整合了DeepSeek最新的V3聊天模型和R1推理模型,支持通过消息触发实时对话,具备多轮上下文理解能力。用户可以灵活调用云端API或本地模型,快速构建智能问答和推理服务,适用于客服、知识管理、教育辅导等场景。通过内存窗口管理提升交互的连贯性和准确性,降低AI集成的复杂性,方便开发者和企业进行智能助手的构建与测试。
流程图

工作流名称
🐋DeepSeek V3 Chat & R1 Reasoning Quick Start
主要功能和亮点
该工作流集成了DeepSeek最新的V3聊天模型和R1推理模型,支持通过消息触发实时对话,结合强大的记忆缓冲实现多轮上下文理解。支持调用DeepSeek云端API及本地Ollama模型,灵活适配多种部署环境。通过配置简单的HTTP请求,快速启动智能问答与推理服务。
解决的核心问题
- 实现高效智能的自然语言对话和推理能力
- 跨平台调用DeepSeek云端及本地模型,满足不同场景的性能和隐私需求
- 通过内存窗口管理对话上下文,提升多轮交互的连贯性和准确性
- 降低复杂AI集成门槛,快速构建基于DeepSeek的智能助手
应用场景
- 客服机器人:智能理解用户问题并给出精准回答
- 知识管理:辅助企业内部信息检索与推理
- 教育辅导:提供智能问答与学习指导
- 产品原型:快速验证基于先进语言模型的交互体验
主要流程步骤
- 触发器“When chat message received”:监听聊天消息触发工作流启动
- Basic LLM Chain2:初始化对话消息,设定系统助手角色
- Ollama DeepSeek 和 DeepSeek 节点:分别调用本地Ollama模型和DeepSeek云端API进行语言理解与推理
- Window Buffer Memory:管理对话上下文,支持连续多轮对话
- AI Agent:作为核心智能代理,处理用户请求并生成回复
- HTTP Request节点:直接调用DeepSeek API,支持多种请求体格式
- 多个Sticky Note节点用于文档说明和参数配置参考
涉及的系统或服务
- DeepSeek API:支持OpenAI兼容格式的云端推理与聊天接口
- Ollama 本地模型:本地运行的DeepSeek R1推理模型
- n8n 平台节点:包括LangChain集成节点(chatTrigger、agent、lmChatOpenAi、lmChatOllama、memoryBufferWindow等)
- HTTP Request节点:直接调用RESTful接口实现灵活扩展
适用人群或使用价值
- AI开发者与集成工程师:快速构建并测试基于DeepSeek的智能对话系统
- 企业数字化转型团队:利用先进语言模型提升客户服务和知识管理效率
- 教育及培训机构:打造智能辅导和答疑机器人
- 产品经理和技术爱好者:低门槛体验和验证最新的语言推理技术
此工作流通过n8n强大的节点编排能力,将DeepSeek最新的V3聊天模型和R1推理模型无缝集成,支持多轮上下文管理和多接口调用,极大降低了AI智能对话系统的开发复杂度,助力各类场景下的智能交互创新。