Load Prompts from Github Repo and auto populate n8n expressions
该工作流能够从指定的GitHub仓库自动加载文本提示文件,提取并替换其中的变量占位符,生成完整的提示内容供AI模型使用。它具备变量校验机制,确保所有必需变量被正确赋值,避免错误并提高效率。同时,结合Ollama聊天模型和LangChain AI Agent,实现从文本提示到智能响应的全流程自动化,适用于多种需要动态生成内容的场景。
流程图

工作流名称
Load Prompts from Github Repo and auto populate n8n expressions
主要功能和亮点
该工作流能够自动从指定的GitHub仓库加载文本提示(prompts)文件,动态提取其中的变量占位符,并用预设的变量值进行替换,最终生成完整的提示内容供后续AI模型调用。它集成了变量校验机制,确保所有必需变量均已赋值,否则会主动报错停止执行。此外,结合Ollama聊天模型和LangChain AI Agent,实现了从文本提示到智能响应的闭环自动化处理。
解决的核心问题
- 自动化管理和调用存储在GitHub中的文本提示模板
- 动态替换提示中的变量,避免手动编辑带来的低效和错误
- 变量完整性校验,确保提示内容准确无误
- 将结构化提示直接驱动AI模型,实现智能化文本生成或交互
应用场景
- AI助理或聊天机器人中,从版本控制的模板库动态生成对话提示
- 内容创作者或营销团队根据不同项目参数快速生成定制化文案
- 研发团队构建基于提示的自动化测试或文档生成流程
- 任何需要结合版本管理系统和AI模型实现智能文本处理的场景
主要流程步骤
- 手动触发工作流开始执行
- 通过“setVars”节点预设变量,如GitHub账号、仓库名、文件路径及业务相关变量(公司、产品、功能等)
- 连接GitHub节点,读取指定路径下的文本提示文件
- 提取文件内容,存入“SetPrompt”节点
- 代码节点“Check All Prompt Vars Present”动态扫描提示中的变量占位符,校验是否全部在“setVars”中定义
- 条件判断节点“If”,根据校验结果决定继续替换变量或停止并报错
- 代码节点“replace variables”执行变量替换操作,将占位符替换为实际值
- 保存完成替换的提示文本
- 调用LangChain AI Agent结合Ollama聊天模型,使用生成的提示进行AI文本生成或交互
- 最终输出AI响应结果
涉及的系统或服务
- GitHub:作为提示模板的存储和版本管理平台
- n8n内置节点:手动触发、变量设置、条件判断、代码执行、停止报错、文本提取等
- LangChain AI Agent:基于提示驱动的AI任务执行
- Ollama Chat Model:本地或云端AI语言模型服务
适用人群或使用价值
- AI产品开发者:快速管理和调用提示模板,提升开发效率
- 内容营销与文案团队:自动生成定制化内容,减少重复劳动
- 自动化工程师:构建智能化文本处理流水线
- 任何需要结合代码版本管理和AI文本交互的团队和个人,帮助实现高效、可控的提示管理和AI生成工作流
此工作流通过无缝集成GitHub和AI模型,保障提示模板的版本一致性和变量准确性,大幅提升提示驱动型AI应用的灵活性和可靠性。