type
summary
status
category
tags
slug
date
password
icon
状态
子标签
标签
日期
Jan 13, 2026 08:03 AM
CONTENT
社区模板方案
无
DeepSeek方案
ref
在n8n平台上实现该自动化工作流,需按以下步骤设计(共7个核心节点)。这里以RSS数据源和DeepSeek LLM为例,最终写入飞书多维表格:
整体工作流设计
详细节点配置
1. 定时触发器 (Schedule Trigger)
- 作用:定期执行工作流(如每小时)
- 配置:
- Cron表达式:
0 * * * *(每小时执行) - 时区:
Asia/Shanghai
2. RSS阅读器 (RSS Feed Read)
- 作用:获取新闻源数据
- 配置:
- URL:新闻源RSS地址(如
https://example.com/news.rss) - 其他选项:默认
3. 内容预处理 (Function节点)
- 作用:清理HTML标签,合并关键字段
- JavaScript代码:
4. LLM结构化提取 (HTTP Request节点)
- 作用:调用DeepSeek API提取结构化数据
- 配置:
- Method:
POST - URL:
https://api.deepseek.com/v1/chat/completions - Headers:
Authorization:Bearer YOUR_DEEPSEEK_API_KEYContent-Type:application/json- Body (JSON):
- 关键提示:强制要求返回纯JSON格式,避免多余文本
5. JSON解析 (Function节点)
- 作用:解析LLM返回的JSON字符串
- JavaScript代码:
6. 飞书多维表格 (Feishu Node)
- 作用:写入处理后的数据
- 配置:
- Authentication: 飞书OAuth2授权
- Operation:
Create Record - App Token:
YOUR_APP_TOKEN - Table ID:
YOUR_TABLE_ID - Fields Mapping:
7. 错误处理 (Error Trigger)
- 作用:捕获失败任务并发送通知
- 配置:
- 连接飞书机器人/邮件节点
- 错误消息模板:
新闻处理失败: {{ $error.message }}
关键注意事项
- LLM优化技巧:
- 在Prompt中明确要求纯JSON输出,示例格式
- 限制输入长度(如5000字符),避免API超时
- 使用
temperature=0.1保证输出稳定性
- 飞表格字段准备:
- 成本控制:
- 在RSS节点后添加去重逻辑(比较URL哈希值)
- 通过
item.json.pubDate过滤历史新闻
- 替代方案:
- 若使用API数据源:替换RSS节点为HTTP Request节点
- 若用OpenAI:修改LLM节点URL为
https://api.openai.com/v1/chat/completions,模型换为gpt-4-turbo
部署流程
- 在n8n编辑器中按顺序连接所有节点
- 测试单条数据处理流程(点击节点右侧“执行”按钮)
- 确认飞书表格数据写入成功
- 启用工作流并监控错误日志
提示:首次运行时需完成飞书OAuth2授权和DeepSeek API密钥配置。完整工作流可在n8n社区模板库搜索关键词 News to Feishu 获取参考模板。
Gemini方案
ref
您好!我是 n8n 工作流与代理部署专家。非常荣幸能为您服务。
您的需求非常清晰,是 n8n 的一个典型且强大的应用场景:整合外部信息源,通过 AI 进行智能化处理,并将其结构化地存入内部协作工具。这个自动化流程可以极大地提升团队的信息获取和处理效率。
现在,让我们一起将这个需求分解、设计并构建成一个完整、可靠的 n8n 工作流。
工作流整体设计与模块划分
为了保证工作流的清晰性、可维护性和可扩展性,我建议将其划分为以下三个核心功能模块:
- 模块一:数据获取 (Data Acquisition)
- 目标: 定时、自动地从指定的 RSS 源或 API 接口抓取最新的新闻资讯。
- 核心组件: 触发器 (Schedule)、数据拉取节点 (RSS Feed Read / HTTP Request)。
- 模块二:内容处理与分析 (Content Processing & Analysis)
- 目标: 遍历获取到的每一条新闻,调用大型语言模型(LLM)进行分析,并按预设格式提取关键信息。
- 核心组件: 循环处理节点 (Split in Batches)、LLM 集成节点 (e.g., OpenAI / LLM)、数据格式化节点 (Code)。
- 模块三:数据持久化 (Data Persistence)
- 目标: 将处理完成的结构化数据,精准无误地写入飞书多维表格。
- 核心组件: 飞书节点 (Feishu)。
下面,我将为您详细解释每个模块的节点配置和实现逻辑。
模块一:数据获取 (Data Acquisition)
这是工作流的起点。我们将以定时触发 + RSS 读取为例,这是最直接且稳定的方式。
- 节点 1: Schedule (定时触发器)
- 节点类型: Trigger
- 用途: 设定工作流的执行频率,例如每小时、每天或自定义 Cron 表达式。
- 参数配置:
Mode:Every Hour(或根据您的需求选择Every Day,Cron等)。Hour:1(如果是每小时,则代表每小时的第几分钟开始执行,设为1分钟即可)。Timezone:Asia/Shanghai(请务必设置为您所在的时区,确保执行时间符合预期)。- 逻辑解释: 此节点会像闹钟一样,到预设时间就自动激活整个工作流,开始执行后续任务。
- 节点 2: RSS Feed Read (RSS 读取)
- 节点类型: Regular
- 用途: 输入一个或多个 RSS 订阅源地址,获取最新的文章列表。
- 参数配置:
Source:URLURL:https://your-rss-feed-url.com/feed(替换成您需要爬取的新闻源的 RSS 地址)。您可以点击Add URL添加多个源。- 逻辑解释: 此节点会向目标 URL 发出请求,解析返回的 XML 格式的 RSS 数据,并将其转换为 n8n 内部的 JSON 数组格式。每个 JSON 对象代表一篇文章,通常包含
title,link,pubDate,contentSnippet等字段。
备选方案 (API 获取):如果您需要从不提供 RSS 的 API 获取数据,可以将 RSS Feed Read 节点替换为 HTTP Request 节点。
- 节点类型: Regular
- 参数配置:
Method:GET(通常是)URL: 您要请求的 API 地址。Authentication: 根据 API 要求配置认证方式(如 Header Auth, Query Auth 等)。Options: 可能需要配置请求头 (Headers) 或查询参数 (Query Parameters)。
- 注意: 使用 API 时,您可能需要额外处理分页 (Pagination) 逻辑,确保能获取所有数据。
模块二:内容处理与分析 (Content Processing & Analysis)
这是工作流的核心,我们将在这里实现对每篇文章的智能分析。
- 节点 3: Split in Batches (分批处理/循环)
- 节点类型: Regular
- 用途:
RSS Feed Read节点一次可能返回多篇文章。此节点能将文章列表拆分开,让后续节点可以逐一处理每一篇文章。 - 参数配置:
Batch Size:1。这是关键设置,意味着将数据拆分成每批只有 1 个项目,从而实现“循环”的效果。Options->Reset:true(确保每次工作流运行都是独立循环)。- 逻辑解释: 该节点会接收上一步输出的文章数组,然后为数组中的每一篇文章单独执行一次后续的所有节点。
- 节点 4: LLM / OpenAI (大模型分析)
- 节点类型: Regular (根据您使用的模型选择,
OpenAI节点最常用) - 用途: 将文章内容发送给 LLM,并指示它提取所需的八类数据。
- 前提: 您需要在 n8n 的
Credentials中预先配置好您的 OpenAI API Key。 - 参数配置:
Authentication: 选择您已配置好的 OpenAI 凭证。Resource:ChatModel:gpt-4o或gpt-3.5-turbo(gpt-4o 效果更好,成本更高)。Messages->Content: 这是最核心的部分,即 Prompt (提示词)。您需要在这里精心设计一个提示词,告诉 LLM 它需要做什么。- 逻辑解释:
- 我们使用 n8n 的表达式
{{...}}将上一节点(Split in Batches)输出的当前文章的title,link等信息动态地插入到 Prompt 中。 - 我们要求 LLM 以严格的 JSON 格式输出,这对于后续程序自动解析至关重要,避免了复杂的文本处理。
Prompt 示例 (请复制并粘贴到
Content 字段中):你是一个专业的新闻内容分析师。请仔细阅读以下新闻内容,并严格按照指定的JSON格式提取信息。
新闻内容如下:
"""
标题:{{ $('Split in Batches').item.json.title }}
链接:{{ $('Split in Batches').item.json.link }}
内容片段:{{ $('Split in Batches').item.json.contentSnippet }}
"""
请提取以下八类信息,并以一个不包含任何额外解释和Markdown标记的JSON对象格式返回:
1. "title": 新闻标题。
2. "source": 新闻来源 (如果原文未提及,请分析域名或内容猜测,若无法确定则填写 "未知")。
3. "author": 作者 (如果原文未提及,则填写 "未知")。
4. "article_type": 文章类型 (例如:"科技新闻", "财经分析", "时事评论", "行业动态"等)。
5. "summary": 生成一段不超过150字的内容摘要。
6. "keywords": 提取3-5个核心关键词,以英文逗号分隔的字符串形式。
7. "original_link": 新闻的原文链接。
8. "publish_time": 发布时间,请转换为 "YYYY-MM-DD HH:mm:ss" 格式。原始时间是:{{ $('Split in Batches').item.json.pubDate }}
确保你的输出是一个可以直接被程序解析的纯粹的JSON对象。- 节点 5: Code (代码/数据格式化)
- 节点类型: Regular
- 用途: OpenAI 节点返回的内容是一个包含 JSON 的 字符串。我们需要将其转换为一个真正的 JSON 对象,以便后续节点可以直接引用其中的字段。
- 参数配置:
Language:JavaScriptJavaScript Code:JavaScript- 逻辑解释: 这段简单的代码读取上一步 LLM 的输出,使用
JSON.parse()函数将其从字符串转变为对象,方便Feishu节点通过{{ $json.title }}这样的方式直接调用。
// 从上一步(OpenAI节点)获取LLM返回的文本内容
const llmResponse = $input.item.json.choices[0].message.content;
// 解析这个文本字符串为JSON对象
const structuredData = JSON.parse(llmResponse);
// 将解析后的JSON对象作为此节点的输出
return structuredData;模块三:数据持久化 (Data Persistence)
最后一步,将我们精心处理好的数据写入飞书。
- 节点 6: Feishu (飞书)
- 节点类型: Regular
- 用途: 连接到您的飞书多维表格并追加新的一行数据。
- 前提:
- 您需要在飞书开放平台创建一个应用,并获取
App ID和App Secret,然后在 n8n 的Credentials中配置好飞书凭证。 - 确保该应用已开通 "多维表格" 权限,并已被添加为多维表格的协作者。
- 参数配置:
Authentication: 选择您已配置好的飞书凭证。Resource:BaseOperation:AppendApp Token: 填入您的多维表格的 App Token。您可以在表格的 URL 中找到它,通常以bascn开头。Table ID: 填入您要操作的子表的 Table ID。您可以在 URL 中找到它,通常以tbl开头。Fields(字段映射): 这是将数据填入正确列的关键。点击Add Field,将您飞书表格中的列名与我们从 LLM 提取的数据字段一一对应起来。标题(您在飞书中的列名):{{ $('Code').item.json.title }}来源(您在飞书中的列名):{{ $('Code').item.json.source }}作者(您在飞书中的列名):{{ $('Code').item.json.author }}文章类型(您在飞书中的列名):{{ $('Code').item.json.article_type }}内容摘要(您在飞书中的列名):{{ $('Code').item.json.summary }}关键词(您在飞书中的列名):{{ $('Code').item.json.keywords }}原文链接(您在飞书中的列名):{{ $('Code').item.json.original_link }}发布时间(您在飞书中的列名):{{ $('Code').item.json.publish_time }}
工作流总结与运行逻辑
完整节点链:
Schedule -> RSS Feed Read -> Split in Batches -> OpenAI -> Code -> Feishu
数据流:
- Schedule 准时启动工作流。
- RSS Feed Read 抓取 RSS 源,输出一个包含10篇文章的数组。
- Split in Batches 接收数组,然后执行后续节点10次。在第一次执行中,它向下传递第一篇文章的数据。
- OpenAI 接收第一篇文章,调用大模型分析,输出一个包含结构化信息的文本字符串。
- Code 将这个文本字符串解析成一个真正的 JSON 对象。
- Feishu 接收这个 JSON 对象,并将其中的
title,summary等字段值填入飞书表格对应的新行中。
- Split in Batches 开始第二次执行,传递第二篇文章的数据,重复步骤 4-6,直到所有文章处理完毕。
优化与部署建议
- 错误处理: 在
OpenAI或Feishu节点,您可以进入Settings标签页,开启Continue on Fail。这样即使单篇文章处理失败(例如 LLM 返回格式错误),也不会中断整个工作流,后续文章可以继续处理。您可以连接一条错误处理路径(例如发送通知)。
- 重复数据过滤: 为避免重复添加同一篇文章,可以在
Feishu节点前增加一个IF节点和另一个Feishu (Search)节点。先在表格中搜索原文链接是否存在,如果不存在(IF判断为 true),才执行后续的添加操作。
- 国内网络环境考虑:
- LLM API 访问: 如果您部署 n8n 的服务器在国内,直接访问 OpenAI 的 API 可能会有网络延迟或不稳定的问题。建议:
- 为 n8n 实例配置稳定的网络代理。
- 考虑使用国内LLM厂商(如智谱AI、文心一言等)提供的API,并使用
HTTP Request节点进行调用。 - 服务器部署: 将 n8n 部署在具有良好国际网络出口的云服务器上(如香港、新加坡或海外服务器),可以显著提升与 OpenAI 等国际服务的通信质量。
请根据此份详细指南开始构建您的工作流。如果在配置过程中遇到任何具体节点的参数问题或逻辑疑问,随时可以向我提问,我会为您提供更深入的解答。
Debug
流畅的运行需要:
- 对底层节点功能实现逻辑的掌握
- 对不同环境变量下,debug的能力
de不动了,暂时暂停
ref
你是我的专属AI助理“新闻报通”!你的使命是帮我洞察最新的AI动态。 最终你需要将所有分析和建议,整合为一个适合在飞书卡片中展示的Markdown格式文本块。保持乐观、敏锐、有创造力!
我有两个核心工具供你调遣:
news:用它来抓取过去2天内飞书多维表格里最新、最有料的AI新闻。此工具会返回一个新闻列表,列表中的每条新闻都包含:新闻标题、发布日期、发布媒体、核心内容/摘要、以及原文链接。
你的行动指令:
第一步:信息收集
立即使用【最新新闻查询】工具,获取最新的AI新闻列表(每条新闻包含标题、日期、发布媒体、摘要、链接)。
第二步:智能分析与建议(输出为纯Markdown格式)
你的核心任务是生成一段单一、完整的Markdown文本。此文本本身就是最终要在飞书卡片中呈现的内容。请严格按照以下指导来组织信息,但不要在你的最终输出中包含模板本身的 ```markdown 包裹标记或任何非Markdown的解释性文字。
Markdown内容结构指导(请填充实际内容):
### 🚀 AI圈今日速递与【**专属建议**】
**🌟 今日AI新闻看板:**
{{#if (tool_output.latest_news an_array_with_items)}}
{{#each tool_output.latest_news as |news_item|}}
* ---
* **标题:** {{news_item.title}}
* **发布日期:** {{news_item.date}}
* **发布媒体:** {{news_item.source_or_media}}
* **核心摘要:** {{news_item.summary}}
* **原文链接:** [点击查看详情]({{news_item.link}})
{{/each}}
{{else}}
* 今天AI领域风平浪静,暂未捕获到新的AI大新闻。是时候出门活动活动了!
{{/if}}
* ---
处理逻辑:
关于新闻展示: 如果【最新新闻查询】工具返回了多条新闻,你需要将所有新闻条目都按照上述Markdown结构中的新闻格式一一列出,输出纯净的Markdown文本块
你的最终输出必须且仅仅是按照第二步指导填充内容后形成的完整Markdown文本内容本身。
再次强调:输出的开头不应有 ```markdown ,结尾也不应有 ``` 或任何其他非Markdown的字符、注释或解释。直接从Markdown的第一个字符(例如 ###)开始,到最后一个字符结束。
通用要求:
确保所有列出的信息(新闻的各项数据、日程条目)都准确来源于工具的输出,列出所有的新闻。
你的建议要具体、有建设性、信息充分,并体现出是对所有信息的综合考量。
语气要积极、专业,充满洞察力飞书多维表格+AI内置的路子
- 表格内置AI的路子,暂时想不到这个轮子上要装什么车
- Author:Frank
- URL:https://blog.fqqblog.com/article/2e7bd4d9-052e-8164-b8df-f176e99dc04c
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!
