Lazy loaded image
项目开发
🛠️New to Feishu
Words 4969Read Time 13 min
2025-6-30
2026-1-13
type
summary
status
category
tags
slug
date
password
icon
状态
子标签
标签
日期
Jan 13, 2026 08:03 AM
CONTENT
 

社区模板方案

 
 
 
 
 
 

 

DeepSeek方案

ref
在n8n平台上实现该自动化工作流,需按以下步骤设计(共7个核心节点)。这里以RSS数据源DeepSeek LLM为例,最终写入飞书多维表格:

整体工作流设计


详细节点配置

1. 定时触发器 (Schedule Trigger)

  • 作用:定期执行工作流(如每小时)
  • 配置:
    • Cron表达式:0 * * * *(每小时执行)
    • 时区:Asia/Shanghai

2. RSS阅读器 (RSS Feed Read)

  • 作用:获取新闻源数据
  • 配置:
    • URL:新闻源RSS地址(如 https://example.com/news.rss
    • 其他选项:默认

3. 内容预处理 (Function节点)

  • 作用:清理HTML标签,合并关键字段
  • JavaScript代码:

    4. LLM结构化提取 (HTTP Request节点)

    • 作用:调用DeepSeek API提取结构化数据
    • 配置:
      • Method: POST
      • URL: https://api.deepseek.com/v1/chat/completions
      • Headers:
        • Authorization: Bearer YOUR_DEEPSEEK_API_KEY
        • Content-Type: application/json
      • Body (JSON):
        • 关键提示:强制要求返回纯JSON格式,避免多余文本

      5. JSON解析 (Function节点)

      • 作用:解析LLM返回的JSON字符串
      • JavaScript代码:

        6. 飞书多维表格 (Feishu Node)

        • 作用:写入处理后的数据
        • 配置:
          • Authentication: 飞书OAuth2授权
          • Operation: Create Record
          • App Token: YOUR_APP_TOKEN
          • Table ID: YOUR_TABLE_ID
          • Fields Mapping:

          7. 错误处理 (Error Trigger)

          • 作用:捕获失败任务并发送通知
          • 配置:
            • 连接飞书机器人/邮件节点
            • 错误消息模板:新闻处理失败: {{ $error.message }}

          关键注意事项

          1. LLM优化技巧
              • 在Prompt中明确要求纯JSON输出,示例格式
              • 限制输入长度(如5000字符),避免API超时
              • 使用temperature=0.1保证输出稳定性
          1. 飞表格字段准备
            1. 成本控制
                • 在RSS节点后添加去重逻辑(比较URL哈希值)
                • 通过item.json.pubDate过滤历史新闻
            1. 替代方案
                • 若使用API数据源:替换RSS节点为HTTP Request节点
                • 若用OpenAI:修改LLM节点URL为https://api.openai.com/v1/chat/completions,模型换为gpt-4-turbo

            部署流程

            1. 在n8n编辑器中按顺序连接所有节点
            1. 测试单条数据处理流程(点击节点右侧“执行”按钮)
            1. 确认飞书表格数据写入成功
            1. 启用工作流并监控错误日志
            提示:首次运行时需完成飞书OAuth2授权和DeepSeek API密钥配置。完整工作流可在n8n社区模板库搜索关键词 News to Feishu 获取参考模板。
             
             
             
             

             

            Gemini方案

            ref
            您好!我是 n8n 工作流与代理部署专家。非常荣幸能为您服务。
            您的需求非常清晰,是 n8n 的一个典型且强大的应用场景:整合外部信息源,通过 AI 进行智能化处理,并将其结构化地存入内部协作工具。这个自动化流程可以极大地提升团队的信息获取和处理效率。
            现在,让我们一起将这个需求分解、设计并构建成一个完整、可靠的 n8n 工作流。

            工作流整体设计与模块划分

            为了保证工作流的清晰性、可维护性和可扩展性,我建议将其划分为以下三个核心功能模块:
            1. 模块一:数据获取 (Data Acquisition)
                • 目标: 定时、自动地从指定的 RSS 源或 API 接口抓取最新的新闻资讯。
                • 核心组件: 触发器 (Schedule)、数据拉取节点 (RSS Feed Read / HTTP Request)。
            1. 模块二:内容处理与分析 (Content Processing & Analysis)
                • 目标: 遍历获取到的每一条新闻,调用大型语言模型(LLM)进行分析,并按预设格式提取关键信息。
                • 核心组件: 循环处理节点 (Split in Batches)、LLM 集成节点 (e.g., OpenAI / LLM)、数据格式化节点 (Code)。
            1. 模块三:数据持久化 (Data Persistence)
                • 目标: 将处理完成的结构化数据,精准无误地写入飞书多维表格。
                • 核心组件: 飞书节点 (Feishu)。
            下面,我将为您详细解释每个模块的节点配置和实现逻辑。

            模块一:数据获取 (Data Acquisition)

            这是工作流的起点。我们将以定时触发 + RSS 读取为例,这是最直接且稳定的方式。
            • 节点 1: Schedule (定时触发器)
              • 节点类型: Trigger
              • 用途: 设定工作流的执行频率,例如每小时、每天或自定义 Cron 表达式。
              • 参数配置:
                • Mode: Every Hour (或根据您的需求选择 Every Day, Cron 等)。
                • Hour: 1 (如果是每小时,则代表每小时的第几分钟开始执行,设为1分钟即可)。
                • Timezone: Asia/Shanghai (请务必设置为您所在的时区,确保执行时间符合预期)。
              • 逻辑解释: 此节点会像闹钟一样,到预设时间就自动激活整个工作流,开始执行后续任务。
            • 节点 2: RSS Feed Read (RSS 读取)
              • 节点类型: Regular
              • 用途: 输入一个或多个 RSS 订阅源地址,获取最新的文章列表。
              • 参数配置:
                • Source: URL
                • URL: https://your-rss-feed-url.com/feed (替换成您需要爬取的新闻源的 RSS 地址)。您可以点击 Add URL 添加多个源。
              • 逻辑解释: 此节点会向目标 URL 发出请求,解析返回的 XML 格式的 RSS 数据,并将其转换为 n8n 内部的 JSON 数组格式。每个 JSON 对象代表一篇文章,通常包含 title, link, pubDate, contentSnippet 等字段。
            备选方案 (API 获取):
            如果您需要从不提供 RSS 的 API 获取数据,可以将 RSS Feed Read 节点替换为 HTTP Request 节点。
            • 节点类型: Regular
            • 参数配置:
              • Method: GET (通常是)
              • URL: 您要请求的 API 地址。
              • Authentication: 根据 API 要求配置认证方式(如 Header Auth, Query Auth 等)。
              • Options: 可能需要配置请求头 (Headers) 或查询参数 (Query Parameters)。
            • 注意: 使用 API 时,您可能需要额外处理分页 (Pagination) 逻辑,确保能获取所有数据。

            模块二:内容处理与分析 (Content Processing & Analysis)

            这是工作流的核心,我们将在这里实现对每篇文章的智能分析。
            • 节点 3: Split in Batches (分批处理/循环)
              • 节点类型: Regular
              • 用途: RSS Feed Read 节点一次可能返回多篇文章。此节点能将文章列表拆分开,让后续节点可以逐一处理每一篇文章。
              • 参数配置:
                • Batch Size: 1。这是关键设置,意味着将数据拆分成每批只有 1 个项目,从而实现“循环”的效果。
                • Options -> Reset: true (确保每次工作流运行都是独立循环)。
              • 逻辑解释: 该节点会接收上一步输出的文章数组,然后为数组中的每一篇文章单独执行一次后续的所有节点。
            • 节点 4: LLM / OpenAI (大模型分析)
              • 节点类型: Regular (根据您使用的模型选择,OpenAI 节点最常用)
              • 用途: 将文章内容发送给 LLM,并指示它提取所需的八类数据。
              • 前提: 您需要在 n8n 的 Credentials 中预先配置好您的 OpenAI API Key。
              • 参数配置:
                • Authentication: 选择您已配置好的 OpenAI 凭证。
                • Resource: Chat
                • Model: gpt-4ogpt-3.5-turbo (gpt-4o 效果更好,成本更高)。
                • Messages -> Content: 这是最核心的部分,即 Prompt (提示词)。您需要在这里精心设计一个提示词,告诉 LLM 它需要做什么。
                • Prompt 示例 (请复制并粘贴到 Content 字段中):
                  你是一个专业的新闻内容分析师。请仔细阅读以下新闻内容,并严格按照指定的JSON格式提取信息。 新闻内容如下: """ 标题:{{ $('Split in Batches').item.json.title }} 链接:{{ $('Split in Batches').item.json.link }} 内容片段:{{ $('Split in Batches').item.json.contentSnippet }} """ 请提取以下八类信息,并以一个不包含任何额外解释和Markdown标记的JSON对象格式返回: 1. "title": 新闻标题。 2. "source": 新闻来源 (如果原文未提及,请分析域名或内容猜测,若无法确定则填写 "未知")。 3. "author": 作者 (如果原文未提及,则填写 "未知")。 4. "article_type": 文章类型 (例如:"科技新闻", "财经分析", "时事评论", "行业动态"等)。 5. "summary": 生成一段不超过150字的内容摘要。 6. "keywords": 提取3-5个核心关键词,以英文逗号分隔的字符串形式。 7. "original_link": 新闻的原文链接。 8. "publish_time": 发布时间,请转换为 "YYYY-MM-DD HH:mm:ss" 格式。原始时间是:{{ $('Split in Batches').item.json.pubDate }} 确保你的输出是一个可以直接被程序解析的纯粹的JSON对象。
                • 逻辑解释:
                  • 我们使用 n8n 的表达式 {{...}} 将上一节点(Split in Batches)输出的当前文章的 title, link 等信息动态地插入到 Prompt 中。
                  • 我们要求 LLM 以严格的 JSON 格式输出,这对于后续程序自动解析至关重要,避免了复杂的文本处理。
            • 节点 5: Code (代码/数据格式化)
              • 节点类型: Regular
              • 用途: OpenAI 节点返回的内容是一个包含 JSON 的 字符串。我们需要将其转换为一个真正的 JSON 对象,以便后续节点可以直接引用其中的字段。
              • 参数配置:
                • Language: JavaScript
                • JavaScript Code:JavaScript
                  • // 从上一步(OpenAI节点)获取LLM返回的文本内容 const llmResponse = $input.item.json.choices[0].message.content; // 解析这个文本字符串为JSON对象 const structuredData = JSON.parse(llmResponse); // 将解析后的JSON对象作为此节点的输出 return structuredData;
              • 逻辑解释: 这段简单的代码读取上一步 LLM 的输出,使用 JSON.parse() 函数将其从字符串转变为对象,方便 Feishu 节点通过 {{ $json.title }} 这样的方式直接调用。

            模块三:数据持久化 (Data Persistence)

            最后一步,将我们精心处理好的数据写入飞书。
            • 节点 6: Feishu (飞书)
              • 节点类型: Regular
              • 用途: 连接到您的飞书多维表格并追加新的一行数据。
              • 前提:
                  1. 您需要在飞书开放平台创建一个应用,并获取 App IDApp Secret,然后在 n8n 的 Credentials 中配置好飞书凭证。
                  1. 确保该应用已开通 "多维表格" 权限,并已被添加为多维表格的协作者。
              • 参数配置:
                • Authentication: 选择您已配置好的飞书凭证。
                • Resource: Base
                • Operation: Append
                • App Token: 填入您的多维表格的 App Token。您可以在表格的 URL 中找到它,通常以 bascn 开头。
                • Table ID: 填入您要操作的子表的 Table ID。您可以在 URL 中找到它,通常以 tbl 开头。
                • Fields (字段映射): 这是将数据填入正确列的关键。点击 Add Field,将您飞书表格中的列名与我们从 LLM 提取的数据字段一一对应起来。
                  • 标题 (您在飞书中的列名): {{ $('Code').item.json.title }}
                  • 来源 (您在飞书中的列名): {{ $('Code').item.json.source }}
                  • 作者 (您在飞书中的列名): {{ $('Code').item.json.author }}
                  • 文章类型 (您在飞书中的列名): {{ $('Code').item.json.article_type }}
                  • 内容摘要 (您在飞书中的列名): {{ $('Code').item.json.summary }}
                  • 关键词 (您在飞书中的列名): {{ $('Code').item.json.keywords }}
                  • 原文链接 (您在飞书中的列名): {{ $('Code').item.json.original_link }}
                  • 发布时间 (您在飞书中的列名): {{ $('Code').item.json.publish_time }}

            工作流总结与运行逻辑

            完整节点链:
            Schedule -> RSS Feed Read -> Split in Batches -> OpenAI -> Code -> Feishu
            数据流:
            1. Schedule 准时启动工作流。
            1. RSS Feed Read 抓取 RSS 源,输出一个包含10篇文章的数组。
            1. Split in Batches 接收数组,然后执行后续节点10次。在第一次执行中,它向下传递第一篇文章的数据。
            1. OpenAI 接收第一篇文章,调用大模型分析,输出一个包含结构化信息的文本字符串。
            1. Code 将这个文本字符串解析成一个真正的 JSON 对象。
            1. Feishu 接收这个 JSON 对象,并将其中的 title, summary 等字段值填入飞书表格对应的新行中。
            1. Split in Batches 开始第二次执行,传递第二篇文章的数据,重复步骤 4-6,直到所有文章处理完毕。

            优化与部署建议

            1. 错误处理:OpenAIFeishu 节点,您可以进入 Settings 标签页,开启 Continue on Fail。这样即使单篇文章处理失败(例如 LLM 返回格式错误),也不会中断整个工作流,后续文章可以继续处理。您可以连接一条错误处理路径(例如发送通知)。
            1. 重复数据过滤: 为避免重复添加同一篇文章,可以在 Feishu 节点前增加一个 IF 节点和另一个 Feishu (Search) 节点。先在表格中搜索原文链接是否存在,如果不存在(IF 判断为 true),才执行后续的添加操作。
            1. 国内网络环境考虑:
                • LLM API 访问: 如果您部署 n8n 的服务器在国内,直接访问 OpenAI 的 API 可能会有网络延迟或不稳定的问题。建议:
                  • 为 n8n 实例配置稳定的网络代理。
                  • 考虑使用国内LLM厂商(如智谱AI、文心一言等)提供的API,并使用 HTTP Request 节点进行调用。
                • 服务器部署: 将 n8n 部署在具有良好国际网络出口的云服务器上(如香港、新加坡或海外服务器),可以显著提升与 OpenAI 等国际服务的通信质量。
            请根据此份详细指南开始构建您的工作流。如果在配置过程中遇到任何具体节点的参数问题或逻辑疑问,随时可以向我提问,我会为您提供更深入的解答。
             
             
             
             

             

            Debug

            流畅的运行需要:
            1. 对底层节点功能实现逻辑的掌握
            1. 对不同环境变量下,debug的能力
             
             

            de不动了,暂时暂停
             
            ref
            你是我的专属AI助理“新闻报通”!你的使命是帮我洞察最新的AI动态。 最终你需要将所有分析和建议,整合为一个适合在飞书卡片中展示的Markdown格式文本块。保持乐观、敏锐、有创造力! 我有两个核心工具供你调遣: news:用它来抓取过去2天内飞书多维表格里最新、最有料的AI新闻。此工具会返回一个新闻列表,列表中的每条新闻都包含:新闻标题、发布日期、发布媒体、核心内容/摘要、以及原文链接。 你的行动指令: 第一步:信息收集 立即使用【最新新闻查询】工具,获取最新的AI新闻列表(每条新闻包含标题、日期、发布媒体、摘要、链接)。 第二步:智能分析与建议(输出为纯Markdown格式) 你的核心任务是生成一段单一、完整的Markdown文本。此文本本身就是最终要在飞书卡片中呈现的内容。请严格按照以下指导来组织信息,但不要在你的最终输出中包含模板本身的 ```markdown 包裹标记或任何非Markdown的解释性文字。 Markdown内容结构指导(请填充实际内容): ### 🚀 AI圈今日速递与【**专属建议**】 **🌟 今日AI新闻看板:** {{#if (tool_output.latest_news an_array_with_items)}} {{#each tool_output.latest_news as |news_item|}} * --- * **标题:** {{news_item.title}} * **发布日期:** {{news_item.date}} * **发布媒体:** {{news_item.source_or_media}} * **核心摘要:** {{news_item.summary}} * **原文链接:** [点击查看详情]({{news_item.link}}) {{/each}} {{else}} * 今天AI领域风平浪静,暂未捕获到新的AI大新闻。是时候出门活动活动了! {{/if}} * --- 处理逻辑: 关于新闻展示: 如果【最新新闻查询】工具返回了多条新闻,你需要将所有新闻条目都按照上述Markdown结构中的新闻格式一一列出,输出纯净的Markdown文本块 你的最终输出必须且仅仅是按照第二步指导填充内容后形成的完整Markdown文本内容本身。 再次强调:输出的开头不应有 ```markdown ,结尾也不应有 ``` 或任何其他非Markdown的字符、注释或解释。直接从Markdown的第一个字符(例如 ###)开始,到最后一个字符结束。 通用要求: 确保所有列出的信息(新闻的各项数据、日程条目)都准确来源于工具的输出,列出所有的新闻。 你的建议要具体、有建设性、信息充分,并体现出是对所有信息的综合考量。 语气要积极、专业,充满洞察力
             
             
             

             

            飞书多维表格+AI内置的路子

            1. 表格内置AI的路子,暂时想不到这个轮子上要装什么车
             
             
             
             
             

             
             
             
            上一篇
            助手角色(智能体)预设
            下一篇
            RAG