- 当前主要支持图像流的Workflow和Chatbot的App,并且可以相互结合形成多维智能化应用,我们还支持将创建好的App发布到MyShell获取利润。
- 从最简单的来说,就是可以将comfyui的端口,完整包装成一个myshell应用市场中的应用,其可以通过简单的对话交互即可实现使用智能化应用
这里一个简单的例子为你阐述整个状态机的概念
Clay You是一个通过简单对话就能实现图像粘土的风格转绘

- 比如上传一张自拍照,最后就能得到一张有趣的粘土风自拍
State的概念

Clay You 整体对话界面,产品点此跳转

最后它会存在于 MyShell 的应用市场上,供大家进行使用。

- 视频教程主要面向ComfyUI创作者
-
如何将ComfyUI工作流变成月入$1000的AI图像“App”(零代码)| ShellAgent入门教程 · AI Agent Bot手把手搭建教学_哔哩哔哩_bilibili
如何将ComfyUI工作流变成月入$1000的AI图像“App”(零代码)| ShellAgent入门教程 · AI Agent Bot手把手搭建教学_哔哩哔哩_bilibili
如果你对成为一名ShellAgent开发者感兴趣,可以进入官方社群交流:1040417303 我花了7天时间,设计了1个ComfyUI的工作流,并把它封装成了一个人人都可以使用的图片App!你想知道,在这个过程中我做了些什么吗?感谢@ShellAgent运营官 的邀请!希望这期关于Shell Agent的入门教程,可以帮助社区里更多开发者接触到这个有趣的新平台!, 视频播放量 94148、弹幕量 134、点赞数 2658、投硬币枚数 1112、收藏人数 5759、转发人数 601, 视频作者 Nenly同学, 作者简介 不会画画的设计师,兴趣爱好是做一点教程 | (站内只有这一个账号) ( • ̀ω•́ )✧,相关视频:ComfyUI全球爆红,AI绘画进入“工作流时代”?做最好懂的Comfy UI入门教程:Stable Diffusion专业节点式界面新手教学,【秋叶SD整合包V5.0】2025全网最新StableDiffusion保姆级教程+商业实战案例——秋叶零基础入门到精通 AI绘画出图全流程教学实战(附安装包),【B站最全ComFyui教程】ComFyui工作流教程 从零基础入门到精通ComFyui教程 AI绘画商业变现,【全100集】秋叶2025最新版ComfyUI系列教程!0基础到精通 全程干货无废话 StableDiffusion专业节点式界面新手全流程教学!,【全108集】目前B站最全的AI绘画网课SD+ComfyUI+Midjourney保姆级教程,2025最新版!包含所有干货!七天就能从小白到大神!学完直接变现!,[ComfyUI+flux工作流+Lora训练]一致性解决方案,FLUX+Lora模型训练,自行生成一致人物数据集,附训练流程+模型,【Stable Diffusion学习】张雪峰:给所有SD人一个忠告!普通人学Stable Diffusion玩的就是信息差!!,一口气学ComfyUI系列教程(已完结),【精华35分钟】这应该是全网AI Agent讲解得最透彻的教程了,从什么是Agent到创建自己的Agent智能体!一次搞懂!大模型/LLM,离谱!完全不懂编程,我竟然4小时制作出月入$600k的APP,方法居然这么简单?(无代码开发)
第一步:下载与安装
- 首先到MyShell.ai 进行账号注册,推荐使用Google账号

1. 下载并安装ShellAgent
- 将更新后的ShellAgent下载好在本地:
huggingfacemyshell-ai/ShellAgent at main

myshell-ai/ShellAgent at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
- 请下载最新版本 ,项目下载好后,直接点击运行即可,完全一键式运行!

- 如果你不想使用本地Shellagent你可以同样使用我们的云端版ShellAgent利用Workflow板块在线搭建工作流。https://shellagent.myshell.ai/app
- ps:需要在主站登录过之后,才能使用云端Shellagent,即注册登陆过:https://app.myshell.ai/
2. 本地准备:下载安装好ComfyUI
- 找到ComfyUI主页,下载安装好ComfyUI。

3. 启动ComfyUI,安装ShellAgent-Plugin
- 下载或者
git clonehttps://github.com/myshell-ai/ComfyUI-ShellAgent-Plugin 仓库的内容到ComfyUI/custom_nodes/目录下。 - custom_nodes目录下使用
git clonehttps://github.com/myshell-ai/ComfyUI-ShellAgent-Plugin.git命令安装 - 在 ShellAgent-Plugin目录下使用
pip install -r requirements.txt安装依赖

- 用ComfyUI-Manager 搜索 ShellAgent,点击安装

- 重启ComfyUI,开始搭建工作流
4. 启动ComfyUI
- 使用 ComfyUI Widget需要在 ShellAgent 外启动ComfyUI。
- 并将ComfyUI的服务地址复制到 ShellAgent 的 settings 中。


- 我们当前支持远程的ComfyUI服务地址。只要 ShellAgent 的运行环境能访问到该地址,你可以使用任意URL。
- 首先打开shellagent之后设置好这里。请注意,这里在环境中进行复制

- 请在主站这里找到你的MyShell_api key并填入:
MyShell AI | Build, Share, and Own AI APP

MyShell AI | Build, Share, and Own AI APP
Experience next-gen AI girlfriends on MyShell, a decentralized platform revolutionizing digital companionship. Create, customize, and interact with advanced AI partners, while exploring a diverse ecosystem of AI-native apps.



- 一定要注意去填你的Proxy变量,有的人填了网络才正常,有的人不填才是正常。
- 根据大家自己使用的梯子,去填你的代理地址,如下
- 打开代理后,点到windows里网络代理,查看:则你在setting里填写代理地址


第二步:Workflow的创建与导入
- 举个简单的例子——Clay you 工作流
- 在ComfyUI中,将整个workflow指定明确的输入输出,利用ShellAgengt节点确定好一开始的输入端口,只要workflow的使用者愿意,任何节点的任何选项都可以输入,任何有运行结果展示的节点也都可以被当成输出。就需要指定它的输入输出。

- 将左侧的输入端,改为ShellAgent Input Image;右侧的输出端改为ShellAgent Save Images
- 更改后,如下:

- 两者有明显区别,对比如下


- 搭建工作流,指定输入输出端
- 为workflow指定输入输出:
- Input Text:文本
- Input Image:图片
- Input Float:浮点型数字
- Input Integer:整数数字
- Save Image:单张图片
- Save Images:多张图片
- Save Video:视频
目前ShellAgent共有四种输入输出
#### 指定输入





#### 指定输出

1. 将ComfyUI中已经搭建好工作流导出JSON文件,打开ShellAgent
- 回到首页,到App Builder界面,点击 Create 按钮,你将会看到下面的这个界面

- 点击 Create 按钮,你将会看到下面的这个界面

- 从右侧拖拽一个State文件进来,就会创建一个新的State

- 将右侧的ComfyUI的选项拖拽到这个新State上面。

- 点开这个ComfyUI的选项,点击这个编辑按钮

- 此时在后台ComfyUI正常运转的情况下,你就会看到这样的画面

- 点击右上方的import,将刚刚从ComfyUI导出的JSON文件导入进来,可以在这个窗口下执行队列进行跑图测试,测试无误后点击右下角的保存Save按钮

如果你的有需要私有的模型或者lora需要上传,点击左侧展开





1.1 ComfyUI云平台的选择(RunningHub合作伙伴)
- 请一定要使用Runninghub.ai 登录拿到的workflow id
- 请一定要使用Runninghub.ai 登录拿到的workflow id
- 当然为了考虑广大Comfy创作者的环境复杂性,我们也扩大了合作伙伴,
- 现在你可以将整个
ComfyUI widget替换为Runinghub Widget了

- 去
runnninghub.ai中调整工作流,将输入输出节点进行替换

- 目前用以下方式可以用RUNNINGHUB输出nsfw内容

- 到shellagent中点开runningHub Widget,你调试好的workflow id 进行填入


- 同时注意你的input变量引入
- 此时可能会由于网络原因会有几秒延迟,input没有及时出现,请耐心等待
第三步:构建App Builder
- 在一切开始之前 你可以稍微拆解一下这个对话机器人的交互逻辑
- 当然如果不拆解直接往下走也是可以的
以Clay you这个APP为例,这是整个机器人交互的对话逻辑

1. 引导页制作
- 找到你的intro,点击之后将选项中的text部分,打开书写自己的整体应用的介绍,再点开下方的Image模块上传自己制作的引导页,这个会作为打招呼语,出现在所有人点进来的第一时间。
- 所以它承担的角色就是让别人一眼就知道你这个 Agent 应该怎么使用

- 这个部分最后就会在应用被打开的第一时间发送给使用者,介绍该应用的使用方法。所以他应该具有一定吸引力。他的效果如下
效果展示:
- 这个需要我们的开发者自己做一个引导页进行补充与介绍哦~
- 一个引导页来说明 Bot 本身是如何使用的以及说明效果如何,具体如下:
- 注意这张引导图比例最好是:1:1 或者 2:3 或者 3:2

2. 模块一:GPT搭建 (这里我们利用GPT进行图像反推)
- 请坚持看完,理解这个State的概念
- 然后在下方添加一个Button,点击add,把他重新命名,尽量明确,避免用户混淆作用


- 将刚刚放好的State放在一边,开始一个新的交互对话模式,拉出一个新的State出来,然后我们在这个State里我们去做gpt的设计内容

- 那我们就把Gpt拉进来给这个State

- 这个时候我们拉出一个Form表单,用来填充内容,输入内容

- 点击这个Form,把你需要输入的内容增加到这个Form中。注意你需要选择你的数据类型
- 在这个例子中我们需要输入图片让gpt反推,所以我们选择image

- 从这个Intro里的Button点拉到Form中

- 再将Form连接到刚刚有GPT的State当中

- 点开gpt的State,在input这里新建input内容

- 注意保持跟前面form表达数据类型一致

- 这里点开Form中间连接的这跟线

- 点击这里的Target input旁边的小窗格,改成refmode

- 把这个确保这个变量引用上去

- 我们点击GPT这个窗格你会看到关于GPT非常详细的设置

- 这里只需要注意上方的四个变量

- 这里的变量分别解释为
- System_prompt:代表你需要设定的这个gpt的预设人格。此刻这个gpt应该发挥什么作用-
- User_prompt:是代表的是每次对话都需要输入给gpt的内容,你如果需要建立一个输入端,并选择Ref mode 里的input



- 在这个例子里我们需要上传图片,把这个类型选成ref mode
- 变量选择成我们前面的input image选择上去


- 然后在
System_prompt这里写上: “你是一个专业的Prompt工程师,我需要你详细描述图片里的内容并把他转换成粘土风格的提示词,优化语法,并且翻译成英文给我。”

- 你在这里output这里add一个变量,将gpt的内容输出出来

- 将这里的变量选出来

- 在拉出来一个Form节点,在form中新建一个output,将gpt的那个state的输出变量选中


3.模块二:ComfyUI State搭建
- 将第二个Form链接上ComfyUI的State,并在Comfyui的State里面新建Input

- input变量这里同样add内容,选择好你的变量类型
- 我这里因为是要接受gpt反推的结果文生图,所以我选择text模式

- 点开齿轮,在value处将变量选择为form中的gpt内容

- 最后点击你的ComfyUI Widget部分,确保你的变量有引用到
- 我这里是文生图所以是引用text


- 最后输出,注意在下方的Message中,最后你需要输出结果。将结果渲染出来。保留出最后workflow会输出的内容。这里我们以image类型为例,需要在这里选择Ref mode将workflow中的输出结果反馈出来


- 将你的Task中的ComfyUI输出结果选上,
- 如果你这里用的是
Runninghub Widget,你会看到的是对应的Runninghub中的out_image

- 此外如果你想要在这个图返回给你时,同时加上一些话,你可以在Text栏位写上,如图
- 其中
<h2>xxxxxx</h2>的写法为HTML语言,即为加粗放大字体 - 输出结果即显示为如下


注意如果此处你需要多图输出,你可以将这里image的Ref mode切换成codemode,然后利用这种方式进行输出,再敲入” / “将你的图片链接嵌入进来。


{{[comfy_ui_widget1.output_image, context__untitled_context_1]}} 
如果你需要的是视频输出,请在下方的Video标签下选择Ref mode并将变量选择


- 最后我添加了一个button,

- 并在这个button连线,末端连线到一开始输入的地方

- 这样就可以做到在交互上不断进行反复交互,如下图

- 这里全部搭接完成后,这个App Builder基本就做完了,我们需要先让他Run一下测试是否还有问题,如果没有报错,并运行完整,可以点击save后点击Export,注意文件名不能可以带+号。

- 最后完美运行,那么恭喜你,我们可以进入到发布阶段!
- 当然你每次制作也可以不用从头开始,我们提供了大量可以复用的模板
- 它们就放在Create按钮旁边,每次你就可以从这些模板上进行调整,更加迅速!
- 我们非常鼓励你使用!

第四步:发布到Myshell
1.创作工坊
- 点开myshell的应用市场首页,选择创作工坊,点击创建机器人,到设置界面,跳转到shellagent


2.上传json
- 将我们刚刚做好的Shellagent的json文件上传上去,并进行保存,返回对话界面进行测试。记得上传后记得点击下方的Deloy ,在线部署环境


- 请注意,如果你使用
Runninghub_widget,整体没有使用ComfyUI_Widget
- 将不需要进行Deploy操作,上传之后,直接保存即可运行 即可

- 如果开局并没有出现任何主动对话,你可以通过下方的,清楚记忆等方式将机器人激活

3.上架市场
- 如果测试完成可以完整运行,此时我们的产品基本已经完成了。点击下方的share按钮,复制链接,发给MyShell的管理员进行产品测试以及发布了.
- 如果你是新开发者,请联系管理员的时候复制上你的钱包地址,在此处找到:
Launchpad | MyShell AI

Launchpad | MyShell AI
Discover MyShell's Launchpad. Earn shell coins, unlock rewards, and enhance your AI experience. Join our loyalty program today!

4.发布bot并丰富画廊
- 当收到了pass通过之后,请到你的bot的设置页面,把公布机器人按钮按开

- 当bot已经通过审核并且发之后请到Chat界面找到自己的bot,多交互几次,将交互得到的图片右键点击Pubblish to gallery,将所有的bot交互得到的图片作为范例放到 Gallery 当中
- 在发布的第一时间也许你还没有具备画廊功能,请隔3个小时后再来查看


第五步:收取Bot收益
- (请重点观看)
- 请一定要阅读:
