gpt-image-2 skill 的安装与使用
复用 ChatGPT Plus / Pro 订阅,在 OpenClaw 里直接生成和编辑图片,不需要单独的 OpenAI API key,也没有每张图的额外计费。
这个 skill 解决什么问题
如果你已经在付 ChatGPT Plus 或 Pro,又不想再单独申请 OpenAI API key、也不想被每张图按次计费,那 gpt-image-2 就是给你的。
它把 ChatGPT Images 2.0(也就是网页版那个画图能力)直接拉进 OpenClaw 里用。原理是复用你本地已经登录好的 codex CLI 会话,让 agent 通过这条已经认证过的链路去触发 imagegen,画出来的图再从 session rollout 里解码出来落到磁盘。
支持的能力:
- 文生图(text-to-image):纯 prompt 出图
- 图生图 / 编辑(image-to-image):带一张参考图,重画、改风格、调构图
- 多参考合成(multi-reference):
--ref可以重复,多张参考图一起喂给模型 - 风格迁移:把 A 的内容用 B 的风格画出来
这个 skill 来自 agentspace-so/agent-skills,MIT 协议,是社区在维护的开源 skill 之一。
注意:这个 skill 本身不给你画图的能力。它只是把你已经有的 ChatGPT 订阅暴露给 agent 用。没订阅,光装这个 skill 也画不出来。
前置条件
下面几条都得满足。每条后面附了一行检查命令和我自己机器上的真实返回。
1. ChatGPT Plus 或 Pro 订阅
要带 Image 2 / 图像生成权限的那种。Plus 和 Pro 都行,免费版不行。这个没法用命令直接验证,去 chatgpt.com 看一下账户状态就知道。
2. Codex CLI 已安装并已登录
先看本机有没有:
codex --version
codex-cli 0.123.0
如果提示 command not found,用 npm 全局安装:
npm install -g @openai/codex
源码或其他平台二进制可以在 openai/codex 仓库的 Releases 页找到。
装完之后还要登录:
codex login
走一遍浏览器认证。登录的那个 ChatGPT 账号必须和你订阅 Plus/Pro 的那个是同一个。
3. python3 在 PATH 上
脚本里的 extract_image.py 要用 Python 3 解码 base64 图像 payload:
python3 --version
Python 3.12.3
Mac 自带,Linux 上没有的话 apt install python3 就行。
怎么安装这个 skill
社区维护的 skills.sh 提供了一个 npx skills CLI,直接从注册表拉。一条命令就够:
npx skills add agentspace-so/agent-skills -s gpt-image-2 -a openclaw -y
✔ Resolved gpt-image-2@1.2.0 from agentspace-so/agent-skills
✔ Cloning skill files...
↳ writing SKILL.md
↳ writing scripts/gen.sh
↳ writing scripts/extract_image.py
↳ writing gallery/d-ukiyoe.png
✔ Installed to ~/.openclaw/skills/gpt-image-2/
Done. Trigger with: "use gpt-image-2 to ..."
加了 -a openclaw 之后,skill 落在 全局共享目录 ~/.openclaw/skills/gpt-image-2/,所有 agent 都能用,不用纠结指定哪个 agent。后面的验证命令以这个路径为例。
验证安装
1. 看目录结构对不对
ls ~/.openclaw/skills/gpt-image-2/
SKILL.md gallery scripts
三个都在就对了。SKILL.md 是触发指令书,scripts/ 装 gen.sh 和 extract_image.py,gallery/ 是 README 里用到的示例图。
2. 看 SKILL.md 头部
cat ~/.openclaw/skills/gpt-image-2/SKILL.md | head -20
---
name: gpt-image-2
displayName: "🪞 GPT Image 2 — Image Generation via Your ChatGPT Subscription"
description: >
Generate images with GPT Image 2 (ChatGPT Images 2.0) using your existing
ChatGPT Plus or Pro subscription — no separate OpenAI access, no per-image
billing. Supports text-to-image, image-to-image editing, style transfer,
and multi-reference composition via the local Codex CLI. Triggers on
"gpt image 2", "gpt-image-2", "ChatGPT Images 2.0", "image 2", or any
explicit ask to generate or edit an image through the user's ChatGPT plan.
emoji: "🪞"
homepage: https://agentspace.so
license: MIT
---
# 🪞 GPT Image 2 — Image Generation via Your ChatGPT Subscription
[agentspace.so](https://agentspace.so/?utm_source=skills.sh&utm_medium=skill&utm_campaign=gpt-image-2) · [GitHub](https://github.com/agentspace-so/agent-skills/tree/main/gpt-image-2)
如果你看到这一段 frontmatter,说明 skill 文件本身没问题。
怎么触发这个 skill
这是最关键的一节,因为这个 skill 不是看到「画张图」就会自己跳出来,需要你在 prompt 里明确指名要走 GPT Image 2 这条路。
触发关键词(直接照搬 SKILL.md)
按 SKILL.md 的描述,下面这些说法会触发:
Triggers on "gpt image 2", "gpt-image-2", "ChatGPT Images 2.0", "image 2", or any explicit ask to generate or edit an image through the user's ChatGPT plan.
也就是说,prompt 里只要出现 gpt image 2、gpt-image-2、ChatGPT Images 2.0、image 2 中任何一个,或者你明确说「用我的 ChatGPT 订阅画图」,就会命中。
中文 prompt 例子
下面这几种说法实测都会触发,直接 copy 过去改一下主体就能用:
用 gpt-image-2 给我画一只赛博朋克风格的螃蟹
image 2 this:把这张参考图重画成水彩
用 ChatGPT Images 2.0 生成一张 1950 年代浮世绘风格的龙虾
调用 gpt image 2 把附件图转成像素画
什么情况下不会触发
SKILL.md 里写得很清楚:
Do not auto-trigger for a plain "generate an image" request if the user didn't specify this route.
也就是说,光说「帮我画张图」、「生成一张封面」、「来个 logo」是不会走这个 skill 的——agent 会按它自己的默认逻辑挑别的路(HTML mockup、其他模型、截图工作流等等)。要走 GPT Image 2,prompt 里就得带上面那几个触发词之一。
反过来,一旦你点名了 GPT Image 2,agent 也不会偷偷换成 DALL·E、Midjourney 或者 HTML 草图——SKILL.md 的硬约束里写了不许这么干。点名即承诺,路线锁死。