- 绘图模块:支持 Midjourney、Gemini、Flux、DALL-E、GPT-4o、Grok、通义万相等主流图像生成模型
- 视频模块:支持 Sora、即梦、Veo、Grok Video 等视频生成模型,异步轮询生成,支持视频预览和下载
- 对话模块:支持多助手管理、流式输出、对话分叉、智能压缩、消息重放
![]() |
![]() |
![]() |
- 绘图+对话双核心:不只是聊天工具,更是完整的 AI 创作工作台
- 轻量部署:SQLite 数据库,无需 Redis/PostgreSQL,3 条命令即可运行
- 自由配置:支持接入任意 API 中转站,一个上游可配置多个模型
- 隐私优先:图片本地存储,内置防窥屏功能,公共场合也能安心使用
| 模型 | 请求格式 | 文生图 | 垫图 | V/U 操作 |
|---|---|---|---|---|
| Midjourney | MJ-Proxy | ✅ | ✅ | ✅ |
| Gemini | Gemini API | ✅ | ✅ | - |
| Flux | DALL-E API | ✅ | ✅ | - |
| DALL-E | DALL-E API | ✅ | ❌ | - |
| 豆包 | DALL-E API | ✅ | ✅ | - |
| GPT-4o Image | OpenAI Chat | ✅ | ✅ | - |
| Grok Image | OpenAI Chat | ✅ | ✅ | - |
| 通义万相 | OpenAI Chat | ✅ | ✅ | - |
- 实时进度:炫彩进度条 + 预计时间,直观掌握生成进度
- 任务取消:支持中止进行中的任务,节省 API 额度
- 失败重试:一键重试失败任务,无需重新输入
- 回收站:误删任务可恢复,重要作品不丢失
- 批量操作:一键模糊/显示所有图片
| 模型 | 请求格式 | 文生视频 | 图生视频 |
|---|---|---|---|
| 即梦 | Video Unified | ✅ | ✅ |
| Veo | Video Unified | ✅ | ✅ |
| Sora | Video Unified / OpenAI Video | ✅ | ✅ |
| Grok Video | Video Unified | ✅ | ✅ |
- 视频预览:内置播放器,支持全屏播放
- 视频下载:一键下载生成的视频文件
- 参数配置:支持宽高比、时长、提示词增强等设置
- 多助手管理:创建不同角色的 AI 助手,各自独立的系统提示词和模型配置
- 流式输出:实时显示 AI 回复,支持中途停止
- 多端同步:基于全局事件系统,同一用户的多个浏览器标签页/设备实时同步对话状态
- 对话分叉:从任意消息创建分支,探索不同对话方向而不丢失原有内容
- 消息重放:对任意历史消息重新生成 AI 回复,不满意随时重来
- 智能压缩:长对话自动压缩为摘要,节省 token 的同时保留完整上下文,压缩后的原始消息仍可查看
- 智能标题:根据对话内容自动生成标题
- 嵌入式绘图:AI可在对话中调用绘图组件生成插图,适合创作带插画的故事、教程等内容
- 思考模式:支持 Claude、OpenAI o 系列、Gemini 等模型的原生思考能力,展示 AI 推理过程
- 联网搜索:支持 Claude、OpenAI、Gemini 模型的原生 Web Search,获取实时信息
- 数据导入导出:统一的导入导出系统,支持助手、对话、上游配置的选择性导出和批量导入
- 防窥屏:图片默认模糊显示,点击切换,公共场合使用更安心
- 本地存储:生成的图片保存在本地,不依赖外部链接
- 独立账户:多用户系统,配置和任务完全隔离
# 创建 .env 文件
echo "NUXT_SESSION_PASSWORD=$(openssl rand -hex 16)" > .env
# 可选:配置 NUXT_PUBLIC_URL(用于 MCP 协议返回完整资源链接)
# echo "NUXT_PUBLIC_URL=https://your-domain.com" >> .env
# 创建持久化目录
mkdir -p data/ logs/ uploads/
chown -R 1001:1001 data/ logs/ uploads/
# 启动服务
docker-compose up -d环境要求:Node.js 20+、pnpm
echo "NUXT_SESSION_PASSWORD=$(openssl rand -hex 16)" > .env
# 可选:echo "NUXT_PUBLIC_URL=https://your-domain.com" >> .env
pnpm install && pnpm dev访问 http://localhost:3000 ,注册账户后在「设置」页面添加 API 配置即可开始使用。
上游是指提供 AI 绘图服务的 API 端点,通常是各类中转站服务。
| 字段 | 说明 |
|---|---|
| 名称 | 用户自定义的标识名,如"特价中转站" |
| 请求地址 | API 的基础 URL |
| API 密钥 | 用于鉴权的密钥 |
一个上游可以配置多个模型,每个模型包含:
| 字段 | 说明 |
|---|---|
| 模型类型 | 界面显示的模型名称(Midjourney/Gemini/Flux 等) |
| 请求格式 | API 协议格式(MJ-Proxy/Gemini/DALL-E/OpenAI Chat) |
| 模型名称 | 实际传给上游的模型标识符 |
| 预计时间 | 用于进度条显示 |
为什么需要分开配置?因为同一个模型(如 Flux)在不同中转站可能使用不同的 API 格式和模型名称。这种设计让你可以灵活适配任意服务商。
- 框架:Nuxt 4 + Vue 3
- UI:Nuxt UI 3 (Tailwind CSS)
- 数据库:SQLite + Drizzle ORM
- 认证:JWT + localStorage
完整文档列表见 docs/ 目录。





