项目简介
Prompt Optimizer是一个强劲的AI提示词优化工具,协助你编写更好的AI提示词,提升AI输出质量。支持Web应用和Chrome插件两种使用方式。
功能演示
✨ 核心特性
- 智能优化:一键优化提示词,支持多轮迭代改善,提升AI回复准确度
- 对比测试:支持原始提示词和优化后提示词的实时对比,直观展示优化效果
- 多模型集成:支持OpenAI、Gemini、DeepSeek等主流AI模型,满足不同需求
- 安全架构:纯客户端处理,数据直接与AI服务商交互,不经过中间服务器
- 隐私保护:本地加密存储历史记录和API密钥,确保数据安全
- 多端支持:同时提供Web应用和Chrome插件两种使用方式
- 用户体验:简洁直观的界面设计,响应式布局和流畅交互动效果
- 跨域支持:Vercel部署时支持使用Edge Runtime代理解决跨域问题(可能会触发部分厂商风控)
快速开始
1. 使用在线版本(推荐)
- 直接访问:https://prompt.always200.com
- 或者一键部署
2. 安装Chrome插件
- 从Chrome商店安装(由于审批较慢,可能不是最新的):Chrome商店地址 https://chromewebstore.google.com/detail/prompt-optimizer/cakkkhboolfnadechdlgdcnjammejlna
- 点击图标即可打开提示词优化器
3. Docker部署
# 运行容器(默认配置)
docker run -d -p 80:80 --restart unless-stopped --name prompt-optimizer linshen/prompt-optimizer
# 运行容器(配置API密钥)
docker run -d -p 80:80
-e VITE_OPENAI_API_KEY=your_key
--restart unless-stopped
--name prompt-optimizer
linshen/prompt-optimizer
4. Docker Compose部署
# 1. 克隆仓库
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
# 2. 可选:创建.env文件配置API密钥
cat > .env << EOF
VITE_OPENAI_API_KEY=your_openai_api_key
VITE_GEMINI_API_KEY=your_gemini_api_key
VITE_DEEPSEEK_API_KEY=your_deepseek_api_key
EOF
# 3. 启动服务
docker compose up -d
# 4. 查看日志
docker compose logs -f
你还可以直接编辑docker-compose.yml文件,自定义配置:
services:
prompt-optimizer:
image: linshen/prompt-optimizer:latest
container_name: prompt-optimizer
restart: unless-stopped
ports:
- "8081:80" # 修改端口映射
environment:
- VITE_OPENAI_API_KEY=your_key_here # 直接在配置中设置密钥
⚙️ API密钥配置
方式一:通过界面配置(推荐)
- 点击界面右上角的”⚙️设置”按钮
- 选择”模型管理”选项卡
- 点击需要配置的模型(如OpenAI、Gemini、DeepSeek等)
- 在弹出的配置框中输入对应的API密钥
- 点击”保存”即可
支持的模型:
- OpenAI (gpt-3.5-turbo, gpt-4)
- Gemini (gemini-2.0-flash)
- DeepSeek (DeepSeek-V3)
- 自定义API(OpenAI兼容接口)
方式二:通过环境变量配置
Docker部署时通过 -e 参数配置环境变量:
-e VITE_OPENAI_API_KEY=your_key
-e VITE_GEMINI_API_KEY=your_key
-e VITE_DEEPSEEK_API_KEY=your_key
-e VITE_SILICONFLOW_API_KEY=your_key
-e VITE_CUSTOM_API_KEY=your_custom_api_key
-e VITE_CUSTOM_API_BASE_URL=your_custom_api_base_url
-e VITE_CUSTOM_API_MODEL=your_custom_model_name
解释说明
可变 |
值 |
说明 |
VITE_OPENAI_API_KEY |
your_key |
用于 OpenAI API 的密钥,确保应用能够访问 OpenAI 服务。 |
VITE_GEMINI_API_KEY |
your_key |
用于 Gemini API 的密钥,确保应用能够访问 Gemini 服务。 |
VITE_DEEPSEEK_API_KEY |
your_key |
用于 DeepSeek API 的密钥,确保应用能够访问 DeepSeek 服务。 |
VITE_SILICONFLOW_API_KEY |
your_key |
用于 SiliconFlow API 的密钥,确保应用能够访问相关服务。 |
VITE_CUSTOM_API_KEY |
your_custom_api_key |
自定义 API 的密钥,用于访问兼容 OpenAI 的自定义接口。 |
VITE_CUSTOM_API_BASE_URL |
your_custom_api_base_url |
自定义 API 的基础 URL,指定自定义 API 的访问地址。 |
VITE_CUSTOM_API_MODEL |
your_custom_model_name |
自定义模型的名称,用于在调用自定义 API 时指定使用的模型。 |
本地开发
# 1. 克隆项目
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
# 2. 安装依赖
pnpm install
# 3. 启动开发服务
pnpm dev # 主开发命令:构建core/ui并运行web应用
pnpm dev:web # 仅运行web应用
pnpm dev:fresh # 完整重置并重新启动开发环境
常见问题
API连接问题
Q1: 为什么配置好API密钥后依旧无法连接到模型服务?
A: 大多数连接失败是由跨域问题(CORS)导致的。由于本项目是纯前端应用,浏览器出于安全思考会阻止直接访问不同源的API服务。模型服务如未正确配置CORS策略,会拒绝来自浏览器的直接请求。
Q2: 如何解决本地Ollama的连接问题?
A: Ollama完全支持OpenAI标准接口,只需配置正确的跨域策略:
- 设置环境变量 OLLAMA_ORIGINS=* 允许任意来源的请求
- 如仍有问题,设置 OLLAMA_HOST=0.0.0.0:11434 监听任意IP地址
Q3: 如何解决商业API(如Nvidia的DS API、字节跳动的火山API)的跨域问题?
A: 这些平台一般有严格的跨域限制,推荐以下解决方案:
- 使用Vercel代理(便捷方案)
- 使用在线版本:prompt.always200.com
- 或自行部署到Vercel平台
- 在模型设置中勾选”使用Vercel代理”选项
- 请求流向:浏览器→Vercel→模型服务提供商
- 使用自部署的API中转服务(可靠方案)
- 部署如OneAPI等开源API聚合/代理工具
- 在设置中配置为自定义API端点
- 请求流向:浏览器→中转服务→模型服务提供商
Q4: Vercel代理有什么缺点或风险?
A: 使用Vercel代理可能会触发某些模型服务提供商的风控机制。部分厂商可能会将来自Vercel的请求判定为代理行为,从而限制或拒绝服务。如遇此问题,提议使用自部署的中转服务。
暂无评论内容