Proxify 是一个开源、轻量、可以自己部署的 AI 接口反向代理。
在日常开发 AI 应用过程中,一些项目需要同时接入 OpenAI、Claude,偶尔还要测试一下 DeepSeek 或者 Gemini。
结果就是,代码里管理着一堆不同的 API_BASE_URL
和 API_KEY
,每次切换或者新增服务,都得去改配置文件,还得小心翼翼地处理各种网络问题,尤其是那些“只可意会”的网络限制。
配置一多,代码就显得乱七’八糟,维护起来也心累。我们就在想,有没有一种更优雅的方式?
一些 AI 模型厂商提供的 API 针对流式响应,存在卡顿,不丝滑的情况,比如 Azure OpenAI。
要实现类似打字机的效果,往往需要在应用层(开发者)花费大量的时间精力来做优化,是否有现成的中间层来实现?
找了一圈,市面上有一些大而全的网关,但感觉有点“杀鸡用牛刀”,而且配置复杂,资源占用严重。
于是,我们做了一个决定:将我们自己平台的核心网关模块抽象出来,封装成一个独立的、轻量的开源项目,分享给整个社区。
功能特性
1. 统一化的接口,告别杂乱配置
Proxify 的核心功能就是反向代理。你可以通过一个简单的 JSON 文件,集中管理所有上游 API。
routes.json
配置文件示例:
{
"routes": [
{
"name": "OpenAI",
"path": "/openai",
"target": "https://api.openai.com"
},
{
"name": "Claude",
"path": "/claude",
"target": "https://api.anthropic.com"
}
...
]
}
配置好之后,你的代码调用方式会变得异常清爽:
- 想访问 OpenAI?
baseURL
设为https://proxify.poixe.com/openai/v1
- 想访问 Claude?
baseURL
设为https://proxify.poixe.com/claude/v1
https://proxify.poixe.com
可替换为你部署的 Proxify 程序地址
所有切换逻辑都在 Proxify 的配置里,你的业务代码无需任何改动。更棒的是,这个配置文件支持热加载 ,修改后无需重启服务,立刻生效。
2. 平滑如丝的流式输出
直接转发大模型的 SSE 流,部分 AI 模型厂商体验往往不佳,如 Azure 的成段吐字。我们在 Proxify 中内置了同 Poixe AI 网关的流式平滑输出模块。
它能做什么?
你可以把它想象成一个智能缓冲区。当上游模型突然“爆发”式地吐出一大段文本时,Proxify 会先把它们接住,然后像打字机一样,以平滑、均匀的速度一点点地流式传输给客户端。提升了用户体验。
同时,针对流式输出,内置了心跳保活机制,定时发送心跳,有效防止了因网络空闲导致的连接意外中断。
3. 安全与隐私
代码完全开源,逻辑透明可审计。可自由二次开发、私有化部署,避免供应商锁定。
你可以把它部署在任何你自己的服务器上。所有请求数据只在你的客户端和你的服务器之间流转,不经过任何第三方,彻底杜绝隐私泄露的风险。
部署过程也极其简单,我们提供了 Docker 镜像,只需准备好两个配置文件,一行命令即可启动。整个程序由 Golang 编写,性能高,资源占用低,0.5G 内存的小服务器也能跑起来。
开始使用
1. 确定目标服务
浏览 Proxify 支持的 API 列表,找到您需要使用的服务及其对应的代理前缀。
2. 替换基础 URL
在您的代码中,将原始 API 的基础 URL 替换为 Proxify 的代理地址,并附加上一步中确定的服务前缀。
# 原始地址:
https://api.openai.com/v1/chat/completions
# 替换为:
http://proxify.poixe.com/openai/v1/chat/completions
3. 发送请求
一切准备就绪。使用您原有的 API 密钥和请求参数,像往常一样发起请求即可,无需任何其他更改。
您的 API 密钥、请求头(Header)和请求体(Body)等所有其他部分都保持不变。
4. 代码示例
# cURL example using /openai proxy endpoint
curl https://proxify.poixe.com/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer API_KEY" \
-d '{
"model": "gpt-5",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"}
],
"stream": false
}'
// Node.js example using /openai proxy endpoint
import OpenAI from "openai";
const openai = new OpenAI({
apiKey: "API_KEY",
baseURL: "https://proxify.poixe.com/openai/v1",
});
async function main() {
const completion = await openai.chat.completions.create({
model: "gpt-5",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Hello!" }
],
});
console.log(completion.choices[0].message.content);
}
main();
部署教程
本节仅展示通过 Docker 部署的方式,更多请参考官方 Github 仓库。
1. 准备工作:配置环境与路由
Proxify 项目已经内置了 .env.example
与 routes.json.example
示例文件。 您只需复制并稍作修改,即可快速启动。
2. 开始部署:从 Docker Hub 拉取镜像
在确认 .env
与 routes.json
均配置正确后,执行:
# 1. 从 Docker Hub 拉取最新镜像
docker pull terobox/proxify:latest
# 2. 查看镜像列表
docker images
# 3. 运行容器,并挂载配置文件
docker run -d \
--name proxify \
-p 7777:7777 \
-v $(pwd)/routes.json:/app/routes.json \
-v $(pwd)/.env:/app/.env \
--restart=always \
poixeai/proxify:latest
# 补充:查看日志
docker logs proxify -f
# 补充:停止容器
docker stop proxify
# 补充:删除容器
docker rm proxify
写在最后
欢迎来 GitHub 仓库给我们一个 Star,或者随时提出你的想法和建议!
GitHub 仓库:https://github.com/poixeai/proxify
原创文章,作者:mantou,如若转载,请注明出处:https://v2ez.com/1555.html