🚀 自建ChatGPT服务神器:One API全解析


songquanpeng/one-api
部署

基于 Docker 进行部署
# 使用 SQLite 的部署命令:docker run --name one-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api# 使用 MySQL 的部署命令,在上面的基础上添加 `-e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi"`,请自行修改数据库连接参数,不清楚如何修改请参见下面环境变量一节。# 例如:docker run --name one-api -d --restart always -p 3000:3000 -e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi" -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api

其中,-p 3000:3000 中的第一个 3000 是宿主机的端口,可以根据需要进行修改。数据和日志将会保存在宿主机的 /home/ubuntu/data/one-api 目录,请确保该目录存在且具有写入权限,或者更改为合适的目录。如果启动失败,请添加 --privileged=true,具体参考 #482 。如果上面的镜像无法拉取,可以尝试使用 GitHub 的 Docker 镜像,将上面的 justsong/one-api 替换为 ghcr.io/songquanpeng/one-api 即可。如果你的并发量较大,务必设置 SQL_DSN,详见下面环境变量一节。更新命令:docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower -cRNginx 的参考配置:server{ server_name openai.justsong.cn; # 请根据实际情况修改你的域名 location / { client_max_body_size 64m; proxy_http_version 1.1; proxy_pass http://localhost:3000; # 请根据实际情况修改你的端口 proxy_set_header Host $host; proxy_set_header X-Forwarded-For $remote_addr; proxy_cache_bypass $http_upgrade; proxy_set_header Accept-Encoding gzip; proxy_read_timeout 300s; # GPT-4 需要较长的超时时间,请自行调整 }}

之后使用 Let's Encrypt 的 certbot 配置 HTTPS:# Ubuntu 安装 certbot:sudo snap install --classic certbotsudo ln -s /snap/bin/certbot /usr/bin/certbot#
生成证书 & 修改 Nginx 配置sudo certbot --nginx# 根据指示进行操作# 重启 Nginxsudo service nginx restart

初始账号用户名为 root,密码为 123456。通过宝塔面板进行一键部署

安装宝塔面板9.2.0及以上版本,前往 宝塔面板 官网,选择正式版的脚本下载安装;
安装后登录宝塔面板,在左侧菜单栏中点击 Docker,首次进入会提示安装 Docker 服务,点击立即安装,按提示完成安装;
安装完成后在应用商店中搜索 One-API,点击安装,配置域名等基本信息即可完成安装;
基于 Docker Compose 进行部署
仅启动方式不同,参数设置不变,请参考基于 Docker 部署部分# 目前支持 MySQL 启动,数据存储在 ./data/mysql 文件夹内docker-compose up -d# 查看部署状态docker-compose ps

手动部署

GitHub Releases 下载可执行文件或者从源码编译:git clone https://github.com/songquanpeng/one-api.git# 构建前端cd one-api/web/defaultnpm installnpm run build# 构建后端cd ../..go mod downloadgo build -ldflags "-s -w" -o one-api

运行:chmod u+x one-api./one-api --port 3000 --log-dir ./logs

访问 http://localhost:3000/ 并登录。初始账号用户名为 root,密码为 123456。
更加详细的部署教程参见此处。多机部署

所有服务器 SESSION_SECRET 设置一样的值。
必须设置 SQL_DSN,使用 MySQL 数据库而非 SQLite,所有服务器连接同一个数据库。
所有从服务器必须设置 NODE_TYPE 为 slave,不设置则默认为主服务器。
设置 SYNC_FREQUENCY 后服务器将定期从数据库同步配置,在使用远程数据库的情况下,推荐设置该项并启用 Redis,无论主从。
从服务器可以选择设置 FRONTEND_BASE_URL,以重定向页面请求到主服务器。
从服务器上分别装好 Redis,设置好 REDIS_CONN_STRING,这样可以做到在缓存未过期的情况下数据库零访问,可以减少延迟(Redis 集群或者哨兵模式的支持请参考环境变量说明)。
如果主服务器访问数据库延迟也比较高,则也需要启用 Redis,并设置 SYNC_FREQUENCY,以定期从数据库同步配置。
环境变量的具体使用方法详见此处。宝塔部署教程
详见 #175。如果部署后访问出现空白页面,详见 #97。部署第三方服务配合 One API 使用
欢迎 PR 添加更多示例。ChatGPT Next Web
项目主页:https://github.com/Yidadaa/ChatGPT-Next-Webdocker run --name chat-next-web -d -p 3001:3000 yidadaa/chatgpt-next-web

注意修改端口号,之后在页面上设置接口地址(例如:https://openai.justsong.cn/ )和 API Key 即可。ChatGPT Web
项目主页:https://github.com/Chanzhaoyu/chatgpt-webdocker run --name chatgpt-web -d -p 3002:3002 -e OPENAI_API_BASE_URL=https://openai.justsong.cn -e OPENAI_API_KEY=sk-xxx chenzhaoyu94/chatgpt-web

注意修改端口号、OPENAI_API_BASE_URL 和 OPENAI_API_KEY。QChatGPT - QQ机器人
项目主页:https://github.com/RockChinQ/QChatGPT根据文档完成部署后,在 data/provider.json设置requester.openai-chat-completions.base-url为 One API 实例地址,并填写 API Key 到 keys.openai 组中,设置 model 为要使用的模型名称。运行期间可以通过!model命令查看、切换可用模型。部署到第三方平台
部署到 Sealos

部署到 Zeabur










部署到 Render

配置
系统本身开箱即用。你可以通过设置环境变量或者命令行参数进行配置。等到系统启动后,使用 root 用户登录系统并做进一步的配置。Note:如果你不知道某个配置项的含义,可以临时删掉值以看到进一步的提示文字。使用方法
在渠道页面中添加你的 API Key,之后在令牌页面中新增访问令牌。之后就可以使用你的令牌访问 One API 了,使用方式与 OpenAI API 一致。你需要在各种用到 OpenAI API 的地方设置 API Base 为你的 One API 的部署地址,例如:https://openai.justsong.cn,API Key 则为你在 One API 中生成的令牌。注意,具体的 API Base 的格式取决于你所使用的客户端。例如对于 OpenAI 的官方库:OPENAI_API_KEY="sk-xxxxxx"OPENAI_API_BASE="https://<HOST>:<PORT>/v1"<clipboard-copy aria-label="Copy" class="ClipboardButton btn btn-invisible js-clipboard-copy m-2 p-0 d-flex flex-justify-center flex-items-center" data-copy-feedback="Copied!" data-tooltip-direction="w" value="OPENAI_API_KEY="sk-xxxxxx"OPENAI_API_BASE="https://:/v1"" tabindex="0" role="button" style="box-sizing: border-box; position: relative; font-size: 14px; line-height: 20px; text-wrap-mode: nowrap; vertical-align: middle; cursor: pointer; user-select: none; border: 0px; border-radius: 6px; appearance: none; color: rgb(9, 105, 218); background-color: transparent; box-shadow: none; transition: color 80ms cubic-bezier(0.33, 1, 0.68, 1), background-color, box-shadow, border-color; width: 28px; height: 28px; display: flex !important; justify-content: center !important; align-items: center !important; margin: 8px !important;">

|使用 One API 分发的 key 进行请求| B(One API) B -->|中继请求| C(OpenAI) B -->|中继请求| D(Azure) B -->|中继请求| E(其他 OpenAI API 格式下游渠道) B -->|中继并修改请求体和返回体| F(非 OpenAI API 格式下游渠道)" tabindex="0" style="box-sizing: border-box; position: relative; font-size: 14px; line-height: 20px; text-wrap-mode: nowrap; vertical-align: middle; cursor: pointer; user-select: none; border: 1px solid rgb(209, 217, 224); border-radius: 6px; appearance: none; color: rgb(37, 41, 46); background-color: rgb(246, 248, 250); box-shadow: none; transition: color 80ms cubic-bezier(0.33, 1, 0.68, 1), background-color, box-shadow, border-color; display: inline-flex !important; margin-top: 8px !important; margin-bottom: 8px !important;">



可以通过在令牌后面添加渠道 ID 的方式指定使用哪一个渠道处理本次请求,例如:Authorization: Bearer ONE_API_KEY-CHANNEL_ID。 注意,需要是管理员用户创建的令牌才能指定渠道 ID。不加的话将会使用负载均衡的方式使用多个渠道。环境变量
One API 支持从 .env 文件中读取环境变量,请参照 .env.example 文件,使用时请将其重命名为 .env。
REDIS_CONN_STRING:设置之后将使用 Redis 作为缓存使用。

例子:REDIS_CONN_STRING=redis://default:redispw@localhost:49153
如果数据库访问延迟很低,没有必要启用 Redis,启用后反而会出现数据滞后的问题。
如果需要使用哨兵或者集群模式:

则需要把该环境变量设置为节点列表,例如:localhost:49153,localhost:49154,localhost:49155。
除此之外还需要设置以下环境变量:

REDIS_PASSWORD:Redis 集群或者哨兵模式下的密码设置。
REDIS_MASTER_NAME:Redis 哨兵模式下主节点的名称。


SESSION_SECRET:设置之后将使用固定的会话密钥,这样系统重新启动后已登录用户的 cookie 将依旧有效。

例子:SESSION_SECRET=random_string
SQL_DSN:设置之后将使用指定数据库而非 SQLite,请使用 MySQL 或 PostgreSQL。

例子:

MySQL:SQL_DSN=root:123456@tcp(localhost:3306)/oneapi
PostgreSQL:SQL_DSN=postgres://postgres:123456@localhost:5432/oneapi(适配中,欢迎反馈)
注意需要提前建立数据库 oneapi,无需手动建表,程序将自动建表。
如果使用本地数据库:部署命令可添加 --network="host" 以使得容器内的程序可以访问到宿主机上的 MySQL。
如果使用云数据库:如果云服务器需要验证身份,需要在连接参数中添加 ?tls=skip-verify。
请根据你的数据库配置修改下列参数(或者保持默认值):

SQL_MAX_IDLE_CONNS:最大空闲连接数,默认为 100。
SQL_MAX_OPEN_CONNS:最大打开连接数,默认为 1000。

如果报错 Error 1040: Too many connections,请适当减小该值。
SQL_CONN_MAX_LIFETIME:连接的最大生命周期,默认为 60,单位分钟。

LOG_SQL_DSN:设置之后将为 logs 表使用独立的数据库,请使用 MySQL 或 PostgreSQL。
FRONTEND_BASE_URL:设置之后将重定向页面请求到指定的地址,仅限从服务器设置。

例子:FRONTEND_BASE_URL=https://openai.justsong.cn
MEMORY_CACHE_ENABLED:启用内存缓存,会导致用户额度的更新存在一定的延迟,可选值为 true 和 false,未设置则默认为 false。

例子:MEMORY_CACHE_ENABLED=true
SYNC_FREQUENCY:在启用缓存的情况下与数据库同步配置的频率,单位为秒,默认为 600 秒。

例子:SYNC_FREQUENCY=60
NODE_TYPE:设置之后将指定节点类型,可选值为 master 和 slave,未设置则默认为 master。

例子:NODE_TYPE=slave
CHANNEL_UPDATE_FREQUENCY:设置之后将定期更新渠道余额,单位为分钟,未设置则不进行更新。

例子:CHANNEL_UPDATE_FREQUENCY=1440
CHANNEL_TEST_FREQUENCY:设置之后将定期检查渠道,单位为分钟,未设置则不进行检查。 +例子:CHANNEL_TEST_FREQUENCY=1440
POLLING_INTERVAL:批量更新渠道余额以及测试可用性时的请求间隔,单位为秒,默认无间隔。

例子:POLLING_INTERVAL=5
BATCH_UPDATE_ENABLED:启用数据库批量更新聚合,会导致用户额度的更新存在一定的延迟可选值为 true 和 false,未设置则默认为 false。

例子:BATCH_UPDATE_ENABLED=true
如果你遇到了数据库连接数过多的问题,可以尝试启用该选项。
BATCH_UPDATE_INTERVAL=5:批量更新聚合的时间间隔,单位为秒,默认为 5。

例子:BATCH_UPDATE_INTERVAL=5
请求频率限制:

GLOBAL_API_RATE_LIMIT:全局 API 速率限制(除中继请求外),单 ip 三分钟内的最大请求数,默认为 180。
GLOBAL_WEB_RATE_LIMIT:全局 Web 速率限制,单 ip 三分钟内的最大请求数,默认为 60。
编码器缓存设置:

TIKTOKEN_CACHE_DIR:默认程序启动时会联网下载一些通用的词元的编码,如:gpt-3.5-turbo,在一些网络环境不稳定,或者离线情况,可能会导致启动有问题,可以配置此目录缓存数据,可迁移到离线环境。
DATA_GYM_CACHE_DIR:目前该配置作用与 TIKTOKEN_CACHE_DIR 一致,但是优先级没有它高。
RELAY_TIMEOUT:中继超时设置,单位为秒,默认不设置超时时间。
RELAY_PROXY:设置后使用该代理来请求 API。
USER_CONTENT_REQUEST_TIMEOUT:用户上传内容下载超时时间,单位为秒。
USER_CONTENT_REQUEST_PROXY:设置后使用该代理来请求用户上传的内容,例如图片。
SQLITE_BUSY_TIMEOUT:SQLite 锁等待超时设置,单位为毫秒,默认 3000。
GEMINI_SAFETY_SETTING:Gemini 的安全设置,默认 BLOCK_NONE。
GEMINI_VERSION:One API 所使用的 Gemini 版本,默认为 v1。
THEME:系统的主题设置,默认为 default,具体可选值参考此处
ENABLE_METRIC:是否根据请求成功率禁用渠道,默认不开启,可选值为 true 和 false。
METRIC_QUEUE_SIZE:请求成功率统计队列大小,默认为 10。
METRIC_SUCCESS_RATE_THRESHOLD:请求成功率阈值,默认为 0.8。
INITIAL_ROOT_TOKEN:如果设置了该值,则在系统首次启动时会自动创建一个值为该环境变量值的 root 用户令牌。
INITIAL_ROOT_ACCESS_TOKEN:如果设置了该值,则在系统首次启动时会自动创建一个值为该环境变量的 root 用户创建系统管理令牌。
ENFORCE_INCLUDE_USAGE:是否强制在 stream 模型下返回 usage,默认不开启,可选值为 true 和 false。
TEST_PROMPT:测试模型时的用户 prompt,默认为 Print your model name exactly and do not output without any other text.。
命令行参数

--port <port_number>: 指定服务器监听的端口号,默认为 3000。

例子:--port 3000
--log-dir <log_dir>: 指定日志文件夹,如果没有设置,默认保存至工作目录的 logs 文件夹下。

例子:--log-dir ./logs
--version: 打印系统版本号并退出。
--help: 查看命令的使用帮助和参数说明。
演示
在线演示
注意,该演示站不提供对外服务: https://openai.justsong.cn截图展示
常见问题

额度是什么?怎么计算的?One API 的额度计算有问题?

额度 = 分组倍率 * 模型倍率 * (提示 token 数 + 补全 token 数 * 补全倍率)
其中补全倍率对于 GPT3.5 固定为 1.33,GPT4 为 2,与官方保持一致。
如果是非流模式,官方接口会返回消耗的总 token,但是你要注意提示和补全的消耗倍率不一样。
注意,One API 的默认倍率就是官方倍率,是已经调整过的。
账户额度足够为什么提示额度不足?

请检查你的令牌额度是否足够,这个和账户额度是分开的。
令牌额度仅供用户设置最大使用量,用户可自由设置。
提示无可用渠道?

请检查的用户分组和渠道分组设置。
以及渠道的模型设置。
渠道测试报错:invalid character '<' looking for beginning of value

这是因为返回值不是合法的 JSON,而是一个 HTML 页面。
大概率是你的部署站的 IP 或代理的节点被 CloudFlare 封禁了。
ChatGPT Next Web 报错:Failed to fetch

部署的时候不要设置 BASE_URL。
检查你的接口地址和 API Key 有没有填对。
检查是否启用了 HTTPS,浏览器会拦截 HTTPS 域名下的 HTTP 请求。
报错:当前分组负载已饱和,请稍后再试

上游渠道 429 了。
升级之后我的数据会丢失吗?

如果使用 MySQL,不会。
如果使用 SQLite,需要按照我所给的部署命令挂载 volume 持久化 one-api.db 数据库文件,否则容器重启后数据会丢失。
升级之前数据库需要做变更吗?

一般情况下不需要,系统将在初始化的时候自动调整。
如果需要的话,我会在更新日志中说明,并给出脚本。
手动修改数据库后报错:数据库一致性已被破坏,请联系管理员?

这是检测到 ability 表里有些记录的渠道 id 是不存在的,这大概率是因为你删了 channel 表里的记录但是没有同步在 ability 表里清理无效的渠道。
对于每一个渠道,其所支持的模型都需要有一个专门的 ability 表的记录,表示该渠道支持该模型。

相关项目

FastGPT: 基于 LLM 大语言模型的知识库问答系统
ChatGPT Next Web: 一键拥有你自己的跨平台 ChatGPT 应用
VChart: 不只是开箱即用的多端图表库,更是生动灵活的数据故事讲述者。
VMind: 不仅自动,还很智能。开源智能可视化解决方案。
CherryStudio: 全平台支持的AI客户端, 多服务商集成管理、本地知识库支持。
注意
本项目使用 MIT 协议进行开源,在此基础上,必须在页面底部保留署名以及指向本项目的链接。如果不想保留署名,必须首先获得授权。同样适用于基于本项目的二开项目。依据 MIT 协议,使用者需自行承担使用本项目的风险与责任,本开源项目开发者与此无关。


分类