Giter Club home page Giter Club logo

one-hub's Introduction

中文 | English

One Hub

本项目是基于one-api二次开发而来的

license release docker docker GoReportCard

请不要和原版混用,因为新增功能,数据库与原版不兼容

为了更加简洁,本项目之后,除了新增供应商时会更新程序自带的模型列表,平常不再更新程序自带的模型列表。

如果发现缺少新模型,请在后台-模型价格-更新价格中更新新增的模型

演示网站

Warning

本项目为个人学习使用,不保证稳定性,且不提供任何技术支持,使用者必须在遵循 OpenAI 的使用条款以及法律法规的情况下使用,不得用于非法用途。
根据《生成式人工智能服务管理暂行办法》的要求,请勿对**地区公众提供一切未经备案的生成式人工智能服务。

功能变化

  • 全新的 UI 界面
  • 新增用户仪表盘
  • 新增管理员分析数据统计界面
  • 重构了中转供应商模块
  • 支持使用Azure Speech模拟TTS功能
  • 渠道可配置单独的 http/socks5 代理
  • 支持动态返回用户模型列表
  • 支持自定义测速模型
  • 日志增加请求耗时
  • 支持和优化非 OpenAI 模型的函数调用(支持的模型可以在 lobe-chat 直接使用)
  • 支持完成倍率自定义
  • 支持完整的分页和排序
  • 支持Telegram bot
  • 支持模型按次收费
  • 支持模型通配符
  • 支持使用配置文件启动程序
  • 支持模型价格更新
  • 支持自动获取供应商模型
  • 支持仅聊天,开启后如果有传入function call参数会跳过该渠道
  • 支持支付

文档

请查看文档

当前支持的供应商

供应商 Chat Embeddings Audio Images 其他
OpenAI -
Azure OpenAI -
Azure Speech - - ⚠️ tts - -
Anthropic - - - -
Gemini - - - -
百度文心 - - -
通义千问 - - -
讯飞星火 - - - -
智谱 - ⚠️ 图片生成 -
腾讯混元 - - - -
百川 - - -
MiniMax - - -
Deepseek - - - -
Moonshot - - - -
Mistral - - -
Groq - - - -
Amazon Bedrock ⚠️ 仅支持 Anthropic 模型 - - - -
零一万物 - - - -
Cloudflare AI - ⚠️ stt ⚠️ 图片生成 -
Midjourney - - - - midjourney-proxy
Cohere - - - -
Stability AI - - - ⚠️ 图片生成 -
Coze - - - -
Ollama - - -
Suno - - - - Suno-API

感谢

感谢以上项目的作者和贡献者

交流群

其他

Star History of MartialBE/one-api

one-hub's People

Contributors

a497625414 avatar baksili avatar c121914yu avatar chunzhimoe avatar ckt1031 avatar dependabot[bot] avatar dirname avatar glzjin avatar igophper avatar imsingee avatar k8scat avatar kalicyh avatar maricohan avatar martialbe avatar michaelyuhe avatar miniers avatar moondie avatar mrhaoji avatar quzard avatar redreamality avatar shinchven avatar shiqimei avatar simulacraliasing avatar songquanpeng avatar techotaku avatar woodchen-ink avatar xyfacai avatar yangfan-sys avatar yomikio avatar zerodeng01 avatar

Stargazers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

Watchers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

one-hub's Issues

是否能提供arm64位的docker镜像?

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,已确定现有版本无法满足需求
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

尝试使用fork了的版本采用github actions编译,但是每次actions push都会遇到403 forbidden

glm-4-vision网络错误

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
glm4-vision vqa后端报告出现网络错误。 Gemini-pro-vision可以正常使用
GLM4-Vision
image
gemini-pro-vision
image

复现步骤

预期结果

相关截图
如果没有的话,请删除此节。

更新后仍然遇到问题

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
接入平台是one-api的,直接访问及调用都可以。
以下是点击测试时的报错:
错误:Post "https://openapi.useropen.cloud/v1/chat/completions": malformed HTTP response "\x00\x00\x12\x04\x00\x00\x00\x00\x00\x00\x03\x00\x00\x00\x80\x00\x04\x00\x01\x00\x00\x00\x05\x00\xff\xff\xff\x00\x00\x04\b\x00\x00\x00\x00\x00\x7f\xff\x00\x00\x00\x00\b\a\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x01"

以下是对话时报的错误:
{
"error": {
"code": "http_request_failed",
"message": "Post "https://openapi.useropen.cloud/v1/chat/completions\": malformed HTTP response "\x00\x00\x12\x04\x00\x00\x00\x00\x00\x00\x03\x00\x00\x00\x80\x00\x04\x00\x01\x00\x00\x00\x05\x00\xff\xff\xff\x00\x00\x04\b\x00\x00\x00\x00\x00\x7f\xff\x00\x00\x00\x00\b\a\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x01" (request id: 20240107110956560574366zmXOkGxs)",
"type": "one_api_error"
}
}
复现步骤
使用的对话模型是3.5
使用的是自定义的one-api渠道
预期结果

相关截图
微信截图_20240107110905
微信截图_20240107111601
微信截图_20240107111723

请求功能

一直想实现一个功能

就是当用户请求失败的时候,能否把docker里的那种失败日志显示到日志处,最好能显示请求的url,请求信息,请求方式等完整信息。

image

因为之前有朋友用,调用一直失败,我每次都要从docker日志里翻好久才能找到对应的报错信息,然后去排查,甚至还找不到原因。最后是通过cloudflare gateway的日志查到具体的原因的。

我的实力不济,想不到实现方法,不知道作者有没有想法 😁

直接使用智谱渠道大模型chatglm_turbo有问题

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
使用fastgpt 进行对接,如直接使用智谱渠道的chatglm_turbo模型,fastgpt提示:1214 history参数非法,

使用songquanpeng/one-api版oneapi则正常/使用三方代理渠道调用chatglm_turbo则正常

复现步骤

预期结果

相关截图
image

embedding 接口好像有问题

image

[ERR] 2024/01/09 - 04:44:02 | 202401090444011098615121dqEj648 | relay error (channel #195): json: cannot unmarshal string into Go struct field Embedding.data.embedding of type []float64 

原先使用原作者的好像没有这个问题

请问已经部署好的系统怎么和你保持同步更新呢?

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述

复现步骤

预期结果

相关截图
如果没有的话,请删除此节。

国内模型messages.role.system的支持

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
大部分国内模型messages.role都已经支持system, 只有少数不支持, 看代码部分渠道都做了角色转换, 希望恢复system角色支持.

支持的渠道: 百度文心, 智普AI V4版, 腾讯混元, 讯飞星火v3.5

相关截图
image

优化 Provider代码

当前,Provider的代码主要基于上游项目进行编写,这导致了以下几个问题:

  • 代码冗余:许多函数的功能基本相同,只是传入类型不同,这导致了大量的代码冗余。
  • 扩展性不足:在设计Provider时,未充分考虑到后期的扩展需求,现在在进行兼容性处理和新增功能时面临困难。

为解决这些问题,我们需要对client调用方法以及api类型进一步封装,支持统一的stream方法,并完善输入输出的结构。这样做不仅可以简化代码,提高代码的可读性和可维护性,还可以为后期可能需要支持的cache等功能预留扩展空间。

panic detected: runtime error: invalid memory address or nil pointer dereference

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
会报错
复现步骤
暂时未知如何复现,以下为报错日志
预期结果

相关截图
[SYS] 2024/03/13 - 11:00:14 | panic detected: runtime error: invalid memory address or nil pointer dereference
[SYS] 2024/03/13 - 11:00:14 | stacktrace from panic: goroutine 344 [running]:
runtime/debug.Stack()
/usr/local/go/src/runtime/debug/stack.go:24 +0x5e
one-api/router.SetRelayRouter.RelayPanicRecover.func3.1()
/build/middleware/recover.go:17 +0x70
panic({0xfd9fe0?, 0x243e080?})
/usr/local/go/src/runtime/panic.go:770 +0x132
one-api/common.ErrorWrapper({0x0?, 0x0?}, {0x1138c04, 0x16}, 0x1f4)
/build/common/gin.go:37 +0x3a
one-api/providers/minimax.(*MiniMaxProvider).getChatRequest(0xc00091a0e0, 0xc000188038)
/build/providers/minimax/chat.go:65 +0x198
one-api/providers/minimax.(*MiniMaxProvider).CreateChatCompletionStream(0xc00091a0e0, 0xc000188038)
/build/providers/minimax/chat.go:36 +0x45
one-api/controller/relay.(*relayChat).send(0xc000188000)
/build/controller/relay/chat.go:56 +0x8a
one-api/controller/relay.RelayHandler({0x1d8a398, 0xc000188000})
/build/controller/relay/main.go:97 +0xc3
one-api/controller/relay.Relay(0xc0006daa00)
/build/controller/relay/main.go:30 +0xbb
github.com/gin-gonic/gin.(*Context).Next(0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174 +0x2b
one-api/router.SetRelayRouter.Distribute.func5(0xc0006daa00)
/build/middleware/distributor.go:14 +0x59
github.com/gin-gonic/gin.(*Context).Next(0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174 +0x2b
one-api/router.SetRelayRouter.TokenAuth.func4(0xc0006daa00)
/build/middleware/auth.go:123 +0x1af
github.com/gin-gonic/gin.(*Context).Next(0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174 +0x2b
one-api/router.SetRelayRouter.RelayPanicRecover.func3(0xc0006daa98?)
/build/middleware/recover.go:27 +0x45
github.com/gin-gonic/gin.(*Context).Next(0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174 +0x2b
main.main.Sessions.func3(0xc0006daa00)
/go/pkg/mod/github.com/gin-contrib/[email protected]/sessions.go:54 +0x169
github.com/gin-gonic/gin.(*Context).Next(...)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174
github.com/gin-gonic/gin.LoggerWithConfig.func1(0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/logger.go:240 +0xdd
github.com/gin-gonic/gin.(*Context).Next(0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174 +0x2b
main.main.RequestId.func2(0xc0006daa00)
/build/middleware/request-id.go:19 +0x1a7
github.com/gin-gonic/gin.(*Context).Next(...)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174
github.com/gin-gonic/gin.CustomRecoveryWithWriter.func1(0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/recovery.go:102 +0x7a
github.com/gin-gonic/gin.(*Context).Next(...)
/go/pkg/mod/github.com/gin-gonic/[email protected]/context.go:174
github.com/gin-gonic/gin.(*Engine).handleHTTPRequest(0xc00023cd00, 0xc0006daa00)
/go/pkg/mod/github.com/gin-gonic/[email protected]/gin.go:620 +0x66e
github.com/gin-gonic/gin.(*Engine).ServeHTTP(0xc00023cd00, {0x1d82370, 0xc00091a000}, 0xc0008ac000)
/go/pkg/mod/github.com/gin-gonic/[email protected]/gin.go:576 +0x1b2
net/http.serverHandler.ServeHTTP({0x1d7f278?}, {0x1d82370?, 0xc00091a000?}, 0x6?)
/usr/local/go/src/net/http/server.go:3137 +0x8e
net/http.(*conn).serve(0xc000b32000, {0x1d845b0, 0xc00017b8f0})
/usr/local/go/src/net/http/server.go:2039 +0x5e8
created by net/http.(*Server).Serve in goroutine 1
/usr/local/go/src/net/http/server.go:3285 +0x4b4
如果没有的话,请删除此节。

咨询下 azure 的问题

azure 的渠道目前调用的时候,之前有个逻辑,是把后四位数字删掉,但我现在用好像没删,是取消这个函数了吗?

我 openai 的账号被改预付费了😭

image
比如我部署的这个,怎么让 gpt-3.5-turbo-0613指向这个gpt-3.5-turbo呢,作者现在是怎么用的?

还是我自己设置模型重定向比较好?

一个想法,集成function call的中间件

网上各种接口杂乱,方式也不统一

感觉后面可能会有开源的中间件管理,支持各种自定义方式,通过中间处理,转换为openai支持的方式

不知道作者有没有这种想法

支持其他模型function调用

许多大型模型都支持函数调用,但目前存在一些问题:

  • Stream调用的输出方式与第三方软件不兼容,导致无法读取函数参数,从而导致调用失败。
  • 国产大型模型具有固定的 role,以及固定的role顺序和数量限制,这可能导致即使函数调用成功,由于msg顺序的问题也可能导致失败。

因此,我们需要对 stream 调用进行兼容处理,以符合OpenAI的规范。同时,我们也需要对传入的msg进行检查,以确保它们符合对应模型的msg限制。

渠道批量处理处 能否添加映射关系

如题

因为我想把gpt-3.5-turbo全部映射到0125去

4.0也映射到 4-turbo去

如果可以批量管理,可能会方便一些。

但是又可能会涉及到部分渠道单独设置,不知道怎么弄比较好

不知道作者觉得这个有没有必要呢

请求key的时候,携带渠道id会报错

例行检查

  • [x ] 我已确认目前没有类似 issue
  • [ x] 我已确认我已升级到最新版本
  • [ x] 我已完整查看过项目 README,尤其是常见问题部分
  • [x ] 我理解并愿意跟进此 issue,协助测试和提供反馈
  • [ x] 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
当请求头Key的时,携带渠道id会报错,Bearer sk-xxxx-1,原版one-api是可以的
接口返回

{
	"error": {
		"message": "Panic detected, error: interface conversion: interface {} is string, not int. Please submit a issue here: https://github.com/songquanpeng/one-api",
		"type": "one_api_panic"
	}
}

另外,请求微软openai的gpt-4的时候,回复的信息好像没回复完整,出现断句了,我用原版one-api也会,不知道大佬能否修复下,用的瑞典中部地区,api版本是2023-12-01-preview

ghcr.io/martialbe/one-api这个容器里面的one-api并没有更新成v0.6.1版本

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述

复现步骤

预期结果

相关截图
如果没有的话,请删除此节。

请问默认账号是多少?

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
部署命令如下:
docker run --name one-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data ghcr.io/martialbe/one-api:dev

复现步骤
使用root账号 123456密码无法登录
预期结果

相关截图
image

如果没有的话,请删除此节。

余额好像不显示了

原来是显示的,切换为您的镜像之后不显示余额了,使用的是中转api。songquanpeng/one-api镜像可以显示这个余额
image

Azure Openai无法正常使用

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
Azure请求报错,无法正常使用,我切回原版one-api是可以使用的,用的docker部署

{
  "error": {
    "message": "Panic detected, error: interface conversion: interface {} is string, not int. Please submit a issue here: https://github.com/songquanpeng/one-api",
    "type": "one_api_panic"
  }
}

首页看板增加周、月维度统计

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,已确定现有版本无法满足需求
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

功能描述
首页看板增加周、月维度统计
应用场景
目前仅有当天的数据统计,过了当天无法查看,希望增加周和月维度统计,如果能根据时间周期筛选更好

帮忙支持下claude的cf gateway

image

curl -X POST https://gateway.ai.cloudflare.com/v1/feedd0aaxxxxxxxxxxxx/xxxx/anthropic/messages \
    -H 'x-api-key: XXX' \
    -H "anthropic-version: 2023-06-01" \
    -H 'Content-Type: application/json' \
    -d '{
      "model": "claude-3-opus-20240229",
      "max_tokens": 1024,
      "messages": [
          {"role": "user", "content": "Hello, world"}
      ]
    }'

我想用claude,但是我是香港的机器, 目前是通过部署一个clash, 通过代理去访问的哈哈

我发现cf gateway支持claude了, 可以帮忙添加一下吗? 毕竟用cf gateway不担心封号. 只是估计会失去多模态功能

谢谢大佬😁

模型映射功能失效

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
渠道模型映射功能失效
复现步骤
以千问turbo为例:
image
将qwen-turbo映射到qwen-test
预期结果
调用openai的获取模型列表api,发现返回的仍然是qwen-turbo,并且并没有qwen-test的模型
image

请求支持Mistral API

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,已确定现有版本无法满足需求
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

功能描述
官网: https://mistral.ai/

文档: https://docs.mistral.ai/

目前最新模型: mistral-large-2402

应用场景

自定义渠道无法使用

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
"错误":{
"message": "检测到Panic,错误:运行时错误:无效的内存地址或空指针解引用。"请在这里提交问题:https://github.com/songquanpeng/one-api”,
“类型”:“one_api_panic”


复现步骤
在进行对话时报错
预期结果

倍率设置优化

我想问一下,目前当模型价格变动时,你是怎么调整的😂

我发现好难调整呐,只好拉取你的dev镜像, 构建一个容器从里面复制🤦‍♂️, 感觉方法好蠢的样子

有没有一种办法, 在下图这个位置加一下按钮:

image

这样会不会方便一点

我想在文档站可以获取这个值, 然后作为上面图里这样的表格展示, 有这个接口吗? 或者有其他实现方法不?

我的全是官方倍率,但是想把成本为0的渠道改为免费, 所以就有这个考虑

Azure OpenAI 使用 gpt-3.5-turbo-1106 测速失败

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
渠道中设置测速模型为 gpt-3.5-turbo-1106 或者 gpt-35-turbo-1106 均出现报错
复现步骤

  1. Azure OpenAI 中设置 deployment name 为 gpt-35-turbo-1106
  2. One API 中添加渠道,设置 gpt-3.5-turbo-1106 测速模型
  3. 测速

预期结果
不报错,测速正常

相关截图
CleanShot 2024-02-14 at 19 22 05@2x

CleanShot 2024-02-14 at 19 20 15@2x

生成key时限制渠道使用

例行检查

  • [ x ] 我已确认目前没有类似 issue
  • [ x ] 我已确认我已升级到最新版本
  • [ x ] 我已完整查看过项目 README,已确定现有版本无法满足需求
  • [ x ] 我理解并愿意跟进此 issue,协助测试和提供反馈
  • [ x ] 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

功能描述
当有多个渠道时,我想指定key 只能使用 其中的几个不全部使用

流式输出改成了一段话一段话的输出,阅读体验感下降了

例行检查

  • [] 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述

流式输出改成了一段话一段话的输出,阅读体验感下降了,能不能优化一下,对比下还是老版本的输出方式好用,对阅读友好,在回复速度上明显感觉慢了很多(应该是这种新的输出方式造成了)

复现步骤

预期结果

相关截图

渠道页面提示:错误:Cannot read properties of null (reading 'localeCompare')

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
我是刚从原版的one-api转过来的,数据库那些也直接沿用,用的docker部署
然后进入渠道页面的时候就提示:错误:Cannot read properties of null (reading 'localeCompare')
用的:ghcr.io/martialbe/one-api:dev 镜像

复现步骤
目前每次进入都会提示这个

预期结果

相关截图
如果没有的话,请删除此节。

A small help needed

I wonder how to change the default font family. For example, I want to use Söhne, Helvetica, sans-serif as the new default font. Can you guide me on how to modify it?

无法复制token

例行检查

  • 我已确认目前没有类似 issue
  • 我已确认我已升级到最新版本
  • 我已完整查看过项目 README,尤其是常见问题部分
  • 我理解并愿意跟进此 issue,协助测试和提供反馈
  • 我理解并认可上述内容,并理解项目维护者精力有限,不遵循规则的 issue 可能会被无视或直接关闭

问题描述
复制token报错,无法复制
复现步骤
image

预期结果

相关截图
如果没有的话,请删除此节。

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.