更新日志
24-1121更新:
- 新增支持最新的
gpt-4o-2024-11-20
模型,价格和上个版本的24-0806没变化
24-1116更新:
- 改善模型用量统计图表的颜色区分度
- Next站新增一个实时聊天室的技术展示Demo,欢迎来测试体验(就是放出来公测一下实际使用效果如何):
Demo(主站): https://next.ohmygpt.com/tools
Demo(镜像): https://next.aigptx.top/tools
Feature:
- 基于Socket.IO实现了相对可靠的客户端与服务端双向低延迟实时通信
- 此Demo背后没有关系数据库记录消息,纯靠框架emit发送消息
- 可以自行创建房间发起群聊
- 可暂时无限使用内置的AI聊天功能(模型Command R Plus(By Cohere)
24-1111更新:
- APIKey权限控制改版:
为了避免更多用户对于旧Key无法直接调用新模型的疑惑,今天对网站APIKey相关模块进行了一些改进:
- 所有APIKey现在已经新增一个“是否检查权限”的标识
- 现在开始在网页中新建的Key不会再检查模型权限(在网页中创建的APIKey默认会将此标识设置为false)
- 旧的Key可以手动关闭此开关以绕过模型权限检查
- 出于安全考虑,系统中所有旧的APIKey的“是否检查权限”的标识被设置为true,即所有旧的APIKey权限检查仍会启用,无需担心旧Key受此影响
24-1110更新:
- 补充对于
glm-4v-plus
模型的支持,定价详见[1]
[1] https://next.ohmygpt.com/pricing
24-1109更新:
- 新增Gemini系列JSON输出模式支持,相关实现细节见文档[1]
- 新增
gemini-1.5-flash-8b
正式版模型支持,定价详见[2]
[1] https://ohmygpt-docs.apifox.cn/api-123253693
[2] https://next.ohmygpt.com/pricing
24-1108更新:
- 改进Gemini系列模型在OpenAI兼容接口中的消息拼接逻辑
- 完善Claude系列模型OpenAI接口的兼容性,同时完善文档,展示相关实现细节[1]
[1] https://ohmygpt-docs.apifox.cn/api-123253693
24-1107更新:
- 完善Claude系列模型在OpenAI兼容接口的Tools调用兼容性支持
详见:https://ohmygpt-docs.apifox.cn/api-123253693
24-1106更新:
- Bot现已经支持PDF文件聊天
24-1105更新:
支持最新的Claude 3.5 Sonnet,新增如下模型名称:
claude-3-5-haiku
claude-3-5-haiku-latest
claude-3-5-haiku-20241022
新增新版的GLM系列模型支持
glm-4-plus
glm-4-airx
glm-4-air
glm-4-long
glm-4-flashx
glm-4-flash
价格详情查看pricing页面: https://next.ohmygpt.com/pricing
24-1103更新:
- 解决Next站Google/GitHub OAuth认证跳转问题
- 完成新版的账户注册/密码重置逻辑(现在可以用验证码注册/重置账户密码了
附:
Next站主站: https://next.ohmygpt.com
Next站镜像: https://next.aigptx.top
至此新版网站的登录、注册、充值、API管理等功能基本上算是完工了,目前仅使用API的用户可以开始使用Next站了,网站下一步开发方向:
- 向量检索服务与知识库问答服务
- 完成基于对象存储的开放文件系统(用作文件上传相关的用途,同时也可以作为一个小网盘用
- 完成新版网站的Chat功能(包括文件上传、插件系统、代码解释器、流程图、Agent等
- 完成新版网站的图像生成功能
- 完善TgBot,借助Tg平台的能力低成本实现更多有趣实用的功能
- 接入更多API服务提供商以及更多模型
- 开始基于日本公司开展一些业务
24-1101更新:
- 完成Next站用量明细查询功能,现在可以在Next站
/settings/usage
页面查询或导出用量详情
附:
Next站主站: https://next.ohmygpt.com/settings/usage
Next站镜像: https://next.aigptx.top/settings/usage
24-1031更新:
- 完成Next站用量统计功能,现在可以在Next站
/settings/usage
页面查询用量统计图
附:
Next站主站: https://next.ohmygpt.com/settings/usage
Next站镜像: https://next.aigptx.top/settings/usage
24-1026更新:
- 通过OpenAI兼容接口调用Claude系列和Gemini系列模型,现在开始会返回usage相关数据块
- 完善定价展示页面:新增Claude和Gemini等部分模型的详细定价展示,可在Next站
/pricing
页面查看
附:
示例usage数据块:
{
"id": "chatcmpl-hMOdfnoaXtcpCZwRJISUAzPtsfZKs",
"object": "chat.completion.chunk",
"created": 1729944958,
"model": "claude-3-5-sonnet",
"choices": [],
"usage": {
"prompt_tokens": 11,
"completion_tokens": 8,
"total_tokens": 19,
"prompt_tokens_details": {
"cached_tokens": 0
},
"completion_tokens_details": {
"reasoning_tokens": 0
}
}
}
24-1024更新:
完善定价页面:新增OpenAI和01AI等部分模型的详细定价展示,可在Next站
/pricing
页面查看Flux API已不再免费,详情查看定价页面
1024程序员节快乐(写这条更新日志时才发现今天是1024
24-1023更新:
- 新增支持Anthropic最新的
claude-3-5-sonnet-20241022
24-1022更新:
- 新增支持牢马家X-AI的Grok系列模型,倍率1.1:
grok-beta
- 新增支持TA的Qwen2.5 7B/72B 模型
- 自家开发的Telegram Bot[测试版]已经上线:@getfunbot ,目前积极开发新功能中,文档链接:https://ohmygpt-docs.apifox.cn/doc-5319532
附:
# Grok 原始定价笔记
## grok-beta
PromptTokens:
$5.00
CompletionTokens:
$15.00
input:
$5 / 1M tokens
1 tk = (5 * 250000)/1000000 = 1.25 coins
output:
$15 / 1M tokens
1 tk = (15 * 250000)/1000000 = 3.75 coins
24-1018更新:
新增支持最新的
gpt-4o-audio-preview
系列模型,但是由于技术原因,暂时仅支支持该模型的非流调用,需要实时语音交互的用户请使用本站的/v1/realtime
实时WebSocket端点自助开票系统更新,现在用户可以自助申请发起大陆公对公转账充值了(也是最低1元起开
系统说明文档: https://ohmygpt-docs.apifox.cn/doc-5305167
附:
# gpt-4o-audio-preview系列原始定价核算笔记
gpt-4o-audio-preview
gpt-4o-audio-preview-2024-10-01
定价分析:
Text
$2.50 / 1M tokens
$10.00 / 1M tokens
Audio***
$100.00 / 1M tokens
$200.00 / 1M tokens
====TEXT====
input:
$2.5 / 1M tokens
1 tk = (2.5 * 250000)/1000000 = 0.625 coins
output:
$10 / 1M tokens
1 tk = (10 * 250000)/1000000 = 2.5 coins
====TEXT====
====Audio====
input:
$100 / 1M tokens
1 tk = (100 * 250000)/1000000 = 25 coins
output:
$200 / 1M tokens
1 tk = (200 * 250000)/1000000 = 50 coins
====Audio====
24-1017更新:
- 新上线自助开票系统,现在用户可以自助申请和开具alipay/alipayEnterprise/CNB2B(大陆公对公转账)的订单的发票了,最低1元起开
系统地址: https://ivs.dogenet.cn/
系统说明文档: https://ohmygpt-docs.apifox.cn/doc-5305167
24-1016更新:
新增支持01万物系列大模型:
yi-lightning
yi-large
yi-medium
yi-vision
yi-medium-200k
yi-spark
yi-large-rag
yi-large-fc
yi-large-turbo
倍率:1(原价转发)
附:
# yi模型 原始定价计算笔记
## yi-lightning
Pricing:
¥0.99 /1M tokens
1 tk = (0.99 * 34000)/1000000 = 0.03366 coins
## yi-large
Pricing:
¥20 /1M tokens
1 tk = (20 * 34000)/1000000 = 0.68 coins
## yi-medium
Pricing:
¥2.5 /1M tokens
1 tk = (2.5 * 34000)/1000000 = 0.085 coins
## yi-vision
Pricing:
¥6 /1M tokens
1 tk = (6 * 34000)/1000000 = 0.204 coins
## yi-medium-200k
Pricing:
¥12 /1M tokens
1 tk = (12 * 34000)/1000000 = 0.408 coins
## yi-spark
Pricing:
¥1 /1M tokens
1 tk = (1 * 34000)/1000000 = 0.034 coins
## yi-large-rag
Pricing:
¥25 /1M tokens
1 tk = (25 * 34000)/1000000 = 0.85 coins
## yi-large-fc
Pricing:
¥20 /1M tokens
1 tk = (20 * 34000)/1000000 = 0.68 coins
## yi-large-turbo
Pricing:
¥12 /1M tokens
1 tk = (12 * 34000)/1000000 = 0.408 coins
注:这里计算时按照¥1=34000 coins
24-1011更新:
新增针对亚太地区优化的CDN镜像:
- 镜像站1: https://www.aigptx.top
- 镜像站2: https://x.dogenet.win
- 新版网站镜像1: https://next.aigptx.top
- 纯API反代镜像:
https://c-z0-api-01.hash070.com/v1
(实测亚太地区访问速度一级棒,部分地区用户非常推荐)
24-1005更新:
新增支持OpenAI最新的Realtime Endpoint以及4o-realtime预览版模型,现在可以和AI低延迟地实时通话了
网页版已经上线开箱即用的聊天功能,现在就可在新版网页上体验:https://next.ohmygpt.com/chat 或 https://next.aigptx.top/chat
新增支持的模型名称:
- gpt-4o-realtime-preview-2024-10-01
附:
文档:https://ohmygpt-docs.apifox.cn/websocket-3563866
# 4o-realtime 原始定价核算笔记
- gpt-4o-realtime-preview-2024-10-01
====TEXT====
input:
$5 / 1M tokens
1 tk = (5 * 250000)/1000000 = 1.25 coins
output:
$20 / 1M tokens
1 tk = (20 * 250000)/1000000 = 5 coins
====TEXT====
====Audio====
input:
$100 / 1M tokens
1 tk = (100 * 250000)/1000000 = 25 coins
output:
$200 / 1M tokens
1 tk = (200 * 250000)/1000000 = 50 coins
====Audio====
24-0913更新
新增支持OpenAI最新的o1和o1 mini系列模型,目前并发配额非常低仅适合个人尝鲜使用(已支持API stream调用兼容大多数应用(将非stream响应结果转换成stream结果)),暂时不适用于产品上线生产使用,也不适用于沉浸式翻译
现已支持大陆公对公转账和大陆电子发票开具,有需要的现在就可通过邮件或者tg直接私聊群主处理
附:
新增支持的模型名称:
- o1-preview
- o1-preview-2024-09-12
- o1-mini
- o1-mini-2024-09-12
# o1系列原始定价核算
o1-preview | o1-preview-2024-09-12
$15.00 / 1M input tokens
$60.00 / 1M output tokens
input:
$15 / 1M tokens
1 tk = (15 * 250000)/1000000 = 3.75 coins
output:
$60 / 1M tokens
1 tk = (60 * 250000)/1000000 = 15 coins
----
o1-mini | o1-mini-2024-09-12
$3.00 / 1M input tokens
$12.00 / 1M output tokens
input:
$3 / 1M tokens
1 tk = (3 * 250000)/1000000 = 0.75 coins
output:
$12 / 1M tokens
1 tk = (12 * 250000)/1000000 = 3 coins
====
OpenAI o1-preview
o1-preview is our new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
Learn about o1-preview
Model
Pricing
o1-preview
$15.00 / 1M input tokens
$60.00 / 1M output tokens
o1-preview-2024-09-12
$15.00 / 1M input tokens
$60.00 / 1M output tokens
OpenAI o1-mini
o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
Learn about o1-mini
Model
Pricing
o1-mini
$3.00 / 1M input tokens
$12.00 / 1M output tokens
o1-mini-2024-09-12
$3.00 / 1M input tokens
$12.00 / 1M output tokens
0828更新:
- 新增支持近期上榜的
gemini-1.5-pro-exp-0827
和gemini-1.5-flash-exp-0827
(定价分别对应1.5 pro和1.5 flash) - 0825已新增支持Flux系列图像生成API 文档:https://ohmygpt-docs.apifox.cn/api-208347493
24-0819更新
- 跟进下调gemini 1.5 flash费用计算公式
- 新增支持
gemini-1.5-pro-exp-0801
- Gemini API服务提供商从谷歌云Vertex AI平台迁移到Google AI平台,Gemini相关模型并发量大幅提升
- 关闭Gemini API内置审核
附:
# gemini 1.5 pro 原始定价计算笔记
----
Input price (per 1M tokens)
$3.50 for <= 128K tokens
$7.00 for > 128K tokens
----
input: for <= 128K tokens:
$3.50 /1M tokens
1 tk = (3.50 * 250000)/1000000 = 0.875 coins
input: for > 128K tokens:
$7.00 /1M tokens
1 tk = (7.00 * 250000)/1000000 = 1.75 coins
----
Output price (per 1M tokens)
$10.50 for <= 128K tokens
$21.00 for > 128K tokens
----
output: for <= 128K tokens
$10.50 /1M tokens
1 tk = (10.50 * 250000)/1000000 = 2.625 coins
output: for > 128K tokens
$21.00 /1M tokens
1 tk = (21.00 * 250000)/1000000 = 5.25 coins
=====================================
# gemini 1.5 flash 原始定价计算笔记
----
Input price (per 1M tokens)
$0.075 for <= 128K tokens
$0.15 for > 128K tokens
----
input: for <= 128K tokens:
$0.075 /1M tokens
1 tk = (0.075 * 250000)/1000000 = 0.01875 coins
input: for > 128K tokens:
$0.15 /1M tokens
1 tk = (0.15 * 250000)/1000000 = 0.0375 coins
----
Output price (per 1M tokens)
$0.30 for <= 128K tokens
$0.60 for > 128K tokens
----
output:
$0.30 /1M tokens
1 tk = (0.30 * 250000)/1000000 = 0.075 coins
output:
$0.60 /1M tokens
1 tk = (0.60 * 250000)/1000000 = 0.15 coins
24-0815更新
添加对于Claude部分模型的Prompt Cache支持,对于超长文本的连续对话或许能节省大量成本,仅在Messages原生接口上实现了该功能支持,加上相应请求头才会生效,具体请参考:https://docs.anthropic.com/en/docs/build-with-claude/prompt-caching
恢复Mj服务,但是价格比原来高一倍
# Opus输入与读取缓存:
cache_creation_input_tokens:
$18.75 / 1M input tokens
1 tk = (18.75 * 250000)/1000000 = 4.6875 coins
cache_read_input_tokens:
$1.50 / 1M input tokens
1 tk = (1.50 * 250000)/1000000 = 0.375 coins
# Claude 3.0 Haiku输入与读取缓存:
cache_creation_input_tokens:
$0.30 / 1M input tokens
1 tk = (0.30 * 250000)/1000000 = 0.075 coins
cache_read_input_tokens:
$0.03 / 1M input tokens
1 tk = (0.03 * 250000)/1000000 = 0.0075 coins
# Claude 3.5 Sonnet输入与读取缓存:
cache_creation_input_tokens:
$3.75 / 1M input tokens
1 tk = (3.75 * 250000)/1000000 = 0.9375 coins
cache_read_input_tokens:
$0.30 / 1M input tokens
1 tk = (0.30 * 250000)/1000000 = 0.075 coins
24-0813更新
- 支持
chatgpt-4o-latest
24-0807更新:
- 新增支持最新的GPT-4 Omni 0806版本,价格比初代4Omni降低一大半
新增支持模型名称:
gpt-4o-2024-08-06
- 新增实现部分API调用IP记录功能
已在部分常用接口实装请求IP记录功能
现可在账单查询功能中直接查看到对应的请求的IP
出于安全考虑,来自开发者的OAuth APP的请求IP不会被记录
附:
# gpt-4o-2024-08-06 原始定价核算
input:
$2.50 / 1M input tokens
1 tk = (2.50 * 250000)/1000000 = 0.625 coins
output:
$10.00 / 1M output tokens
1 tk = (10.00 * 250000)/1000000 = 2.5 coins
24-0710更新:
后端鉴权模块重构完成,新版网站开发取得阶段性进展,新增全新的开放OAuth API,现在开发者将自己的项目接入到本站,从而快速地将各种AI能力接入到您的项目的同时,无需关注如用户管理、API整合以及计费等杂项,专注于功能的开发和实现,同时也有机会获取奖励、收益以及分成。详情请查看文档:https://ohmygpt-docs.apifox.cn/doc-4718106
旧版模型重定向:
本站已不再支持以下模型的转发,但是仍然支持通过这些模型名称调用API,在一定程度上保证旧版程序的兼容性
gpt-3.5-turbo-0301 已停用 重写为 gpt-3.5-turbo
gpt-3.5-turbo-0613 已停用 重写为 gpt-3.5-turbo
gpt-3.5-turbo-16k 已停用 重写为 gpt-3.5-turbo
gpt-3.5-turbo-16k-0613 已停用 重写为 gpt-3.5-turbo
gpt-4-0314 已停用 重写为 gpt-4
gpt-4-vision-preview | gpt-4-1106-vision-preview 已停用 重写为 gpt-4o
24-0621更新:
支持Anthropic最新发布的Claude 3.5 Sonnet,价格和Claude 3 Sonnet完全相同,但是A说它的能力和速度比C3Opus强,同样支持通过Messages原生API调用,也支持通过OpenAI Chat.Completions 兼容API调用。
claude-3-5-sonnet
claude-3-5-sonnet-20240620
(站长已在24-0614顺利毕业,目前已经恢复活跃状态(专心学习新芝士+写代码维护/开发新项目+稳步推进移民计划中)感谢大家一直以来的支持)
24-0531更新:
- 支持谷歌最新的Gemini 1.5,新增模型支持:
gemini-1.5-pro-001
gemini-1.5-flash-001
均支持Vision输入
注:
gemini-pro-vision 和 gemini-pro-vision 已指向 gemini-1.5-pro-001
实测并发量小的可怜,目前仍然只适合尝鲜,后续会尝试申请提高配额
/v1/models
API变更
现在会返回所有本站支持的模型名称
{
"object": "list",
"data": [
{
"id": "gpt-3.5-turbo",
"object": "model",
"created": 1717133244679,
"owned_by": "OhMyGPT"
}...
]
}
附:
Gemini 1.5 原始费用核算笔记
# Gemini 1.5 Pro
Price (input)
$3.50 / 1 million tokens (for prompts up to 128K tokens)
1 tk = (3.5 * 250000) / 1000000 = 0.875 coins
$7.00 / 1 million tokens (for prompts longer than 128K)
1 tk = (7 * 250000) / 1000000 = 1.75 coins
Price (output)
$10.50 / 1 million tokens (for prompts up to 128K tokens)
1 tk = (10.5 * 250000) / 1000000 = 2.625 coins
$21.00 / 1 million tokens (for prompts longer than 128K)
1 tk = (21 * 250000) / 1000000 = 5.25 coins
# Gemini 1.5 Flash
Price (input)
$0.35 = 1 million tokens (for prompts up to 128K tokens)
1 tk = (0.35 * 250000) / 1000000 = 0.0875 coins
$0.70 = 1 million tokens (for prompts longer than 128K)
1 tk = (0.7 * 250000) / 1000000 = 0.175 coins
Price (output)
$1.05 / 1 million tokens (for prompts up to 128K tokens)
1 tk = (1.05 * 250000) / 1000000 = 0.2625 coins
$2.10 / 1 million tokens (for prompts longer than 128K)
1 tk = (2.1 * 250000) / 1000000 = 0.525 coins
24-0514更新:
1. 新增支持最新的GPT-4 Omni,OpenAI最先进的多模态模型。
新增支持模型名称:
- gpt-4o
- gpt-4o-2024-05-13
该模型目前和gpt-4-turbo一样,仅支持文字和图像混合推理+纯文本输出
输入输出的价格相较于gpt4t降低70%到50%,再加上GPT4o的分词器优化,实际相同字数下,GPT4o的Token会少一大半,因此调用成本大约和gpt3.5在一个数量级上。
参考:https://openai.com/index/hello-gpt-4o/
附:
# 0514 GPT4o原始定价核算
gpt-4o | gpt-4o-2024-05-13 $5.00 / 1M tokens $15.00 / 1M tokens
- gpt-4o
- gpt-4o-2024-05-13
input:
$5 = 1M tokens
1 tk = (5 * 250000)/1000000 = 1.25 coins
output:
$15 = 1M tokens
1 tk = (15 * 250000)/1000000 = 3.75 coins
移除普通用户的GPT4限制
OpenAI流式请求的小变更
服务端对于OpenAI模型的Stream请求做了一个变更,应该不会是一个破坏性的更新,当stream=true时,会强制加上以下这个参数,要求OpenAI的API返回关于此次请求的输入输出的Token数目
"stream_options":{
"include_usage": true
}
以后这边服务端的流请求也不需要再解析算Token了,一切以上游API报告的Token数目为准,不仅精简了不少代码,还提高了计费的准确性
注意事项:
此变更会导致流式请求多出来倒数第二行的Chunk:
data: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04-09","system_fingerprint":"fp_0737e0dfd9","choices":[{"index":0,"delta":{},"logprobs":null,"finish_reason":"length"}],"usage":null}
data: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04-09","system_fingerprint":"fp_0737e0dfd9","choices":[],"usage":{"prompt_tokens":778,"completion_tokens":10,"total_tokens":788}}
data: [DONE]
此末尾的tokens chunk是一个常见的AI SSE流输出实践,很多AI服务都有这个chunk,OpenAI目前也已原生支持。
注意点:倒数第二行的这个choices是个空数组,如果您的代码使用了不安全的数组读取方法的话,在读倒数第二行可能会出现数组越界异常。
如果您遇到了这个问题,我们建议改进您的程序的流解析代码,提高您的程序流式解析的健壮性。
24-0510更新:
- 新增支持如下开源模型,支持通过OpenAI标准的Chat.Completions API调用:
TA/Qwen/Qwen1.5-0.5B-Chat
TA/Qwen/Qwen1.5-1.8B-Chat
TA/Qwen/Qwen1.5-4B-Chat
TA/Qwen/Qwen1.5-7B-Chat
TA/codellama/CodeLlama-7b-Instruct-hf
TA/meta-llama/Llama-2-7b-chat-hf
TA/meta-llama/Llama-3-8b-chat-hf
TA/mistralai/Mistral-7B-Instruct-v0.1
TA/mistralai/Mistral-7B-Instruct-v0.2
TA/google/gemma-7b-it
TA/Qwen/Qwen1.5-14B-Chat
TA/WizardLM/WizardLM-13B-V1.2
TA/meta-llama/Llama-2-13b-chat-hf
TA/Qwen/Qwen1.5-32B-Chat
TA/zero-one-ai/Yi-34B-Chat
TA/deepseek-ai/deepseek-coder-33b-instruct
TA/codellama/CodeLlama-34b-Instruct-hf
TA/Qwen/Qwen1.5-72B-Chat
TA/deepseek-ai/deepseek-llm-67b-chat
TA/codellama/CodeLlama-70b-Instruct-hf
TA/meta-llama/Llama-2-70b-chat-hf
TA/meta-llama/Llama-3-70b-chat-hf
TA/Qwen/Qwen1.5-110B-Chat
TA/mistralai/Mixtral-8x7B-Instruct-v0.1
TA/mistralai/Mixtral-8x22B-Instruct-v0.1
- 新增支持DeepSeek的Coder模型
deepseek-coder
24-0509更新:
24-0509更新通知
由于低价的OAI渠道基本上已经无法维持网站的正常运转了,而且也可以遇见低价渠道将会逐渐消失,因此为了保证服务质量,决定正式转向正规付费,并将OpenAI的API倍率修改为1.1,即现在网站对于OpenAI的扣费价格是 官方价格*1.1 ,盈余会用于补贴支付网关的手续费、网站的运营费用并支持网站和公司的继续发展。
这是一个艰难的决定,但是在本次调整后,API服务会更加稳定可靠,网站的商业模式也会更加正规和健康,请大家理解,并且感谢大家的支持。
由于网站本身是通过美国公司运营的,名下开了一堆美国本土的公司账户,还有一堆借记卡和信用卡,因此在资金流转和账单支付方面是非常高效且方便的。
OpenAI的AI服务确实是业界标杆,不过随着最近AI领域的发展,也有很多其它优秀的选择
推荐考虑使用以下AI服务作为替代品:
Anthropic家的Claude3系列:全系多模态,其中Haiku和Sonnet的性价比还算不错,对于很多任务的执行和理解明显好于3.5,目前网站的内嵌搜索功能也是靠Haiku实现的
DeepSeek最新的DeepSeek-V2模型( deepseek-chat ),最近较为火爆,(自称)开源最强而且和GPT4Turbo不相上下,价格也是接近于免费,一百万Tokens才1块钱,实测实用体验还不错,值得一试。
CoHere家的CommandR系列,也是一个和3.5有力的竞争者。
3.5逆向:
gpt-3.5-turbo-web-rev
利用免登chatgpt逆向出来的,延迟还算可以接受,每次成功的请求象征性扣几十代币,接近免费,按次数而不是按Token,Tokens多的情况下会非常实用
24-0508更新:
接入深度求索(DeepSeek)最新的DeepSeekV2
新增模型名称:
deepseek-chat
24-0409更新:
新增接入时下流行Cohere的CommandR模型,现可通过OpenAI.Chat.Completions兼容API中直接调用
限时1折特惠中
新增模型:
command-r
: (据说)对标OAI家的gpt-3.5-turbo的模型command-r-plus
: (据说)对标的是Anthropic家的C3 Sonnetcommand-r-online
: 在CR的基础上,附加了官方内置的web-search功能command-r-plus-online
: 在CRP的基础上,附加了官方内置的web-search功能
PS:
(听说)Command R系列在Role Play方面也是比较擅长的
24-0405更新:
- Claude Messages API支持最新的
tools
参数,现在Claude也可以使用ToolCall了,看上去内置了思维链推理,比OpenAI的TC更牛x一点点:
示例输入:
{
"model": "claude-3-opus-20240229",
"max_tokens": 1024,
"messages": [
{
"role": "user",
"content": "今天狗库克的股票现在跌倒哪里了?"
}
],
"stream": false,
"tools": [
{
"name": "get_stock_price",
"description": "Get the current stock price for a given ticker symbol.",
"input_schema": {
"type": "object",
"properties": {
"ticker": {
"type": "string",
"description": "The stock ticker symbol, e.g. AAPL for Apple Inc."
}
},
"required": [
"ticker"
]
}
}
]
}
输出:
{
"id": "msg_01HVfeUwYukk6pWKzkGWsn8h",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "<thinking>\nThe user is asking about the current stock price for \"狗库克\" which likely refers to Tim Cook, the CEO of Apple Inc. To get the current stock price, I would need to use the get_stock_price function and provide the ticker symbol for Apple, which is AAPL.\n\nThe user provided enough context to infer the parameter value needed:\nticker: Based on the reference to \"狗库克\" (a nickname for Tim Cook), the ticker symbol for Apple (AAPL) can be inferred.\n\nSince the required parameter can be inferred from the context, I can proceed with the function call.\n</thinking>"
},
{
"type": "tool_use",
"id": "toolu_01Tmx5NLhQZ7hEUpnYUGSPqV",
"name": "get_stock_price",
"input": {
"ticker": "AAPL"
}
}
],
"model": "claude-3-opus-20240229",
"stop_reason": "tool_use",
"stop_sequence": null,
"usage": {
"input_tokens": 507,
"output_tokens": 199
}
}
24-0401更新:
- 在 Chat.Completions API中新增兼容支持智谱AI的GLM系列模型(费率1.1)
新增模型名称:
- glm-3-turbo
- glm-4
- glm-4v
(glm-4v没法直接在Lobe中通过OpenAI API直接使用,明天再看看
- Anthropic模型限时折扣结束,恢复到1.1
24-0326更新:
- 价格倍率调整:OpenAI普通模型和GPT4的倍率统一调整为
0.5
24-0321更新:
- 修复部分前端文字错误
- 优化内嵌的LLM搜索功能
- C3系列现在可在OpenAI.Chat.Completions API中使用内嵌的联网搜索功能( Prompt以 /gs gs/ 即可触发
24-0318更新:
修复OpenAI.Chat.Completions兼容接口中的Claude模型stop参数没有正确映射的问题
优化兼容接口中对于Claude的适配:
- role=system的msg会被提取出来,放到API的system参数中再发过去
- 如果一个assistant的msg中包含图像,为了使其符合claude的msg api的校验规则,会在前面加一个占位的msg,从而将这个msg顶到user角色中,使其能正常带上图像内容而不报错
- 如果msg的长度为偶数,则现在不会再强制补成奇数,(一般情况下)此时末尾会是assistant,这样会触发原生的直接补全功能
24-0315更新:
鉴权模块变更:如果您的APIKey打开了”管理权限“的开关,那么它将绕过模型权限的检查。(新的模型名称不用每次都去手动勾选了
针对C3的中文半角符号问题,上线了三个补丁版本,会修正C3输出的中文中包含的半角符号,不影响英文内容的符号(仅可在
OpenAI.Chat.Completions
兼容接口中使用。claude-3-opus-patch
claude-3-sonnet-patch
claude-3-haiku-patch
添加OpenAI.Models.RetriveModels API接口支持
24-0314更新:
- 新增 Claude 3 Haiku (小杯) 支持
claude-3-haiku
|claude-3-haiku-20240307
特色:
- 同样支持图像/文字混合的多模态输入
- 价格和性能对标gpt-3.5-turbo
- (Anthropic声称)Haiku的性能比3.5更加优秀(https://www.anthropic.com/news/claude-3-family
- C3系列中最快最便宜的
24-0312更新:
- 上线Groq的Mixtral-8x7b 模型,免费 ( groq-mixtral-8x7b-32768 )
注意: 非生产就绪,仅供个人体验
24-0310
- 单笔$10以上的订单将免除Stripe手续费
24-0309
- 补充Claude带版本号的模型名称(claude-2.0/2.1/3-opus-20240229...
- 优化设置界面中模型名称的展示方式
24-0308
- 移除Anthropic(Claude)系列模型的前置内容过滤器,现在您可以随意使用Claude进行角色扮演
- Anthropic系列模型限时5折特惠
24-0306
解决新的Anthropic接口的兼容性问题,包括:
- 网页/兼容API中的Cladue系列模型,因各个角色的对话顺序限制导致的请求错误
- LobeChat中使用C3模型+图像输入时导致的错误
- 修复更新Vision相关代码后导致GPT4V接口异常的问题
24-0305
新增Anthropic最新的Claude3系列模型,C3全系多模态,支持图像输入,其中C3大杯(Opus)声称比GPT4还要强。
claude-3-opus
C3 (大杯)claude-3-sonnet
C3 (中杯)- C3小杯等待发布
价格参考:https://www.anthropic.com/api#pricing
现可通过OpenAI的Chat.Completions接口,以GPT4V的标准输入和输出,也可以通过Anthropic官方的Messages接口格式使用。
文档:https://ohmygpt-docs.apifox.cn/api-152507338
24-0303
微信收款渠道被关闭,请各位用户以后通过Stripe渠道进行充值。
24-0217
由于OpenAI官方已经将gpt-3.5-turbo滚动更新到0125,因此默认模型的计费也同步更新到0125了
24-0205
Google AI服务(包括text-bision/gemini-pro等模型)不再免费,倍率变更为1.1
24-0203
倍率变动
不再区分闲时和平时了,倍率变更为:
普通模型倍率: 0.3
GPT-4系列模型倍率: 0.4
24-0127
新增一个图像生成API和模型( nd-imagine-v3 ),适合生成二刺螈图像 (experimental)
API 文档:https://ohmygpt-docs.apifox.cn/api-145379071
24-0125
新增 gpt-4-0125-preview 和 gpt-4-turbo-preview ,其上下文窗口、参数和价格相对于1106均无变化(据说解决了懒惰的问题
新增第三代嵌入模型: text-embedding-3-small 和 text-embedding-3-large ,其中第三代嵌入模型对于第二代有如下变化
- 价格和ada v2不同,3代小号嵌入模型比ada v2便宜,大号比ada v2贵一点点
- 嵌入API现可选维度(dimesions)参数
总结:
总共新增如下模型名称
gpt-4-turbo-preview
gpt-4-0125-preview
text-embedding-3-small
text-embedding-3-large
受影响的API Endpoints:
Embeddings API: Add dimensions
parameter support for embedding v3 models
Chat Completions API: 新增0125批次的GPT4 Turbo模型
参考:
https://platform.openai.com/docs/changelog/jan-25th-2024
https://openai.com/blog/new-embedding-models-and-api-updates
附:前几天的更新:
0122更新:
- 新增serper的谷歌搜索开放API,更便宜更好用,文档: https://ohmygpt-docs.apifox.cn/api-145085337
- 将LLM内嵌搜索功能的搜索服务商更改为serper,仍然可使用 /gs | gs/ 或者特定的模型名称触发
0123更新:
- 解决账单数据量过大时,按月统计图表可能会加载不出来的Bug,同时优化统计速度
24-0119
新增大模型内嵌联网功能:
目前已支持通过网页端和API来访问内嵌了联网功能的大模型
目前仅支持OpenAI的3.5/4/4Turbo系列的模型(32k和Azure除外)
目前仅支持基于谷歌官方搜索API的搜索功能
后面会接入更多模型以及更多可选的搜索服务提供方
使用方法:
在网页中直接使用:
当你需要使用谷歌联网搜索时,在prompt开头加上 /gs 或者 gs/ 就可以强制要求LLM在本次回答中,先使用谷歌搜索一下,然后再结合搜索到的信息进行回答。
示例:
/gs 什么是“芝士雪豹”?
通过API调用:
当你需要通过API在第三方客户端或者其它项目中使用时,您可以通过以下两种方式调用本站内置的LLM联网功能:
方式1:在密钥权限列表中勾选 chat-completions-with-gs 这样您就可以像网页中的那样,在需要谷歌搜索辅助时,在您输入的prompt最前面加上 /gs 或者 gs/ 即可触发LLM的谷歌搜索功能。(不勾选此项的话无法触发LLM的谷歌联网搜索功能)
方式2:上线了 xx-online-with-gs 系列模型,您可以通过直接调用该模型名称,来要求每次请求都要使用谷歌查询来辅助回答,无需特别的关键字触发。
新增权限名称:
- chat-completions-with-gs LLM内嵌谷歌搜索开关,不勾选它的话,此Key将无法使用 /gs 或 gs/ 关键词触发谷歌联网搜索功能
- gpt-3.5-turbo-online-with-gs 强制触发基于谷歌搜索的LLM联网模型名称,下面都是一样的
- gpt-4-online-with-gs
- gpt-4-1106-preview-online-with-gs
已知缺点:
在能力较弱的3.5使用联网功能时,可能会出现脚标和链接输出格式错误或混乱的问题,会尝试继续调整和优化相关的Prompt
新增Completions模型支持:
- davinci-002
- babbage-002
作为初代GPT3的替代品
24-0113
- 上线了谷歌搜索兼容API
(为后面的LLM联网功能做铺垫
文档:https://ohmygpt-docs.apifox.cn/api-141553709
24-0110
移除了24-01-04弃用的模型,受影响的API和模型如下:
Completions:
text-davinci-003
text-davinci-002
text-ada-001
text-babbage-001
text-curie-001
Edits:
code-davinci-edit-001
text-davinci-edit-001
Embeddings:
text-search-ada-doc-001
参考链接:
https://platform.openai.com/docs/deprecations
23-1214
增集成谷歌最新的Gemini Pro系列模型推理服务,同时Google AI模型推理服务继续向本站所有用户免费开放
新增Google AI系列模型:
- gemini-pro
- gemini-pro-vision
现可通过本站提供的Chat/Completions API直接调用,其中Gemini Pro Vision是一个多模态的大模型,支持基于文字和图片混合推理,参数用法和OpenAI的GPT4v一致,支持流和非流,模型能力大约是3.5的水平,多模态推理能力差强人意(指大体上算令人满意),可以当作小GPT4v来玩。
附:
相关文档说明:https://ohmygpt-docs.apifox.cn/api-123253693
23-1201
新增集成Google PaLM 2,限时免费中。
新增模型:
- palm-2-chat-bison
- palm-2-chat-bison-32k
现可在线网页体验或通过OpenAI的ChatCompletions API进行调用。
23-1125
计费相关:
- 新增“闲时折扣”:闲时普通模型倍率调整为0.1,GPT4倍率调整为0.3。此举旨在回馈新老客户,同时提高服务器资源利用率,鼓励在空闲时间利用模型进行批量处理数据。
注:当前”闲时“定义:时区UTC+8(上海标准时间),每天的 0:00 a.m. 到 9:00 a.m. ,还有周六和周日全天应用“闲时折扣”,此折扣可能会更改,建议查阅最新的文档,通过API来自动检查当前折扣倍率。
- 支持自助获取PDF格式的发票和收据(不收取额外费用):现在可以通过Stripe渠道,使用"Stripe Invoice"创建一个订单,订单创建后您的邮箱将会立即收到一个发票(Invoice),支付完成后将收到收据(Receipt)。
模型相关:
- 更新Azure OpenAI部署:将gpt35版本升级到1106,gpt4版本升级到1106p,API版本升级到 2023-12-01-preview ,同样支持Tools,同时移除自带的filter以免影响使用。
23-1117
231117更新通知:
账单相关:
- 优化消费数据统计图表相关的查询性能
- 优化前端统计图表支出展示方式,改为直接展示各个时段的支出费用而不是代币数目,更加直观。
- 添加相关密钥到API调用的账单记录里。
- 新增账单数据批量导出支持,支持导出为JSON或者CSV文件
会员相关:
- 降低VIP会员门槛,现在半年内充值¥40以上即可符合VIP条件
23-1113
放宽速率限制策略+降低400流控力度,会员的速率配额现已翻倍:
VIP 600 RPM => 1k RPM
PREMIUM 0.5w RPM => 1w RPM
(虽然仍然不鼓励触发400,但是已大大降低触发400后带来的主动流控力度,不再因为一个400就导致直接429了。
23-1106
新的模型和API已经从今天中午开始陆续上线完毕
新增普通模型支持:
- gpt-3.5-turbo-1106
新的GPT35模型
输入价格比老模型降低约1/3
老的 gpt-3.5-turbo 仍然指向旧版的35-0613,旧版没有降价所以 gpt-3.5-turbo 还是那个价格(可以考虑主动将默认模型重写到新款1106,打算征求一下群里的意见+看看新款稳不稳定再改。
- dalle-e-3
OpenAI最新款的图像生成模型,效果也是非常不错,已经快要干翻Mj了,调用起来非常简单,推荐使用这个。
- tts-1
- tts-1-hd
OpenAI最新款的TTS语音转文本模型,效果也是非常棒,媲美真实人声,一个声音就原生支持多国语言,个人觉得效果比Azure的神经网络语音引擎还要牛x,对于语言学习类、AI对话交流类、AI朗读(听书、网页阅读)等方面的应用应该很有用。
新增GPT-4 Trubo模型支持:
- gpt-4-1106-preview
- gpt-4-vision-preview
优点:
- 速度飞快
- 超大上下文窗口 128k(其中输入最多124k,输出最多4k)
- 强大的多模态图像输入支持
- 新版的Tools工具调用支持,可一次调用多个函数
- 更低价格
新的预览版模型的请求频率限制较为严格,目前看上去是众生平等每个OpAI账号100RPD,本站总共只能提供大约几千到几万的RPD,虽说可用性没法保证,但是已经可以开始尝试接入并适配到自己的应用了。
还有需要注意的是 gpt-4-vision-preview 最好主动指定一下 max_tokens ,否则会生成几token就中止输出。
23-1104
将Anthropic模型(Claude2/ClaudeInstant1)添加到OpenAI ChatCompletions接口中
即现在可以通过 /v1/chat/completions 接口调用 claude-2 和 claude-instant-1 这两个模型了(OpAI接口的兼容性相比Anthropic原接口好一些,直接自定义一个模型名称就可以用了。)
同时将Anthropic模型费率从之前的1.2下调到1.1
23-1025
- 普通模型倍率下调为0.2
- GPT4倍率下调为0.4
23-0917
Midjourney画图前端网页已初步完成并上线,可通过点击网页菜单中的“AI画图”体验该功能,NORMAL模式限时免费中
附:相关Midjourney学习资料:
https://learningprompt.wiki/zh-Hans/docs/category/-fundamentals-1
23-0906
- Midjourney API NORMAL模式免费提供(主要是因为没人用,放着也是放着。
- Claude2已从网页逆向改为使用付费接口,不再免费,稳定性和可用性大幅提高。
- 以公司名义通过了Azure GPT4审批,现可在Azure端点提供稳定可靠的0613版本的模型推理服务(带func_call),倍率1.1,模型如下:
gpt-3.5-turbo
、gpt-3.5-turbo-16k
、gpt-4
以及gpt-4-32k
,其中gpt-4-32k
统一由微软云Azure提供可靠的模型推理服务。 - gpt-4-32k 由Azure提供,因此该模型也已进入生产就绪状态,企业/高级用户可放心接入生产环境进行使用。
- 受CNY贬值影响,因此按照最新的1$:7.3¥的汇率,将人民币充值渠道(微信扫码支付)的兑换代币的比例由1¥=35000调整为1¥=34000
23-0901
Midjourney 开放 API 接口服务已正式上线并投入生产⭐
相关介绍文档:https://ohmygpt-docs.apifox.cn/doc-2941619
23-0829
接入Stripe支持通过 信用卡/Apple/Google/WeChat Pay
等方式直接用美金充值,同时获得正式的发票和收据。
23-0722
新增免费Claude2 API
接口文档地址: https://apifox.com/apidoc/shared-9aac3c46-2596-43c0-b69f-17e3256d0bf8/api-97461921
23-0720
新增CN2 GIA镜像API
CN2 GIA-E: https://cn2us02.opapi.win/v1/
CloudFlare CDN(稳): https://cfcus02.opapi.win/v1/
CloudFlare Worker(稳且速度还行): https://cfwus02.opapi.win/v1/
23-0719
计划内的网站维护,服务中断10min,迁移到高防高性能服务器。
23-0620
3.5模型限时1折
23-0614
- 同步OpenAI下调gpt-3.5-turbo模型的费用
- 新增gpt-3.5-turbo-0613
- 新增gpt-3.5-turbo-16k
23-0517
- 重构网站前端,优化聊天页面和充值页面
- 新增了aff邀请功能
- 增加了密钥权限控制功能,精细控制每个密钥可以访问的模型
23-0426
上线网页文字转语音朗读功能