gpt-5.1 | gpt-5.1-2025-11-13 | gpt-5.1-codexgpt-5.1 和 gpt-5.1-codex ,CodeX专用接口中的费用是模型原始价格的 20%body.store=true即可轻松记录请求体的输入输出内容,可以配合参数重写,强制覆写store来实现对客户端通信内容的记录,或者实现cache功能。(目前仅支持OpenAI的Chat.Completions API的记录功能)body.omg_extra_body.use_omg_cache为true即可实现cache检索,既store过的请求,如果要求使用cache,则可以直接返回,不扣费。npx omgvibe即可一键配置CodeX或者Claude Code,https://www.ohmygpt.com/cli-agent 。相关脚本是开源的,仓库地址: https://github.com/DogeNet-LLC/omgvibe(昵称:纳米香蕉)。这是 Google 最新发布的支持图像生成的模型,在图像生成任务上表现出色,能够生成高质量图片。可通过 /v1/chat/completions 调用:{
"model": "vertex-gemini-2.5-flash-image-preview",
"messages": [
{ "role": "user", "content": [{ "type": "text", "text": "生成一张哈基米的图片" }] }
]
}{
"model": "vertex-gemini-2.5-flash-image-preview",
"messages": [
{ "role": "user", "content": [{ "type": "text", "text": "生成一张哈基米的图片" }] }
],
"omg_extra_body": { "gemini_b64img_upload_enabled": true }
}/apis/overwrite-rules)gpt-5gpt-5-2025-08-07gpt-5-minigpt-5-mini-2025-08-07gpt-5-nanogpt-5-nano-2025-08-07gpt-5-chat-latestark-doubao-seed-1.6-250615ark-doubao-seed-1.6-thinking-250615ark-doubao-seed-1.6-flash-250615gemini-2.5-progemini-2.5-flashgemini-2.5-flash-lite-preview-06-17gemini-2.5-pro-preview-06-05ark-deepseek-r1-250528claude-sonnet-4-0claude-sonnet-4-20250514claude-opus-4-0claude-opus-4-20250514-thinking-enabled 后缀直接开启思考功能。doubao-1.5-thinking-pro-m-250428doubao-1.5-thinking-vision-pro-250428doubao-1.5-vision-pro-250328doubao-1.5-vision-lite-250315gemini-2.5-flash-preview-05-20gemini-2.5-flash-preview-05-20-thinking-disabledreasoning_effort = nonegemini-2.5-pro-preview-05-06gpt-image-1gemini-2.5-flash-preview-04-17-thinking-disabled 请求即可禁止进行思考,直接输出,适用于快速翻译场景gemini-2.5-flash-preview-04-17max_tokens 参数的模型请求自动重写到 max_completion_tokens 参数上o3o3-2025-04-16o4-minio4-mini-2025-04-16doubao-1.5-thinking-pro-250415doubao-1.5-thinking-pro-vision-250415claude-3-7-sonnet-20250219 + -thinking-enabled ( 例如 claude-3-7-sonnet-20250219-thinking-enabled ),即可开启思考兼容性支持{
"model": "claude-3-7-sonnet-20250219-thinking-enabled",
"messages": [
{
"role": "user",
"content": "来一个10字唐诗"
}
],
"stream": false
}{
"id": "chatcmpl-f5YCgBV1YWsGe8T6XtHT5DB9CgUak",
"object": "chat.completion",
"created": 1744813755,
"model": "claude-3-7-sonnet-20250219",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "<think>我需要创作一个10字的唐诗。唐诗通常有不同的格式,如五言、七言等,但这里要求是10字的诗。10字诗不是传统唐诗的常见格式,但我可以创作一个包含10个汉字的诗句,注意平仄和意境。\n\n我可以提供一个单行的10字诗句,或者是一个由多行组成、总共10个字的小诗。\n\n方案1:一行10字的诗句\n例如:\n\"春风拂面花香满山间\"(11字,不符合)\n\"明月高挂夜静人独思\"(10字,符合)\n\"青山绿水鸟语花香时\"(10字,符合)\n\n方案2:总共10字的多行小诗\n例如:\n\"春风拂面,\n 花香满园。\"\n(8字,不符合)\n\n\"孤山远,\n 流水长,\n 人归处。\"\n(7字,不符合)\n\n\"明月光,\n 思故乡,\n 人未归。\"\n(9字,不符合)\n\n我选择提供一个10字的单行诗句,注意营造优美的意境和符合中国传统诗词的韵律感:\n\n\"明月高挂夜静人独思\"\n这个诗句描绘了一个月明之夜,一个人在静夜中独自思念的场景,有一种淡淡的忧伤和思乡之情。\n\n或者\n\n\"青山绿水鸟语花香时\"\n这个诗句描绘了一个自然和谐、生机勃勃的美丽春景。\n\n我再想一些其他的10字诗句:\n\n\"秋风萧瑟落叶满庭院\"(10字)\n\"远山如黛细雨润青苔\"(10字)\n\"晨曦微露山水入梦来\"(10字)\n\"小桥流水人家烟雨中\"(10字)\n\n考虑到唐诗的风格和意境,我选择:\n\n\"山高水长云淡风轻时\"\n这个诗句描绘了一个宁静优美的自然景象,表达了对自然和谐之美的赞美。\n\n我再考虑一下平仄和韵律:\n\n\"青山流水云淡月如钩\"\n这个诗句既有自然景物描写,又有一些意境的营造,最后的\"钩\"字作为韵脚,给人一种圆满感。\n\n按照唐诗的传统,通常会有一个题目。我可以为这首10字诗取名为《夜思》或《山水》。\n\n最终,我决定提供一首10字唐诗:\n\n《山水》\n青山流水云淡月如钩</think>\n# 十字唐诗\n\n## 《山居即景》\n青山绿水鸟语花香时\n\n---\n\n注:这是一首描绘山中美好景色的简短诗句,将自然之美浓缩于十字之中。",
"refusal": null
},
"logprobs": null,
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 45,
"completion_tokens": 881,
"total_tokens": 926
}
}gpt-4.1gpt-4.1-2025-04-14gpt-4.1-minigpt-4.1-mini-2025-04-14gpt-4.1-nanogpt-4.1-nano-2025-04-14grok-3-betagrok-3-mini-betagrok-3-mini-fast-betagrok-3-fast-betaark-deepseek-v3-250324 ,字节平台超高并发,独家7折(ARK R1 5折)-legacy-support 后缀x-gemini-legacy-supporttruecommand-a-03-2025gpt-4o-search-previewgpt-4o-search-preview-2025-03-11gpt-4o-mini-search-previewgpt-4o-mini-search-preview-2025-03-11web_search_optionsgpt-4.5-previewgpt-4.5-preview-2025-02-27gemini-2.0-flash-litegemini-2.0-flash-lite-001claude-3-7-sonnet-latestclaude-3-7-sonnet-20250219 "thinking": {
"type": "enabled",
"budget_tokens": 1024
},{
"model": "claude-3-7-sonnet-20250219",
"messages": [
{
"role": "user",
"content": "简单分析一下OpenAI不开源的原因"
}
],
"thinking": {
"type": "enabled",
"budget_tokens": 1024
},
"stream": false,
"max_tokens": 2048
}anthropic-betaoutput-128k-2025-02-19ark-deepseek-v3-241226 )ark-deepseek-v3-241226 )c4ai-aya-expanse-32bc4ai-aya-expanse-8bomni-moderation-latestomni-moderation-2024-09-26ark-deepseek-v3-241226 )ark-deepseek-r1-250120 )o3-mini-rev 支持,按次数计费,一次成功的调 用扣除 120 coinsdeepseek-chat 的定价已跟随官方提高:TA/deepseek-ai/DeepSeek-R1 限时折扣价:TA/deepseek-ai/DeepSeek-V3 限时折扣价:/v1/completions API里使用 了,某些软件可能会用得到TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B 模型支持0.2 => 1.05gemini-2.0-flashgemini-2.0-flash-001gemini-2.0-flash-lite-preview-02-05gemini-2.0-flash-thinking-exp-01-21gemini-2.0-pro-exp-02-05ark-deepseek-r1-250120ark-deepseek-v3-241226TA/deepseek-ai/DeepSeek-V3TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B-freemax_tokens 兼容性支持 (o1系列不支持 max_tokens ,因此如果此值有定义,则将其赋值到 max_completion_tokens 并删除此值以保证其它软件的兼容性)deepseek-reasoner 的Beta功能自定义最后一条assistant msg的“prefix”续写的兼容性支持o3-mini 系列API模型推理服务,新增如下模型支持o3-minio3-mini-2025-01-314om-aup :gpt-4o-mini-audio-previewgpt-4o-mini-audio-preview-2024-12-17o1-mini 的价格也已经降低了,已同步下调价格。TA/deepseek-ai/DeepSeek-R1ohmygpt/deepseek-r1-32bohmygpt/deepseek-r1-1.5bdeepseek-reasoner 模型temperature top_p presence_penalty frequency_penaltygpt-4o-web-rev ),所有用户可免费使用gpt-4o-web-rev 逆向模型,定价依然是按次数收费,一块钱大约可调用566次4o,接近免费,此服务由内部开发小组维护,稳定性会好一些,但是不推荐用于商用或正式Prod用途o1o1-2024-12-17gemini-1.5-pro 模型名称/v1/completions{
"model": "deepseek-chat",
"prompt": "This is a JSON: '",
"suffix": "', done."
}
``
# 25-0106更新:
- 跟进更新01AI模型名称支持,新增支持 `yi-vision-v2`
- 移除已弃用01AI模型支持,但是保留兼容性的模型重写功能
# 25-0105更新:
- 重构Chat.Completions API中GPT系列模型的计费模块,现已支持缓存计费,缓存计费细则可以在Next站Pricing页面查看[1]
- DeepSeek系列模型URL从默认URL改成Beta URL,现在使用DeepSeek的用户可以使用一些DeepSeek的Beta功能[2]
- 彻底移除一些旧版弃用模型的支持( `gpt-3.5-turbo-0301` , `gpt-3.5-turbo-0613` , `gpt-3.5-turbo-16k-0613` , `gpt-4-0314` , `gpt-4-32k` , `gpt-4-32k-0314` , `gpt-4-32k-0613` )(为保证旧版程序的兼容性,这些旧版模型名称将会被自动重写到新的同级别的模型名称)
[1] Next站 Pricing页面 https://next.ohmygpt.com/pricing
[2] DeepSeek Beta https://api-docs.deepseek.com/guides/chat_prefix_completion
# 25-0103更新:
- 优化API响应速度:修复因Socket.IO Stream Adapter导致的内部Redis服务性能下降,从而连带导致API响应速度变慢的问题
# 25-0102更新:
- DeepSeek系列模型计费函数调用错误,导致使用该模型的用户会收到异常扣费,接到用户反馈后已快速修复这个Bug
- 为补偿所有受到此Bug影响的用户,在24-1230到25-0102期间所有用户对于deepseek相关的模型调用费用将被免除并返还到余额中,正在统计并会尽快处理
# 24-1231更新:
- DeepSeek系列模型的费率从1.1改为1,即不再收取额外费用
- 重构DeepSeek系列模型计费模块,支持CacheHitTokens计费
- Next站的Pricing页面增加DeepSeek系列模型定价展示
最后祝诸位2025年新年快乐!
# 24-1229更新:
感谢群友@Bryce的赞助,现在以下豆包模型限时免费中,大家随便玩:
- `doubao-pro-128k-240628`
- `doubao-pro-32k-241215`
- `doubao-pro-4k-240515`
- `doubao-pro-4k-character-240728`
- `doubao-lite-4k-240328`
- `doubao-lite-4k-character-240828`
ps: 目测最强的应该是 `doubao-pro-32k-241215` ,感兴趣的uu可以来玩玩试试效果


# 24-1228更新:
- 新增支持字节跳动的豆包系列大模型
- 新增支持月之暗面的moonshot v1系列大模型(由字节跳动的火山平台提供)
- 倍率为1(即直接就是原价,0加价,不考这个赚米,大家用着方便就行)
定价详情见Next站Pricing页面:https://next.ohmygpt.com/pricing

# 24-1221更新:
- Google AI系列模型2折特惠中
- 改进Google AI系列自动重试功能的稳定性
# 24-1219更新:
- 新增支持最新的24-1217版本的Realtime系列模型,新版的4o Realtime降价很多,mini的价格也是更加便宜,带上高命中率的缓存功能,价格已经到了还算能接受的程度了:
`gpt-4o-realtime-preview-2024-12-17`
`gpt-4o-mini-realtime-preview`
`gpt-4o-mini-realtime-preview-2024-12-17`
- 支持Realtime系列模型的缓存计费功能。
- 更新Next站的实时通话Demo,现在可以在Next站的相关Demo中体验新版的Realtime系列模型:https://next.ohmygpt.com/chat 镜像:https://next.aigptx.top/chat

# 24-1218更新:
- 新增最新的 `gpt-4o-audio-preview-2024-12-17` 模型支持,音频输入输出价格相较于原有的4oA1001下降很多。
- 关于最新发布的 `o1` 正式版,由于OAI并未全量开放,我这边看了一堆Tier5的号也没有发现有o1正式版API权限的,因此今天并没有接入,等待后续OAI开放。
- Chat.Completions API新增支持 `reasoning_effort` 可选参数,可以调整o1系列模型思考时的“努力程度”,根据官方文档[1],这个参数仅对o1系列有意义。
- “消费记录”部分新增支持缓存字段以及音频输入输出字段,现在可以在Next站的用量统计/消费记录中查询这些数据。
- 新的4o-realtime1217会在明天接入,今天新增一些这些字段的支持占用了一些时间。


[1] OpenAI 官方文档 https://platform.openai.com/docs/api-reference/chat/create
# 24-1205更新:
- 优化Next站的余额展示功能,现在会显示估算后的法币价值,APIKey管理表格中也在添加了相应的法币价值估算
- Next站APIKey管理页面添加了API端点展示
- 增加一个CF反代搭建教程文档,可实现简单且安全的API原始数据记录和模型名称重写功能:https://ohmygpt-docs.apifox.cn/doc-5628298
# 24-1127更新:
- 新上线文件存储业务 `file-v1`
此业务计划将作为一个安全、高速、高性价比、可控的文件服务,为任何涉及文件处理相关业务提供基础服务,例如为AI服务提供多模态文件临时存储/文档上传下载等功能,您也可以利用本站的存储服务做图床等用途。
所有用户可免费使用1GB的文件存储空间,超出后按照此定价标准计费:
定价:
`$ 9.9 / TB / Month`
除此之外,无任何额外费用,请求与出口流量费用全免
文档:https://ohmygpt-docs.apifox.cn/doc-5575792
# 24-1126更新:
- 新增支持 Claude Count Message tokens API `/v1/messages/count_tokens`
文档: https://ohmygpt-docs.apifox.cn/api-237994522
新的文件系统原计划今天上线的,但是由于折腾CDN缓存问题踩了一大堆坑,因此将推迟一两天
# 24-1123更新:
- 已在Anthropic原生Messages接口支持官方内置的PDF输入功能,要使用此功能,您需要在 `anthropic-beta` 请求头中添加 `pdfs-2024-09-25` 关键字以启用这个Beta功能:

# 24-1121更新:
- 新增支持最新的 `gpt-4o-2024-11-20` 模型,价格和上个版本的24-0806没变化

# 24-1116更新:
- 改善模型用量统计图表的颜色区分度
- Next站新增一个实时聊天室的技术展示Demo,欢迎来测试体验(就是放出来公测一下实际使用效果如何):
Demo(主站): https://next.ohmygpt.com/tools
Demo(镜像): https://next.aigptx.top/tools
Feature:
1. 基于Socket.IO实现了相对可靠的客户端与服务端双向低延迟实时通信
2. 此Demo背后没有关系数据库记录消息,纯靠框架emit发送消息
3. 可以自行创建房间发起群聊
4. 可暂时无限使用内置的AI聊天功能(模型Command R Plus(By Cohere)
# 24-1111更新:
- APIKey权限控制改版:
为了避免更多用户对于旧Key无法直接调用新模型的疑惑,今天对网站APIKey相关模块进行了一些改进:
# 24-1110更新:
- 补充对于 `glm-4v-plus` 模型的支持,定价详见[1]
[1] https://next.ohmygpt.com/pricing
# 24-1109更新:
- 新增Gemini系列JSON输出模式支持,相关实现细节见文档[1]
- 新增 `gemini-1.5-flash-8b` 正式版模型支持,定价详见[2]
[1] https://ohmygpt-docs.apifox.cn/api-123253693
[2] https://next.ohmygpt.com/pricing
# 24-1108更新:
- 改进Gemini系列模型在OpenAI兼容接口中的消息拼接逻辑
- 完善Claude系列模型OpenAI接口的兼容性,同时完善文档,展示相关实现细节[1]
[1] https://ohmygpt-docs.apifox.cn/api-123253693
# 24-1107更新:
- 完善Claude系列模型在OpenAI兼容接口的Tools调用兼容性支持
详见:https://ohmygpt-docs.apifox.cn/api-123253693
# 24-1106更新:
- Bot现已经支持PDF文件聊天
https://t.me/getfunbot
# 24-1105更新:
- 支持最新的Claude 3.5 Sonnet,新增如下模型名称:
- `claude-3-5-haiku`
- `claude-3-5-haiku-latest`
- `claude-3-5-haiku-20241022`
- 新增新版的GLM系列模型支持
- `glm-4-plus`
- `glm-4-airx`
- `glm-4-air`
- `glm-4-long`
- `glm-4-flashx`
- `glm-4-flash`
价格详情查看pricing页面: https://next.ohmygpt.com/pricing
# 24-1103更新:
- 解决Next站Google/GitHub OAuth认证跳转问题
- 完成新版的账户注册/密码重置逻辑(现在可以用验证码注册/重置账户密码了

附:
Next站主站: https://next.ohmygpt.com
Next站镜像: https://next.aigptx.top
至此新版网站的登录、注册、充值、API管理等功能基本上算是完工了,目前仅使用API的用户可以开始使用Next站了,网站下一步开发方向:
- 向量检索服务与知识库问答服务
- 完成基于对象存储的开放文件系统(用作文件上传相关的用途,同时也可以作为一个小网盘用
- 完成新版网站的Chat功能(包括文件上传、插件系统、代码解释器、流程图、Agent等
- 完成新版网站的图像生成功能
- 完善TgBot,借助Tg平台的能力低成本实现更多有趣实用的功能
- 接入更多API服务提供商以及更多模型
- 开始基于日本公司开展一些业务
# 24-1101更新:
- 完成Next站用量明细查询功能,现在可以在Next站 `/settings/usage` 页面查询或导出用量详情


附:
Next站主站: https://next.ohmygpt.com/settings/usage
Next站镜像: https://next.aigptx.top/settings/usage
# 24-1031更新:
- 完成Next站用量统计功能,现在可以在Next站 `/settings/usage` 页面查询用量统计图

附:
Next站主站: https://next.ohmygpt.com/settings/usage
Next站镜像: https://next.aigptx.top/settings/usage
# 24-1026更新:
- 通过OpenAI兼容接口调用Claude系列和Gemini系列模型,现在开始会返回usage相关数据块
- 完善定价展示页面:新增Claude和Gemini等部分模型的详细定价展示,可在Next站 `/pricing` 页面查看
附:
示例usage数据块:
```json
{
"id": "chatcmpl-hMOdfnoaXtcpCZwRJISUAzPtsfZKs",
"object": "chat.completion.chunk",
"created": 1729944958,
"model": "claude-3-5-sonnet",
"choices": [],
"usage": {
"prompt_tokens": 11,
"completion_tokens": 8,
"total_tokens": 19,
"prompt_tokens_details": {
"cached_tokens": 0
},
"completion_tokens_details": {
"reasoning_tokens": 0
}
}
}/pricing 页面查看claude-3-5-sonnet-20241022grok-beta# Grok 原始定价笔记
## grok-beta
PromptTokens:
$5.00
CompletionTokens:
$15.00
input:
$5 / 1M tokens
1 tk = (5 * 250000)/1000000 = 1.25 coins
output:
$15 / 1M tokens
1 tk = (15 * 250000)/1000000 = 3.75 coinsgpt-4o-audio-preview 系列模型,但是由于技术原因,暂时仅支支持该模型的非流调用,需要实时语音交互的用户请使用本站的 /v1/realtime 实时WebSocket端点# gpt-4o-audio-preview系列原始定价核算笔记
gpt-4o-audio-preview
gpt-4o-audio-preview-2024-10-01
定价分析:
Text
$2.50 / 1M tokens
$10.00 / 1M tokens
Audio***
$100.00 / 1M tokens
$200.00 / 1M tokens
====TEXT====
input:
$2.5 / 1M tokens
1 tk = (2.5 * 250000)/1000000 = 0.625 coins
output:
$10 / 1M tokens
1 tk = (10 * 250000)/1000000 = 2.5 coins
====TEXT====
====Audio====
input:
$100 / 1M tokens
1 tk = (100 * 250000)/1000000 = 25 coins
output:
$200 / 1M tokens
1 tk = (200 * 250000)/1000000 = 50 coins
====Audio====yi-lightningyi-largeyi-mediumyi-visionyi-medium-200kyi-sparkyi-large-ragyi-large-fcyi-large-turbo# yi模型 原始定价计算笔记
## yi-lightning
Pricing:
¥0.99 /1M tokens
1 tk = (0.99 * 34000)/1000000 = 0.03366 coins
## yi-large
Pricing:
¥20 /1M tokens
1 tk = (20 * 34000)/1000000 = 0.68 coins
## yi-medium
Pricing:
¥2.5 /1M tokens
1 tk = (2.5 * 34000)/1000000 = 0.085 coins
## yi-vision
Pricing:
¥6 /1M tokens
1 tk = (6 * 34000)/1000000 = 0.204 coins
## yi-medium-200k
Pricing:
¥12 /1M tokens
1 tk = (12 * 34000)/1000000 = 0.408 coins
## yi-spark
Pricing:
¥1 /1M tokens
1 tk = (1 * 34000)/1000000 = 0.034 coins
## yi-large-rag
Pricing:
¥25 /1M tokens
1 tk = (25 * 34000)/1000000 = 0.85 coins
## yi-large-fc
Pricing:
¥20 /1M tokens
1 tk = (20 * 34000)/1000000 = 0.68 coins
## yi-large-turbo
Pricing:
¥12 /1M tokens
1 tk = (12 * 34000)/1000000 = 0.408 coins
注:这里计算时按照¥1=34000 coins
https://c-z0-api-01.hash070.com/v1# 4o-realtime 原始定价核算笔记
- gpt-4o-realtime-preview-2024-10-01
====TEXT====
input:
$5 / 1M tokens
1 tk = (5 * 250000)/1000000 = 1.25 coins
output:
$20 / 1M tokens
1 tk = (20 * 250000)/1000000 = 5 coins
====TEXT====
====Audio====
input:
$100 / 1M tokens
1 tk = (100 * 250000)/1000000 = 25 coins
output:
$200 / 1M tokens
1 tk = (200 * 250000)/1000000 = 50 coins
====Audio====# o1系列原始定价核算
o1-preview | o1-preview-2024-09-12
$15.00 / 1M input tokens
$60.00 / 1M output tokens
input:
$15 / 1M tokens
1 tk = (15 * 250000)/1000000 = 3.75 coins
output:
$60 / 1M tokens
1 tk = (60 * 250000)/1000000 = 15 coins
----
o1-mini | o1-mini-2024-09-12
$3.00 / 1M input tokens
$12.00 / 1M output tokens
input:
$3 / 1M tokens
1 tk = (3 * 250000)/1000000 = 0.75 coins
output:
$12 / 1M tokens
1 tk = (12 * 250000)/1000000 = 3 coins
====
OpenAI o1-preview
o1-preview is our new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
Learn about o1-preview
Model
Pricing
o1-preview
$15.00 / 1M input tokens
$60.00 / 1M output tokens
o1-preview-2024-09-12
$15.00 / 1M input tokens
$60.00 / 1M output tokens
OpenAI o1-mini
o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
Learn about o1-mini
Model
Pricing
o1-mini
$3.00 / 1M input tokens
$12.00 / 1M output tokens
o1-mini-2024-09-12
$3.00 / 1M input tokens
$12.00 / 1M output tokensgemini-1.5-pro-exp-0827 和 gemini-1.5-flash-exp-0827 (定价分别对应1.5 pro和1.5 flash)gemini-1.5-pro-exp-0801# gemini 1.5 pro 原始定价计算笔记
----
Input price (per 1M tokens)
$3.50 for <= 128K tokens
$7.00 for > 128K tokens
----
input: for <= 128K tokens:
$3.50 /1M tokens
1 tk = (3.50 * 250000)/1000000 = 0.875 coins
input: for > 128K tokens:
$7.00 /1M tokens
1 tk = (7.00 * 250000)/1000000 = 1.75 coins
----
Output price (per 1M tokens)
$10.50 for <= 128K tokens
$21.00 for > 128K tokens
----
output: for <= 128K tokens
$10.50 /1M tokens
1 tk = (10.50 * 250000)/1000000 = 2.625 coins
output: for > 128K tokens
$21.00 /1M tokens
1 tk = (21.00 * 250000)/1000000 = 5.25 coins
=====================================
# gemini 1.5 flash 原始定价计算笔记
----
Input price (per 1M tokens)
$0.075 for <= 128K tokens
$0.15 for > 128K tokens
----
input: for <= 128K tokens:
$0.075 /1M tokens
1 tk = (0.075 * 250000)/1000000 = 0.01875 coins
input: for > 128K tokens:
$0.15 /1M tokens
1 tk = (0.15 * 250000)/1000000 = 0.0375 coins
----
Output price (per 1M tokens)
$0.30 for <= 128K tokens
$0.60 for > 128K tokens
----
output:
$0.30 /1M tokens
1 tk = (0.30 * 250000)/1000000 = 0.075 coins
output:
$0.60 /1M tokens
1 tk = (0.60 * 250000)/1000000 = 0.15 coins# Opus输入与读取缓存:
cache_creation_input_tokens:
$18.75 / 1M input tokens
1 tk = (18.75 * 250000)/1000000 = 4.6875 coins
cache_read_input_tokens:
$1.50 / 1M input tokens
1 tk = (1.50 * 250000)/1000000 = 0.375 coins
# Claude 3.0 Haiku输入与读取缓存:
cache_creation_input_tokens:
$0.30 / 1M input tokens
1 tk = (0.30 * 250000)/1000000 = 0.075 coins
cache_read_input_tokens:
$0.03 / 1M input tokens
1 tk = (0.03 * 250000)/1000000 = 0.0075 coins
# Claude 3.5 Sonnet输入与读取缓存:
cache_creation_input_tokens:
$3.75 / 1M input tokens
1 tk = (3.75 * 250000)/1000000 = 0.9375 coins
cache_read_input_tokens:
$0.30 / 1M input tokens
1 tk = (0.30 * 250000)/1000000 = 0.075 coins
chatgpt-4o-latestgpt-4o-2024-08-06gpt-3.5-turbo-0301 已停用 重写为 gpt-3.5-turbo
gpt-3.5-turbo-0613 已停用 重写为 gpt-3.5-turbo
gpt-3.5-turbo-16k 已停用 重写为 gpt-3.5-turbo
gpt-3.5-turbo-16k-0613 已停用 重写为 gpt-3.5-turbo
gpt-4-0314 已停用 重写为 gpt-4
gpt-4-vision-preview | gpt-4-1106-vision-preview 已停用 重写为 gpt-4oclaude-3-5-sonnetclaude-3-5-sonnet-20240620gemini-1.5-pro-001gemini-1.5-flash-001/v1/models API变更{
"object": "list",
"data": [
{
"id": "gpt-3.5-turbo",
"object": "model",
"created": 1717133244679,
"owned_by": "OhMyGPT"
}...
]
}Gemini 1.5 原始费用核算笔记
# Gemini 1.5 Pro
Price (input)
$3.50 / 1 million tokens (for prompts up to 128K tokens)
1 tk = (3.5 * 250000) / 1000000 = 0.875 coins
$7.00 / 1 million tokens (for prompts longer than 128K)
1 tk = (7 * 250000) / 1000000 = 1.75 coins
Price (output)
$10.50 / 1 million tokens (for prompts up to 128K tokens)
1 tk = (10.5 * 250000) / 1000000 = 2.625 coins
$21.00 / 1 million tokens (for prompts longer than 128K)
1 tk = (21 * 250000) / 1000000 = 5.25 coins
# Gemini 1.5 Flash
Price (input)
$0.35 = 1 million tokens (for prompts up to 128K tokens)
1 tk = (0.35 * 250000) / 1000000 = 0.0875 coins
$0.70 = 1 million tokens (for prompts longer than 128K)
1 tk = (0.7 * 250000) / 1000000 = 0.175 coins
Price (output)
$1.05 / 1 million tokens (for prompts up to 128K tokens)
1 tk = (1.05 * 250000) / 1000000 = 0.2625 coins
$2.10 / 1 million tokens (for prompts longer than 128K)
1 tk = (2.1 * 250000) / 1000000 = 0.525 coins# 0514 GPT4o原始定价核算
gpt-4o | gpt-4o-2024-05-13 $5.00 / 1M tokens $15.00 / 1M tokens
- gpt-4o
- gpt-4o-2024-05-13
input:
$5 = 1M tokens
1 tk = (5 * 250000)/1000000 = 1.25 coins
output:
$15 = 1M tokens
1 tk = (15 * 250000)/1000000 = 3.75 coins "stream_options":{
"include_usage": true
}data: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04-09","system_fingerprint":"fp_0737e0dfd9","choices":[{"index":0,"delta":{},"logprobs":null,"finish_reason":"length"}],"usage":null}
data: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04-09","system_fingerprint":"fp_0737e0dfd9","choices":[],"usage":{"prompt_tokens":778,"completion_tokens":10,"total_tokens":788}}
data: [DONE]TA/Qwen/Qwen1.5-0.5B-Chat
TA/Qwen/Qwen1.5-1.8B-Chat
TA/Qwen/Qwen1.5-4B-Chat
TA/Qwen/Qwen1.5-7B-Chat
TA/codellama/CodeLlama-7b-Instruct-hf
TA/meta-llama/Llama-2-7b-chat-hf
TA/meta-llama/Llama-3-8b-chat-hf
TA/mistralai/Mistral-7B-Instruct-v0.1
TA/mistralai/Mistral-7B-Instruct-v0.2
TA/google/gemma-7b-it
TA/Qwen/Qwen1.5-14B-Chat
TA/WizardLM/WizardLM-13B-V1.2
TA/meta-llama/Llama-2-13b-chat-hf
TA/Qwen/Qwen1.5-32B-Chat
TA/zero-one-ai/Yi-34B-Chat
TA/deepseek-ai/deepseek-coder-33b-instruct
TA/codellama/CodeLlama-34b-Instruct-hf
TA/Qwen/Qwen1.5-72B-Chat
TA/deepseek-ai/deepseek-llm-67b-chat
TA/codellama/CodeLlama-70b-Instruct-hf
TA/meta-llama/Llama-2-70b-chat-hf
TA/meta-llama/Llama-3-70b-chat-hf
TA/Qwen/Qwen1.5-110B-Chat
TA/mistralai/Mixtral-8x7B-Instruct-v0.1
TA/mistralai/Mixtral-8x22B-Instruct-v0.1deepseek-codergpt-3.5-turbo-web-rev 利用免登chatgpt逆向出来的,延迟还算可以接受,每次成功的请求象征性扣几十代币,接近免费,按次数而不是按Token,Tokens多的情况下会非常实用deepseek-chatcommand-r : (据说)对标OAI家的gpt-3.5-turbo的模型command-r-plus : (据说)对标的是Anthropic家的C3 Sonnetcommand-r-online : 在CR的基础上,附加了官方内置的web-search功能command-r-plus-online : 在CRP的基础上,附加了官方内置的web-search功能tools 参数,现在Claude也可以使用ToolCall了,看上去内置了思维链推理,比OpenAI的TC更牛x一点点:{
"model": "claude-3-opus-20240229",
"max_tokens": 1024,
"messages": [
{
"role": "user",
"content": "今天狗库克的股票现在跌倒哪里了?"
}
],
"stream": false,
"tools": [
{
"name": "get_stock_price",
"description": "Get the current stock price for a given ticker symbol.",
"input_schema": {
"type": "object",
"properties": {
"ticker": {
"type": "string",
"description": "The stock ticker symbol, e.g. AAPL for Apple Inc."
}
},
"required": [
"ticker"
]
}
}
]
}{
"id": "msg_01HVfeUwYukk6pWKzkGWsn8h",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "<thinking>\nThe user is asking about the current stock price for \"狗库克\" which likely refers to Tim Cook, the CEO of Apple Inc. To get the current stock price, I would need to use the get_stock_price function and provide the ticker symbol for Apple, which is AAPL.\n\nThe user provided enough context to infer the parameter value needed:\nticker: Based on the reference to \"狗库克\" (a nickname for Tim Cook), the ticker symbol for Apple (AAPL) can be inferred.\n\nSince the required parameter can be inferred from the context, I can proceed with the function call.\n</thinking>"
},
{
"type": "tool_use",
"id": "toolu_01Tmx5NLhQZ7hEUpnYUGSPqV",
"name": "get_stock_price",
"input": {
"ticker": "AAPL"
}
}
],
"model": "claude-3-opus-20240229",
"stop_reason": "tool_use",
"stop_sequence": null,
"usage": {
"input_tokens": 507,
"output_tokens": 199
}
}0.5OpenAI.Chat.Completions 兼容接口中使用。claude-3-opus-patchclaude-3-sonnet-patchclaude-3-haiku-patchclaude-3-haiku | claude-3-haiku-20240307claude-3-opus C3 (大杯)claude-3-sonnet C3 (中杯)dimensions parameter support for embedding v3 models/gs 什么是“芝士雪豹”?text-davinci-003
text-davinci-002
text-ada-001
text-babbage-001
text-curie-001code-davinci-edit-001
text-davinci-edit-001text-search-ada-doc-001VIP 600 RPM => 1k RPM
PREMIUM 0.5w RPM => 1w RPMgpt-3.5-turbo 、 gpt-3.5-turbo-16k 、 gpt-4 以及 gpt-4-32k ,其中 gpt-4-32k 统一由微软云Azure提供可靠的模型推理服务。信用卡/Apple/Google/WeChat Pay 等方式直接用美金充值,同时获得正式的发票和收据。https://cn2us02.opapi.win/v1/https://cfcus02.opapi.win/v1/https://cfwus02.opapi.win/v1/