OhMyGPT公开API文档
    OhMyGPT公开API文档
    • 本站介绍
    • 更新日志
    • 新版网站介绍
    • 自助开票系统使用文档
    • Telegram Bot使用文档
    • 自建Cloudflare Worker反代教程
    • Files文件存储服务 开放API
      • 文件存储服务
      • 文件上传
        POST
      • 文件信息更新
        POST
      • 删除文件
        POST
      • 用户查询 (分页)
        POST
      • 文件下载接口(Public公开文件下载)
        GET
      • 文件下载接口(Private私有文件下载)
        GET
    • OAuth开放API
      • 开放OAuth API介绍
      • 用户授权页
        GET
      • Code展示页
        GET
      • 申请access_token
        POST
      • 读取用户基本信息
        POST
      • 读取用户余额信息
        POST
      • 收取用户费用
        POST
      • 为用户创建一个Stripe Checkout充值订单
        POST
      • 为用户创建一个Stripe Invoice充值订单
        POST
      • 调用其它开放API
        POST
      • 通过OAuth Token读取用户管理Token
        POST
      • 通过OAuth Token更新用户管理Token
        POST
    • Midjourney、SD图像生成 API
      • Midjourney开放API接口
        • Midjourney服务说明文档
        • Midjourney 文生图 任务创建
        • Midjourney 执行动作 任务创建
        • Midjourney Blend 混合图生图 任务创建
        • Midjourney Describe prompt提取 任务创建
        • Midjourney 查询指定任务ID 的执行状态
        • Midjourney 分页批量查询任务
        • 从对象存储获取Midjourney生成的图片
        • 通过WSRV反代Discord图片
        • 通过WSRV反代并压缩Discord图片
        • 从对象存储+WSRV获取Midjourney生成的图片
        • 从对象存储+WSRV获取Midjourney生成的图片(压缩)
      • 其它图像生成API
        • ND图像生成 API
      • Flux图像生成
        • Flux Schnell 图像生成
        • Flux Dev 图像生成
        • Flux Pro 图像生成
        • Flux Pro 1.1 图像生成
        • Flux 1.1 Pro Ultura 图像生成
    • 管理API列表
      • 创建新的API Key
      • 修改API Key信息
      • 查询用户所有的API Key
      • 删除指定API Key
      • 查询用户会员到期日期接口
      • 用户余额查询接口
      • 查询当前模型倍率接口
    • Claude
      • Anthropic 原生 Messages API
      • Anthropic 原生 Completions 企业商用 API
      • Anthropic 原生 Messages Token Count API
    • OpenAI
      • 关于OpenAI兼容API接口说明
      • 关于Azure OpenAI API接口服务说明
      • Audio
        • TTS文本转语音服务
      • Chat
        • Chat Completion
        • Completion (Legacy)
      • Images
        • DALL-E AI 图像生成
        • Image Edit
      • Embeddings
        • Embeddings
      • Realtime 实时通话端点
      • Models
    • 其它开放API
      • 搜索API
        • Google Custom Search API
        • Google Search By Serper
      • Azure API
        • Azure 文本转语音
        • Azure 获取TTS 语音列表

    更新日志

    25-0424更新:#

    新增支持OAI最新发布的GPT Image 1模型:
    gpt-image-1
    注:
    此模型不便宜,普通生成一次大约1~2块,站长在调试时也没有发现特别强的图像生成能力 (至少在二刺螈方面非常一般) ,谨慎调用。

    25-0419更新:#

    新增支持Gemini 2.5 Flash Preview 04-17的思考输出和普通输出分别计费功能
    新增 Gemini 2.5 Flash Preview 04-17 禁止思考版本:使用 gemini-2.5-flash-preview-04-17-thinking-disabled 请求即可禁止进行思考,直接输出,适用于快速翻译场景

    25-0418更新:#

    新增支持Gemini 2.5 Flash Preview 04-17
    gemini-2.5-flash-preview-04-17
    注意: Gemini 2.5 Flash模型输出时的思考定价和普通输出定价不一致,由于Google AI官方API的兼容接口没有返回思考Tokens用量,暂时统一按照思考输出的定价计算输出费用,预计明天分开计算,暂时不建议使用。
    o系列兼容性优化:将o系列等不再支持 max_tokens 参数的模型请求自动重写到 max_completion_tokens 参数上
    自动重试机能优化:优化了自动重试机制,尽可能避免了返回近期用户反馈的400、404等模型偶尔无法正常访问的问题

    25-0417更新:#

    新增支持OpenAI最新发布的o3和o4m系列:
    o3
    o3-2025-04-16
    o4-mini
    o4-mini-2025-04-16
    新增支持字节ARK的Doubao 1.5 Thinking Pro系列(限时5折中):
    doubao-1.5-thinking-pro-250415
    doubao-1.5-thinking-pro-vision-250415

    25-0416更新:#

    新增Claude In OAI兼容接口中的C37S模型的开启思考功能:
    在OpenAI Chat.Completion API中,模型名称传入 claude-3-7-sonnet-20250219 + -thinking-enabled ( 例如 claude-3-7-sonnet-20250219-thinking-enabled ),即可开启思考兼容性支持
    示例:
    {
        "model": "claude-3-7-sonnet-20250219-thinking-enabled",
        "messages": [
            {
                "role": "user",
                "content": "来一个10字唐诗"
            }
        ],
        "stream": false
    }
    响应:
    {
        "id": "chatcmpl-f5YCgBV1YWsGe8T6XtHT5DB9CgUak",
        "object": "chat.completion",
        "created": 1744813755,
        "model": "claude-3-7-sonnet-20250219",
        "choices": [
            {
                "index": 0,
                "message": {
                    "role": "assistant",
                    "content": "<think>我需要创作一个10字的唐诗。唐诗通常有不同的格式,如五言、七言等,但这里要求是10字的诗。10字诗不是传统唐诗的常见格式,但我可以创作一个包含10个汉字的诗句,注意平仄和意境。\n\n我可以提供一个单行的10字诗句,或者是一个由多行组成、总共10个字的小诗。\n\n方案1:一行10字的诗句\n例如:\n\"春风拂面花香满山间\"(11字,不符合)\n\"明月高挂夜静人独思\"(10字,符合)\n\"青山绿水鸟语花香时\"(10字,符合)\n\n方案2:总共10字的多行小诗\n例如:\n\"春风拂面,\n 花香满园。\"\n(8字,不符合)\n\n\"孤山远,\n 流水长,\n 人归处。\"\n(7字,不符合)\n\n\"明月光,\n 思故乡,\n 人未归。\"\n(9字,不符合)\n\n我选择提供一个10字的单行诗句,注意营造优美的意境和符合中国传统诗词的韵律感:\n\n\"明月高挂夜静人独思\"\n这个诗句描绘了一个月明之夜,一个人在静夜中独自思念的场景,有一种淡淡的忧伤和思乡之情。\n\n或者\n\n\"青山绿水鸟语花香时\"\n这个诗句描绘了一个自然和谐、生机勃勃的美丽春景。\n\n我再想一些其他的10字诗句:\n\n\"秋风萧瑟落叶满庭院\"(10字)\n\"远山如黛细雨润青苔\"(10字)\n\"晨曦微露山水入梦来\"(10字)\n\"小桥流水人家烟雨中\"(10字)\n\n考虑到唐诗的风格和意境,我选择:\n\n\"山高水长云淡风轻时\"\n这个诗句描绘了一个宁静优美的自然景象,表达了对自然和谐之美的赞美。\n\n我再考虑一下平仄和韵律:\n\n\"青山流水云淡月如钩\"\n这个诗句既有自然景物描写,又有一些意境的营造,最后的\"钩\"字作为韵脚,给人一种圆满感。\n\n按照唐诗的传统,通常会有一个题目。我可以为这首10字诗取名为《夜思》或《山水》。\n\n最终,我决定提供一首10字唐诗:\n\n《山水》\n青山流水云淡月如钩</think>\n# 十字唐诗\n\n## 《山居即景》\n青山绿水鸟语花香时\n\n---\n\n注:这是一首描绘山中美好景色的简短诗句,将自然之美浓缩于十字之中。",
                    "refusal": null
                },
                "logprobs": null,
                "finish_reason": "stop"
            }
        ],
        "usage": {
            "prompt_tokens": 45,
            "completion_tokens": 881,
            "total_tokens": 926
        }
    }

    25-0415更新:#

    新增支持最新的GPT-4.1系列模型:
    gpt-4.1
    gpt-4.1-2025-04-14
    gpt-4.1-mini
    gpt-4.1-mini-2025-04-14
    gpt-4.1-nano
    gpt-4.1-nano-2025-04-14
    新增支持最新的GROK-3系列模型:
    grok-3-beta
    grok-3-mini-beta
    grok-3-mini-fast-beta
    grok-3-fast-beta
    定价数据:https://next.ohmygpt.com/pricing

    25-0326更新:#

    支持字节跳动最新的DS V3 250324 ark-deepseek-v3-250324 ,字节平台超高并发,独家7折(ARK R1 5折)
    旧版Gemini兼容方案回归:
    可以通过以下任意一种方式使用旧版的Gemini兼容方案,作为谷歌官方的OAI兼容方案目前的空回复等问题的临时备选方案:
    在gemini模型名称后面加上 -legacy-support 后缀
    设置HTTP Header
    Key: x-gemini-legacy-support
    Value: true

    25-0323更新:#

    Gemini系列模型更换为官方的OAI兼容方案,完美支持函数调用,图像识别,语音识别等功能
    支持Cohere最新的CommandA模型: command-a-03-2025
    新版Next站已上线,近期快速开发中,完成Chat功能开发后将彻底取代主站,欢迎体验和反馈:https://next.ohmygpt.com

    25-0313更新:#

    新增如下模型支持:
    gpt-4o-search-preview
    gpt-4o-search-preview-2025-03-11
    gpt-4o-mini-search-preview
    gpt-4o-mini-search-preview-2025-03-11
    新增相关参数支持:
    web_search_options
    相关文档:
    https://platform.openai.com/docs/api-reference/chat
    https://platform.openai.com/docs/guides/tools-web-search

    25-0228更新:#

    新增支持OpenAI最新发布的gpt4.5预览版,新增模型如下:
    gpt-4.5-preview
    gpt-4.5-preview-2025-02-27

    25-0226更新:#

    新增支持Google AI最新发布的G2FL正式版,新增模型如下:
    gemini-2.0-flash-lite
    gemini-2.0-flash-lite-001
    定价表:
    image.png

    25-0225更新:#

    新增支持Anthropic最新发布的C37S,新增模型如下:
    claude-3-7-sonnet-latest
    claude-3-7-sonnet-20250219
    价格和C35S一样
    新增Thinking推理,暂时只在Messages原生API中支持,需要添加以下参数开启思考:
        "thinking": {
            "type": "enabled",
            "budget_tokens": 1024
        },
    示例:
    {
        "model": "claude-3-7-sonnet-20250219",
        "messages": [
            {
                "role": "user",
                "content": "简单分析一下OpenAI不开源的原因"
            }
        ],
        "thinking": {
            "type": "enabled",
            "budget_tokens": 1024
        },
        "stream": false,
        "max_tokens": 2048
    }
    拓展输出Beta功能已支持:
    在Messages原生API请求C37时增加这个Header即可将输出拓展到128k,否则默认最大限制64k
    Header: anthropic-beta
    Value: output-128k-2025-02-19

    25-0224更新:#

    字节ARK官方的DS优惠彻底结束了,但是本站用户继续享受特惠折扣,价格很便宜,欢迎使用或接入:
    ARK DeepSeek R1 继续持续5折特惠 ( ark-deepseek-v3-241226 )
    ARK DeepSeek V3 本站用户独享7折折扣 ( ark-deepseek-v3-241226 )
    image.png
    旧版网页内置的Chat页面DeepSeek R1/V3改为由ARK提供(之前由TA/Azure提供
    新增Cohere Aya模型(没找到相关的官方定价,就先免费了):
    c4ai-aya-expanse-32b
    c4ai-aya-expanse-8b

    25-0221更新:#

    新增OpenAI Omni Moderation模型支持:
    omni-moderation-latest
    omni-moderation-2024-09-26
    ARK DeepSeek V3本站用户现独享8折折扣 ( ark-deepseek-v3-241226 )
    ARK DeepSeek R1现已经恢复5折,将在23号改为7折,同样是本站用户独享折扣 ( ark-deepseek-r1-250120 )
    18号到21号的ARK DS R1的消费已返还50%

    25-0220更新:#

    TA模型限时折扣取消,倍率由0.1恢复到1.1

    25-0218更新:#

    字节跳动ARK的DeepSeek R1和V3 API已恢复原价
    ark-deepseek-r1-250120
    原折扣价:输入 2 CNY / 百万 Tokens | 输出 8 CNY / 百万 Tokens
    现价:输入 4 CNY / 百万 Tokens | 输出 16 CNY / 百万 Tokens
    ark-deepseek-v3-241226
    原折扣价:输入 1 CNY / 百万 Tokens | 输出 4 CNY / 百万 Tokens
    现价:输入 2 CNY / 百万 Tokens | 输出 8 CNY / 百万 Tokens

    25-0212更新:#

    新增 o3-mini-rev 支持,按次数计费,一次成功的调用扣除 120 coins

    25-0209更新:#

    deepseek-chat 的定价已跟随官方提高:
    原价:输入1 CNY 缓存命中0.1 CNY 输出2 CNY
    现价:输入2 CNY 缓存命中0.5 CNY 输出8 CNY
    TA/deepseek-ai/DeepSeek-R1 限时折扣价:
    输入输出同价:5.15 元/百万 Tokens
    TA/deepseek-ai/DeepSeek-V3 限时折扣价:
    输入输出同价:0.92 元/百万 Tokens

    25-0207更新:#

    新增对于TA系列模型在Completions API的支持,即类似TA的DS R1现在可以在 /v1/completions API里使用了,某些软件可能会用得到
    移除部分已经下架的TA模型,如Qwen1.5
    新增 TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B 模型支持

    25-0206更新:#

    Google AI倍率变更: 0.2 => 1.05
    新增支持Gemini 2.0 Flash
    gemini-2.0-flash
    gemini-2.0-flash-001
    新增支持Gemini的各种免费的exp模型(但是exp和preview模型的配额超级低,仅供个人使用,不建议在prod场景中使用)
    gemini-2.0-flash-lite-preview-02-05
    gemini-2.0-flash-thinking-exp-01-21
    gemini-2.0-pro-exp-02-05

    25-0205更新:#

    新增支持由字节ARK提供的DS R1和V3模型推理服务:
    ark-deepseek-r1-250120
    ark-deepseek-v3-241226

    25-0204更新:#

    新增支持 TA/deepseek-ai/DeepSeek-V3
    新增支持免费的 TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B-free
    新增o1系列 max_tokens 兼容性支持 (o1系列不支持 max_tokens ,因此如果此值有定义,则将其赋值到 max_completion_tokens 并删除此值以保证其它软件的兼容性)
    增加对于官方 deepseek-reasoner 的Beta功能自定义最后一条assistant msg的“prefix”续写的兼容性支持

    25-0201更新:#

    新增支持OpenAI最新开放的闭源 o3-mini 系列API模型推理服务,新增如下模型支持
    o3-mini
    o3-mini-2025-01-31
    补充支持 4om-aup :
    gpt-4o-mini-audio-preview
    gpt-4o-mini-audio-preview-2024-12-17
    费用相比o1和o1m打骨折(
    25-0201晚 额外更新:
    在群友的提醒下, o1-mini 的价格也已经降低了,已同步下调价格。
    image.png
    image.png
    鸣谢:
    DeepSeek 深度求索

    25-0130更新:#

    新增由TA托管的开源DeepSeek R1模型(671B满血版),可作为DS官网近期稳定性问题的替代方案:
    TA/deepseek-ai/DeepSeek-R1
    目前输入输出费用:3.5 美元/百万Tokens
    鸣谢:
    DeepSeek 深度求索

    25-0129更新:#

    新增本站自行托管的开源DeepSeek R1模型,目前免费开放中,可作为DS官网近期稳定性问题的替代方案:
    ohmygpt/deepseek-r1-32b
    ohmygpt/deepseek-r1-1.5b
    鸣谢:
    DeepSeek 深度求索
    另外,今天是农历新年,祝大家身体健康,万事如意。

    25-0120更新:#

    新增支持 deepseek-reasoner 模型
    注: 出于兼容性考虑,当请求此模型时,会移除此模型不支持的 temperature top_p presence_penalty frequency_penalty

    25-0118更新:#

    旧版聊天页面新增支持默认的ChatGPT 4o Free ( gpt-4o-web-rev ),所有用户可免费使用
    API更新支持 gpt-4o-web-rev 逆向模型,定价依然是按次数收费,一块钱大约可调用566次4o,接近免费,此服务由内部开发小组维护,稳定性会好一些,但是不推荐用于商用或正式Prod用途

    25-0114更新:#

    新增支持o1正式版的stream兼容性适配,由于官方API中的o1不支持stream流式请求,许多软件会无法使用o1,为了拓展兼容性,当请求o1 stream模式时,本站会以同步的方式请求官方o1 API,然后将结果转换成Stream格式返回从而实现兼容。

    25-0112更新:#

    新增支持o1正式版,新增支持模型名称如下:
    o1
    o1-2024-12-17
    定价表可以在Next站Pricing页面查看:
    image.png

    25-0108更新:#

    新增支持DeepSeek系列模型在Completions API调用,支持DS的FIM Completion
    补充支持DeepSeek系列模型缓存的Tokens记录到账单详情中
    添加 gemini-1.5-pro 模型名称
    附:
    FIM示例:
    POST: /v1/completions
    {
        "model": "deepseek-chat",
        "prompt": "This is a JSON: '",
        "suffix": "', done."
    }
    ``
    
    # 25-0106更新:
    
    - 跟进更新01AI模型名称支持,新增支持 `yi-vision-v2`
    - 移除已弃用01AI模型支持,但是保留兼容性的模型重写功能
    
    # 25-0105更新:
    
    - 重构Chat.Completions API中GPT系列模型的计费模块,现已支持缓存计费,缓存计费细则可以在Next站Pricing页面查看[1]
    - DeepSeek系列模型URL从默认URL改成Beta URL,现在使用DeepSeek的用户可以使用一些DeepSeek的Beta功能[2]
    - 彻底移除一些旧版弃用模型的支持( `gpt-3.5-turbo-0301` , `gpt-3.5-turbo-0613` , `gpt-3.5-turbo-16k-0613` , `gpt-4-0314` , `gpt-4-32k` , `gpt-4-32k-0314` , `gpt-4-32k-0613` )(为保证旧版程序的兼容性,这些旧版模型名称将会被自动重写到新的同级别的模型名称)
    
    [1] Next站 Pricing页面 https://next.ohmygpt.com/pricing
    [2] DeepSeek Beta https://api-docs.deepseek.com/guides/chat_prefix_completion
    
    # 25-0103更新:
    
    - 优化API响应速度:修复因Socket.IO Stream Adapter导致的内部Redis服务性能下降,从而连带导致API响应速度变慢的问题
    
    # 25-0102更新:
    
    - DeepSeek系列模型计费函数调用错误,导致使用该模型的用户会收到异常扣费,接到用户反馈后已快速修复这个Bug
    - 为补偿所有受到此Bug影响的用户,在24-1230到25-0102期间所有用户对于deepseek相关的模型调用费用将被免除并返还到余额中,正在统计并会尽快处理
    
    # 24-1231更新:
    
    - DeepSeek系列模型的费率从1.1改为1,即不再收取额外费用
    - 重构DeepSeek系列模型计费模块,支持CacheHitTokens计费
    - Next站的Pricing页面增加DeepSeek系列模型定价展示
    
    最后祝诸位2025年新年快乐!
    
    # 24-1229更新:
    
    感谢群友@Bryce的赞助,现在以下豆包模型限时免费中,大家随便玩:
    
    - `doubao-pro-128k-240628`
    - `doubao-pro-32k-241215`
    - `doubao-pro-4k-240515`
    - `doubao-pro-4k-character-240728`
    - `doubao-lite-4k-240328`
    - `doubao-lite-4k-character-240828`
    
    ps: 目测最强的应该是 `doubao-pro-32k-241215` ,感兴趣的uu可以来玩玩试试效果
     
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/486969/image-preview)
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/486968/image-preview)
    
    # 24-1228更新:
    
    - 新增支持字节跳动的豆包系列大模型
    - 新增支持月之暗面的moonshot v1系列大模型(由字节跳动的火山平台提供)
    - 倍率为1(即直接就是原价,0加价,不考这个赚米,大家用着方便就行)
    
    定价详情见Next站Pricing页面:https://next.ohmygpt.com/pricing
    
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/486929/image-preview)
    
    # 24-1221更新:
    
    - Google AI系列模型2折特惠中
    - 改进Google AI系列自动重试功能的稳定性
    
    # 24-1219更新:
    
    - 新增支持最新的24-1217版本的Realtime系列模型,新版的4o Realtime降价很多,mini的价格也是更加便宜,带上高命中率的缓存功能,价格已经到了还算能接受的程度了:
    
    `gpt-4o-realtime-preview-2024-12-17`
    `gpt-4o-mini-realtime-preview`
    `gpt-4o-mini-realtime-preview-2024-12-17`
    
    - 支持Realtime系列模型的缓存计费功能。
    - 更新Next站的实时通话Demo,现在可以在Next站的相关Demo中体验新版的Realtime系列模型:https://next.ohmygpt.com/chat 镜像:https://next.aigptx.top/chat
    
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/485118/image-preview)
    
    
    # 24-1218更新:
    
    - 新增最新的 `gpt-4o-audio-preview-2024-12-17` 模型支持,音频输入输出价格相较于原有的4oA1001下降很多。
    - 关于最新发布的 `o1` 正式版,由于OAI并未全量开放,我这边看了一堆Tier5的号也没有发现有o1正式版API权限的,因此今天并没有接入,等待后续OAI开放。
    - Chat.Completions API新增支持 `reasoning_effort` 可选参数,可以调整o1系列模型思考时的“努力程度”,根据官方文档[1],这个参数仅对o1系列有意义。
    - “消费记录”部分新增支持缓存字段以及音频输入输出字段,现在可以在Next站的用量统计/消费记录中查询这些数据。
    - 新的4o-realtime1217会在明天接入,今天新增一些这些字段的支持占用了一些时间。
    
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/484617/image-preview)
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/484618/image-preview)
    
    [1] OpenAI 官方文档 https://platform.openai.com/docs/api-reference/chat/create
    
    # 24-1205更新:
    
    - 优化Next站的余额展示功能,现在会显示估算后的法币价值,APIKey管理表格中也在添加了相应的法币价值估算
    - Next站APIKey管理页面添加了API端点展示
    - 增加一个CF反代搭建教程文档,可实现简单且安全的API原始数据记录和模型名称重写功能:https://ohmygpt-docs.apifox.cn/doc-5628298
    
    
    # 24-1127更新:
    
    - 新上线文件存储业务 `file-v1`
    
    此业务计划将作为一个安全、高速、高性价比、可控的文件服务,为任何涉及文件处理相关业务提供基础服务,例如为AI服务提供多模态文件临时存储/文档上传下载等功能,您也可以利用本站的存储服务做图床等用途。
    
    所有用户可免费使用1GB的文件存储空间,超出后按照此定价标准计费:
    
    定价:
    
    `$ 9.9 / TB / Month`
    
    除此之外,无任何额外费用,请求与出口流量费用全免
    
    文档:https://ohmygpt-docs.apifox.cn/doc-5575792
    
    # 24-1126更新:
    
    - 新增支持 Claude Count Message tokens API `/v1/messages/count_tokens`
    
    文档: https://ohmygpt-docs.apifox.cn/api-237994522
    
    新的文件系统原计划今天上线的,但是由于折腾CDN缓存问题踩了一大堆坑,因此将推迟一两天
    
    # 24-1123更新:
    
    - 已在Anthropic原生Messages接口支持官方内置的PDF输入功能,要使用此功能,您需要在 `anthropic-beta` 请求头中添加  `pdfs-2024-09-25` 关键字以启用这个Beta功能:
    
    anthropic-beta: pdfs-2024-09-25,prompt-caching-2024-07-31
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/478988/image-preview)
    
    # 24-1121更新:
    
    - 新增支持最新的 `gpt-4o-2024-11-20` 模型,价格和上个版本的24-0806没变化
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/478460/image-preview)
    
    # 24-1116更新:
    
    - 改善模型用量统计图表的颜色区分度
    - Next站新增一个实时聊天室的技术展示Demo,欢迎来测试体验(就是放出来公测一下实际使用效果如何):
    
    Demo(主站): https://next.ohmygpt.com/tools
    Demo(镜像): https://next.aigptx.top/tools
    
    Feature:
    1. 基于Socket.IO实现了相对可靠的客户端与服务端双向低延迟实时通信
    2. 此Demo背后没有关系数据库记录消息,纯靠框架emit发送消息
    3. 可以自行创建房间发起群聊
    4. 可暂时无限使用内置的AI聊天功能(模型Command R Plus(By Cohere)
    
    
    # 24-1111更新:
    
    - APIKey权限控制改版:
    
    为了避免更多用户对于旧Key无法直接调用新模型的疑惑,今天对网站APIKey相关模块进行了一些改进:
    
    所有APIKey现在已经新增一个“是否检查权限”的标识
    现在开始在网页中新建的Key不会再检查模型权限(在网页中创建的APIKey默认会将此标识设置为false)
    旧的Key可以手动关闭此开关以绕过模型权限检查
    出于安全考虑,系统中所有旧的APIKey的“是否检查权限”的标识被设置为true,即所有旧的APIKey权限检查仍会启用,无需担心旧Key受此影响
    
    
    # 24-1110更新:
    
    - 补充对于 `glm-4v-plus` 模型的支持,定价详见[1]
    
    [1] https://next.ohmygpt.com/pricing
    
    # 24-1109更新:
    
    - 新增Gemini系列JSON输出模式支持,相关实现细节见文档[1]
    - 新增 `gemini-1.5-flash-8b` 正式版模型支持,定价详见[2]
    
    [1] https://ohmygpt-docs.apifox.cn/api-123253693
    [2] https://next.ohmygpt.com/pricing
    
    # 24-1108更新:
    
    - 改进Gemini系列模型在OpenAI兼容接口中的消息拼接逻辑
    - 完善Claude系列模型OpenAI接口的兼容性,同时完善文档,展示相关实现细节[1]
    
    [1] https://ohmygpt-docs.apifox.cn/api-123253693
    
    # 24-1107更新:
    
    - 完善Claude系列模型在OpenAI兼容接口的Tools调用兼容性支持
    
    详见:https://ohmygpt-docs.apifox.cn/api-123253693
    
    # 24-1106更新:
    
    - Bot现已经支持PDF文件聊天
    
    https://t.me/getfunbot
    
    # 24-1105更新:
    
    - 支持最新的Claude 3.5 Sonnet,新增如下模型名称:
    - `claude-3-5-haiku`
    - `claude-3-5-haiku-latest`
    - `claude-3-5-haiku-20241022`
    
    - 新增新版的GLM系列模型支持
    - `glm-4-plus`
    - `glm-4-airx`
    - `glm-4-air`
    - `glm-4-long`
    - `glm-4-flashx`
    - `glm-4-flash`
    
    价格详情查看pricing页面:  https://next.ohmygpt.com/pricing
    
    # 24-1103更新:
    
    - 解决Next站Google/GitHub OAuth认证跳转问题
    - 完成新版的账户注册/密码重置逻辑(现在可以用验证码注册/重置账户密码了
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474969/image-preview)
    
    附:
    Next站主站: https://next.ohmygpt.com
    Next站镜像: https://next.aigptx.top
    
    
    至此新版网站的登录、注册、充值、API管理等功能基本上算是完工了,目前仅使用API的用户可以开始使用Next站了,网站下一步开发方向:
    
    - 向量检索服务与知识库问答服务
    - 完成基于对象存储的开放文件系统(用作文件上传相关的用途,同时也可以作为一个小网盘用
    - 完成新版网站的Chat功能(包括文件上传、插件系统、代码解释器、流程图、Agent等
    - 完成新版网站的图像生成功能
    - 完善TgBot,借助Tg平台的能力低成本实现更多有趣实用的功能
    - 接入更多API服务提供商以及更多模型
    - 开始基于日本公司开展一些业务
    
    
    # 24-1101更新:
    
    - 完成Next站用量明细查询功能,现在可以在Next站 `/settings/usage` 页面查询或导出用量详情
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474721/image-preview)
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474722/image-preview)
    
    附:
    Next站主站: https://next.ohmygpt.com/settings/usage
    Next站镜像: https://next.aigptx.top/settings/usage
    
    # 24-1031更新:
    
    - 完成Next站用量统计功能,现在可以在Next站 `/settings/usage` 页面查询用量统计图
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474549/image-preview)
    
    附:
    Next站主站: https://next.ohmygpt.com/settings/usage
    Next站镜像: https://next.aigptx.top/settings/usage
    
    
    # 24-1026更新:
    
    - 通过OpenAI兼容接口调用Claude系列和Gemini系列模型,现在开始会返回usage相关数据块
    - 完善定价展示页面:新增Claude和Gemini等部分模型的详细定价展示,可在Next站 `/pricing` 页面查看
    
    附:
    示例usage数据块:
    ```json
    {
        "id": "chatcmpl-hMOdfnoaXtcpCZwRJISUAzPtsfZKs",
        "object": "chat.completion.chunk",
        "created": 1729944958,
        "model": "claude-3-5-sonnet",
        "choices": [],
        "usage": {
            "prompt_tokens": 11,
            "completion_tokens": 8,
            "total_tokens": 19,
            "prompt_tokens_details": {
                "cached_tokens": 0
            },
            "completion_tokens_details": {
                "reasoning_tokens": 0
            }
        }
    }

    24-1024更新:#

    完善定价页面:新增OpenAI和01AI等部分模型的详细定价展示,可在Next站 /pricing 页面查看
    Next主站 https://next.ohmygpt.com/pricing
    Next镜像 https://next.aigptx.top/pricing
    Flux API已不再免费,详情查看定价页面
    1024程序员节快乐(写这条更新日志时才发现今天是1024

    24-1023更新:#

    新增支持Anthropic最新的 claude-3-5-sonnet-20241022

    24-1022更新:#

    新增支持牢马家X-AI的Grok系列模型,倍率1.1: grok-beta
    新增支持TA的Qwen2.5 7B/72B 模型
    自家开发的Telegram Bot[测试版]已经上线:@getfunbot ,目前积极开发新功能中,文档链接:https://ohmygpt-docs.apifox.cn/doc-5319532
    附:
    # Grok 原始定价笔记
    
    ## grok-beta
    
    PromptTokens:
    $5.00
    
    CompletionTokens:
    $15.00
    
    input:
    
    $5 / 1M tokens
    
    1 tk = (5 * 250000)/1000000 = 1.25 coins
    
    output:
    
    $15 / 1M tokens
    
    1 tk = (15 * 250000)/1000000 = 3.75 coins

    24-1018更新:#

    新增支持最新的 gpt-4o-audio-preview 系列模型,但是由于技术原因,暂时仅支支持该模型的非流调用,需要实时语音交互的用户请使用本站的 /v1/realtime 实时WebSocket端点
    自助开票系统更新,现在用户可以自助申请发起大陆公对公转账充值了(也是最低1元起开
    image.png
    系统说明文档: https://ohmygpt-docs.apifox.cn/doc-5305167
    附:
    # gpt-4o-audio-preview系列原始定价核算笔记
    
    gpt-4o-audio-preview
    gpt-4o-audio-preview-2024-10-01
    
    定价分析:
    
    Text
    $2.50 / 1M tokens
    $10.00 / 1M tokens
    Audio***
    $100.00 / 1M tokens
    $200.00 / 1M tokens
    
    ====TEXT====
    
    input:
    
    $2.5 / 1M tokens
    
    1 tk = (2.5 * 250000)/1000000 = 0.625 coins
    
    output:
    
    $10 / 1M tokens
    
    1 tk = (10 * 250000)/1000000 = 2.5 coins
    ====TEXT====
    
    ====Audio====
    
    input:
    
    $100 / 1M tokens
    
    1 tk = (100 * 250000)/1000000 = 25 coins
    
    output:
    
    $200 / 1M tokens
    
    1 tk = (200 * 250000)/1000000 = 50 coins
    ====Audio====

    24-1017更新:#

    新上线自助开票系统,现在用户可以自助申请和开具alipay/alipayEnterprise/CNB2B(大陆公对公转账)的订单的发票了,最低1元起开
    系统地址: https://ivs.dogenet.cn/
    系统说明文档: https://ohmygpt-docs.apifox.cn/doc-5305167

    24-1016更新:#

    新增支持01万物系列大模型:
    yi-lightning
    yi-large
    yi-medium
    yi-vision
    yi-medium-200k
    yi-spark
    yi-large-rag
    yi-large-fc
    yi-large-turbo
    倍率:1(原价转发)
    附:
    # yi模型 原始定价计算笔记
    
    ## yi-lightning
    
    Pricing:
    ¥0.99 /1M tokens
    
    1 tk = (0.99 * 34000)/1000000 = 0.03366 coins
    
    ## yi-large
    
    Pricing:
    ¥20 /1M tokens
    
    1 tk = (20 * 34000)/1000000 = 0.68 coins
    
    ## yi-medium
    
    Pricing:
    ¥2.5 /1M tokens
    
    1 tk = (2.5 * 34000)/1000000 = 0.085 coins
    
    
    ## yi-vision
    
    Pricing:
    ¥6 /1M tokens
    
    1 tk = (6 * 34000)/1000000 = 0.204 coins
    
    ## yi-medium-200k
    
    Pricing:
    ¥12 /1M tokens
    
    1 tk = (12 * 34000)/1000000 = 0.408 coins
    
    ## yi-spark
    
    Pricing:
    ¥1 /1M tokens
    
    1 tk = (1 * 34000)/1000000 = 0.034 coins
    
    ## yi-large-rag
    
    Pricing:
    ¥25 /1M tokens
    
    1 tk = (25 * 34000)/1000000 = 0.85 coins
    
    ## yi-large-fc
    
    Pricing:
    ¥20 /1M tokens
    
    1 tk = (20 * 34000)/1000000 = 0.68 coins
    
    ## yi-large-turbo
    
    Pricing:
    ¥12 /1M tokens
    
    1 tk = (12 * 34000)/1000000 = 0.408 coins
    
    注:这里计算时按照¥1=34000 coins
    

    24-1011更新:#

    新增针对亚太地区优化的CDN镜像:
    镜像站1: https://www.aigptx.top
    镜像站2: https://x.dogenet.win
    新版网站镜像1: https://next.aigptx.top
    纯API反代镜像: https://c-z0-api-01.hash070.com/v1
    (实测亚太地区访问速度一级棒,部分地区用户非常推荐)

    24-1005更新:#

    新增支持OpenAI最新的Realtime Endpoint以及4o-realtime预览版模型,现在可以和AI低延迟地实时通话了
    网页版已经上线开箱即用的聊天功能,现在就可在新版网页上体验:https://next.ohmygpt.com/chat 或 https://next.aigptx.top/chat
    新增支持的模型名称:
    gpt-4o-realtime-preview-2024-10-01
    附:
    文档:https://ohmygpt-docs.apifox.cn/websocket-3563866
    # 4o-realtime 原始定价核算笔记
    
    - gpt-4o-realtime-preview-2024-10-01
    
    ====TEXT====
    
    input:
    
    $5 / 1M tokens
    
    1 tk = (5 * 250000)/1000000 = 1.25 coins
    
    output:
    
    $20 / 1M tokens
    
    1 tk = (20 * 250000)/1000000 = 5 coins
    ====TEXT====
    
    ====Audio====
    
    input:
    
    $100 / 1M tokens
    
    1 tk = (100 * 250000)/1000000 = 25 coins
    
    output:
    
    $200 / 1M tokens
    
    1 tk = (200 * 250000)/1000000 = 50 coins
    ====Audio====

    24-0913更新#

    新增支持OpenAI最新的o1和o1 mini系列模型,目前并发配额非常低仅适合个人尝鲜使用(已支持API stream调用兼容大多数应用(将非stream响应结果转换成stream结果)),暂时不适用于产品上线生产使用,也不适用于沉浸式翻译
    现已支持大陆公对公转账和大陆电子发票开具,有需要的现在就可通过邮件或者tg直接私聊群主处理
    附:
    新增支持的模型名称:
    o1-preview
    o1-preview-2024-09-12
    o1-mini
    o1-mini-2024-09-12
    # o1系列原始定价核算
    o1-preview | o1-preview-2024-09-12
    
    $15.00 / 1M input tokens
    $60.00 / 1M output tokens
    
    input:
    
    $15 / 1M tokens
    
    1 tk = (15 * 250000)/1000000 = 3.75 coins
    
    output:
    
    $60 / 1M tokens
    
    1 tk = (60 * 250000)/1000000 = 15 coins
    
    
    ----
    
    o1-mini | o1-mini-2024-09-12
    
    $3.00 / 1M input tokens
    $12.00 / 1M output tokens
    
    
    input:
    
    $3 / 1M tokens
    
    1 tk = (3 * 250000)/1000000 = 0.75 coins
    
    output:
    
    $12 / 1M tokens
    
    1 tk = (12 * 250000)/1000000 = 3 coins
    
    ====
    
    OpenAI o1-preview
    o1-preview is our new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
    
    Learn about o1-preview
    Model
    Pricing
    o1-preview
    $15.00 / 1M input tokens
    $60.00 / 1M output tokens
    o1-preview-2024-09-12
    $15.00 / 1M input tokens
    $60.00 / 1M output tokens
    OpenAI o1-mini
    o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
    
    Learn about o1-mini
    Model
    Pricing
    o1-mini
    $3.00 / 1M input tokens
    $12.00 / 1M output tokens
    o1-mini-2024-09-12
    $3.00 / 1M input tokens
    $12.00 / 1M output tokens

    0828更新:#

    新增支持近期上榜的 gemini-1.5-pro-exp-0827 和 gemini-1.5-flash-exp-0827 (定价分别对应1.5 pro和1.5 flash)
    0825已新增支持Flux系列图像生成API 文档:https://ohmygpt-docs.apifox.cn/api-208347493

    24-0819更新#

    跟进下调gemini 1.5 flash费用计算公式
    新增支持 gemini-1.5-pro-exp-0801
    Gemini API服务提供商从谷歌云Vertex AI平台迁移到Google AI平台,Gemini相关模型并发量大幅提升
    关闭Gemini API内置审核
    附:
    # gemini 1.5 pro 原始定价计算笔记
    
    ----
    Input price (per 1M tokens)
    
    $3.50 for <= 128K tokens
    
    $7.00 for > 128K tokens
    ----
    
    input: for <= 128K tokens:
    
    $3.50 /1M tokens
    
    1 tk = (3.50 * 250000)/1000000 = 0.875 coins
    
    input: for > 128K tokens:
    
    $7.00 /1M tokens
    
    1 tk = (7.00 * 250000)/1000000 = 1.75 coins
    
    ----
    
    Output price (per 1M tokens)
    
    $10.50 for <= 128K tokens
    
    $21.00 for > 128K tokens
    
    ----
    
    output: for <= 128K tokens
    
    $10.50 /1M tokens
    
    1 tk = (10.50 * 250000)/1000000 = 2.625 coins
    
    output: for > 128K tokens
    
    $21.00 /1M tokens
    
    1 tk = (21.00 * 250000)/1000000 = 5.25 coins
    
    =====================================
    
    
    # gemini 1.5 flash 原始定价计算笔记
    
    ----
    Input price (per 1M tokens)
    
    $0.075 for <= 128K tokens
    
    $0.15 for > 128K tokens
    ----
    
    input: for <= 128K tokens:
    
    $0.075 /1M tokens
    
    1 tk = (0.075 * 250000)/1000000 = 0.01875 coins
    
    input: for > 128K tokens:
    
    $0.15 /1M tokens
    
    1 tk = (0.15 * 250000)/1000000 = 0.0375 coins
    
    
    ----
    Output price (per 1M tokens)
    
    $0.30 for <= 128K tokens
    
    $0.60 for > 128K tokens
    ----
    
    output:
    
    $0.30 /1M tokens
    
    1 tk = (0.30 * 250000)/1000000 = 0.075 coins
    
    
    output:
    
    $0.60 /1M tokens
    
    1 tk = (0.60 * 250000)/1000000 = 0.15 coins

    24-0815更新#

    添加对于Claude部分模型的Prompt Cache支持,对于超长文本的连续对话或许能节省大量成本,仅在Messages原生接口上实现了该功能支持,加上相应请求头才会生效,具体请参考:https://docs.anthropic.com/en/docs/build-with-claude/prompt-caching
    恢复Mj服务,但是价格比原来高一倍
    # Opus输入与读取缓存:
    
    cache_creation_input_tokens:
    
    $18.75 / 1M input tokens
    
    1 tk = (18.75 * 250000)/1000000 = 4.6875 coins
    
    cache_read_input_tokens:
    
    $1.50 / 1M input tokens
    
    1 tk = (1.50 * 250000)/1000000 = 0.375 coins
    
    # Claude 3.0 Haiku输入与读取缓存:
    
    cache_creation_input_tokens:
    
    $0.30 / 1M input tokens
    
    1 tk = (0.30 * 250000)/1000000 = 0.075 coins
    
    cache_read_input_tokens:
    
    $0.03 / 1M input tokens
    
    1 tk = (0.03 * 250000)/1000000 = 0.0075 coins
    
    # Claude 3.5 Sonnet输入与读取缓存:
    
    cache_creation_input_tokens:
    
    $3.75 / 1M input tokens
    
    1 tk = (3.75 * 250000)/1000000 = 0.9375 coins
    
    cache_read_input_tokens:
    
    $0.30 / 1M input tokens
    
    1 tk = (0.30 * 250000)/1000000 = 0.075 coins
    
    

    24-0813更新#

    支持 chatgpt-4o-latest

    24-0807更新:#

    1.
    新增支持最新的GPT-4 Omni 0806版本,价格比初代4Omni降低一大半
    新增支持模型名称:
    gpt-4o-2024-08-06
    2.
    新增实现部分API调用IP记录功能
    已在部分常用接口实装请求IP记录功能
    现可在账单查询功能中直接查看到对应的请求的IP
    出于安全考虑,来自开发者的OAuth APP的请求IP不会被记录
    附:

    24-0710更新:#

    后端鉴权模块重构完成,新版网站开发取得阶段性进展,新增全新的开放OAuth API,现在开发者将自己的项目接入到本站,从而快速地将各种AI能力接入到您的项目的同时,无需关注如用户管理、API整合以及计费等杂项,专注于功能的开发和实现,同时也有机会获取奖励、收益以及分成。详情请查看文档:https://ohmygpt-docs.apifox.cn/doc-4718106
    旧版模型重定向:
    本站已不再支持以下模型的转发,但是仍然支持通过这些模型名称调用API,在一定程度上保证旧版程序的兼容性
    gpt-3.5-turbo-0301 已停用 重写为 gpt-3.5-turbo
    gpt-3.5-turbo-0613 已停用 重写为 gpt-3.5-turbo
    gpt-3.5-turbo-16k 已停用 重写为 gpt-3.5-turbo
    gpt-3.5-turbo-16k-0613 已停用 重写为 gpt-3.5-turbo
    
    gpt-4-0314 已停用 重写为 gpt-4
    
    gpt-4-vision-preview | gpt-4-1106-vision-preview 已停用 重写为 gpt-4o

    24-0621更新:#

    支持Anthropic最新发布的Claude 3.5 Sonnet,价格和Claude 3 Sonnet完全相同,但是A说它的能力和速度比C3Opus强,同样支持通过Messages原生API调用,也支持通过OpenAI Chat.Completions 兼容API调用。
    claude-3-5-sonnet
    claude-3-5-sonnet-20240620
    (站长已在24-0614顺利毕业,目前已经恢复活跃状态(专心学习新芝士+写代码维护/开发新项目+稳步推进移民计划中)感谢大家一直以来的支持)

    24-0531更新:#

    1.
    支持谷歌最新的Gemini 1.5,新增模型支持:
    gemini-1.5-pro-001
    gemini-1.5-flash-001
    均支持Vision输入
    注:
    gemini-pro-vision 和 gemini-pro-vision 已指向 gemini-1.5-pro-001
    实测并发量小的可怜,目前仍然只适合尝鲜,后续会尝试申请提高配额
    2.
    /v1/models API变更
    现在会返回所有本站支持的模型名称
    {
        "object": "list",
        "data": [
            {
                "id": "gpt-3.5-turbo",
                "object": "model",
                "created": 1717133244679,
                "owned_by": "OhMyGPT"
            }...
        ]
    }
    附:
    Gemini 1.5 原始费用核算笔记
    
    # Gemini 1.5 Pro
    
    Price (input)
    
    $3.50 / 1 million tokens (for prompts up to 128K tokens)
    
    1 tk = (3.5 * 250000) / 1000000 = 0.875 coins
    
    $7.00 / 1 million tokens (for prompts longer than 128K)
    
    1 tk = (7 * 250000) / 1000000 = 1.75 coins
    
    Price (output)
    
    $10.50 / 1 million tokens (for prompts up to 128K tokens)
    
    1 tk = (10.5 * 250000) / 1000000 = 2.625 coins
    
    $21.00 / 1 million tokens (for prompts longer than 128K)
    
    1 tk = (21 * 250000) / 1000000 = 5.25 coins
    
    
    # Gemini 1.5 Flash
    
    Price (input)
    
    $0.35 = 1 million tokens (for prompts up to 128K tokens)
    
    1 tk = (0.35 * 250000) / 1000000 = 0.0875 coins
    
    $0.70 = 1 million tokens (for prompts longer than 128K)
    
    1 tk = (0.7 * 250000) / 1000000 = 0.175 coins
    
    Price (output)
    
    $1.05 / 1 million tokens (for prompts up to 128K tokens)
    
    1 tk = (1.05 * 250000) / 1000000 = 0.2625 coins
    
    $2.10 / 1 million tokens (for prompts longer than 128K)
    
    1 tk = (2.1 * 250000) / 1000000 = 0.525 coins

    24-0514更新:#

    1. 新增支持最新的GPT-4 Omni,OpenAI最先进的多模态模型。
    新增支持模型名称:
    gpt-4o
    gpt-4o-2024-05-13
    该模型目前和gpt-4-turbo一样,仅支持文字和图像混合推理+纯文本输出
    输入输出的价格相较于gpt4t降低70%到50%,再加上GPT4o的分词器优化,实际相同字数下,GPT4o的Token会少一大半,因此调用成本大约和gpt3.5在一个数量级上。
    参考:https://openai.com/index/hello-gpt-4o/
    附:
    # 0514 GPT4o原始定价核算
    
    gpt-4o | gpt-4o-2024-05-13 $5.00 / 1M tokens $15.00 / 1M tokens
    
    - gpt-4o
    - gpt-4o-2024-05-13
    
    input:
    $5 = 1M tokens
    
    1 tk = (5 * 250000)/1000000 = 1.25 coins
    
    output:
    $15 = 1M tokens
    
    1 tk = (15 * 250000)/1000000 = 3.75 coins
    2.
    移除普通用户的GPT4限制
    3.
    OpenAI流式请求的小变更
    服务端对于OpenAI模型的Stream请求做了一个变更,应该不会是一个破坏性的更新,当stream=true时,会强制加上以下这个参数,要求OpenAI的API返回关于此次请求的输入输出的Token数目
        "stream_options":{
            "include_usage": true
        }
    以后这边服务端的流请求也不需要再解析算Token了,一切以上游API报告的Token数目为准,不仅精简了不少代码,还提高了计费的准确性
    注意事项:
    此变更会导致流式请求多出来倒数第二行的Chunk:
    data: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04-09","system_fingerprint":"fp_0737e0dfd9","choices":[{"index":0,"delta":{},"logprobs":null,"finish_reason":"length"}],"usage":null}
    
    data: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04-09","system_fingerprint":"fp_0737e0dfd9","choices":[],"usage":{"prompt_tokens":778,"completion_tokens":10,"total_tokens":788}}
    
    data: [DONE]
    此末尾的tokens chunk是一个常见的AI SSE流输出实践,很多AI服务都有这个chunk,OpenAI目前也已原生支持。
    注意点:倒数第二行的这个choices是个空数组,如果您的代码使用了不安全的数组读取方法的话,在读倒数第二行可能会出现数组越界异常。
    如果您遇到了这个问题,我们建议改进您的程序的流解析代码,提高您的程序流式解析的健壮性。

    24-0510更新:#

    新增支持如下开源模型,支持通过OpenAI标准的Chat.Completions API调用:
    TA/Qwen/Qwen1.5-0.5B-Chat
    
    TA/Qwen/Qwen1.5-1.8B-Chat
    
    TA/Qwen/Qwen1.5-4B-Chat
    
    TA/Qwen/Qwen1.5-7B-Chat
    
    TA/codellama/CodeLlama-7b-Instruct-hf
    
    TA/meta-llama/Llama-2-7b-chat-hf
    
    TA/meta-llama/Llama-3-8b-chat-hf
    
    TA/mistralai/Mistral-7B-Instruct-v0.1
    
    TA/mistralai/Mistral-7B-Instruct-v0.2
    
    TA/google/gemma-7b-it
    
    TA/Qwen/Qwen1.5-14B-Chat
    
    TA/WizardLM/WizardLM-13B-V1.2
    
    TA/meta-llama/Llama-2-13b-chat-hf
    
    TA/Qwen/Qwen1.5-32B-Chat
    
    TA/zero-one-ai/Yi-34B-Chat
    
    TA/deepseek-ai/deepseek-coder-33b-instruct
    
    TA/codellama/CodeLlama-34b-Instruct-hf
    
    TA/Qwen/Qwen1.5-72B-Chat
    
    TA/deepseek-ai/deepseek-llm-67b-chat
    
    TA/codellama/CodeLlama-70b-Instruct-hf
    
    TA/meta-llama/Llama-2-70b-chat-hf
    
    TA/meta-llama/Llama-3-70b-chat-hf
    
    TA/Qwen/Qwen1.5-110B-Chat
    
    TA/mistralai/Mixtral-8x7B-Instruct-v0.1
    
    TA/mistralai/Mixtral-8x22B-Instruct-v0.1
    新增支持DeepSeek的Coder模型
    deepseek-coder

    24-0509更新:#

    24-0509更新通知
    由于低价的OAI渠道基本上已经无法维持网站的正常运转了,而且也可以遇见低价渠道将会逐渐消失,因此为了保证服务质量,决定正式转向正规付费,并将OpenAI的API倍率修改为1.1,即现在网站对于OpenAI的扣费价格是 官方价格*1.1 ,盈余会用于补贴支付网关的手续费、网站的运营费用并支持网站和公司的继续发展。
    这是一个艰难的决定,但是在本次调整后,API服务会更加稳定可靠,网站的商业模式也会更加正规和健康,请大家理解,并且感谢大家的支持。
    由于网站本身是通过美国公司运营的,名下开了一堆美国本土的公司账户,还有一堆借记卡和信用卡,因此在资金流转和账单支付方面是非常高效且方便的。
    image.png
    OpenAI的AI服务确实是业界标杆,不过随着最近AI领域的发展,也有很多其它优秀的选择
    推荐考虑使用以下AI服务作为替代品:
    Anthropic家的Claude3系列:全系多模态,其中Haiku和Sonnet的性价比还算不错,对于很多任务的执行和理解明显好于3.5,目前网站的内嵌搜索功能也是靠Haiku实现的
    DeepSeek最新的DeepSeek-V2模型( deepseek-chat ),最近较为火爆,(自称)开源最强而且和GPT4Turbo不相上下,价格也是接近于免费,一百万Tokens才1块钱,实测实用体验还不错,值得一试。
    CoHere家的CommandR系列,也是一个和3.5有力的竞争者。
    3.5逆向: gpt-3.5-turbo-web-rev 利用免登chatgpt逆向出来的,延迟还算可以接受,每次成功的请求象征性扣几十代币,接近免费,按次数而不是按Token,Tokens多的情况下会非常实用

    24-0508更新:#

    接入深度求索(DeepSeek)最新的DeepSeekV2
    新增模型名称:
    deepseek-chat

    24-0409更新:#

    新增接入时下流行Cohere的CommandR模型,现可通过OpenAI.Chat.Completions兼容API中直接调用
    限时1折特惠中
    新增模型:
    command-r : (据说)对标OAI家的gpt-3.5-turbo的模型
    command-r-plus : (据说)对标的是Anthropic家的C3 Sonnet
    command-r-online : 在CR的基础上,附加了官方内置的web-search功能
    command-r-plus-online : 在CRP的基础上,附加了官方内置的web-search功能
    PS:
    (听说)Command R系列在Role Play方面也是比较擅长的

    24-0405更新:#

    Claude Messages API支持最新的 tools 参数,现在Claude也可以使用ToolCall了,看上去内置了思维链推理,比OpenAI的TC更牛x一点点:
    示例输入:
    {
        "model": "claude-3-opus-20240229",
        "max_tokens": 1024,
        "messages": [
            {
                "role": "user",
                "content": "今天狗库克的股票现在跌倒哪里了?"
            }
        ],
        "stream": false,
        "tools": [
            {
                "name": "get_stock_price",
                "description": "Get the current stock price for a given ticker symbol.",
                "input_schema": {
                    "type": "object",
                    "properties": {
                        "ticker": {
                            "type": "string",
                            "description": "The stock ticker symbol, e.g. AAPL for Apple Inc."
                        }
                    },
                    "required": [
                        "ticker"
                    ]
                }
            }
        ]
    }
    输出:
    {
        "id": "msg_01HVfeUwYukk6pWKzkGWsn8h",
        "type": "message",
        "role": "assistant",
        "content": [
            {
                "type": "text",
                "text": "<thinking>\nThe user is asking about the current stock price for \"狗库克\" which likely refers to Tim Cook, the CEO of Apple Inc. To get the current stock price, I would need to use the get_stock_price function and provide the ticker symbol for Apple, which is AAPL.\n\nThe user provided enough context to infer the parameter value needed:\nticker: Based on the reference to \"狗库克\" (a nickname for Tim Cook), the ticker symbol for Apple (AAPL) can be inferred.\n\nSince the required parameter can be inferred from the context, I can proceed with the function call.\n</thinking>"
            },
            {
                "type": "tool_use",
                "id": "toolu_01Tmx5NLhQZ7hEUpnYUGSPqV",
                "name": "get_stock_price",
                "input": {
                    "ticker": "AAPL"
                }
            }
        ],
        "model": "claude-3-opus-20240229",
        "stop_reason": "tool_use",
        "stop_sequence": null,
        "usage": {
            "input_tokens": 507,
            "output_tokens": 199
        }
    }

    24-0401更新:#

    在 Chat.Completions API中新增兼容支持智谱AI的GLM系列模型(费率1.1)
    新增模型名称:
    glm-3-turbo
    glm-4
    glm-4v
    (glm-4v没法直接在Lobe中通过OpenAI API直接使用,明天再看看
    Anthropic模型限时折扣结束,恢复到1.1

    24-0326更新:#

    价格倍率调整:OpenAI普通模型和GPT4的倍率统一调整为 0.5

    24-0321更新:#

    修复部分前端文字错误
    优化内嵌的LLM搜索功能
    C3系列现在可在OpenAI.Chat.Completions API中使用内嵌的联网搜索功能( Prompt以 /gs gs/ 即可触发

    24-0318更新:#

    修复OpenAI.Chat.Completions兼容接口中的Claude模型stop参数没有正确映射的问题
    优化兼容接口中对于Claude的适配:
    role=system的msg会被提取出来,放到API的system参数中再发过去
    如果一个assistant的msg中包含图像,为了使其符合claude的msg api的校验规则,会在前面加一个占位的msg,从而将这个msg顶到user角色中,使其能正常带上图像内容而不报错
    如果msg的长度为偶数,则现在不会再强制补成奇数,(一般情况下)此时末尾会是assistant,这样会触发原生的直接补全功能

    24-0315更新:#

    鉴权模块变更:如果您的APIKey打开了”管理权限“的开关,那么它将绕过模型权限的检查。(新的模型名称不用每次都去手动勾选了
    针对C3的中文半角符号问题,上线了三个补丁版本,会修正C3输出的中文中包含的半角符号,不影响英文内容的符号(仅可在 OpenAI.Chat.Completions 兼容接口中使用。
    claude-3-opus-patch
    claude-3-sonnet-patch
    claude-3-haiku-patch
    添加OpenAI.Models.RetriveModels API接口支持

    24-0314更新:#

    新增 Claude 3 Haiku (小杯) 支持 claude-3-haiku | claude-3-haiku-20240307
    特色:
    同样支持图像/文字混合的多模态输入
    价格和性能对标gpt-3.5-turbo
    (Anthropic声称)Haiku的性能比3.5更加优秀(https://www.anthropic.com/news/claude-3-family
    C3系列中最快最便宜的

    24-0312更新:#

    上线Groq的Mixtral-8x7b 模型,免费 ( groq-mixtral-8x7b-32768 )
    注意: 非生产就绪,仅供个人体验

    24-0310#

    单笔$10以上的订单将免除Stripe手续费

    24-0309#

    补充Claude带版本号的模型名称(claude-2.0/2.1/3-opus-20240229...
    优化设置界面中模型名称的展示方式

    24-0308#

    移除Anthropic(Claude)系列模型的前置内容过滤器,现在您可以随意使用Claude进行角色扮演
    Anthropic系列模型限时5折特惠

    24-0306#

    解决新的Anthropic接口的兼容性问题,包括:
    网页/兼容API中的Cladue系列模型,因各个角色的对话顺序限制导致的请求错误
    LobeChat中使用C3模型+图像输入时导致的错误
    修复更新Vision相关代码后导致GPT4V接口异常的问题

    24-0305#

    新增Anthropic最新的Claude3系列模型,C3全系多模态,支持图像输入,其中C3大杯(Opus)声称比GPT4还要强。
    claude-3-opus C3 (大杯)
    claude-3-sonnet C3 (中杯)
    C3小杯等待发布
    价格参考:https://www.anthropic.com/api#pricing
    现可通过OpenAI的Chat.Completions接口,以GPT4V的标准输入和输出,也可以通过Anthropic官方的Messages接口格式使用。
    文档:https://ohmygpt-docs.apifox.cn/api-152507338

    24-0303#

    微信收款渠道被关闭,请各位用户以后通过Stripe渠道进行充值。

    24-0217#

    由于OpenAI官方已经将gpt-3.5-turbo滚动更新到0125,因此默认模型的计费也同步更新到0125了

    24-0205#

    Google AI服务(包括text-bision/gemini-pro等模型)不再免费,倍率变更为1.1

    24-0203#

    倍率变动
    不再区分闲时和平时了,倍率变更为:
    普通模型倍率: 0.3
    GPT-4系列模型倍率: 0.4

    24-0127#

    新增一个图像生成API和模型( nd-imagine-v3 ),适合生成二刺螈图像 (experimental)
    API 文档:https://ohmygpt-docs.apifox.cn/api-145379071

    24-0125#

    新增 gpt-4-0125-preview 和 gpt-4-turbo-preview ,其上下文窗口、参数和价格相对于1106均无变化(据说解决了懒惰的问题
    新增第三代嵌入模型: text-embedding-3-small 和 text-embedding-3-large ,其中第三代嵌入模型对于第二代有如下变化
    1.
    价格和ada v2不同,3代小号嵌入模型比ada v2便宜,大号比ada v2贵一点点
    2.
    嵌入API现可选维度(dimesions)参数
    总结:
    总共新增如下模型名称
    gpt-4-turbo-preview
    gpt-4-0125-preview
    text-embedding-3-small
    text-embedding-3-large
    受影响的API Endpoints:
    Embeddings API: Add dimensions parameter support for embedding v3 models
    Chat Completions API: 新增0125批次的GPT4 Turbo模型
    参考:
    https://platform.openai.com/docs/changelog/jan-25th-2024
    https://openai.com/blog/new-embedding-models-and-api-updates
    附:前几天的更新:
    0122更新:
    新增serper的谷歌搜索开放API,更便宜更好用,文档: https://ohmygpt-docs.apifox.cn/api-145085337
    将LLM内嵌搜索功能的搜索服务商更改为serper,仍然可使用 /gs | gs/ 或者特定的模型名称触发
    0123更新:
    解决账单数据量过大时,按月统计图表可能会加载不出来的Bug,同时优化统计速度

    24-0119#

    新增大模型内嵌联网功能:
    目前已支持通过网页端和API来访问内嵌了联网功能的大模型
    目前仅支持OpenAI的3.5/4/4Turbo系列的模型(32k和Azure除外)
    目前仅支持基于谷歌官方搜索API的搜索功能
    后面会接入更多模型以及更多可选的搜索服务提供方
    使用方法:
    在网页中直接使用:
    当你需要使用谷歌联网搜索时,在prompt开头加上 /gs 或者 gs/ 就可以强制要求LLM在本次回答中,先使用谷歌搜索一下,然后再结合搜索到的信息进行回答。
    示例:
    /gs 什么是“芝士雪豹”?
    通过API调用:
    当你需要通过API在第三方客户端或者其它项目中使用时,您可以通过以下两种方式调用本站内置的LLM联网功能:
    方式1:在密钥权限列表中勾选 chat-completions-with-gs 这样您就可以像网页中的那样,在需要谷歌搜索辅助时,在您输入的prompt最前面加上 /gs 或者 gs/ 即可触发LLM的谷歌搜索功能。(不勾选此项的话无法触发LLM的谷歌联网搜索功能)
    方式2:上线了 xx-online-with-gs 系列模型,您可以通过直接调用该模型名称,来要求每次请求都要使用谷歌查询来辅助回答,无需特别的关键字触发。
    新增权限名称:
    chat-completions-with-gs LLM内嵌谷歌搜索开关,不勾选它的话,此Key将无法使用 /gs 或 gs/ 关键词触发谷歌联网搜索功能
    gpt-3.5-turbo-online-with-gs 强制触发基于谷歌搜索的LLM联网模型名称,下面都是一样的
    gpt-4-online-with-gs
    gpt-4-1106-preview-online-with-gs
    已知缺点:
    在能力较弱的3.5使用联网功能时,可能会出现脚标和链接输出格式错误或混乱的问题,会尝试继续调整和优化相关的Prompt
    新增Completions模型支持:
    davinci-002
    babbage-002
    作为初代GPT3的替代品

    24-0113#

    上线了谷歌搜索兼容API
    (为后面的LLM联网功能做铺垫
    文档:https://ohmygpt-docs.apifox.cn/api-141553709

    24-0110#

    移除了24-01-04弃用的模型,受影响的API和模型如下:
    Completions:
    text-davinci-003
    text-davinci-002
    text-ada-001
    text-babbage-001
    text-curie-001
    Edits:
    code-davinci-edit-001
    text-davinci-edit-001
    Embeddings:
    text-search-ada-doc-001
    参考链接:
    https://platform.openai.com/docs/deprecations

    23-1214#

    增集成谷歌最新的Gemini Pro系列模型推理服务,同时Google AI模型推理服务继续向本站所有用户免费开放
    新增Google AI系列模型:
    gemini-pro
    gemini-pro-vision
    现可通过本站提供的Chat/Completions API直接调用,其中Gemini Pro Vision是一个多模态的大模型,支持基于文字和图片混合推理,参数用法和OpenAI的GPT4v一致,支持流和非流,模型能力大约是3.5的水平,多模态推理能力差强人意(指大体上算令人满意),可以当作小GPT4v来玩。
    附:
    相关文档说明:https://ohmygpt-docs.apifox.cn/api-123253693

    23-1201#

    新增集成Google PaLM 2,限时免费中。
    新增模型:
    palm-2-chat-bison
    palm-2-chat-bison-32k
    现可在线网页体验或通过OpenAI的ChatCompletions API进行调用。

    23-1125#

    计费相关:
    新增“闲时折扣”:闲时普通模型倍率调整为0.1,GPT4倍率调整为0.3。此举旨在回馈新老客户,同时提高服务器资源利用率,鼓励在空闲时间利用模型进行批量处理数据。
    注:当前”闲时“定义:时区UTC+8(上海标准时间),每天的 0:00 a.m. 到 9:00 a.m. ,还有周六和周日全天应用“闲时折扣”,此折扣可能会更改,建议查阅最新的文档,通过API来自动检查当前折扣倍率。
    支持自助获取PDF格式的发票和收据(不收取额外费用):现在可以通过Stripe渠道,使用"Stripe Invoice"创建一个订单,订单创建后您的邮箱将会立即收到一个发票(Invoice),支付完成后将收到收据(Receipt)。
    模型相关:
    更新Azure OpenAI部署:将gpt35版本升级到1106,gpt4版本升级到1106p,API版本升级到 2023-12-01-preview ,同样支持Tools,同时移除自带的filter以免影响使用。

    23-1117#

    231117更新通知:
    账单相关:
    优化消费数据统计图表相关的查询性能
    优化前端统计图表支出展示方式,改为直接展示各个时段的支出费用而不是代币数目,更加直观。
    添加相关密钥到API调用的账单记录里。
    新增账单数据批量导出支持,支持导出为JSON或者CSV文件
    会员相关:
    降低VIP会员门槛,现在半年内充值¥40以上即可符合VIP条件

    23-1113#

    放宽速率限制策略+降低400流控力度,会员的速率配额现已翻倍:
    VIP 600 RPM => 1k RPM
    PREMIUM 0.5w RPM => 1w RPM
    (虽然仍然不鼓励触发400,但是已大大降低触发400后带来的主动流控力度,不再因为一个400就导致直接429了。

    23-1106#

    新的模型和API已经从今天中午开始陆续上线完毕
    新增普通模型支持:
    gpt-3.5-turbo-1106
    新的GPT35模型
    输入价格比老模型降低约1/3
    老的 gpt-3.5-turbo 仍然指向旧版的35-0613,旧版没有降价所以 gpt-3.5-turbo 还是那个价格(可以考虑主动将默认模型重写到新款1106,打算征求一下群里的意见+看看新款稳不稳定再改。
    dalle-e-3
    OpenAI最新款的图像生成模型,效果也是非常不错,已经快要干翻Mj了,调用起来非常简单,推荐使用这个。
    tts-1
    tts-1-hd
    OpenAI最新款的TTS语音转文本模型,效果也是非常棒,媲美真实人声,一个声音就原生支持多国语言,个人觉得效果比Azure的神经网络语音引擎还要牛x,对于语言学习类、AI对话交流类、AI朗读(听书、网页阅读)等方面的应用应该很有用。
    新增GPT-4 Trubo模型支持:
    gpt-4-1106-preview
    gpt-4-vision-preview
    优点:
    速度飞快
    超大上下文窗口 128k(其中输入最多124k,输出最多4k)
    强大的多模态图像输入支持
    新版的Tools工具调用支持,可一次调用多个函数
    更低价格
    新的预览版模型的请求频率限制较为严格,目前看上去是众生平等每个OpAI账号100RPD,本站总共只能提供大约几千到几万的RPD,虽说可用性没法保证,但是已经可以开始尝试接入并适配到自己的应用了。
    还有需要注意的是 gpt-4-vision-preview 最好主动指定一下 max_tokens ,否则会生成几token就中止输出。

    23-1104#

    将Anthropic模型(Claude2/ClaudeInstant1)添加到OpenAI ChatCompletions接口中
    即现在可以通过 /v1/chat/completions 接口调用 claude-2 和 claude-instant-1 这两个模型了(OpAI接口的兼容性相比Anthropic原接口好一些,直接自定义一个模型名称就可以用了。)
    同时将Anthropic模型费率从之前的1.2下调到1.1

    23-1025#

    普通模型倍率下调为0.2
    GPT4倍率下调为0.4

    23-0917#

    Midjourney画图前端网页已初步完成并上线,可通过点击网页菜单中的“AI画图”体验该功能,NORMAL模式限时免费中
    附:相关Midjourney学习资料:
    https://learningprompt.wiki/zh-Hans/docs/category/-fundamentals-1

    23-0906#

    Midjourney API NORMAL模式免费提供(主要是因为没人用,放着也是放着。
    Claude2已从网页逆向改为使用付费接口,不再免费,稳定性和可用性大幅提高。
    以公司名义通过了Azure GPT4审批,现可在Azure端点提供稳定可靠的0613版本的模型推理服务(带func_call),倍率1.1,模型如下: gpt-3.5-turbo 、 gpt-3.5-turbo-16k 、 gpt-4 以及 gpt-4-32k ,其中 gpt-4-32k 统一由微软云Azure提供可靠的模型推理服务。
    gpt-4-32k 由Azure提供,因此该模型也已进入生产就绪状态,企业/高级用户可放心接入生产环境进行使用。
    受CNY贬值影响,因此按照最新的1$:7.3¥的汇率,将人民币充值渠道(微信扫码支付)的兑换代币的比例由1¥=35000调整为1¥=34000

    23-0901#

    Midjourney 开放 API 接口服务已正式上线并投入生产⭐
    相关介绍文档:https://ohmygpt-docs.apifox.cn/doc-2941619

    23-0829#

    接入Stripe支持通过 信用卡/Apple/Google/WeChat Pay 等方式直接用美金充值,同时获得正式的发票和收据。

    23-0722#

    新增免费Claude2 API
    接口文档地址: https://apifox.com/apidoc/shared-9aac3c46-2596-43c0-b69f-17e3256d0bf8/api-97461921

    23-0720#

    新增CN2 GIA镜像API
    CN2 GIA-E: https://cn2us02.opapi.win/v1/
    CloudFlare CDN(稳): https://cfcus02.opapi.win/v1/
    CloudFlare Worker(稳且速度还行): https://cfwus02.opapi.win/v1/

    23-0719#

    计划内的网站维护,服务中断10min,迁移到高防高性能服务器。

    23-0620#

    3.5模型限时1折

    23-0614#

    1.
    同步OpenAI下调gpt-3.5-turbo模型的费用
    2.
    新增gpt-3.5-turbo-0613
    3.
    新增gpt-3.5-turbo-16k

    23-0517#

    1.
    重构网站前端,优化聊天页面和充值页面
    2.
    新增了aff邀请功能
    3.
    增加了密钥权限控制功能,精细控制每个密钥可以访问的模型

    23-0426#

    上线网页文字转语音朗读功能
    修改于 2025-04-24 13:25:15
    上一页
    本站介绍
    下一页
    新版网站介绍
    Built with