OhMyGPT API
日本語
  • 中文
  • English
  • 日本語
OhMyGPT
OhMyGPT
日本語
  • 中文
  • English
  • 日本語
    • このサイトの紹介
    • 変更ログ
    • OpenAI
      • 応答
        • モデル応答の作成
        • モデルの応答を取得する
        • モデル応答の削除
        • キャンセル応答
        • 入力項目の一覧表示
      • 会話
        • 会話を作成する
        • 会話の取得
        • 更新 conversation
        • 会話を削除する
        • アイテムの作成
        • リスト項目
        • アイテムの取得
        • 項目の削除
      • 作成完了
        POST
      • TTS テキスト読み上げ
        POST
      • 埋め込み
        POST
      • 画像生成
        POST
      • 画像編集
        POST
    • OAuth开放API
      • オープン OAuth API の概要
      • ユーザー認証ページ
        GET
      • コード表示ページ
        GET
      • access_token を申請する
        POST
      • 基本的なユーザー情報を読む
        POST
      • ユーザー残高情報の読み取り
        POST
      • ユーザー料金を請求する
        POST
      • ユーザーの Stripe Checkout リチャージ注文を作成する
        POST
      • ユーザーの Stripe Invoice リチャージ注文を作成する
        POST
      • 他のオープン API を呼び出す
        POST
      • OAuth トークンを介してユーザー管理トークンを読み取る
        POST
      • OAuth トークンを介してユーザー管理トークンを更新する
        POST
    • 管理API列表
      • 新しい API キーを作成する
        POST
      • APIキー情報の変更
        POST
      • ユーザーのすべての API キーを照会します
        POST
      • 指定されたAPIキーを削除します
        POST
      • ユーザーメンバーシップの有効期限を問い合わせるインターフェース
        POST
      • ユーザー残高照会インターフェース
        POST
      • 現在のモデルの倍率インターフェイスを問い合わせます
        GET
    • 他の
      • 検索
        • Googleカスタム検索API
        • サーペルによる Google 検索
      • アズール
        • Azure テキスト読み上げ
        • Azure が TTS 音声リストを取得
    • オーバーライドルール
      • ルールの作成
      • 更新ルール
      • 削除ルール
      • ルールの取得
      • リストルール
      • 一括有効化/無効化
      • コピールール
      • テストルール
      • 統計の取得
      • 制限設定の取得
      • ルール名を確認してください
      • 一括削除
      • エクスポートルール
      • インポートルール
    • 画像生成
      • 他の
        • ND画像生成API
      • フラックス
        • フラックスシュネル画像の生成
        • Flux Dev イメージの生成
        • Flux Pro イメージの生成
        • Flux Pro 1.1 イメージの生成
        • Flux 1.1 Pro Ultura イメージの生成
    • ストレージサービス
      • ファイルストレージサービス
      • ファイルのアップロード
      • ファイル情報の更新
      • ファイルの削除
      • ユーザークエリ(ページネーション)
      • ユーザー メタデータ クエリ (fileUinqueIds による)
      • ファイルダウンロードインターフェース(パブリックファイルダウンロード)
      • ファイルダウンロードインターフェース(プライベートプライベートファイルダウンロード)
      • パブリック ファイルのメタデータを取得する
    • 店
      • チャットの完了をリストする
      • チャットを完了させる
      • チャットの削除が完了しました
    • クロード
      • Anthropic ネイティブ Completions エンタープライズ商用 API
      • Anthropic 原生 Messages API
      • Anthropic 原生 Messages Token Count API
    • 文書をアーカイブする
      • セルフサービス請求システムの使用に関するドキュメント
      • Telegram Bot の使用に関するドキュメント
      • 自作のCloudflare Workerアンチジェネレーションチュートリアル
      • クロードコード転送サービス
      • CodeX転送サービス
      • 新しいウェブサイトのご紹介
    • 機種一覧
      GET

    変更ログ

    #25-0922 アップデート通知:
    リクエスト本文コンテンツ ストアのオンライン フロントエンドおよびバックエンド サポート。 body.store=true を設定すると、リクエストボディの入出力内容を簡単に記録できます。パラメータで書き換えてストアを強制的に上書きすることで、クライアントの通信内容を記録したり、キャッシュ機能を実装したりできます。 (現時点ではOpenAIのChat.Completions APIの記録機能のみ対応)
    オンラインになるとき、キャッシュの取得を実現するために body.omg_extra_body.use_omg_cache を true に設定します。保存されたリクエストでキャッシュの使用が必要な場合は、差し引きなしで直接返すことができます。
    #25-0916 アップデート通知:
    CodeX サポートの追加: CodeX 専用インターフェイスでは、OpenAI によってリリースされた最新の gpt-5-codex がサポートされます。元の価格は gpt-5 と暫定的に一致しており、コストは依然として元の価格の 5% です。
    コーディング エージェント用のワンクリック設定スクリプトを追加しました。コマンド ラインに「npx omgvibe」と入力するだけで、ワンクリックで CodeX または Claude Code を設定できます (https://www.ohmygpt.com/cli-agent)。関連するスクリプトはオープンソースであり、ウェアハウスのアドレス: https://github.com/DogeNet-LLC/omgvibe
    CodeX 専用インターフェイスの請求エラーを修正しました: (実際の控除額は差し引かれるべき料金よりも少なく、元の価格の 5% が差し引かれるはずですが、実際の料金の約 1 ~ 2% しか差し引かれませんでした)、影響を受ける時間範囲: 昨日のこのサイトの CodeX サービスの開始から、東京時間で 2025-0916 午後 5 時まで。
    #25-0915 アップデート通知:
    1.
    CodeX サポート (0.5 割引)
    使いやすく、効果はクロード コード + オーパス 4.1 に劣らず、強くお勧めします。
    設定ドキュメント
    https://ohmygpt-docs.apifox.cn/doc-7412544
    2.
    ナノバナナモデルのサポートを追加しました
    Vertex-gemini-2.5-flash-image-preview (愛称: Nano Banana) がサポートされています。これは、画像生成をサポートするために Google がリリースした最新モデルです。画像生成タスクで優れたパフォーマンスを発揮し、高品質の画像を生成できます。 /v1/chat/completions 経由で呼び出すことができます。
    「」
    {
    "モデル": "頂点-ジェミニ-2.5-フラッシュ-イメージ-プレビュー",
    「メッセージ」: [
    { "role": "user", "content": [{ "type": "text", "text": "ハキミの写真を生成" }] }
    】
    }
    「」
    このモデルは、デフォルトで Markdown+Base64 の形式で画像を返しますが、クライアントの互換性が低く、応答テキストが長くなります。互換性と帯域幅効率を向上させるために、組み込みの「変換とアップロード」機能をオンにすることができます。
    「」
    {
    "モデル": "頂点-ジェミニ-2.5-フラッシュ-イメージ-プレビュー",
    「メッセージ」: [
    { "role": "user", "content": [{ "type": "text", "text": "ハキミの写真を生成" }] }
    ]、
    "omg_extra_body": { "gemini_b64img_upload_enabled": true }
    }
    「」
    3. クロード・コードの価格調整
    クロードコード転送サービスは、従来の10%割引から正規モデル価格の5%で計算した0.5%割引に変更となります。
    4.
    パラメータ上書き機能(パブリックベータ版)
    実験的な「パラメータ オーバーライド」機能を追加しました。これは、よりきめ細かいカスタマイズを実現するために、条件に基づいて一部の API リクエスト本文フィールドを上書きまたは削除できます。
    入り口: API コンソール → パラメータ オーバーライド (/apis/overwrite-rules)
    ドキュメント: 具体的なドキュメントは後でリリースされます。
    注: この機能はベータ版です。注意して使用してください。問題が発生した場合はフィードバックを歓迎します。自分が何をしているのかわからない場合は、この機能を使用しないでください。
    5.
    その他
    フロントエンドのチャット関連機能は最近いくつかのリファクタリングを完了し、現在ファイルのアップロードと画像のアップロードには影響がない可能性があります。リファクタリングが完了するまでお待ちください。その時点で新たな発表が行われます。
    サポートが必要な場合は、電子メール help@ohmygpt.com またはページの右上隅にある「フィードバック」からお問い合わせください。
    6.
    WeChat支払いCNYリチャージチャネルを追加しました
    WeChat 支払いをサポートするために新しい CNY リチャージ チャネルが追加され、関連する注文は請求書発行をサポートします。
    #25-0808 更新:
    最新の gpt-5 シリーズ モデルのサポートが追加され、すべてのユーザーが利用できます。
    gpt-5
    「gpt-5-2025-08-07」
    gpt-5-mini
    「gpt-5-mini-2025-08-07」
    gpt-5-nano
    「gpt-5-nano-2025-08-07」
    gpt-5-チャット-最新
    Webサイトのチャットページに期間限定の無料クロードサービスが追加されました。使用、共有、フィードバックを歓迎します。
    #25-0626 更新:
    Doubao Seed 1.6シリーズモデルのサポートを追加
    ark-doubao-seed-1.6-250615
    ark-doubao-seed-1.6- Thinking-250615
    ark-doubao-seed-1.6-flash-250615
    価格設定:
    image.png
    #25-0618 更新:
    新しいバージョンの Gemini 2.5 シリーズ モデルのサポートを追加しました
    「ジェミニ-2.5-プロ」
    「ジェミニ-2.5-フラッシュ」
    「gemini-2.5-flash-lite-preview-06-17」
    #25-0611 更新:
    O3モデルの値下げによるフォローアップ
    #25-0608 更新:
    Gemini 2.5 Pro 0605 プレビュー バージョンのサポートを追加
    gemini-2.5-pro-preview-06-05
    #25-0530 更新:
    ARK DeepSeek R1 25 0528 のサポートを追加しました
    「アーク-ディープシーク-r1-250528」
    (ARK DS R1/V3シリーズ長期50%オフ)
    #25-0523 更新:
    Anthropic C4 シリーズのサポートを追加しました。
    「クロード・ソネット-4-0」
    「クロード・ソネット-4-20250514」
    「クロード作品-4-0」
    「クロード作品-4-20250514」
    注記:
    これらのモデルは、- Thinking-enabled サフィックスを追加することで思考機能を直接有効にすることができます。
    image.png
    image.png
    いくつかの ARK ビーンバッグ モデルのサポートを追加しました。
    「doubao-1.5- Thinking-pro-m-250428」
    「doubao-1.5- Thinking-vision-pro-250428」
    「doubao-1.5-vision-pro-250328」
    「doubao-1.5-vision-lite-250315」
    #25-0521 更新:
    Gemini 2.5 Flash Preview 0520 のサポートを追加しました。
    「gemini-2.5-フラッシュ-プレビュー-05-20」
    思考は接尾辞を追加することで無効にできます。
    gemini-2.5-flash-preview-05-20- Thinking-disabled
    パラメーター reasoning_effort = none を渡すことで思考を無効にすることもできます
    参考ドキュメント: https://ai.google.dev/gemini-api/docs/openai
    #25-0514 更新:
    Stripe JP 日本円支払いチャネルが期間限定でセール中です。カードをバインドすると、非インタラクティブ支払いの場合は追加の 5% のトークンを獲得し、インタラクティブな支払いの場合は追加の 2% のトークンを獲得できます。
    Socket.IO エンドポイントの興味深いプレビュー バージョンがリリースされました: https://ohmygpt-docs.apifox.cn/doc-6666179
    #25-0511 更新:
    新しいStripe JP日本円決済チャネル
    **Stripe JP 支払いチャネルに基づく、新しいサポート: **
    カード結合後の自動引き落とし
    クレジットカードへの高速リチャージとその他の機能
    image.png
    image.png
    次のステーションのフロントエンド詳細の最適化:
    image.png
    ホームページの右下隅にリアルタイムの遅延表示を追加します (小さなイースターエッグですか? カンカン、遅延はどのくらいですか)
    さらに多くの機能が近日公開予定
    添付ファイル: 前回の更新:
    Gemini の最新の Gemini 2.5 Pro 0506 バージョンのサポートを追加しました
    「gemini-2.5-pro-preview-05-06」
    #25-0424 更新:
    OAI によってリリースされた最新の GPT Image 1 モデルのサポートを追加しました。
    gpt-image-1
    注記:
    このモデルは安くはなく、通常、1回あたり約1〜2元が発生します。ウェブマスターは ~~ のデバッグ時に特に強力な画像生成能力を見つけられませんでした (少なくとも、ツースパインサラマンダーでは非常に平均的です) ~~ ので、注意して呼び出してください。
    #25-0419 更新:
    Gemini 2.5 Flash Preview 04-17 思考出力と通常出力の分離課金機能のサポートを追加
    Gemini 2.5 Flash Preview 04-17 Thinking Disabled バージョンを追加: gemini-2.5-flash-preview-04-17- Thinking-disabled リクエストを使用して、思考と出力を直接無効にし、高速翻訳シナリオに適しています。
    #25-0418 更新:
    Gemini 2.5 Flash Preview 04-17 のサポートを追加
    「gemini-2.5-フラッシュ-プレビュー-04-17」
    注意: Gemini 2.5 フラッシュ モデルを出力する際の価格設定は、通常の出力価格と一致しません。 Google AI公式APIの互換インターフェースは思考トークンの使用量を返さないため、思考出力の価格設定に基づいて出力料金を仮計算します。明日別途計算される見込みで、当面は推奨されない。
    o シリーズの互換性の最適化: o シリーズの max_tokens パラメーターをサポートしなくなったモデル リクエストは、自動的に max_completion_tokens パラメーターに書き換えられます。
    自動リトライ機能の最適化: 400、404 などの最近のユーザー フィードバックを返すモデルで時折アクセスに失敗する問題を可能な限り回避するために、自動リトライ メカニズムが最適化されました。
    #25-0417 更新:
    OpenAI によってリリースされた最新の o3 および o4m シリーズのサポートを追加しました。
    o3
    o3-2025-04-16
    o4-mini
    o4-mini-2025-04-16
    Byte ARK をサポートする Doubao 1.5 Thinking Pro シリーズを追加しました (期間限定で 50% オフ):
    「doubao-1.5- Thinking-pro-250415」
    「doubao-1.5- Thinking-pro-vision-250415」
    #25-0416 更新:
    Claude In OAI互換インターフェースにC37Sモデルのオープニングシンキング機能を追加しました:
    OpenAI Chat.Completion API で、モデル名を claude-3-7-sonnet-20250219 + - Thinking-enabled (たとえば、 claude-3-7-sonnet-20250219- Thinking-enabled) に渡して思考の互換性サポートを有効にします。
    例:
    {
        "モデル": "claude-3-7-sonnet-20250219- Thinking-enabled",
        「メッセージ」: [
            {
                "ロール": "ユーザー",
                "content": "10 文字の唐詩を書かせてください"
            }
        ]、
        「ストリーム」: false
    }
    「」
    
    応答:
    ```json
    {
        "id": "chatcmpl-f5YCgBV1YWsGe8T6XtHT5DB9CgUak",
        "オブジェクト": "チャット.完了",
        「作成済み」: 1744813755、
        "モデル": "クロード-3-7-sonnet-20250219",
        「選択肢」: [
            {
                「インデックス」: 0、
                "メッセージ": {
                    "役割": "アシスタント",
                    "content": "<think>10 文字の唐の詩を作成する必要があります。唐の詩には通常、5 文字、7 文字などさまざまな形式がありますが、ここでは 10 文字の詩が必要です。10 文字の詩は伝統的な唐の詩では一般的な形式ではありませんが、トーンと芸術的概念に注意を払いながら、10 文字の漢字を含む詩を作成できます。\n\n 1行10文字の詩、または合計10文字の複数行の詩。 10語からなる短い詩。 \n\n計画 1: 10 単語の行。例: \n\"春風が吹き、花の香りが山に満ちます\n" (11 単語、一致しません)\n\"明るい月が高くかかり、人々は静かな夜に一人で考えています\n\n\n" "(10 単語、一貫性)\n\「山は緑、水は歌い、鳥は歌い、花の香りがするとき\" (10 単語、一貫性)\n\nオプション 2: 合計 10 単語の複数行の詩\n例:\n\「春風が吹いています、\n 庭は花でいっぱいです。\"\n(8 単語、一貫性はありません) 該当)\n\n\「寂しい山は遠く、\n 流れる水は長く、\n 人々が帰る場所。\"\n(7 文字、該当なし)\n\n\「明るい月明かり、\n 故郷が恋しい、\n まだ戻っていない。」\n (9 単語、該当なし)\n\n10 単語の 1 行を提供することにしました。 詩は、伝統的な中国の詩に沿った美しい芸術的概念とリズム感を生み出すことに注意を払います。\n\n\「明るい月が夜高く垂れ下がり、静かな人は一人で考える\"\nこの詩は、月明かりに照らされた夜、静かな夜に一人で行方不明になっている人の情景を、悲しみと郷愁を込めて描いています。\n\nまたは\n\n\ 「山が緑なら、 水は歌い、鳥は歌い、花は香ります。」\nこの詩は、自然で調和があり、活力に満ちた美しい春の風景を描いています。 \n\n他の 10 語の詩をいくつか考えます。\n\n\「秋の風。中庭は荒れ果てて落ち葉でいっぱいです」(10 語)\n\「遠くの山は黒い草のようで、霧雨が苔を湿らせます」(10 語)\n\「朝の光が山と川を夢に露わにします」(10 語)\n\「小さな 橋と人々の流れる水 「霧と雨の中で」(10 語)\n\n唐の詩のスタイルと芸術的概念を考慮して、私は以下を選びました:\n\n\「山は高く、水は長く、雲は軽く、風は穏やかです\"\nこの詩は静かで美しい自然の風景を描いており、自然の調和のとれた美しさへの賛美を表現しています。\n\n検討します。 リズムとリズムが再び:\n\n\「緑の山と流れる水、雲は明るく、月はフックのようです\」\nこの詩には自然の風景の両方の説明が含まれています。文章には芸術的な概念があり、最後の「フック」という単語は人々に完成感を与えるための韻として使用されます。 \n\n唐の詩の伝統によれば、私は通常、この 10 語の詩を「夜」と名付けます。 \n\n最終的に、10 語の唐の詩を提供することにしました:\n\n「風景」\n緑の山と流れる水、雲とフックのような光の月</think>\n# 唐の詩をクロス\n\n## 「山の住居の風景」\n緑の山と緑の水、鳥のさえずりと花 香り\n\n---\n\n注: これは、自然の美しさを十字架に凝縮した、山の美しい風景を描いた短い詩です。 "、
                    「拒否」: null
                }、
                "logprobs": null、
                "finish_reason": "停止"
            }
        ]、
        "使用法": {
            "prompt_tokens": 45、
            "completion_tokens": 881、
            "total_tokens": 926
        }
    }
    「」
    
    #25-0415 更新:
    
    - 最新の GPT-4.1 シリーズ モデルのサポートを追加しました。
    - 「gpt-4.1」
    - 「gpt-4.1-2025-04-14」
    - 「gpt-4.1-mini」
    - 「gpt-4.1-mini-2025-04-14」
    - 「gpt-4.1-nano」
    - 「gpt-4.1-nano-2025-04-14」
    
    - 最新の GROK-3 シリーズ モデルのサポートを追加しました。
    - `grok-3-beta`
    - `grok-3-mini-beta`
    - 「grok-3-mini-fast-beta」
    - `grok-3-fast-beta`
    
    価格データ: https://next.ohmygpt.com/pricing
    
    #25-0326 更新:
    
    - ByteDance の最新 DS V3 250324「ark-deepseek-v3-250324」、Byte プラットフォームの超高同時実行性をサポート、独占 30% オフ (ARK R1 は 50% オフ)
    
    - 古い Gemini 互換ソリューションの復活:
    
    古い Gemini 互換性ソリューションは、空の返信などの問題に対する Google の公式 OAI 互換性ソリューションの一時的な代替として、次のいずれかの方法で使用できます。
    
    - Gemini モデル名の後に「-legacy-support」接尾辞を追加します
    -HTTPヘッダーの設定
    キー: `x-gemini-legacy-support`
    値: `true`
    
    #25-0323 更新:
    
    - Gemini シリーズ モデルは、関数呼び出し、画像認識、音声認識などの機能を完全にサポートする公式の OAI 互換ソリューションに置き換えられます。
    - Cohere の最新の CommandA モデルをサポート: `command-a-03-2025`
    - Next サイトの新バージョンが公開され、近い将来急速に開発が進められます。チャット機能の開発が完了したら、メインサイトを完全に置き換える予定です。経験とフィードバックは大歓迎です: https://next.ohmygpt.com
    
    
    #25-0313 更新:
    
    次のモデルのサポートが追加されました。
    
    - `gpt-4o-search-preview`
    - 「gpt-4o-search-preview-2025-03-11」
    - `gpt-4o-mini-search-preview`
    - 「gpt-4o-mini-search-preview-2025-03-11」
    
    関連パラメータのサポートを追加しました。
    
    「」
    web_search_options
    「」
    
    関連文書:
    
    https://platform.openai.com/docs/api-reference/chat
    
    https://platform.openai.com/docs/guides/tools-web-search
    
    #25-0228 更新:
    
    OpenAI によってリリースされた最新の gpt4.5 プレビュー バージョンのサポートが追加されました。新しいモデルは次のとおりです。
    
    - `gpt-4.5-プレビュー`
    - 「gpt-4.5-preview-2025-02-27」
    
    #25-0226 更新:
    
    Google AI によってリリースされた G2FL の最新正式バージョンのサポートが追加されました。新しいモデルは次のとおりです。
    
    - `gemini-2.0-フラッシュ-lite`
    - `gemini-2.0-flash-lite-001`
    
    価格表:
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/498245/image-preview)
    
    #25-0225 更新:
    
    Anthropic によってリリースされた最新の C37S のサポートが追加されました。新しいモデルは次のとおりです。
    
    - 「クロード-3-7-ソネット-最新」
    - 「クロード-3-7-ソネット-20250219」
    
    価格はC35Sと同じ
    
    新しい思考推論は現在、メッセージ ネイティブ API でのみサポートされています。思考を有効にするには、次のパラメーターを追加する必要があります。
    ```json
        「思考」: {
            "タイプ": "有効",
            「予算トークン」: 1024
        }、
    「」
    例:
    ```json
    {
        "モデル": "クロード-3-7-sonnet-20250219",
        「メッセージ」: [
            {
                "ロール": "ユーザー",
                "content": "OpenAI がオープンソースではない理由の簡単な分析"
            }
        ]、
        「思考」: {
            "タイプ": "有効",
            「予算トークン」: 1024
        }、
        「ストリーム」: false、
        "max_tokens": 2048
    }
    「」
    拡張出力ベータ機能は以下をサポートしました。
    
    メッセージ ネイティブ API が C37 に出力を 128k に拡張するよう要求する場合、このヘッダーを追加します。それ以外の場合、デフォルトの最大制限は 64k です。
    
    ヘッダー: `anthropic-beta`
    値: `output-128k-2025-02-19`
    
    #25-0224 更新:
    
    Byte ARK の公式 DS 割引は完全に終了しましたが、このサイトのユーザーは引き続き特別割引を非常に安い価格で享受できます。ご自由に使用またはアクセスしてください:
    
    - ARK DeepSeek R1 は引き続き 50% 割引です ( `ark-deepseek-v3-241226` )
    - ARK DeepSeek V3 は、このサイト ( `ark-deepseek-v3-241226` ) のユーザー限定の 30% 割引です。
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/497781/image-preview)
    
    - 旧バージョンの Web ページに組み込まれていたチャット ページ DeepSeek R1/V3 が ARK によって提供されるように変更されました (以前は TA/Azure によって提供されていました)
    - Cohere Aya モデルを追加しました (関連する公式価格が見つからない場合は、現時点では無料です):
    - `c4ai-aya-expanse-32b`
    - `c4ai-aya-expanse-8b`
    
    
    #25-0221 更新:
    
    - OpenAI Omni Moderation モデルのサポートを追加しました。
    
    - 「オムニモデレーション最新」
    - 「オムニモデレーション-2024-09-26」
    
    - このサイトの ARK DeepSeek V3 ユーザーは現在、特別な 20% 割引を受けられます ( `ark-deepseek-v3-241226` )
    - ARK DeepSeek R1 は 50% オフに戻りましたが、23 日から 30% オフに変更されます。また、このサイト (`ark-deepseek-r1-250120`) のユーザー限定の割引もあります。
    - 18日から21日までのARK DS R1購入額の50%が返金されます
    
    #25-0220 更新:
    
    - TAモデルの期間限定割引が廃止され、倍率が0.1から1.1に戻ります。
    
    #25-0218 更新:
    
    - ByteDance ARK の DeepSeek R1 および V3 API は元の価格に戻りました
    
    -ark-ディープシーク-r1-250120
    元の割引価格: 2 CNY / 100 万トークンを入力 | 8 CNY / 100 万トークンを出力
    現在の価格: 4 CNY / 100 万トークンを入力 | 16 CNY / 100 万トークンを出力
    
    -ark-ディープシーク-v3-241226
    元の割引価格: 1 CNY / 100 万トークンを入力 | 4 CNY / 100 万トークンを出力
    現在の価格: 2 CNY / 100 万トークンを入力 | 8 CNY / 100 万トークンを出力
    
    #25-0212 更新:
    
    - 回数に基づいて課金され、通話が成功すると 120 コインが差し引かれる「o3-mini-rev」のサポートが追加されました。
    
    #25-0209 更新:
    
    - 公式発表を受けて、「ディープシークチャット」の料金が値上げされました。
    - 元の価格: 入力 1 CNY、キャッシュ ヒット 0.1 CNY、出力 2 CNY
    - 現在の価格: 入力 2 CNY、キャッシュ ヒット 0.5 CNY、出力 8 CNY
    - `TA/deepseek-ai/DeepSeek-R1` 期間限定割引価格:
    - インプットとアウトプットの価格は同じ: 5.15 元/100 万トークン
    - `TA/deepseek-ai/DeepSeek-V3` 期間限定割引価格:
    - インプットとアウトプットの価格は同じ: 0.92 元/100 万トークン
    
    #25-0207 更新:
    
    - Completions API で TA シリーズ モデルのサポートが追加されました。つまり、TA と同様の DS R1 が、一部のソフトウェアで使用される「/v1/completions」 API で使用できるようになりました。
    - Qwen1.5 など、棚から削除された一部の TA モデルを削除しました。
    - `TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B` モデルのサポートを追加しました
    
    #25-0206 更新:
    
    - Google AI倍率変更: `0.2 => 1.05`
    
    - Gemini 2.0 フラッシュのサポートを追加
    - 「ジェミニ-2.0-フラッシュ」
    - 「ジェミニ-2.0-フラッシュ-001」
    - Gemini のさまざまな無料の経験値モデルのサポートを追加しました (ただし、経験値モデルとプレビュー モデルの割り当ては非常に低く、個人使用のみを目的としており、本番シナリオでの使用は推奨されません)
    - 「gemini-2.0-flash-lite-preview-02-05」
    - 「gemini-2.0-flash- Thinking-exp-01-21」
    - `gemini-2.0-pro-exp-02-05`
    
    #25-0205 更新:
    
    - Byte ARK が提供する DS R1 および V3 モデル推論サービスのサポートを追加しました。
    - `ark-deepseek-r1-250120`
    - `ark-deepseek-v3-241226`
    
    #25-0204 更新:
    
    - 「TA/deepseek-ai/DeepSeek-V3」のサポートを追加しました
    - 無料の「TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B-free」のサポートを追加しました
    - o1 シリーズの `max_tokens` 互換性サポートを追加しました (o1 シリーズは `max_tokens` をサポートしていないため、この値が定義されている場合は、それを `max_completion_tokens` に割り当て、この値を削除して、他のソフトウェアの互換性を確保します)
    - 最後のアシスタント メッセージの「プレフィックス」継続をカスタマイズするための公式 `deepseek-reasoner` ベータ機能の互換性サポートを追加しました
    
    
    #25-0201 更新:
    
    - OpenAI の最新のクローズドソース API モデル推論サービス「o3-mini」シリーズのサポートを追加し、以下のモデルのサポートを追加しました
    - `o3-mini`
    - `o3-mini-2025-01-31`
    - `4om-aup` のサポートを追加しました。
    - `gpt-4o-mini-audio-preview`
    - 「gpt-4o-mini-audio-preview-2024-12-17」
    
    骨折治療のo1、o1mと費用を比較(
    
    **追加更新 25-0201 夜:**
    
    友人のリマインド通り、「o1-mini」も値下げされ、同時に値下げされました。
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/492754/image-preview)
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/492755/image-preview)
    
    謝辞:
    DeepSeekの詳細検索
    
    #25-0130 更新:
    
    - TA がホストするオープンソース DeepSeek R1 モデル (671B 完全健全性バージョン) を追加しました。これは、DS 公式 Web サイトの最近の安定性の問題の代替として使用できます。
    - `TA/ディープシーク-ai/ディープシーク-R1`
    
    現在の入出力料金: 100 万トークンあたり 3.5 ドル
    
    謝辞:
    DeepSeekの詳細検索
    
    #25-0129 更新:
    
    - このサイトでホストされている新しいオープンソース DeepSeek R1 モデルが無料で入手可能になり、DS 公式 Web サイトで最近の安定性の問題の代替として使用できます。
    - `ohmygpt/deepseek-r1-32b`
    - `ohmygpt/deepseek-r1-1.5b`
    
    謝辞:
    DeepSeekの詳細検索
    
    なお、今日は旧正月です。皆様のご健康とご多幸をお祈り申し上げます。
    
    #25-0120 更新:
    
    - 「deepseek-reasoner」モデルのサポートを追加しました
    
    注: 互換性の理由から、このモデルでサポートされていない `temporal` `top_p` `presence_penalty` `frequency_penalty` は、このモデルが要求されたときに削除されます。
    
    
    #25-0118 更新:
    
    - チャット ページの古いバージョンは、デフォルトの ChatGPT 4o Free (`gpt-4o-web-rev`) をサポートするようになり、すべてのユーザーが無料で使用できます。
    - API アップデートにより、「gpt-4o-web-rev」リバース モデルがサポートされました。価格設定は引き続き従量制に基づいています。 1 ドルで 4o を約 566 回コールでき、これは無料に近いです。このサービスは内部開発チームによって保守されており、より安定していますが、商用または公式の製品目的には推奨されません。
    
    #25-0114 更新:
    
    - o1 の正式バージョンをサポートするストリーム互換性適応を追加しました。公式 API の o1 はストリーム ストリーミング リクエストをサポートしていないため、多くのソフトウェアは o1 を使用できません。互換性を拡張するため、o1 ストリーム モードをリクエストする場合、当サイトは公式の o1 API を同期的にリクエストし、その結果を Stream 形式に変換して返し、互換性を実現します。
    
    
    #25-0112 更新:
    
    - o1 正式版のサポートが追加され、新たにサポートされるモデル名は次のとおりです。
    - `o1`
    - `o1-2024-12-17`
    
    料金表は、次のステーションの料金ページでご覧いただけます。
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/489353/image-preview)
    
    #25-0108 更新:
    
    - Completions API で呼び出される DeepSeek シリーズ モデルのサポートと、DS の FIM Completion のサポートを追加しました。
    - DeepSeek シリーズ モデルのキャッシュされたトークンを請求書の詳細に記録するためのサポートを追加しました
    - `gemini-1.5-pro` モデル名を追加
    
    添付:
    
    FIM の例:
    POST: `/v1/completions`
    
    ```json
    {
        "モデル": "ディープシークチャット",
        "prompt": "これは JSON です: '",
        "suffix": "'、完了しました。"
    }
    「」
    
    #25-0106 更新:
    
    - 01AI モデル名サポートのフォローアップと更新、「yi-vision-v2」のサポートの追加
    - 非推奨の 01AI モデルのサポートは削除されましたが、モデル書き換え機能は保持されました
    
    #25-0105 更新:
    
    - Chat.Completions API の GPT シリーズ モデルの課金モジュールを再構築し、キャッシュ課金をサポートするようになりました。キャッシュの請求詳細は、次のサイトの価格設定ページで確認できます[1]
    - DeepSeek シリーズのモデル URL がデフォルト URL からベータ URL に変更されました。 DeepSeek のユーザーは、DeepSeek のベータ機能の一部を使用できるようになりました[2]
    - 一部の古い非推奨モデルのサポートを完全に削除 ( `gpt-3.5-turbo-0301` 、 `gpt-3.5-turbo-0613` 、 `gpt-3.5-turbo-16k-0613` 、 `gpt-4-0314` 、 `gpt-4-32k` 、 「gpt-4-32k-0314」、 `gpt-4-32k-0613` ) (古いバージョンのプログラムとの互換性を確保するため、これらの古いバージョンのモデル名は、同じレベルの新しいモデル名に自動的に書き換えられます)
    
    [1]ネクストステーション 料金ページ https://next.ohmygpt.com/pricing
    [2] DeepSeek ベータ版 https://api-docs.deepseek.com/guides/chat_prefix_completion
    
    #25-0103 更新:
    
    - API 応答速度の最適化: Socket.IO ストリーム アダプターによって引き起こされる内部 Redis サービスのパフォーマンス低下を修正します。これにより、API 応答速度が遅くなります。
    
    #25-0102 更新:
    
    ・DeepSeekシリーズモデルの課金機能が誤って呼び出され、モデルを利用したユーザーが異常な減額を受けていた。このバグはユーザーからのフィードバックを受けてすぐに修正されました。
    - このバグの影響を受けるすべてのユーザーを補償するために、24-1230 から 25-0102 までのすべてのユーザーのディープシーク関連モデル通話料金が免除され、残高に返されます。それらはカウントされており、できるだけ早く処理されます。
    
    #24-1231 更新:
    
    - DeepSeek シリーズモデルのレートは 1.1 から 1 に変更され、追加料金は請求されません。
    - CacheHitTokens 請求をサポートするために DeepSeek シリーズ モデル請求モジュールを再構築します。
    - Next stationの価格ページにDeepSeekシリーズモデルの価格表示を追加しました
    
    最後に、2025 年の新年が明けましておめでとうございます。
    
    #24-1229 更新:
    
    グループの友人 @Bryce のスポンサーのおかげで、以下のビーン バッグ モデルが期間限定で無料で入手できるようになりました。好きなようにプレイできます:
    
    - 「doubao-pro-128k-240628」
    - 「doubao-pro-32k-241215」
    - 「doubao-pro-4k-240515」
    - `doubao-pro-4k-character-240728`
    - 「doubao-lite-4k-240328」
    - `doubao-lite-4k-character-240828`
    
    ps: 目視検査によれば、最も強力なものは「doubao-pro-32k-241215」であるはずです。興味があれば、ぜひ来て試してみてください。
     
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/486969/image-preview)
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/486968/image-preview)
    
    #24-1228 更新:
    
    - ByteDanceをサポートするDoubaoシリーズの大型モデルを追加
    - The Dark Side of the Moon をサポートする Moonshot v1 シリーズの大型モデルを追加しました (ByteDance の Volcano プラットフォームによって提供)
    - 乗数は 1 です (つまり、値上げ 0 の直接の元の価格です。米を稼ぐためにこれを考慮する必要はありません。誰にとっても便利です)。
    
    料金の詳細については、Next station の料金ページをご覧ください: https://next.ohmygpt.com/pricing
    
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/486929/image-preview)
    
    #24-1221 更新:
    
    - Google AI シリーズモデルが 20% オフでセール中
    - Google AIシリーズの自動リトライ機能の安定性を向上しました。
    
    #24-1219 更新:
    
    - Realtime シリーズ モデルの最新バージョン 24-1217 のサポートが追加されました。 4o Realtime の新バージョンの価格は大幅に値下げされ、mini の価格も安くなりました。ヒット率の高いキャッシュ機能により、価格も許容範囲に達しました。
    
    「gpt-4o-リアルタイム-プレビュー-2024-12-17」
    「gpt-4o-mini-リアルタイム-プレビュー」
    「gpt-4o-mini-realtime-preview-2024-12-17」
    
    ・リアルタイムシリーズモデルのキャッシュアカウンティング機能に対応しました。
    - Next stationのリアルタイム通話デモを更新しました。 Next station の関連デモ: https://next.ohmygpt.com/chat Mirror: https://next.aigptx.top/chat で Realtime シリーズ モデルの新バージョンを体験できるようになりました。
    
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/485118/image-preview)
    
    
    #24-1218 更新:
    
    - 最新の「gpt-4o-audio-preview-2024-12-17」モデルのサポートが追加され、オーディオ入出力の価格はオリジナルの 4oA1001 よりも大幅に低くなりました。
    - 最新の正式版「o1」については、OAI が完全にオープンしていないため、Tier5 アカウントをたくさん調べましたが、o1 正式版 API 権限を持つアカウントが見つからなかったため、今日はアクセスせず、その後の OAI のオープンを待っています。
    - Chat.Completions APIは、o1シリーズモデルを考える際の「努力レベル」を調整できるオプションパラメータ「reasoning_effort」を新たにサポートしました。公式ドキュメント [1] によると、このパラメータは o1 シリーズに対してのみ意味があります。
    - 「消費レコード」セクションに、キャッシュ フィールドとオーディオ入出力フィールドのサポートが追加されました。これらのデータは、次のステーションの使用統計/消費記録で照会できるようになりました。
    - 新しい 4o-realtime1217 は明日アクセスされます。現在、これらのフィールドの一部のサポートを追加するには、しばらく時間がかかります。
    
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/484617/image-preview)
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/484618/image-preview)
    
    [1] OpenAI公式ドキュメント https://platform.openai.com/docs/api-reference/chat/create
    
    #24-1205 更新:
    
    ・ネクストステーションの残高表示機能を最適化しました。推定法定通貨価値が表示されます。対応する法定通貨価値の推定値も APIKey 管理テーブルに追加されました。
    ・NextサイトのAPIKey管理ページにAPIエンドポイントの表示を追加しました。
    - 簡単かつ安全なAPIオリジナルデータ記録とモデル名書き換え機能を実現するCFアンチジェネレーション構築チュートリアルドキュメントを追加: https://ohmygpt-docs.apifox.cn/doc-5628298
    
    
    #24-1127 更新:
    
    - ファイルストレージ事業「file-v1」を新たに開始
    
    本事業計画は、安全・高速・低コスト・制御可能なファイルサービスとして、マルチモーダルなファイル一時保存・AIサービス向け文書アップロード・ダウンロード機能の提供など、ファイル処理に関わるあらゆるビジネスの基本サービスを提供します。当サイトの保管サービスはデッサンベッドなどの用途でもご利用いただけます。
    
    すべてのユーザーは 1 GB のファイル ストレージ スペースを無料で使用でき、超過分は次の価格基準に従って請求されます。
    
    価格設定:
    
    「$9.9/TB/月」
    
    また、追加料金は発生せず、リクエスト手数料や輸出トラフィック手数料も無料です。
    
    ドキュメント: https://ohmygpt-docs.apifox.cn/doc-5575792
    
    #24-1126 更新:
    
    - クロード カウント メッセージ トークン API `/v1/messages/count_tokens` のサポートを追加しました。
    
    ドキュメント: https://ohmygpt-docs.apifox.cn/api-237994522
    
    新しいファイル システムは当初、今日オンラインになる予定でしたが、CDN キャッシュの問題によって引き起こされる多くの落とし穴のため、1 ~ 2 日延期されます。
    
    #24-1123 更新:
    
    - 公式の組み込み PDF 入力機能が、Anthropic のネイティブ メッセージ インターフェイスでサポートされました。この機能を使用するには、「anthropic-beta」リクエスト ヘッダーに「pdfs-2024-09-25」キーワードを追加して、このベータ機能を有効にする必要があります。
    
    「」
    anthropic-beta: pdfs-2024-09-25、prompt-caching-2024-07-31
    「」
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/478988/image-preview)
    
    #24-1121 更新:
    
    - 最新の「gpt-4o-2024-11-20」モデルのサポートが追加されました。価格は以前のバージョン 24-0806 から変更されていません。
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/478460/image-preview)
    
    #24-1116 更新:
    
    - モデル使用統計グラフの色の区別を改善しました。
    - Next Station にリアルタイム チャット ルーム技術のデモンストレーション デモが追加されました。エクスペリエンスをテストすることを歓迎します (実際にどのように機能するかを確認するための公開テスト用にリリースします)。
    
    デモ(メインサイト): https://next.ohmygpt.com/tools
    デモ (ミラー): https://next.aigptx.top/tools
    
    特徴:
    1. Socket.IO に基づいて、クライアントとサーバー間の比較的信頼性の高い低遅延の双方向リアルタイム通信が実現されます。
    2. このデモの背後にはメッセージを記録するためのリレーショナル データベースはなく、メッセージを送信するためにフレームワークの出力のみに依存しています。
    3. 自分でルームを作成してグループチャットを開始できます
    4. 内蔵AIチャット機能を一時的に使い放題(モデルCommand R Plus(Cohere製))
    
    
    #24-1111 更新:
    
    - APIKey 権限制御リビジョン:
    
    古いキーが新しいモデルを直接呼び出すことができないことについてのさらなるユーザーの疑念を避けるために、現在、Web サイトの APIKey 関連モジュールにいくつかの改善が加えられています。
    
    「」
    - すべての APIKey に新しい「権限の確認」フラグが追加されました
    - Web ページで作成されたキーはモデルの権限をチェックしなくなりました (Web ページで作成された APIKey はデフォルトでこのフラグを false に設定します)
    - 古いキーはこのスイッチを手動でオフにして、モデルの権限チェックをバイパスできます
    - セキュリティ上の理由から、システム内のすべての古い APIKey の「権限チェック」フラグは true に設定されます。つまり、すべての古い APIKey 権限チェックは引き続き有効になり、古いキーがこれによって影響を受けることを心配する必要はありません。
    「」
    
    
    #24-1110 更新:
    
    - 「glm-4v-plus」モデルのサポートを追加しました。価格の詳細については、[1] を参照してください。
    
    [1] https://next.ohmygpt.com/pricing
    
    #24-1109 更新:
    
    - Gemini シリーズ JSON 出力モードのサポートを追加しました。関連する実装の詳細についてはドキュメントを参照してください[1]
    - `gemini-1.5-flash-8b` 正式バージョン モデルのサポートを追加しました。価格の詳細については [2] を参照してください。
    
    [1] https://ohmygpt-docs.apifox.cn/api-123253693
    [2] https://next.ohmygpt.com/pricing
    
    #24-1108 更新:
    
    - OpenAI互換インターフェースにおけるGeminiシリーズモデルのメッセージスプライシングロジックを改善
    - ドキュメントを改善し、関連する実装の詳細を示しながら、Claude シリーズ モデル OpenAI インターフェイスの互換性を向上させます[1]
    
    [1] https://ohmygpt-docs.apifox.cn/api-123253693
    
    #24-1107 更新:
    
    - OpenAI互換インターフェイスでのClaudeシリーズモデルの互換性サポートを呼び出すツールの改善
    
    詳細については、https://ohmygpt-docs.apifox.cn/api-123253693 を参照してください。
    
    #24-1106 更新:
    
    - ボットが PDF ファイルチャットをサポートするようになりました
    
    https://t.me/getfunbot
    
    #24-1105 更新:
    
    - 最新の Claude 3.5 Sonnet をサポートし、次のモデル名を追加します。
    - `クロード-3-5-俳句`
    - `claude-3-5-俳句-最新`
    - `claude-3-5-haiku-20241022`
    
    - 新しいバージョンの GLM シリーズ モデルのサポートを追加しました
    - `glm-4-plus`
    - `glm-4-airx`
    - `glm-4-air`
    - `glm-4-long`
    - `glm-4-フラッシュx`
    - 「glm-4-フラッシュ」
    
    価格の詳細については、価格ページを確認してください: https://next.ohmygpt.com/pricing
    
    #24-1103 更新:
    
    - Next stationのGoogle/GitHub OAuth認証ジャンプ問題を解決
    - 新しいバージョンのアカウント登録/パスワード リセット ロジックを完了します (確認コードを使用してアカウント パスワードを登録/リセットできるようになりました)
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474969/image-preview)
    
    添付:
    次のメイン Web サイト: https://next.ohmygpt.com
    次のサイトミラー: https://next.aigptx.top
    
    
    この時点で、新しいバージョンの Web サイトのログイン、登録、リチャージ、API 管理およびその他の機能が基本的に完了します。現在、API のみを使用するユーザーは、Next サイトの使用を開始できます。ウェブサイトの次の開発方向は次のとおりです。
    
    - ベクトル検索サービスとナレッジベースの質問と回答サービス
    - オブジェクト ストレージをベースにしたオープン ファイル システムを完成します (ファイル アップロード関連の目的に使用され、小規模なネットワーク ディスクとしても使用できます)
    - 新しいバージョンの Web サイトのチャット機能 (ファイルのアップロード、プラグイン システム、コード インタプリタ、フローチャート、エージェントなどを含む) を完了します。
    - 新しいウェブサイトの画像生成機能を完了
    - TgBotを改善し、Tgプラットフォームの機能を利用して、より興味深く実用的な機能を低コストで実装します
    - より多くの API サービス プロバイダーとより多くのモデルにアクセス
    - 日本企業をベースとしたビジネスを開始
    
    
    #24-1101 更新:
    
    - ネクストステーションの使用状況詳細照会機能が完成し、ネクストステーションの「/settings/usage」ページで使用状況の詳細を照会またはエクスポートできるようになりました
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474721/image-preview)
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474722/image-preview)
    
    添付:
    次のメインサイト: https://next.ohmygpt.com/settings/usage
    次のサイトミラー: https://next.aigptx.top/settings/usage
    
    #24-1031 更新:
    
    - 次のステーションの使用統計機能が完成し、次のステーションの「/settings/usage」ページで使用統計グラフを照会できるようになりました
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/474549/image-preview)
    
    添付:
    次のメインサイト: https://next.ohmygpt.com/settings/usage
    次のサイトミラー: https://next.aigptx.top/settings/usage
    
    
    #24-1026 更新:
    
    - OpenAI 互換インターフェイスを介して Claude シリーズおよび Gemini シリーズ モデルを呼び出すと、使用状況関連のデータ ブロックが返されるようになりました。
    - 価格表示ページの改善:クロードやジェミニなどの一部のモデルに詳細な価格表示を追加し、ネクストステーションの「/価格」ページで確認できるようにしました。
    
    添付:
    使用データブロックの例:
    ```json
    {
        "id": "chatcmpl-hMOdfnoaXtcpCZwRJISUAzPtsfZKs",
        "オブジェクト": "chat.completion.chunk",
        「作成済み」: 1729944958、
        "モデル": "クロード-3-5-ソネット",
        「選択肢」: []、
        "使用法": {
            "prompt_tokens": 11、
            "completion_tokens": 8、
            "total_tokens": 19、
            "prompt_tokens_details": {
                「キャッシュされたトークン」: 0
            }、
            "completion_tokens_details": {
                "reasoning_tokens": 0
            }
        }
    }
    「」
    
    
    #24-1024 更新:
    
    - 価格ページの改善:OpenAIや01AIなどの一部機種の詳細な価格表示を追加し、ネクストステーションの「/価格」ページで確認できるようになりました。
    - 次のメインウェブサイト https://next.ohmygpt.com/pricing
    - 次のミラー https://next.aigptx.top/pricing
    
    - Flux API は無料ではなくなりました。詳細については、価格ページをご覧ください。
    
    Happy 1024 Programmer's Day (この更新ログを書いているときに今日が 1024 年であることに気づきました)
    
    #24-1023 更新:
    
    - Anthropic の最新の「claude-3-5-sonnet-20241022」のサポートを追加しました。
    
    #24-1022 更新:
    
    - Laomajia X-AI、倍率 1.1 をサポートする新しい Grok シリーズ モデルを追加しました: `grok-beta`
    - Qwen2.5 7B/72BにTA対応モデルを追加
    - 自社開発の Telegram Bot [ベータ版] が開始されました: @getfunbot は、現在積極的に新機能の開発を行っています。ドキュメントリンク: https://ohmygpt-docs.apifox.cn/doc-5319532
    
    添付:
    「」
    #Grok オリジナルの価格ノート
    
    ## グロクベータ
    
    プロンプトトークン:
    $5.00
    
    完了トークン:
    $15.00
    
    入力:
    
    $5/100万トークン
    
    1tk = (5 * 250000)/1000000 = 1.25 コイン
    
    出力:
    
    $15/100万トークン
    
    1tk = (15 * 250000)/1000000 = 3.75 コイン
    「」
    
    #24-1018 更新:
    
    - 最新の「gpt-4o-audio-preview」シリーズのモデルのサポートを追加しました。ただし、技術的な理由により、このモデルの非ストリーミング通話のみが現在サポートされています。リアルタイムの音声対話が必要なユーザーは、このサイトの「/v1/realtime」リアルタイム WebSocket エンドポイントを使用してください。
    
    - セルフサービス請求システムが更新されました。ユーザーは、本土の企業間送金とリチャージを自分で申請および開始できるようになりました(最低 1 元からでも可能です)。
    
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/471602/image-preview)
    
    システムドキュメント: https://ohmygpt-docs.apifox.cn/doc-5305167
    
    添付:
    
    「」
    # gpt-4o-audio-preview シリーズの独自の価格計算メモ
    
    gpt-4o-オーディオプレビュー
    gpt-4o-audio-preview-2024-10-01
    
    価格分析:
    
    文章
    $2.50 / 100万トークン
    $10.00 / 100万トークン
    オーディオ***
    $100.00 / 100万トークン
    $200.00 / 100万トークン
    
    ====本文====
    
    入力:
    
    $2.5 / 100万トークン
    
    1tk = (2.5 * 250000)/1000000 = 0.625 コイン
    
    出力:
    
    $10/100万トークン
    
    1tk = (10 * 250000)/1000000 = 2.5 コイン
    ====本文====
    
    ====オーディオ====
    
    入力:
    
    $100 / 100万トークン
    
    1tk = (100 * 250000)/1000000 = 25 コイン
    
    出力:
    
    $200 / 100万トークン
    
    1tk = (200 * 250000)/1000000 = 50 コイン
    ====オーディオ====
    「」
    
    #24-1017 更新:
    
    - 新たに導入されたセルフサービス請求システム。ユーザーは、alipay/alipayEnterprise/CNB2B(本土企業間送金)の注文を自分で最低1元から申請し、請求書を発行できるようになりました。
    
    システムアドレス: https://ivs.dogenet.cn/
    
    システムドキュメント: https://ohmygpt-docs.apifox.cn/doc-5305167
    
    #24-1016 更新:
    
    **01 All Things シリーズの大型モデルのサポートを追加しました:**
    
    - 「イーライトニング」
    - `yi-large`
    - `yi-medium`
    - 「イービジョン」
    - `yi-medium-200k`
    - 「イースパーク」
    - `yi-large-rag`
    - `yi-large-fc`
    - `イーラージターボ`
    
    乗算: 1 (元の価格が転送されます)
    
    添付:
    「」
    #yiモデル独自の価格計算メモ
    
    ## イーライトニング
    
    価格設定:
    ¥0.99 /100万トークン
    
    1tk = (0.99 * 34000)/1000000 = 0.03366 コイン
    
    ## イーラージ
    
    価格設定:
    ¥20 /100万トークン
    
    1tk = (20 * 34000)/1000000 = 0.68 コイン
    
    ## yi-medium
    
    価格設定:
    ¥2.5 /100万トークン
    
    1tk = (2.5 * 34000)/1000000 = 0.085 コイン
    
    
    ## イービジョン
    
    価格設定:
    ¥6 /100万トークン
    
    1tk = (6 * 34000)/1000000 = 0.204 コイン
    
    ## yi-medium-200k
    
    価格設定:
    ¥12 /100万トークン
    
    1tk = (12 * 34000)/1000000 = 0.408 コイン
    
    ## イースパーク
    
    価格設定:
    ¥1 /100万トークン
    
    1tk = (1 * 34000)/1000000 = 0.034 コイン
    
    ## yi-ラージラグ
    
    価格設定:
    ¥25 /100万トークン
    
    1tk = (25 * 34000)/1000000 = 0.85 コイン
    
    ## yi-large-fc
    
    価格設定:
    ¥20 /100万トークン
    
    1tk = (20 * 34000)/1000000 = 0.68 コイン
    
    ## yi-ラージターボ
    
    価格設定:
    ¥12 /100万トークン
    
    1tk = (12 * 34000)/1000000 = 0.408 コイン
    
    注:ここでの計算は¥1=34000コインに基づいています
    
    「」
    
    #24-1011 更新:
    
    アジア太平洋地域向けに最適化された CDN ミラーを追加しました。
    
    - ミラーステーション 1: https://www.aigptx.top
    - ミラーステーション 2: https://x.dogenet.win
    - 新しいバージョンの Web サイトミラー 1: https://next.aigptx.top
    - 純粋な API の反転イメージ: `https://c-z0-api-01.hash070.com/v1`
    
    (アジア太平洋地域で測定されたアクセス速度は最高であり、一部の地域のユーザーから強く推奨されています)
    
    #24-1005 更新:
    
    - OpenAI の最新のリアルタイム エンドポイントと 4o リアルタイム プレビュー モデルのサポートを追加しました。低遅延でリアルタイムに AI と会話できるようになりました。
    
    - Web バージョンでは、すぐに使用できるチャット機能が開始されました。新しい Web ページ: https://next.ohmygpt.com/chat または https://next.aigptx.top/chat で体験できるようになりました。
    
    新しくサポートされたモデル名:
    - gpt-4o-realtime-preview-2024-10-01
    
    添付:
    
    ドキュメント: https://ohmygpt-docs.apifox.cn/websocket-3563866
    
    「」
    # 4o-リアルタイム独自の価格計算メモ
    
    - gpt-4o-realtime-preview-2024-10-01
    
    ====本文====
    
    入力:
    
    $5/100万トークン
    
    1tk = (5 * 250000)/1000000 = 1.25 コイン
    
    出力:
    
    $20 / 100万トークン
    
    1tk = (20 * 250000)/1000000 = 5 コイン
    ====本文====
    
    ====オーディオ====
    
    入力:
    
    $100 / 100万トークン
    
    1tk = (100 * 250000)/1000000 = 25 コイン
    
    出力:
    
    $200 / 100万トークン
    
    1tk = (200 * 250000)/1000000 = 50 コイン
    ====オーディオ====
    「」
    
    #24-0913 アップデート
    
    - OpenAI の最新の o1 および o1 mini シリーズ モデルのサポートを追加しました。現在の同時実行クォータは非常に低く、個人の早期導入者による使用にのみ適しています (API ストリーム呼び出しは、ほとんどのアプリケーションと互換性があるようにサポートされています (非ストリーム応答結果をストリーム結果に変換))。製品ラインでの本番使用には適していませんし、没入型翻訳にも適していません。
    
    - 本土の企業間送金と本土の電子請求書の発行がサポートされるようになりました。必要に応じて、電子メールまたは TG を介してグループ リーダーと直接チャットして処理することができます。
    
    添付:
    
    新しくサポートされたモデル名:
    -o1-プレビュー
    - o1-プレビュー-2024-09-12
    -o1-ミニ
    - o1-mini-2024-09-12
    
    「」
    #o1シリーズ独自の価格計算
    o1-プレビュー | o1-プレビュー-2024-09-12
    
    $15.00 / 100 万入力トークン
    $60.00 / 100万出力トークン
    
    入力:
    
    $15/100万トークン
    
    1tk = (15 * 250000)/1000000 = 3.75 コイン
    
    出力:
    
    $60 / 100万トークン
    
    1tk = (60 * 250000)/1000000 = 15 コイン
    
    
    ----
    
    o1ミニ | o1-mini-2024-09-12
    
    $3.00 / 100 万入力トークン
    $12.00 / 100万出力トークン
    
    
    入力:
    
    $3/100万トークン
    
    1tk = (3 * 250000)/1000000 = 0.75 コイン
    
    出力:
    
    $12/100万トークン
    
    1tk = (12 * 250000)/1000000 = 3 コイン
    
    ====
    
    OpenAI o1-プレビュー
    o1-preview は、幅広い一般知識を必要とする複雑なタスクのための新しい推論モデルです。このモデルには 128K のコンテキストがあり、2023 年 10 月にナレッジ カットオフが設定されます。
    
    o1-プレビューについて学ぶ
    モデル
    価格設定
    o1-プレビュー
    $15.00 / 100 万入力トークン
    $60.00 / 100万出力トークン
    o1-プレビュー-2024-09-12
    $15.00 / 100 万入力トークン
    $60.00 / 100万出力トークン
    OpenAI o1-mini
    o1-mini は、コーディング、数学、科学のユースケースに合わせて調整された、高速でコスト効率の高い推論モデルです。このモデルには 128K のコンテキストがあり、2023 年 10 月にナレッジ カットオフが設定されます。
    
    o1-miniについて詳しく見る
    モデル
    価格設定
    o1-mini
    $3.00 / 100 万入力トークン
    $12.00 / 100万出力トークン
    o1-mini-2024-09-12
    $3.00 / 100 万入力トークン
    $12.00 / 100万出力トークン
    「」
    
    #0828 アップデート:
    
    - 最近リストされた `gemini-1.5-pro-exp-0827` および `gemini-1.5-flash-exp-0827` のサポートを追加しました (価格はそれぞれ 1.5 pro および 1.5 flash に対応します)
    - 0825 Flux シリーズのイメージ生成 API ドキュメントのサポートを追加しました: https://ohmygpt-docs.apifox.cn/api-208347493
    
    
    #24-0819 アップデート
    
    - Gemini 1.5のフラッシュコスト計算式をフォローアップおよび引き下げ
    - 「gemini-1.5-pro-exp-0801」のサポートを追加しました。
    - Gemini API サービス プロバイダーが Google Cloud Vertex AI プラットフォームから Google AI プラットフォームに移行し、Gemini 関連モデルの同時実行性が大幅に増加しました。
    - Gemini API の組み込み監査をオフにする
    
    添付:
    
    「」
    # gemini 1.5 pro 独自の価格計算メモ
    
    ----
    投入価格(100万トークンあたり)
    
    128,000 トークン以下の場合 $3.50
    
    128,000 トークンを超える場合は $7.00
    ----
    
    入力: <= 128K トークンの場合:
    
    $3.50/100万トークン
    
    1tk = (3.50 * 250000)/1000000 = 0.875 コイン
    
    入力: > 128K トークンの場合:
    
    $7.00 /100万トークン
    
    1tk = (7.00 * 250000)/1000000 = 1.75 コイン
    
    ----
    
    出力価格(100万トークンあたり)
    
    128,000 トークン以下の場合 $10.50
    
    128,000 トークンを超える場合は $21.00
    
    ----
    
    出力: <= 128K トークンの場合
    
    $10.50 /100万トークン
    
    1tk = (10.50 * 250000)/1000000 = 2.625 コイン
    
    出力: > 128K トークンの場合
    
    $21.00 /100万トークン
    
    1tk = (21.00 * 250000)/1000000 = 5.25 コイン
    
    ====================================
    
    
    #gemini 1.5 フラッシュ独自の価格計算メモ
    
    ----
    投入価格(100万トークンあたり)
    
    128,000 トークン以下の場合 $0.075
    
    128,000 トークンを超える場合は $0.15
    ----
    
    入力: <= 128K トークンの場合:
    
    $0.075 /100万トークン
    
    1tk = (0.075 * 250000)/1000000 = 0.01875 コイン
    
    入力: > 128K トークンの場合:
    
    $0.15 /100万トークン
    
    1tk = (0.15 * 250000)/1000000 = 0.0375 コイン
    
    
    ----
    出力価格(100万トークンあたり)
    
    128,000 トークン以下の場合 $0.30
    
    128,000 トークンを超える場合は $0.60
    ----
    
    出力:
    
    $0.30 /100万トークン
    
    1tk = (0.30 * 250000)/1000000 = 0.075 コイン
    
    
    出力:
    
    $0.60 /100万トークン
    
    1tk = (0.60 * 250000)/1000000 = 0.15 コイン
    「」
    
    
    #24-0815 アップデート
    
    - 一部のクロード モデルにプロンプ​​ト キャッシュのサポートが追加されました。これにより、非常に長いテキストを含む連続会話のコストを大幅に節約できます。この機能はメッセージ ネイティブ インターフェイスでのみサポートされており、対応する要求ヘッダーで有効になります。詳細については、https://docs.anthropic.com/en/docs/build-with-claude/prompt-caching を参照してください。
    
    - Mjサービスを復元しますが、価格は以前の2倍になります
    
    
    「」
    # Opus の入力および読み取りキャッシュ:
    
    キャッシュ作成_入力トークン:
    
    $18.75 / 100 万入力トークン
    
    1tk = (18.75 * 250000)/1000000 = 4.6875 コイン
    
    キャッシュ_読み取り_入力_トークン:
    
    $1.50 / 100 万入力トークン
    
    1tk = (1.50 * 250000)/1000000 = 0.375 コイン
    
    # Claude 3.0 Haiku の入力および読み取りキャッシュ:
    
    キャッシュ作成_入力トークン:
    
    $0.30 / 100 万入力トークン
    
    1tk = (0.30 * 250000)/1000000 = 0.075 コイン
    
    キャッシュ_読み取り_入力_トークン:
    
    $0.03 / 100 万入力トークン
    
    1tk = (0.03 * 250000)/1000000 = 0.0075 コイン
    
    # Claude 3.5 Sonnet の入力および読み取りキャッシュ:
    
    キャッシュ作成_入力トークン:
    
    $3.75 / 100 万入力トークン
    
    1tk = (3.75 * 250000)/1000000 = 0.9375 コイン
    
    キャッシュ_読み取り_入力_トークン:
    
    $0.30 / 100 万入力トークン
    
    1tk = (0.30 * 250000)/1000000 = 0.075 コイン
    
    
    「」
    
    #24-0813 アップデート
    
    - `chatgpt-4o-latest` をサポート
    
    #24-0807 更新:
    
    1. 最新の GPT-4 Omni バージョン 0806 のサポートが追加されました。これは、第 1 世代 4Omni の半額以上の価格です。
    
    追加されたサポートモデル名:
    
    - 「gpt-4o-2024-08-06」
    
    2. 一部のAPI呼び出しに対してIP記録機能を追加しました。
    
    IP レコードを要求する機能は、いくつかの一般的なインターフェイスに実装されています。
    
    請求書クエリ機能で、対応する要求された IP を直接表示できるようになりました。
    
    セキュリティ上の理由から、開発者の OAuth APP からのリクエスト IP は記録されません。
    
    添付:
    
    ```マークダウン
    #gpt-4o-2024-08-06 元の料金計算
    
    入力:
    
    $2.50 / 100 万入力トークン
    
    1tk = (2.50 * 250000)/1000000 = 0.625 コイン
    
    出力:
    
    $10.00 / 100 万出力トークン
    
    1tk = (10.00 * 250000)/1000000 = 2.5 コイン
    「」
    
    #24-0710 更新:
    
    - バックエンドの認証モジュールが再構築され、新しい Web サイトの開発が段階的に進みました。新しいオープン OAuth API が追加されました。開発者は自分のプロジェクトをこのサイトに接続し、さまざまな AI 機能をプロジェクトにすばやく接続できるようになりました。同時に、ユーザー管理、API 統合、課金などのさまざまな事項に注意を払う必要はありません。機能の開発と実装に集中すると、報酬、利益、シェアを獲得する機会もあります。詳細については、ドキュメントを参照してください: https://ohmygpt-docs.apifox.cn/doc-4718106
    
    - レガシー モデルのリダイレクト:
    
    このサイトでは、次のモデルの転送はサポートされなくなりましたが、古いバージョンのプログラムとの互換性をある程度確保するために、これらのモデル名を使用した API の呼び出しは引き続きサポートされています。
    
    「」
    gpt-3.5-turbo-0301 非推奨 gpt-3.5-turbo に書き直されました
    gpt-3.5-turbo-0613 非推奨 gpt-3.5-turbo に書き直されました
    gpt-3.5-turbo-16k 非推奨 gpt-3.5-turbo に書き直されました
    gpt-3.5-turbo-16k-0613 非推奨 gpt-3.5-turbo に書き直されました
    
    gpt-4-0314 非推奨 gpt-4 に書き直されました
    
    gpt-4-vision-preview | gpt-4-1106-vision-preview 非推奨 gpt-4o に書き直されました
    「」
    
    
    
    #24-0621 更新:
    
    Anthropic の最新リリースである Claude 3.5 Sonnet をサポートしています。価格はClaude 3 Sonnetとまったく同じですが、AさんはC3Opusよりも性能と速度が強いと言いました。また、メッセージを介したネイティブ API 呼び出しと OpenAI Chat.Completions 互換の API 呼び出しもサポートします。
    
    - 「クロード-3-5-ソネット」
    - 「クロード-3-5-ソネット-20240620」
    
    (ウェブマスターは 24-0614 に無事卒業し、現在は現役に戻っています (新しいチーズの学習 + コードの作成と新しいプロジェクトの維持/開発 + 移民計画の着実な推進に集中しています) 皆様の継続的なサポートに感謝します)
    
    #24-0531 更新:
    
    1. Google の最新 Gemini 1.5、新モデルのサポート:
    
    - `ジェミニ-1.5-プロ-001`
    - `ジェミニ-1.5-フラッシュ-001`
    
    どちらもビジョン入力をサポートしています
    
    注記:
    
    gemini-pro-vision と gemini-pro-vision は gemini-1.5-pro-001 を指しています。
    
    実際に測定された同時実行性は残念なほど小さく、依然として初期採用者のみに適しています。今後、増枠申請に努めてまいります。
    
    2. `/v1/models` API の変更
    
    このサイトでサポートされているすべてのモデル名が返されるようになりました
    
    ```json
    {
        "オブジェクト": "リスト",
        "データ": [
            {
                "id": "gpt-3.5-turbo",
                "オブジェクト": "モデル",
                「作成済み」: 1717133244679、
                "owned_by": "OhMyGPT"
            }...
        】
    }
    「」
    
    添付:
    
    「」
    Gemini 1.5 の当初経費の会計メモ
    
    #ジェミニ 1.5 プロ
    
    価格(入力)
    
    $3.50 / 100 万トークン (最大 128,000 トークンのプロンプトの場合)
    
    1tk = (3.5 * 250000) / 1000000 = 0.875 コイン
    
    $7.00 / 100 万トークン (128,000 を超えるプロンプトの場合)
    
    1tk = (7 * 250000) / 1000000 = 1.75 コイン
    
    価格(生産高)
    
    $10.50 / 100 万トークン (最大 128,000 トークンのプロンプトの場合)
    
    1tk = (10.5 * 250000) / 1000000 = 2.625 コイン
    
    $21.00 / 100 万トークン (128,000 を超えるプロンプトの場合)
    
    1tk = (21 * 250000) / 1000000 = 5.25 コイン
    
    
    #ジェミニ 1.5 フラッシュ
    
    価格(入力)
    
    0.35 ドル = 100 万トークン (最大 128,000 トークンのプロンプトの場合)
    
    1tk = (0.35 * 250000) / 1000000 = 0.0875 コイン
    
    0.70 ドル = 100 万トークン (128,000 を超えるプロンプトの場合)
    
    1tk = (0.7 * 250000) / 1000000 = 0.175 コイン
    
    価格(生産高)
    
    $1.05 / 100 万トークン (最大 128,000 トークンのプロンプトの場合)
    
    1tk = (1.05 * 250000) / 1000000 = 0.2625 コイン
    
    2.10 ドル / 100 万トークン (128,000 を超えるプロンプトの場合)
    
    1tk = (2.1 * 250000) / 1000000 = 0.525 コイン
    「」
    
    #24-0514 更新:
    
    **1. OpenAI の最も先進的なマルチモーダル モデルである最新の GPT-4 Omni のサポートが追加されました。 **
    
    追加されたサポートモデル名:
    
    -gpt-4o
    - gpt-4o-2024-05-13
    
    このモデルは現在 gpt-4-turbo と同じで、テキストと画像の混合推論 + プレーン テキスト出力のみをサポートします。
    
    **入出力の価格は gpt4t より 70% ~ 50% 低くなります**。 GPT4o の単語セグメンターの最適化と組み合わせると、**実際には単語数が同じ場合、GPT4o のトークンは半分以上削減されます**。そのため、呼び出しコストは gpt3.5 とほぼ同じ桁になります。
    
    参考:https://openai.com/index/hello-gpt-4o/
    
    
    添付:
    「」
    #0514 GPT4o オリジナル価格会計
    
    gpt-4o | gpt-4o-2024-05-13 $5.00 / 100 万トークン $15.00 / 100 万トークン
    
    -gpt-4o
    - gpt-4o-2024-05-13
    
    入力:
    $5 = 100万トークン
    
    1tk = (5 * 250000)/1000000 = 1.25 コイン
    
    出力:
    $15 = 100万トークン
    
    1tk = (15 * 250000)/1000000 = 3.75 コイン
    「」
    
    2. 一般ユーザー向けの GPT4 制限を削除する
    
    3. OpenAI ストリーミング リクエストへの小さな変更
    
    サーバーは OpenAI モデルの Stream リクエストに変更を加えました。破壊的な更新であってはなりません。 stream=true の場合、次のパラメータが強制的に追加され、OpenAI API がこのリクエストの入力および出力トークンの数を返すことが要求されます。
    「」
        "ストリームオプション":{
            "include_usage": true
        }
    「」
    
    将来的には、サーバー側のストリーム リクエストでトークンを解析して計算する必要がなくなります。すべては、アップストリーム API によって報告されたトークンの数に基づきます。これにより、多くのコードが簡素化されるだけでなく、請求の精度も向上します。
    
    **注記:**
    
    この変更により、ストリーミング リクエストの最後から 2 番目の行に追加のチャンクが含まれるようになります。
    
    「」
    データ: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04- 09","system_fingerprint":"fp_0737e0dfd9","choices":[{"index":0,"delta":{},"logprobs":null,"finish_reason":"length"}],"usage":null}
    
    データ: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-0 4-09","system_fingerprint":"fp_0737e0dfd9","choices":[],"usage":{"prompt_tokens":778,"completion_tokens":10,"total_tokens":788}}
    
    データ: [完了]
    「」
    
    最後のトークン チャンクは、AI SSE ストリーム出力の一般的な方法です。多くの AI サービスにはこのチャンクがあり、OpenAI は現在、これをネイティブにサポートしています。
    
    注: 最後から 2 番目の行の選択肢は空の配列です。コードで安全でない配列読み取りメソッドを使用している場合、最後から 2 番目の行を読み取るときに配列範囲外例外が発生する可能性があります。
    
    この問題が発生した場合は、プログラムのストリーム解析コードを改善して、プログラムのストリーム解析をより堅牢にすることをお勧めします。
    
    
    #24-0510 更新:
    
    - 次のオープン ソース モデルと、OpenAI 標準 Chat.Completions API を介した呼び出しのサポートを追加しました。
    
    「」
    TA/クウェン/クウェン1.5-0.5B-チャット
    
    TA/Qwen/Qwen1.5-1.8B-チャット
    
    TA/Qwen/Qwen1.5-4B-チャット
    
    TA/クウェン/クウェン1.5-7B-チャット
    
    TA/コデラマ/CodeLlama-7b-Instruct-hf
    
    TA/メタ-ラマ/ラマ-2-7b-チャット-hf
    
    TA/メタ-ラマ/ラマ-3-8b-チャット-hf
    
    TA/ミストラライ/ミストラル-7B-命令-v0.1
    
    TA/ミストラライ/ミストラル-7B-命令-v0.2
    
    TA/google/gemma-7b-it
    
    TA/クウェン/クウェン1.5-14B-チャット
    
    TA/ウィザードLM/ウィザードLM-13B-V1.2
    
    TA/メタ-ラマ/ラマ-2-13b-チャット-hf
    
    TA/クウェン/クウェン1.5-32B-チャット
    
    TA/ゼロワンアイ/Yi-34B-チャット
    
    TA/ディープシーク-ai/ディープシーク-コーダー-33b-命令
    
    TA/コデラマ/CodeLlama-34b-Instruct-hf
    
    TA/クウェン/クウェン1.5-72B-チャット
    
    TA/ディープシーク-ai/ディープシーク-llm-67b-チャット
    
    TA/コデラマ/CodeLlama-70b-Instruct-hf
    
    TA/メタ-ラマ/ラマ-2-70b-チャット-hf
    
    TA/メタ-ラマ/ラマ-3-70b-chat-hf
    
    TA/クウェン/クウェン1.5-110B-チャット
    
    TA/ミストラライ/Mixtral-8x7B-Instruct-v0.1
    
    TA/ミストラライ/Mixtral-8x22B-Instruct-v0.1
    「」
    
    - DeepSeekをサポートするCoderモデルを追加
    
    「ディープシークコーダー」
    
    
    
    #24-0509 更新:
    
    24-0509 アップデートのお知らせ
    
    低価格のOAIチャネルは基本的にWebサイトの正常な運営を維持できず、また、低価格チャネルは徐々に消滅していくことも予想されるため、サービス品質を確保するため、正式に正式な支払いに切り替えることを決定し、OpenAI API乗数を1.1に修正しました。つまり、Web サイトの OpenAI の控除価格が正式価格 * 1.1 になります。余剰金は、決済ゲートウェイ料金、ウェブサイト運営費の補助、ウェブサイトと会社の継続的な発展のサポートに使用されます。
    
    これは難しい決断ですが、この調整後、API サービスはより安定して信頼性が高まり、Web サイトのビジネス モデルはより正式で健全なものになります。ご理解いただき、ご支援のほどよろしくお願いいたします。
    
    ウェブサイト自体は米国の会社によって運営されており、その名前で多数の米国会社のアカウントがあり、デビットカードやクレジットカードも多数あるため、資金移動や請求書の支払いの点で非常に効率的で便利です。
    
    ![image.png](https://api.apifox.com/api/v1/projects/3190129/resources/439080/image-preview)
    
    OpenAI の AI サービスは確かに業界のベンチマークですが、AI 分野の最近の発展により、他にも多くの優れたオプションがあります。
    
    代替案として次の AI サービスを検討することをお勧めします。
    
    - Anthropic の Claude3 シリーズ: シリーズ全体がマルチモーダルで、その中でも Haiku と Sonnet は非常に費用対効果が高くなります。多くのタスクの実行と理解は明らかに 3.5 よりも優れています。現在の Web サイトの埋め込み検索機能も Haiku によって実装されています。
    
    - DeepSeek の最新の DeepSeek-V2 モデル (ディープシーク チャット) は最近非常に人気があります。これは最も強力なオープンソース モデル (であると主張) であり、GPT4Turbo に匹敵します。価格も無料に近く、100万トークンのコストはわずか1元です。実際の実践体験は悪くないので、試してみる価値はあります。
    
    - CoHere の CommandR シリーズも 3.5 の強力な競合相手です。
    
    - 3.5 リバース: `gpt-3.5-turbo-web-rev` は Bindeng chatgpt を使用してリバース エンジニアリングされます。遅延は許容範囲です。リクエストが成功するたびに、数十のトークンが象徴的に差し引かれます。無料に近いですね。トークンではなく回数に基づいて計算されます。トークンが多い場合に非常に実用的です。
    
    
    #24-0508 更新:
    
    DeepSeek から最新の DeepSeekV2 にアクセス
    
    追加されたモデル名:
    
    - 「ディープシークチャット」
    
    #24-0409 更新:
    
    新しく追加された CommandR モデルは、人気のある Cohere に接続されており、OpenAI.Chat.Completions 互換 API を通じて直接呼び出すことができるようになりました。
    
    期間限定 10% オフの特別オファー
    
    新しいモデル:
    
    - `command-r`: (おそらく) OAI の gpt-3.5-turbo をベンチマークするモデル
    - `command-r-plus`: (言われている) ターゲットは Anthropic の C3 Sonnet です
    
    - `command-r-online`: CR に基づいて、公式の組み込み Web 検索機能が追加されます
    - `command-r-plus-online`: CRP に基づいた、追加の公式組み込み Web 検索機能
    
    追伸:
    (聞いた話です) コマンドRシリーズはロールプレイも比較的得意です。
    
    #24-0405 更新:
    
    - Claude Messages API は最新の「tools」パラメータをサポートします。クロードも ToolCall を使用できるようになりました。これには思考連鎖推論が組み込まれているようで、OpenAI の TC よりも少し優れています。
    
    入力例:
    
    ```json
    {
        "モデル": "クロード-3-opus-20240229",
        "max_tokens": 1024、
        「メッセージ」: [
            {
                "ロール": "ユーザー",
                "content": "今日、ドッグクックの株はどこで下落しましたか?"
            }
        ]、
        「ストリーム」: false、
        「ツール」: [
            {
                "名前": "get_stock_price",
                "description": "指定されたティッカー シンボルの現在の株価を取得します。",
                "入力スキーマ": {
                    "タイプ": "オブジェクト",
                    "プロパティ": {
                        「ティッカー」: {
                            "タイプ": "文字列",
                            "description": "株式ティッカー シンボル、例: Apple Inc. の AAPL"
                        }
                    }、
                    "必須": [
                        「ティッカー」
                    】
                }
            }
        】
    }
    「」
    
    
    出力:
    
    ```json
    {
        "id": "msg_01HVfeUwYukk6pWKzkGWsn8h",
        "タイプ": "メッセージ",
        "役割": "アシスタント",
        "コンテンツ": [
            {
                "タイプ": "テキスト",
                "text": "<思考>\nユーザーは、Apple Inc. の CEO、ティム クックを指す可能性が高い「犬库克」の現在の株価について尋ねています。現在の株価を取得するには、get_stock_price 関数を使用し、Apple のティッカー シンボル (AAPL) を指定する必要があります。\n\nユーザーは、必要なパラメータ値を推測するのに十分なコンテキストを提供しました:\nticker: への参照に基づいています。 \"狗库克\" (ティム クックのニックネーム)、Apple (AAPL) のティッカー シンボルを推測できます。\n\n必要なパラメータはコンテキストから推測できるため、関数呼び出しを続行できます。\n</ Thinking>"
            }、
            {
                "タイプ": "ツールの使用",
                "id": "toolu_01Tmx5NLhQZ7hEUpnYUGSPqV",
                "名前": "get_stock_price",
                「入力」: {
                    "ティッカー": "AAPL"
                }
            }
        ]、
        "モデル": "クロード-3-opus-20240229",
        "stop_reason": "ツールの使用",
        "stop_sequence": null、
        "使用法": {
            "input_tokens": 507、
            「出力トークン」: 199
        }
    }
    「」
    
    
    
    #24-0401更新:
    
    - Chat.Completions API 内の新しい互換互換サポート智谱 AI の GLM 系列モデル (料金 1.1)
    
    新モデル名:
    
    - glm-3-ターボ
    - glm-4
    - glm-4v
    
    (glm-4v没法直在Lobe経由OpenAI API直接使用,明天再看看
    
    - 人間モデル限界時折扣结了,恢复到1.1
    
    #24-0326更新:
    
    - 周波数調整:OpenAI通常モデルとGPT4の周波数一調整は「0.5」です。
    
    #24-0321更新:
    
    - 修复部分前端文字错误
    - 优化内嵌合のLLM検索機能
    - C3 シリーズは、OpenAI.Chat.Completions API で使用できる内部ネットワーク検索機能(プロンプトで /gs gs/ 即可触発)を使用します。
    
    #24-0318更新:
    
    - OpenAI.Chat.Completions互換インターフェイス内のClaudemodelstopパラメータの修正、正射影のない問題
    
    - 优化兼容インターフェース中のクロードに対する適応:
        - role=system のメッセージが抽出され、API のシステムパラメータに再公開されます
        - アシスタントのメッセージに画像が含まれている場合、それをクロードのメッセージ API のチェックに使用するために、先頭に 1 つのメッセージが追加され、そのメッセージがユーザーの色に追加され、通常の画像コンテンツが表示されるようになります。
        - メッセージの長さが偶数である場合、再强制奇数はありません、(一般的な状況下)今回は末尾会がアシスタントであり、この会は発生した直接機能を果たします
    
    #24-0315更新:
    
    - モジュールの変更: APIKey が「管理制限」のスイッチをオンにした場合、モデルの制限が検査されます。(新しいモデル名は毎回削除されます)
    - C3 の中国語の半角記号の問題を解決し、C3 出力の中国語に含まれる半角記号を修正し、英文コンテンツの記号に影響を与えない 3 つのバージョンのバージョンを上書きしました (「OpenAI.Chat.Completions」互換インターフェイスでのみ使用できます)。
        - 「クロード-3-作品-パッチ」
        - `claude-3-sonnet-patch`
        - `claude-3-haiku-patch`
    
    - OpenAI.Models.RetliveModels APIインターフェースサポートの追加
    
    #24-0314更新:
    
    - 新增 Claude 3 Haiku (小杯) `claude-3-haiku` をサポート | 「クロード-3-俳句-20240307」
    
    特色:
    
    - 画像/文字混合の多モデ入力もサポート
    - 評価とパフォーマンスのgpt-3.5-turbo
    - (Anthropic声称)Haikuの性能比3.5更加优秀(https://www.anthropic.com/news/claude-3-family) 
    - C3系列の中で最も便利な
    
    #24-0312更新:
    
    - 上線上GroqのMixtral-8x7bモデル、免費(groq-mixtral-8x7b-32768)
    
    **注意: 非生产就绪、仅供个人体验**
    
    #24-0310
    
    - 单笔$10以上の注文は免責Stripe手续费
    
    #24-0309
    
    - 补充Claude バージョン本番号のモデル名(claude-2.0/2.1/3-opus-20240229...
    - 設定インターフェース内のモデル名の表示方法を拡張
    
    #24-0308
    
    - Anthropic(Claude) 系列モデルの前置内容軤器を移し、您在で任意に使用して角色扮演を行うことができます。
    - Anthropic 系列モデル制限時間 5 折特惠
    
    #24-0306
    
    新しい人類インターフェースの互換性の問題には次のものが含まれます。
    
    - 网页/互換 API 内の Cladue 系列モデル、故に各角の话顺序制限が生じた要求错误
    - LobeChatでC3モデル+画像入力時に発生する問題
    - Vision 関連コードを更新すると、GPT4V インターフェイスに頻繁に発生する問題が発生します
    
    #24-0305
    
    新しい Anthropic 最新の Claude3 系列モデル、C3 全系多モデルは、画像入力をサポートしており、C3 大杯 (Opus) の音声は GPT4 よりも優れています。
    
    - `claude-3-opus` C3 (大杯)
    - `claude-3-sonnet` C3 (中杯)
    - C3小杯等配信待ち
    
    价格参考:https://www.anthropic.com/api#pricing
    
    OpenAI の Chat.Completions インターフェイスを介して、GPT4V の標準の入出力を使用することも、Anthropic 当局の Messages インターフェイスを介して使用することもできます。
    
    文档:https://ohmygpt-docs.apifox.cn/api-152507338
    
    
    #24-0303
    
    マイクロチャネル セキュリティ チャネルは遮断され、各ビット ユーザはストライプ チャネルを介して充電されます。
    
    #24-0217
    
    OpenAI 当局が gpt-3.5-turbo を 0125 に更新したため、モデルの注文も同時に 0125 に更新されました
    
    #24-0205
    
    Google AI サービス(text-bision/gemini-pro 等モデルを含む)無し、倍率変更は 1.1
    
    #24-0203
    
    倍率変動
    
    闲時と平時了の区別はなくなり、周波数の変更は次のとおりです。
    
    通常モデル倍率: 0.3
    GPT-4系列モデル倍率: 0.4
    
    #24-0127
    
    新しい画像生成 API とモデル ( nd-imagine-v3 )、二刺画像の生成に最適 (実験的) 
    
    API文档:https://ohmygpt-docs.apifox.cn/api-145379071
    
    #24-0125
    
    - 新しい gpt-4-0125-preview と gpt-4-turbo-preview 、その上下文口、パラメータおよび价格は 1106 均無変化(据说解决了懒的问题)
    
    - 新しい第三代挿入モデル: text-embedding-3-small および text-embedding-3-large 、その中の第三代挿入モデルは第二代有如下変
      1. 价格和ada v2異,3代小号嵌入モデル比ada v2便宜,大号比ada v2贵一点点
      2. 嵌合 API の選択可能な寸法(寸法)パラメータ
    
    总结:
    
    新規に次のようなモデル名を共有します
    
    gpt-4-ターボプレビュー
    gpt-4-0125-プレビュー
    テキスト埋め込み-3-small
    テキスト埋め込み-3-大
    
    影響を受ける API エンドポイント:
    
    埋め込み API: v3 モデルを埋め込むための「dimensions」パラメータのサポートを追加
    チャット完了 API: 新增0125批次のGPT4 Turboモデル
    
    参考:
    
    https://platform.openai.com/docs/changelog/jan-25th-2024
    https://openai.com/blog/new-embedding-models-and-api-updates
    
    附:前几天的更新:
    
    0122更新:
    
    - 新增serper的谷歌搜索开放API,更便宜更好用,文档: https://ohmygpt-docs.apifox.cn/api-145085337
    - 将LLM内嵌搜索功能的搜索服务商更改为serper,仍然可使用 /gs | gs/ 或者特定的模型名称触发
    
    
    0123更新:
    
    - 解决账单数据量过大时,按月统计图表可能会加载不出来的Bug,同时优化统计速度
    
    # 24-0119
    
    新增大模型内嵌联网功能:
    
    目前已支持通过网页端和API来访问内嵌了联网功能的大模型
    
    目前仅支持OpenAI的3.5/4/4Turbo系列的模型(32k和Azure除外)
    目前仅支持基于谷歌官方搜索API的搜索功能
    后面会接入更多模型以及更多可选的搜索服务提供方
    
    使用方法:
    
    在网页中直接使用:
    
    当你需要使用谷歌联网搜索时,在prompt开头加上 /gs 或者 gs/ 就可以强制要求LLM在本次回答中,先使用谷歌搜索一下,然后再结合搜索到的信息进行回答。
    
    示例:
    
    `/gs 什么是“芝士雪豹”?`
    
    通过API调用:
    
    当你需要通过API在第三方客户端或者其它项目中使用时,您可以通过以下两种方式调用本站内置的LLM联网功能:
    
    方式1:在密钥权限列表中勾选 chat-completions-with-gs 这样您就可以像网页中的那样,在需要谷歌搜索辅助时,在您输入的prompt最前面加上 /gs 或者 gs/ 即可触发LLM的谷歌搜索功能。(不勾选此项的话无法触发LLM的谷歌联网搜索功能)
    
    方式2:上线了 xx-online-with-gs 系列模型,您可以通过直接调用该模型名称,来要求每次请求都要使用谷歌查询来辅助回答,无需特别的关键字触发。
    
    
    新增权限名称:
    
    - chat-completions-with-gs LLM内嵌谷歌搜索开关,不勾选它的话,此Key将无法使用 /gs 或 gs/ 关键词触发谷歌联网搜索功能
    - gpt-3.5-turbo-online-with-gs 强制触发基于谷歌搜索的LLM联网模型名称,下面都是一样的
    - gpt-4-online-with-gs
    - gpt-4-1106-preview-online-with-gs
    
    
    已知缺点:
    
    在能力较弱的3.5使用联网功能时,可能会出现脚标和链接输出格式错误或混乱的问题,会尝试继续调整和优化相关的Prompt
    
    
    新增Completions模型支持:
    
    - davinci-002
    - babbage-002
    
    作为初代GPT3的替代品
    
    # 24-0113
    
    - 上线了谷歌搜索兼容API
    
    (为后面的LLM联网功能做铺垫
    
    文档:https://ohmygpt-docs.apifox.cn/api-141553709
    
    # 24-0110
    
    移除了24-01-04弃用的模型,受影响的API和模型如下:
    
    Completions:
    
    text-davinci-003
    text-davinci-002
    text-ada-001
    text-babbage-001
    text-curie-001
    
    Edits:
    
    code-davinci-edit-001
    text-davinci-edit-001
    
    Embeddings:
    text-search-ada-doc-001
    
    参考链接:
    https://platform.openai.com/docs/deprecations
    
    # 23-1214
    
    增集成谷歌最新的Gemini Pro系列模型推理服务,同时Google AI模型推理服务继续向本站所有用户免费开放
    
    新增Google AI系列模型:
    
    - gemini-pro
    - gemini-pro-vision
    
    现可通过本站提供的Chat/Completions API直接调用,其中Gemini Pro Vision是一个多模态的大模型,支持基于文字和图片混合推理,参数用法和OpenAI的GPT4v一致,支持流和非流,模型能力大约是3.5的水平,多模态推理能力差强人意(指大体上算令人满意),可以当作小GPT4v来玩。
    
    附:
    相关文档说明:https://ohmygpt-docs.apifox.cn/api-123253693
    
    # 23-1201
    
    新增集成Google PaLM 2,限时免费中。
    
    新增模型:
    
    - palm-2-chat-bison
    - palm-2-chat-bison-32k
    
    现可在线网页体验或通过OpenAI的ChatCompletions API进行调用。
    
    # 23-1125
    
    计费相关:
    
    - 新增“闲时折扣”:闲时普通模型倍率调整为0.1,GPT4倍率调整为0.3。此举旨在回馈新老客户,同时提高服务器资源利用率,鼓励在空闲时间利用模型进行批量处理数据。
    
    注:当前”闲时“定义:时区UTC+8(上海标准时间),每天的 0:00 a.m. 到 9:00 a.m. ,还有周六和周日全天应用“闲时折扣”,此折扣可能会更改,建议查阅最新的文档,通过API来自动检查当前折扣倍率。
    
    - 支持自助获取PDF格式的发票和收据(不收取额外费用):现在可以通过Stripe渠道,使用"Stripe Invoice"创建一个订单,订单创建后您的邮箱将会立即收到一个发票(Invoice),支付完成后将收到收据(Receipt)。
    
    模型相关:
    
    - 更新Azure OpenAI部署:将gpt35版本升级到1106,gpt4版本升级到1106p,API版本升级到 2023-12-01-preview ,同样支持Tools,同时移除自带的filter以免影响使用。
    
    # 23-1117
    
    231117更新通知:
    
    账单相关:
    
    - 优化消费数据统计图表相关的查询性能
    - 优化前端统计图表支出展示方式,改为直接展示各个时段的支出费用而不是代币数目,更加直观。
    - 添加相关密钥到API调用的账单记录里。
    - 新增账单数据批量导出支持,支持导出为JSON或者CSV文件
    
    会员相关:
    
    - 降低VIP会员门槛,现在半年内充值¥40以上即可符合VIP条件
    
    # 23-1113
    
    放宽速率限制策略+降低400流控力度,会员的速率配额现已翻倍:
    
    VIP 600 RPM => 1k RPM
    PREMIUM 0.5w RPM => 1w RPM
    
    
    (虽然仍然不鼓励触发400,但是已大大降低触发400后带来的主动流控力度,不再因为一个400就导致直接429了。
    
    # 23-1106
    
    新的模型和API已经从今天中午开始陆续上线完毕
    
    新增普通模型支持:
    
    - gpt-3.5-turbo-1106
    
    新的GPT35模型 
    输入价格比老模型降低约1/3
    
    老的 gpt-3.5-turbo 仍然指向旧版的35-0613,旧版没有降价所以 gpt-3.5-turbo 还是那个价格(可以考虑主动将默认模型重写到新款1106,打算征求一下群里的意见+看看新款稳不稳定再改。
    
    - dalle-e-3
    
    OpenAI最新款的图像生成模型,效果也是非常不错,已经快要干翻Mj了,调用起来非常简单,推荐使用这个。
    
    - tts-1
    - tts-1-hd
    
    OpenAI最新款的TTS语音转文本模型,效果也是非常棒,媲美真实人声,一个声音就原生支持多国语言,个人觉得效果比Azure的神经网络语音引擎还要牛x,对于语言学习类、AI对话交流类、AI朗读(听书、网页阅读)等方面的应用应该很有用。
    
    
    新增GPT-4 Trubo模型支持:
    
    - gpt-4-1106-preview
    - gpt-4-vision-preview
    
    优点:
    
    - 速度飞快
    - 超大上下文窗口 128k(其中输入最多124k,输出最多4k)
    - 强大的多模态图像输入支持
    - 新版的Tools工具调用支持,可一次调用多个函数
    - 更低价格
    
    新的预览版模型的请求频率限制较为严格,目前看上去是众生平等每个OpAI账号100RPD,本站总共只能提供大约几千到几万的RPD,虽说可用性没法保证,但是已经可以开始尝试接入并适配到自己的应用了。
    
    还有需要注意的是 gpt-4-vision-preview 最好主动指定一下 max_tokens ,否则会生成几token就中止输出。
    
    # 23-1104
    
    将Anthropic模型(Claude2/ClaudeInstant1)添加到OpenAI ChatCompletions接口中
    
    即现在可以通过 /v1/chat/completions 接口调用 claude-2 和 claude-instant-1 这两个模型了(OpAI接口的兼容性相比Anthropic原接口好一些,直接自定义一个模型名称就可以用了。)
    
    同时将Anthropic模型费率从之前的1.2下调到1.1
    
    # 23-1025
    
    * 普通模型倍率下调为0.2
    * GPT4倍率下调为0.4
    
    # 23-0917
    
    Midjourney画图前端网页已初步完成并上线,可通过点击网页菜单中的“AI画图”体验该功能,NORMAL模式限时免费中
    
    添付: Midjourney の関連学習資料:
    https://learningprompt.wiki/zh-Hans/docs/category/-fundamentals-1
    
    #23-0906
    
    ※Midjourney API NORMALモードは無料で提供されています(誰も使わないので放置されているのが主な理由です)。
    * Claude2 は Web リバース エンジニアリングから有料インターフェイスの使用に変更され、無料ではなくなりました。安定性と使いやすさが大幅に向上しました。
    * 会社名で Azure GPT4 の承認を取得し、Azure エンドポイント上で安定した信頼性の高いバージョン 0613 モデル推論サービス (func_call 付き) を 1.1 倍で提供できるようになりました。モデルは次のとおりです: `gpt-3.5-turbo`、`gpt-3.5-turbo-16k`、`gpt-4`、および `gpt-4-32k` 「gpt-4-32k」は、Microsoft クラウド Azure によって統合された信頼性の高いモデル推論サービスを提供します。
    ※ gpt-4-32k は Azure から提供されているため、このモデルも本番環境に対応した状態となっており、エンタープライズ/上級ユーザーは安全に本番環境にアクセスしてご利用いただけます。
    ※人民元安の影響により、最新の為替レート1ドル:7.3円に基づき、人民元リチャージチャネル(WeChatのQRコードスキャンによる支払い)の交換トークン比率が1¥=35000から1¥=34000に調整されます。
    
    
    #23-0901
    
    Midjourney オープン API インターフェース サービスが正式に開始され、運用開始されました⭐
    関連紹介ドキュメント: https://ohmygpt-docs.apifox.cn/doc-2941619
    
    #23-0829
    
    Stripe にアクセスすると、「クレジット カード/Apple/Google/WeChat Pay」などの方法で米ドルで直接チャージでき、同時に正式な請求書や領収書も取得できます。
    
    #23-0722
    
    無料のClaude2 APIを追加しました
    
    インターフェースドキュメントのアドレス: https://apifox.com/apidoc/shared-9aac3c46-2596-43c0-b69f-17e3256d0bf8/api-97461921
    
    #23-0720
    
    CN2 GIA ミラー API を追加しました
    
    CN2 GIA-E: `https://cn2us02.opapi.win/v1/`
    CloudFlare CDN (安定版): `https://cfcus02.opapi.win/v1/`
    CloudFlare ワーカー (安定していてかなり高速): `https://cfwus02.opapi.win/v1/`
    
    #23-0719
    
    ウェブサイトの計画メンテナンスのため、サービスを10分間停止し、高防御かつ高性能なサーバーに移行します。
    
    #23-0620
    
    期間限定で3.5%オフのモデル
    
    #23-0614
    
    1. OpenAI を同期して gpt-3.5-turbo モデルのコストを削減します。
    2. gpt-3.5-turbo-0613 を追加
    3. gpt-3.5-turbo-16k を追加
    
    #23-0517
    
    1. ウェブサイトのフロントエンドを再構築し、チャットページとリチャージページを最適化します。
    2. aff招待機能を追加
    3. キーごとにアクセスできる機種を細かく制御するキー許可制御機能を追加しました。
    
    #23-0426
    
    Webページの音声読み上げ機能を開始
    修改于 2025-10-15 08:05:43
    上一页
    このサイトの紹介
    下一页
    モデル応答の作成
    Built with