{
"モデル": "claude-3-7-sonnet-20250219- Thinking-enabled",
「メッセージ」: [
{
"ロール": "ユーザー",
"content": "10 文字の唐詩を書かせてください"
}
]、
「ストリーム」: false
}
「」
応答:
```json
{
"id": "chatcmpl-f5YCgBV1YWsGe8T6XtHT5DB9CgUak",
"オブジェクト": "チャット.完了",
「作成済み」: 1744813755、
"モデル": "クロード-3-7-sonnet-20250219",
「選択肢」: [
{
「インデックス」: 0、
"メッセージ": {
"役割": "アシスタント",
"content": "<think>10 文字の唐の詩を作成する必要があります。唐の詩には通常、5 文字、7 文字などさまざまな形式がありますが、ここでは 10 文字の詩が必要です。10 文字の詩は伝統的な唐の詩では一般的な形式ではありませんが、トーンと芸術的概念に注意を払いながら、10 文字の漢字を含む詩を作成できます。\n\n 1行10文字の詩、または合計10文字の複数行の詩。 10語からなる短い詩。 \n\n計画 1: 10 単語の行。例: \n\"春風が吹き、花の香りが山に満ちます\n" (11 単語、一致しません)\n\"明るい月が高くかかり、人々は静かな夜に一人で考えています\n\n\n" "(10 単語、一貫性)\n\「山は緑、水は歌い、鳥は歌い、花の香りがするとき\" (10 単語、一貫性)\n\nオプション 2: 合計 10 単語の複数行の詩\n例:\n\「春風が吹いています、\n 庭は花でいっぱいです。\"\n(8 単語、一貫性はありません) 該当)\n\n\「寂しい山は遠く、\n 流れる水は長く、\n 人々が帰る場所。\"\n(7 文字、該当なし)\n\n\「明るい月明かり、\n 故郷が恋しい、\n まだ戻っていない。」\n (9 単語、該当なし)\n\n10 単語の 1 行を提供することにしました。 詩は、伝統的な中国の詩に沿った美しい芸術的概念とリズム感を生み出すことに注意を払います。\n\n\「明るい月が夜高く垂れ下がり、静かな人は一人で考える\"\nこの詩は、月明かりに照らされた夜、静かな夜に一人で行方不明になっている人の情景を、悲しみと郷愁を込めて描いています。\n\nまたは\n\n\ 「山が緑なら、 水は歌い、鳥は歌い、花は香ります。」\nこの詩は、自然で調和があり、活力に満ちた美しい春の風景を描いています。 \n\n他の 10 語の詩をいくつか考えます。\n\n\「秋の風。中庭は荒れ果てて落ち葉でいっぱいです」(10 語)\n\「遠くの山は黒い草のようで、霧雨が苔を湿らせます」(10 語)\n\「朝の光が山と川を夢に露わにします」(10 語)\n\「小さな 橋と人々の流れる水 「霧と雨の中で」(10 語)\n\n唐の詩のスタイルと芸術的概念を考慮して、私は以下を選びました:\n\n\「山は高く、水は長く、雲は軽く、風は穏やかです\"\nこの詩は静かで美しい自然の風景を描いており、自然の調和のとれた美しさへの賛美を表現しています。\n\n検討します。 リズムとリズムが再び:\n\n\「緑の山と流れる水、雲は明るく、月はフックのようです\」\nこの詩には自然の風景の両方の説明が含まれています。文章には芸術的な概念があり、最後の「フック」という単語は人々に完成感を与えるための韻として使用されます。 \n\n唐の詩の伝統によれば、私は通常、この 10 語の詩を「夜」と名付けます。 \n\n最終的に、10 語の唐の詩を提供することにしました:\n\n「風景」\n緑の山と流れる水、雲とフックのような光の月</think>\n# 唐の詩をクロス\n\n## 「山の住居の風景」\n緑の山と緑の水、鳥のさえずりと花 香り\n\n---\n\n注: これは、自然の美しさを十字架に凝縮した、山の美しい風景を描いた短い詩です。 "、
「拒否」: null
}、
"logprobs": null、
"finish_reason": "停止"
}
]、
"使用法": {
"prompt_tokens": 45、
"completion_tokens": 881、
"total_tokens": 926
}
}
「」
#25-0415 更新:
- 最新の GPT-4.1 シリーズ モデルのサポートを追加しました。
- 「gpt-4.1」
- 「gpt-4.1-2025-04-14」
- 「gpt-4.1-mini」
- 「gpt-4.1-mini-2025-04-14」
- 「gpt-4.1-nano」
- 「gpt-4.1-nano-2025-04-14」
- 最新の GROK-3 シリーズ モデルのサポートを追加しました。
- `grok-3-beta`
- `grok-3-mini-beta`
- 「grok-3-mini-fast-beta」
- `grok-3-fast-beta`
価格データ: https://next.ohmygpt.com/pricing
#25-0326 更新:
- ByteDance の最新 DS V3 250324「ark-deepseek-v3-250324」、Byte プラットフォームの超高同時実行性をサポート、独占 30% オフ (ARK R1 は 50% オフ)
- 古い Gemini 互換ソリューションの復活:
古い Gemini 互換性ソリューションは、空の返信などの問題に対する Google の公式 OAI 互換性ソリューションの一時的な代替として、次のいずれかの方法で使用できます。
- Gemini モデル名の後に「-legacy-support」接尾辞を追加します
-HTTPヘッダーの設定
キー: `x-gemini-legacy-support`
値: `true`
#25-0323 更新:
- Gemini シリーズ モデルは、関数呼び出し、画像認識、音声認識などの機能を完全にサポートする公式の OAI 互換ソリューションに置き換えられます。
- Cohere の最新の CommandA モデルをサポート: `command-a-03-2025`
- Next サイトの新バージョンが公開され、近い将来急速に開発が進められます。チャット機能の開発が完了したら、メインサイトを完全に置き換える予定です。経験とフィードバックは大歓迎です: https://next.ohmygpt.com
#25-0313 更新:
次のモデルのサポートが追加されました。
- `gpt-4o-search-preview`
- 「gpt-4o-search-preview-2025-03-11」
- `gpt-4o-mini-search-preview`
- 「gpt-4o-mini-search-preview-2025-03-11」
関連パラメータのサポートを追加しました。
「」
web_search_options
「」
関連文書:
https://platform.openai.com/docs/api-reference/chat
https://platform.openai.com/docs/guides/tools-web-search
#25-0228 更新:
OpenAI によってリリースされた最新の gpt4.5 プレビュー バージョンのサポートが追加されました。新しいモデルは次のとおりです。
- `gpt-4.5-プレビュー`
- 「gpt-4.5-preview-2025-02-27」
#25-0226 更新:
Google AI によってリリースされた G2FL の最新正式バージョンのサポートが追加されました。新しいモデルは次のとおりです。
- `gemini-2.0-フラッシュ-lite`
- `gemini-2.0-flash-lite-001`
価格表:

#25-0225 更新:
Anthropic によってリリースされた最新の C37S のサポートが追加されました。新しいモデルは次のとおりです。
- 「クロード-3-7-ソネット-最新」
- 「クロード-3-7-ソネット-20250219」
価格はC35Sと同じ
新しい思考推論は現在、メッセージ ネイティブ API でのみサポートされています。思考を有効にするには、次のパラメーターを追加する必要があります。
```json
「思考」: {
"タイプ": "有効",
「予算トークン」: 1024
}、
「」
例:
```json
{
"モデル": "クロード-3-7-sonnet-20250219",
「メッセージ」: [
{
"ロール": "ユーザー",
"content": "OpenAI がオープンソースではない理由の簡単な分析"
}
]、
「思考」: {
"タイプ": "有効",
「予算トークン」: 1024
}、
「ストリーム」: false、
"max_tokens": 2048
}
「」
拡張出力ベータ機能は以下をサポートしました。
メッセージ ネイティブ API が C37 に出力を 128k に拡張するよう要求する場合、このヘッダーを追加します。それ以外の場合、デフォルトの最大制限は 64k です。
ヘッダー: `anthropic-beta`
値: `output-128k-2025-02-19`
#25-0224 更新:
Byte ARK の公式 DS 割引は完全に終了しましたが、このサイトのユーザーは引き続き特別割引を非常に安い価格で享受できます。ご自由に使用またはアクセスしてください:
- ARK DeepSeek R1 は引き続き 50% 割引です ( `ark-deepseek-v3-241226` )
- ARK DeepSeek V3 は、このサイト ( `ark-deepseek-v3-241226` ) のユーザー限定の 30% 割引です。

- 旧バージョンの Web ページに組み込まれていたチャット ページ DeepSeek R1/V3 が ARK によって提供されるように変更されました (以前は TA/Azure によって提供されていました)
- Cohere Aya モデルを追加しました (関連する公式価格が見つからない場合は、現時点では無料です):
- `c4ai-aya-expanse-32b`
- `c4ai-aya-expanse-8b`
#25-0221 更新:
- OpenAI Omni Moderation モデルのサポートを追加しました。
- 「オムニモデレーション最新」
- 「オムニモデレーション-2024-09-26」
- このサイトの ARK DeepSeek V3 ユーザーは現在、特別な 20% 割引を受けられます ( `ark-deepseek-v3-241226` )
- ARK DeepSeek R1 は 50% オフに戻りましたが、23 日から 30% オフに変更されます。また、このサイト (`ark-deepseek-r1-250120`) のユーザー限定の割引もあります。
- 18日から21日までのARK DS R1購入額の50%が返金されます
#25-0220 更新:
- TAモデルの期間限定割引が廃止され、倍率が0.1から1.1に戻ります。
#25-0218 更新:
- ByteDance ARK の DeepSeek R1 および V3 API は元の価格に戻りました
-ark-ディープシーク-r1-250120
元の割引価格: 2 CNY / 100 万トークンを入力 | 8 CNY / 100 万トークンを出力
現在の価格: 4 CNY / 100 万トークンを入力 | 16 CNY / 100 万トークンを出力
-ark-ディープシーク-v3-241226
元の割引価格: 1 CNY / 100 万トークンを入力 | 4 CNY / 100 万トークンを出力
現在の価格: 2 CNY / 100 万トークンを入力 | 8 CNY / 100 万トークンを出力
#25-0212 更新:
- 回数に基づいて課金され、通話が成功すると 120 コインが差し引かれる「o3-mini-rev」のサポートが追加されました。
#25-0209 更新:
- 公式発表を受けて、「ディープシークチャット」の料金が値上げされました。
- 元の価格: 入力 1 CNY、キャッシュ ヒット 0.1 CNY、出力 2 CNY
- 現在の価格: 入力 2 CNY、キャッシュ ヒット 0.5 CNY、出力 8 CNY
- `TA/deepseek-ai/DeepSeek-R1` 期間限定割引価格:
- インプットとアウトプットの価格は同じ: 5.15 元/100 万トークン
- `TA/deepseek-ai/DeepSeek-V3` 期間限定割引価格:
- インプットとアウトプットの価格は同じ: 0.92 元/100 万トークン
#25-0207 更新:
- Completions API で TA シリーズ モデルのサポートが追加されました。つまり、TA と同様の DS R1 が、一部のソフトウェアで使用される「/v1/completions」 API で使用できるようになりました。
- Qwen1.5 など、棚から削除された一部の TA モデルを削除しました。
- `TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B` モデルのサポートを追加しました
#25-0206 更新:
- Google AI倍率変更: `0.2 => 1.05`
- Gemini 2.0 フラッシュのサポートを追加
- 「ジェミニ-2.0-フラッシュ」
- 「ジェミニ-2.0-フラッシュ-001」
- Gemini のさまざまな無料の経験値モデルのサポートを追加しました (ただし、経験値モデルとプレビュー モデルの割り当ては非常に低く、個人使用のみを目的としており、本番シナリオでの使用は推奨されません)
- 「gemini-2.0-flash-lite-preview-02-05」
- 「gemini-2.0-flash- Thinking-exp-01-21」
- `gemini-2.0-pro-exp-02-05`
#25-0205 更新:
- Byte ARK が提供する DS R1 および V3 モデル推論サービスのサポートを追加しました。
- `ark-deepseek-r1-250120`
- `ark-deepseek-v3-241226`
#25-0204 更新:
- 「TA/deepseek-ai/DeepSeek-V3」のサポートを追加しました
- 無料の「TA/deepseek-ai/DeepSeek-R1-Distill-Llama-70B-free」のサポートを追加しました
- o1 シリーズの `max_tokens` 互換性サポートを追加しました (o1 シリーズは `max_tokens` をサポートしていないため、この値が定義されている場合は、それを `max_completion_tokens` に割り当て、この値を削除して、他のソフトウェアの互換性を確保します)
- 最後のアシスタント メッセージの「プレフィックス」継続をカスタマイズするための公式 `deepseek-reasoner` ベータ機能の互換性サポートを追加しました
#25-0201 更新:
- OpenAI の最新のクローズドソース API モデル推論サービス「o3-mini」シリーズのサポートを追加し、以下のモデルのサポートを追加しました
- `o3-mini`
- `o3-mini-2025-01-31`
- `4om-aup` のサポートを追加しました。
- `gpt-4o-mini-audio-preview`
- 「gpt-4o-mini-audio-preview-2024-12-17」
骨折治療のo1、o1mと費用を比較(
**追加更新 25-0201 夜:**
友人のリマインド通り、「o1-mini」も値下げされ、同時に値下げされました。


謝辞:
DeepSeekの詳細検索
#25-0130 更新:
- TA がホストするオープンソース DeepSeek R1 モデル (671B 完全健全性バージョン) を追加しました。これは、DS 公式 Web サイトの最近の安定性の問題の代替として使用できます。
- `TA/ディープシーク-ai/ディープシーク-R1`
現在の入出力料金: 100 万トークンあたり 3.5 ドル
謝辞:
DeepSeekの詳細検索
#25-0129 更新:
- このサイトでホストされている新しいオープンソース DeepSeek R1 モデルが無料で入手可能になり、DS 公式 Web サイトで最近の安定性の問題の代替として使用できます。
- `ohmygpt/deepseek-r1-32b`
- `ohmygpt/deepseek-r1-1.5b`
謝辞:
DeepSeekの詳細検索
なお、今日は旧正月です。皆様のご健康とご多幸をお祈り申し上げます。
#25-0120 更新:
- 「deepseek-reasoner」モデルのサポートを追加しました
注: 互換性の理由から、このモデルでサポートされていない `temporal` `top_p` `presence_penalty` `frequency_penalty` は、このモデルが要求されたときに削除されます。
#25-0118 更新:
- チャット ページの古いバージョンは、デフォルトの ChatGPT 4o Free (`gpt-4o-web-rev`) をサポートするようになり、すべてのユーザーが無料で使用できます。
- API アップデートにより、「gpt-4o-web-rev」リバース モデルがサポートされました。価格設定は引き続き従量制に基づいています。 1 ドルで 4o を約 566 回コールでき、これは無料に近いです。このサービスは内部開発チームによって保守されており、より安定していますが、商用または公式の製品目的には推奨されません。
#25-0114 更新:
- o1 の正式バージョンをサポートするストリーム互換性適応を追加しました。公式 API の o1 はストリーム ストリーミング リクエストをサポートしていないため、多くのソフトウェアは o1 を使用できません。互換性を拡張するため、o1 ストリーム モードをリクエストする場合、当サイトは公式の o1 API を同期的にリクエストし、その結果を Stream 形式に変換して返し、互換性を実現します。
#25-0112 更新:
- o1 正式版のサポートが追加され、新たにサポートされるモデル名は次のとおりです。
- `o1`
- `o1-2024-12-17`
料金表は、次のステーションの料金ページでご覧いただけます。

#25-0108 更新:
- Completions API で呼び出される DeepSeek シリーズ モデルのサポートと、DS の FIM Completion のサポートを追加しました。
- DeepSeek シリーズ モデルのキャッシュされたトークンを請求書の詳細に記録するためのサポートを追加しました
- `gemini-1.5-pro` モデル名を追加
添付:
FIM の例:
POST: `/v1/completions`
```json
{
"モデル": "ディープシークチャット",
"prompt": "これは JSON です: '",
"suffix": "'、完了しました。"
}
「」
#25-0106 更新:
- 01AI モデル名サポートのフォローアップと更新、「yi-vision-v2」のサポートの追加
- 非推奨の 01AI モデルのサポートは削除されましたが、モデル書き換え機能は保持されました
#25-0105 更新:
- Chat.Completions API の GPT シリーズ モデルの課金モジュールを再構築し、キャッシュ課金をサポートするようになりました。キャッシュの請求詳細は、次のサイトの価格設定ページで確認できます[1]
- DeepSeek シリーズのモデル URL がデフォルト URL からベータ URL に変更されました。 DeepSeek のユーザーは、DeepSeek のベータ機能の一部を使用できるようになりました[2]
- 一部の古い非推奨モデルのサポートを完全に削除 ( `gpt-3.5-turbo-0301` 、 `gpt-3.5-turbo-0613` 、 `gpt-3.5-turbo-16k-0613` 、 `gpt-4-0314` 、 `gpt-4-32k` 、 「gpt-4-32k-0314」、 `gpt-4-32k-0613` ) (古いバージョンのプログラムとの互換性を確保するため、これらの古いバージョンのモデル名は、同じレベルの新しいモデル名に自動的に書き換えられます)
[1]ネクストステーション 料金ページ https://next.ohmygpt.com/pricing
[2] DeepSeek ベータ版 https://api-docs.deepseek.com/guides/chat_prefix_completion
#25-0103 更新:
- API 応答速度の最適化: Socket.IO ストリーム アダプターによって引き起こされる内部 Redis サービスのパフォーマンス低下を修正します。これにより、API 応答速度が遅くなります。
#25-0102 更新:
・DeepSeekシリーズモデルの課金機能が誤って呼び出され、モデルを利用したユーザーが異常な減額を受けていた。このバグはユーザーからのフィードバックを受けてすぐに修正されました。
- このバグの影響を受けるすべてのユーザーを補償するために、24-1230 から 25-0102 までのすべてのユーザーのディープシーク関連モデル通話料金が免除され、残高に返されます。それらはカウントされており、できるだけ早く処理されます。
#24-1231 更新:
- DeepSeek シリーズモデルのレートは 1.1 から 1 に変更され、追加料金は請求されません。
- CacheHitTokens 請求をサポートするために DeepSeek シリーズ モデル請求モジュールを再構築します。
- Next stationの価格ページにDeepSeekシリーズモデルの価格表示を追加しました
最後に、2025 年の新年が明けましておめでとうございます。
#24-1229 更新:
グループの友人 @Bryce のスポンサーのおかげで、以下のビーン バッグ モデルが期間限定で無料で入手できるようになりました。好きなようにプレイできます:
- 「doubao-pro-128k-240628」
- 「doubao-pro-32k-241215」
- 「doubao-pro-4k-240515」
- `doubao-pro-4k-character-240728`
- 「doubao-lite-4k-240328」
- `doubao-lite-4k-character-240828`
ps: 目視検査によれば、最も強力なものは「doubao-pro-32k-241215」であるはずです。興味があれば、ぜひ来て試してみてください。


#24-1228 更新:
- ByteDanceをサポートするDoubaoシリーズの大型モデルを追加
- The Dark Side of the Moon をサポートする Moonshot v1 シリーズの大型モデルを追加しました (ByteDance の Volcano プラットフォームによって提供)
- 乗数は 1 です (つまり、値上げ 0 の直接の元の価格です。米を稼ぐためにこれを考慮する必要はありません。誰にとっても便利です)。
料金の詳細については、Next station の料金ページをご覧ください: https://next.ohmygpt.com/pricing

#24-1221 更新:
- Google AI シリーズモデルが 20% オフでセール中
- Google AIシリーズの自動リトライ機能の安定性を向上しました。
#24-1219 更新:
- Realtime シリーズ モデルの最新バージョン 24-1217 のサポートが追加されました。 4o Realtime の新バージョンの価格は大幅に値下げされ、mini の価格も安くなりました。ヒット率の高いキャッシュ機能により、価格も許容範囲に達しました。
「gpt-4o-リアルタイム-プレビュー-2024-12-17」
「gpt-4o-mini-リアルタイム-プレビュー」
「gpt-4o-mini-realtime-preview-2024-12-17」
・リアルタイムシリーズモデルのキャッシュアカウンティング機能に対応しました。
- Next stationのリアルタイム通話デモを更新しました。 Next station の関連デモ: https://next.ohmygpt.com/chat Mirror: https://next.aigptx.top/chat で Realtime シリーズ モデルの新バージョンを体験できるようになりました。

#24-1218 更新:
- 最新の「gpt-4o-audio-preview-2024-12-17」モデルのサポートが追加され、オーディオ入出力の価格はオリジナルの 4oA1001 よりも大幅に低くなりました。
- 最新の正式版「o1」については、OAI が完全にオープンしていないため、Tier5 アカウントをたくさん調べましたが、o1 正式版 API 権限を持つアカウントが見つからなかったため、今日はアクセスせず、その後の OAI のオープンを待っています。
- Chat.Completions APIは、o1シリーズモデルを考える際の「努力レベル」を調整できるオプションパラメータ「reasoning_effort」を新たにサポートしました。公式ドキュメント [1] によると、このパラメータは o1 シリーズに対してのみ意味があります。
- 「消費レコード」セクションに、キャッシュ フィールドとオーディオ入出力フィールドのサポートが追加されました。これらのデータは、次のステーションの使用統計/消費記録で照会できるようになりました。
- 新しい 4o-realtime1217 は明日アクセスされます。現在、これらのフィールドの一部のサポートを追加するには、しばらく時間がかかります。


[1] OpenAI公式ドキュメント https://platform.openai.com/docs/api-reference/chat/create
#24-1205 更新:
・ネクストステーションの残高表示機能を最適化しました。推定法定通貨価値が表示されます。対応する法定通貨価値の推定値も APIKey 管理テーブルに追加されました。
・NextサイトのAPIKey管理ページにAPIエンドポイントの表示を追加しました。
- 簡単かつ安全なAPIオリジナルデータ記録とモデル名書き換え機能を実現するCFアンチジェネレーション構築チュートリアルドキュメントを追加: https://ohmygpt-docs.apifox.cn/doc-5628298
#24-1127 更新:
- ファイルストレージ事業「file-v1」を新たに開始
本事業計画は、安全・高速・低コスト・制御可能なファイルサービスとして、マルチモーダルなファイル一時保存・AIサービス向け文書アップロード・ダウンロード機能の提供など、ファイル処理に関わるあらゆるビジネスの基本サービスを提供します。当サイトの保管サービスはデッサンベッドなどの用途でもご利用いただけます。
すべてのユーザーは 1 GB のファイル ストレージ スペースを無料で使用でき、超過分は次の価格基準に従って請求されます。
価格設定:
「$9.9/TB/月」
また、追加料金は発生せず、リクエスト手数料や輸出トラフィック手数料も無料です。
ドキュメント: https://ohmygpt-docs.apifox.cn/doc-5575792
#24-1126 更新:
- クロード カウント メッセージ トークン API `/v1/messages/count_tokens` のサポートを追加しました。
ドキュメント: https://ohmygpt-docs.apifox.cn/api-237994522
新しいファイル システムは当初、今日オンラインになる予定でしたが、CDN キャッシュの問題によって引き起こされる多くの落とし穴のため、1 ~ 2 日延期されます。
#24-1123 更新:
- 公式の組み込み PDF 入力機能が、Anthropic のネイティブ メッセージ インターフェイスでサポートされました。この機能を使用するには、「anthropic-beta」リクエスト ヘッダーに「pdfs-2024-09-25」キーワードを追加して、このベータ機能を有効にする必要があります。
「」
anthropic-beta: pdfs-2024-09-25、prompt-caching-2024-07-31
「」

#24-1121 更新:
- 最新の「gpt-4o-2024-11-20」モデルのサポートが追加されました。価格は以前のバージョン 24-0806 から変更されていません。

#24-1116 更新:
- モデル使用統計グラフの色の区別を改善しました。
- Next Station にリアルタイム チャット ルーム技術のデモンストレーション デモが追加されました。エクスペリエンスをテストすることを歓迎します (実際にどのように機能するかを確認するための公開テスト用にリリースします)。
デモ(メインサイト): https://next.ohmygpt.com/tools
デモ (ミラー): https://next.aigptx.top/tools
特徴:
1. Socket.IO に基づいて、クライアントとサーバー間の比較的信頼性の高い低遅延の双方向リアルタイム通信が実現されます。
2. このデモの背後にはメッセージを記録するためのリレーショナル データベースはなく、メッセージを送信するためにフレームワークの出力のみに依存しています。
3. 自分でルームを作成してグループチャットを開始できます
4. 内蔵AIチャット機能を一時的に使い放題(モデルCommand R Plus(Cohere製))
#24-1111 更新:
- APIKey 権限制御リビジョン:
古いキーが新しいモデルを直接呼び出すことができないことについてのさらなるユーザーの疑念を避けるために、現在、Web サイトの APIKey 関連モジュールにいくつかの改善が加えられています。
「」
- すべての APIKey に新しい「権限の確認」フラグが追加されました
- Web ページで作成されたキーはモデルの権限をチェックしなくなりました (Web ページで作成された APIKey はデフォルトでこのフラグを false に設定します)
- 古いキーはこのスイッチを手動でオフにして、モデルの権限チェックをバイパスできます
- セキュリティ上の理由から、システム内のすべての古い APIKey の「権限チェック」フラグは true に設定されます。つまり、すべての古い APIKey 権限チェックは引き続き有効になり、古いキーがこれによって影響を受けることを心配する必要はありません。
「」
#24-1110 更新:
- 「glm-4v-plus」モデルのサポートを追加しました。価格の詳細については、[1] を参照してください。
[1] https://next.ohmygpt.com/pricing
#24-1109 更新:
- Gemini シリーズ JSON 出力モードのサポートを追加しました。関連する実装の詳細についてはドキュメントを参照してください[1]
- `gemini-1.5-flash-8b` 正式バージョン モデルのサポートを追加しました。価格の詳細については [2] を参照してください。
[1] https://ohmygpt-docs.apifox.cn/api-123253693
[2] https://next.ohmygpt.com/pricing
#24-1108 更新:
- OpenAI互換インターフェースにおけるGeminiシリーズモデルのメッセージスプライシングロジックを改善
- ドキュメントを改善し、関連する実装の詳細を示しながら、Claude シリーズ モデル OpenAI インターフェイスの互換性を向上させます[1]
[1] https://ohmygpt-docs.apifox.cn/api-123253693
#24-1107 更新:
- OpenAI互換インターフェイスでのClaudeシリーズモデルの互換性サポートを呼び出すツールの改善
詳細については、https://ohmygpt-docs.apifox.cn/api-123253693 を参照してください。
#24-1106 更新:
- ボットが PDF ファイルチャットをサポートするようになりました
https://t.me/getfunbot
#24-1105 更新:
- 最新の Claude 3.5 Sonnet をサポートし、次のモデル名を追加します。
- `クロード-3-5-俳句`
- `claude-3-5-俳句-最新`
- `claude-3-5-haiku-20241022`
- 新しいバージョンの GLM シリーズ モデルのサポートを追加しました
- `glm-4-plus`
- `glm-4-airx`
- `glm-4-air`
- `glm-4-long`
- `glm-4-フラッシュx`
- 「glm-4-フラッシュ」
価格の詳細については、価格ページを確認してください: https://next.ohmygpt.com/pricing
#24-1103 更新:
- Next stationのGoogle/GitHub OAuth認証ジャンプ問題を解決
- 新しいバージョンのアカウント登録/パスワード リセット ロジックを完了します (確認コードを使用してアカウント パスワードを登録/リセットできるようになりました)

添付:
次のメイン Web サイト: https://next.ohmygpt.com
次のサイトミラー: https://next.aigptx.top
この時点で、新しいバージョンの Web サイトのログイン、登録、リチャージ、API 管理およびその他の機能が基本的に完了します。現在、API のみを使用するユーザーは、Next サイトの使用を開始できます。ウェブサイトの次の開発方向は次のとおりです。
- ベクトル検索サービスとナレッジベースの質問と回答サービス
- オブジェクト ストレージをベースにしたオープン ファイル システムを完成します (ファイル アップロード関連の目的に使用され、小規模なネットワーク ディスクとしても使用できます)
- 新しいバージョンの Web サイトのチャット機能 (ファイルのアップロード、プラグイン システム、コード インタプリタ、フローチャート、エージェントなどを含む) を完了します。
- 新しいウェブサイトの画像生成機能を完了
- TgBotを改善し、Tgプラットフォームの機能を利用して、より興味深く実用的な機能を低コストで実装します
- より多くの API サービス プロバイダーとより多くのモデルにアクセス
- 日本企業をベースとしたビジネスを開始
#24-1101 更新:
- ネクストステーションの使用状況詳細照会機能が完成し、ネクストステーションの「/settings/usage」ページで使用状況の詳細を照会またはエクスポートできるようになりました


添付:
次のメインサイト: https://next.ohmygpt.com/settings/usage
次のサイトミラー: https://next.aigptx.top/settings/usage
#24-1031 更新:
- 次のステーションの使用統計機能が完成し、次のステーションの「/settings/usage」ページで使用統計グラフを照会できるようになりました

添付:
次のメインサイト: https://next.ohmygpt.com/settings/usage
次のサイトミラー: https://next.aigptx.top/settings/usage
#24-1026 更新:
- OpenAI 互換インターフェイスを介して Claude シリーズおよび Gemini シリーズ モデルを呼び出すと、使用状況関連のデータ ブロックが返されるようになりました。
- 価格表示ページの改善:クロードやジェミニなどの一部のモデルに詳細な価格表示を追加し、ネクストステーションの「/価格」ページで確認できるようにしました。
添付:
使用データブロックの例:
```json
{
"id": "chatcmpl-hMOdfnoaXtcpCZwRJISUAzPtsfZKs",
"オブジェクト": "chat.completion.chunk",
「作成済み」: 1729944958、
"モデル": "クロード-3-5-ソネット",
「選択肢」: []、
"使用法": {
"prompt_tokens": 11、
"completion_tokens": 8、
"total_tokens": 19、
"prompt_tokens_details": {
「キャッシュされたトークン」: 0
}、
"completion_tokens_details": {
"reasoning_tokens": 0
}
}
}
「」
#24-1024 更新:
- 価格ページの改善:OpenAIや01AIなどの一部機種の詳細な価格表示を追加し、ネクストステーションの「/価格」ページで確認できるようになりました。
- 次のメインウェブサイト https://next.ohmygpt.com/pricing
- 次のミラー https://next.aigptx.top/pricing
- Flux API は無料ではなくなりました。詳細については、価格ページをご覧ください。
Happy 1024 Programmer's Day (この更新ログを書いているときに今日が 1024 年であることに気づきました)
#24-1023 更新:
- Anthropic の最新の「claude-3-5-sonnet-20241022」のサポートを追加しました。
#24-1022 更新:
- Laomajia X-AI、倍率 1.1 をサポートする新しい Grok シリーズ モデルを追加しました: `grok-beta`
- Qwen2.5 7B/72BにTA対応モデルを追加
- 自社開発の Telegram Bot [ベータ版] が開始されました: @getfunbot は、現在積極的に新機能の開発を行っています。ドキュメントリンク: https://ohmygpt-docs.apifox.cn/doc-5319532
添付:
「」
#Grok オリジナルの価格ノート
## グロクベータ
プロンプトトークン:
$5.00
完了トークン:
$15.00
入力:
$5/100万トークン
1tk = (5 * 250000)/1000000 = 1.25 コイン
出力:
$15/100万トークン
1tk = (15 * 250000)/1000000 = 3.75 コイン
「」
#24-1018 更新:
- 最新の「gpt-4o-audio-preview」シリーズのモデルのサポートを追加しました。ただし、技術的な理由により、このモデルの非ストリーミング通話のみが現在サポートされています。リアルタイムの音声対話が必要なユーザーは、このサイトの「/v1/realtime」リアルタイム WebSocket エンドポイントを使用してください。
- セルフサービス請求システムが更新されました。ユーザーは、本土の企業間送金とリチャージを自分で申請および開始できるようになりました(最低 1 元からでも可能です)。

システムドキュメント: https://ohmygpt-docs.apifox.cn/doc-5305167
添付:
「」
# gpt-4o-audio-preview シリーズの独自の価格計算メモ
gpt-4o-オーディオプレビュー
gpt-4o-audio-preview-2024-10-01
価格分析:
文章
$2.50 / 100万トークン
$10.00 / 100万トークン
オーディオ***
$100.00 / 100万トークン
$200.00 / 100万トークン
====本文====
入力:
$2.5 / 100万トークン
1tk = (2.5 * 250000)/1000000 = 0.625 コイン
出力:
$10/100万トークン
1tk = (10 * 250000)/1000000 = 2.5 コイン
====本文====
====オーディオ====
入力:
$100 / 100万トークン
1tk = (100 * 250000)/1000000 = 25 コイン
出力:
$200 / 100万トークン
1tk = (200 * 250000)/1000000 = 50 コイン
====オーディオ====
「」
#24-1017 更新:
- 新たに導入されたセルフサービス請求システム。ユーザーは、alipay/alipayEnterprise/CNB2B(本土企業間送金)の注文を自分で最低1元から申請し、請求書を発行できるようになりました。
システムアドレス: https://ivs.dogenet.cn/
システムドキュメント: https://ohmygpt-docs.apifox.cn/doc-5305167
#24-1016 更新:
**01 All Things シリーズの大型モデルのサポートを追加しました:**
- 「イーライトニング」
- `yi-large`
- `yi-medium`
- 「イービジョン」
- `yi-medium-200k`
- 「イースパーク」
- `yi-large-rag`
- `yi-large-fc`
- `イーラージターボ`
乗算: 1 (元の価格が転送されます)
添付:
「」
#yiモデル独自の価格計算メモ
## イーライトニング
価格設定:
¥0.99 /100万トークン
1tk = (0.99 * 34000)/1000000 = 0.03366 コイン
## イーラージ
価格設定:
¥20 /100万トークン
1tk = (20 * 34000)/1000000 = 0.68 コイン
## yi-medium
価格設定:
¥2.5 /100万トークン
1tk = (2.5 * 34000)/1000000 = 0.085 コイン
## イービジョン
価格設定:
¥6 /100万トークン
1tk = (6 * 34000)/1000000 = 0.204 コイン
## yi-medium-200k
価格設定:
¥12 /100万トークン
1tk = (12 * 34000)/1000000 = 0.408 コイン
## イースパーク
価格設定:
¥1 /100万トークン
1tk = (1 * 34000)/1000000 = 0.034 コイン
## yi-ラージラグ
価格設定:
¥25 /100万トークン
1tk = (25 * 34000)/1000000 = 0.85 コイン
## yi-large-fc
価格設定:
¥20 /100万トークン
1tk = (20 * 34000)/1000000 = 0.68 コイン
## yi-ラージターボ
価格設定:
¥12 /100万トークン
1tk = (12 * 34000)/1000000 = 0.408 コイン
注:ここでの計算は¥1=34000コインに基づいています
「」
#24-1011 更新:
アジア太平洋地域向けに最適化された CDN ミラーを追加しました。
- ミラーステーション 1: https://www.aigptx.top
- ミラーステーション 2: https://x.dogenet.win
- 新しいバージョンの Web サイトミラー 1: https://next.aigptx.top
- 純粋な API の反転イメージ: `https://c-z0-api-01.hash070.com/v1`
(アジア太平洋地域で測定されたアクセス速度は最高であり、一部の地域のユーザーから強く推奨されています)
#24-1005 更新:
- OpenAI の最新のリアルタイム エンドポイントと 4o リアルタイム プレビュー モデルのサポートを追加しました。低遅延でリアルタイムに AI と会話できるようになりました。
- Web バージョンでは、すぐに使用できるチャット機能が開始されました。新しい Web ページ: https://next.ohmygpt.com/chat または https://next.aigptx.top/chat で体験できるようになりました。
新しくサポートされたモデル名:
- gpt-4o-realtime-preview-2024-10-01
添付:
ドキュメント: https://ohmygpt-docs.apifox.cn/websocket-3563866
「」
# 4o-リアルタイム独自の価格計算メモ
- gpt-4o-realtime-preview-2024-10-01
====本文====
入力:
$5/100万トークン
1tk = (5 * 250000)/1000000 = 1.25 コイン
出力:
$20 / 100万トークン
1tk = (20 * 250000)/1000000 = 5 コイン
====本文====
====オーディオ====
入力:
$100 / 100万トークン
1tk = (100 * 250000)/1000000 = 25 コイン
出力:
$200 / 100万トークン
1tk = (200 * 250000)/1000000 = 50 コイン
====オーディオ====
「」
#24-0913 アップデート
- OpenAI の最新の o1 および o1 mini シリーズ モデルのサポートを追加しました。現在の同時実行クォータは非常に低く、個人の早期導入者による使用にのみ適しています (API ストリーム呼び出しは、ほとんどのアプリケーションと互換性があるようにサポートされています (非ストリーム応答結果をストリーム結果に変換))。製品ラインでの本番使用には適していませんし、没入型翻訳にも適していません。
- 本土の企業間送金と本土の電子請求書の発行がサポートされるようになりました。必要に応じて、電子メールまたは TG を介してグループ リーダーと直接チャットして処理することができます。
添付:
新しくサポートされたモデル名:
-o1-プレビュー
- o1-プレビュー-2024-09-12
-o1-ミニ
- o1-mini-2024-09-12
「」
#o1シリーズ独自の価格計算
o1-プレビュー | o1-プレビュー-2024-09-12
$15.00 / 100 万入力トークン
$60.00 / 100万出力トークン
入力:
$15/100万トークン
1tk = (15 * 250000)/1000000 = 3.75 コイン
出力:
$60 / 100万トークン
1tk = (60 * 250000)/1000000 = 15 コイン
----
o1ミニ | o1-mini-2024-09-12
$3.00 / 100 万入力トークン
$12.00 / 100万出力トークン
入力:
$3/100万トークン
1tk = (3 * 250000)/1000000 = 0.75 コイン
出力:
$12/100万トークン
1tk = (12 * 250000)/1000000 = 3 コイン
====
OpenAI o1-プレビュー
o1-preview は、幅広い一般知識を必要とする複雑なタスクのための新しい推論モデルです。このモデルには 128K のコンテキストがあり、2023 年 10 月にナレッジ カットオフが設定されます。
o1-プレビューについて学ぶ
モデル
価格設定
o1-プレビュー
$15.00 / 100 万入力トークン
$60.00 / 100万出力トークン
o1-プレビュー-2024-09-12
$15.00 / 100 万入力トークン
$60.00 / 100万出力トークン
OpenAI o1-mini
o1-mini は、コーディング、数学、科学のユースケースに合わせて調整された、高速でコスト効率の高い推論モデルです。このモデルには 128K のコンテキストがあり、2023 年 10 月にナレッジ カットオフが設定されます。
o1-miniについて詳しく見る
モデル
価格設定
o1-mini
$3.00 / 100 万入力トークン
$12.00 / 100万出力トークン
o1-mini-2024-09-12
$3.00 / 100 万入力トークン
$12.00 / 100万出力トークン
「」
#0828 アップデート:
- 最近リストされた `gemini-1.5-pro-exp-0827` および `gemini-1.5-flash-exp-0827` のサポートを追加しました (価格はそれぞれ 1.5 pro および 1.5 flash に対応します)
- 0825 Flux シリーズのイメージ生成 API ドキュメントのサポートを追加しました: https://ohmygpt-docs.apifox.cn/api-208347493
#24-0819 アップデート
- Gemini 1.5のフラッシュコスト計算式をフォローアップおよび引き下げ
- 「gemini-1.5-pro-exp-0801」のサポートを追加しました。
- Gemini API サービス プロバイダーが Google Cloud Vertex AI プラットフォームから Google AI プラットフォームに移行し、Gemini 関連モデルの同時実行性が大幅に増加しました。
- Gemini API の組み込み監査をオフにする
添付:
「」
# gemini 1.5 pro 独自の価格計算メモ
----
投入価格(100万トークンあたり)
128,000 トークン以下の場合 $3.50
128,000 トークンを超える場合は $7.00
----
入力: <= 128K トークンの場合:
$3.50/100万トークン
1tk = (3.50 * 250000)/1000000 = 0.875 コイン
入力: > 128K トークンの場合:
$7.00 /100万トークン
1tk = (7.00 * 250000)/1000000 = 1.75 コイン
----
出力価格(100万トークンあたり)
128,000 トークン以下の場合 $10.50
128,000 トークンを超える場合は $21.00
----
出力: <= 128K トークンの場合
$10.50 /100万トークン
1tk = (10.50 * 250000)/1000000 = 2.625 コイン
出力: > 128K トークンの場合
$21.00 /100万トークン
1tk = (21.00 * 250000)/1000000 = 5.25 コイン
====================================
#gemini 1.5 フラッシュ独自の価格計算メモ
----
投入価格(100万トークンあたり)
128,000 トークン以下の場合 $0.075
128,000 トークンを超える場合は $0.15
----
入力: <= 128K トークンの場合:
$0.075 /100万トークン
1tk = (0.075 * 250000)/1000000 = 0.01875 コイン
入力: > 128K トークンの場合:
$0.15 /100万トークン
1tk = (0.15 * 250000)/1000000 = 0.0375 コイン
----
出力価格(100万トークンあたり)
128,000 トークン以下の場合 $0.30
128,000 トークンを超える場合は $0.60
----
出力:
$0.30 /100万トークン
1tk = (0.30 * 250000)/1000000 = 0.075 コイン
出力:
$0.60 /100万トークン
1tk = (0.60 * 250000)/1000000 = 0.15 コイン
「」
#24-0815 アップデート
- 一部のクロード モデルにプロンプト キャッシュのサポートが追加されました。これにより、非常に長いテキストを含む連続会話のコストを大幅に節約できます。この機能はメッセージ ネイティブ インターフェイスでのみサポートされており、対応する要求ヘッダーで有効になります。詳細については、https://docs.anthropic.com/en/docs/build-with-claude/prompt-caching を参照してください。
- Mjサービスを復元しますが、価格は以前の2倍になります
「」
# Opus の入力および読み取りキャッシュ:
キャッシュ作成_入力トークン:
$18.75 / 100 万入力トークン
1tk = (18.75 * 250000)/1000000 = 4.6875 コイン
キャッシュ_読み取り_入力_トークン:
$1.50 / 100 万入力トークン
1tk = (1.50 * 250000)/1000000 = 0.375 コイン
# Claude 3.0 Haiku の入力および読み取りキャッシュ:
キャッシュ作成_入力トークン:
$0.30 / 100 万入力トークン
1tk = (0.30 * 250000)/1000000 = 0.075 コイン
キャッシュ_読み取り_入力_トークン:
$0.03 / 100 万入力トークン
1tk = (0.03 * 250000)/1000000 = 0.0075 コイン
# Claude 3.5 Sonnet の入力および読み取りキャッシュ:
キャッシュ作成_入力トークン:
$3.75 / 100 万入力トークン
1tk = (3.75 * 250000)/1000000 = 0.9375 コイン
キャッシュ_読み取り_入力_トークン:
$0.30 / 100 万入力トークン
1tk = (0.30 * 250000)/1000000 = 0.075 コイン
「」
#24-0813 アップデート
- `chatgpt-4o-latest` をサポート
#24-0807 更新:
1. 最新の GPT-4 Omni バージョン 0806 のサポートが追加されました。これは、第 1 世代 4Omni の半額以上の価格です。
追加されたサポートモデル名:
- 「gpt-4o-2024-08-06」
2. 一部のAPI呼び出しに対してIP記録機能を追加しました。
IP レコードを要求する機能は、いくつかの一般的なインターフェイスに実装されています。
請求書クエリ機能で、対応する要求された IP を直接表示できるようになりました。
セキュリティ上の理由から、開発者の OAuth APP からのリクエスト IP は記録されません。
添付:
```マークダウン
#gpt-4o-2024-08-06 元の料金計算
入力:
$2.50 / 100 万入力トークン
1tk = (2.50 * 250000)/1000000 = 0.625 コイン
出力:
$10.00 / 100 万出力トークン
1tk = (10.00 * 250000)/1000000 = 2.5 コイン
「」
#24-0710 更新:
- バックエンドの認証モジュールが再構築され、新しい Web サイトの開発が段階的に進みました。新しいオープン OAuth API が追加されました。開発者は自分のプロジェクトをこのサイトに接続し、さまざまな AI 機能をプロジェクトにすばやく接続できるようになりました。同時に、ユーザー管理、API 統合、課金などのさまざまな事項に注意を払う必要はありません。機能の開発と実装に集中すると、報酬、利益、シェアを獲得する機会もあります。詳細については、ドキュメントを参照してください: https://ohmygpt-docs.apifox.cn/doc-4718106
- レガシー モデルのリダイレクト:
このサイトでは、次のモデルの転送はサポートされなくなりましたが、古いバージョンのプログラムとの互換性をある程度確保するために、これらのモデル名を使用した API の呼び出しは引き続きサポートされています。
「」
gpt-3.5-turbo-0301 非推奨 gpt-3.5-turbo に書き直されました
gpt-3.5-turbo-0613 非推奨 gpt-3.5-turbo に書き直されました
gpt-3.5-turbo-16k 非推奨 gpt-3.5-turbo に書き直されました
gpt-3.5-turbo-16k-0613 非推奨 gpt-3.5-turbo に書き直されました
gpt-4-0314 非推奨 gpt-4 に書き直されました
gpt-4-vision-preview | gpt-4-1106-vision-preview 非推奨 gpt-4o に書き直されました
「」
#24-0621 更新:
Anthropic の最新リリースである Claude 3.5 Sonnet をサポートしています。価格はClaude 3 Sonnetとまったく同じですが、AさんはC3Opusよりも性能と速度が強いと言いました。また、メッセージを介したネイティブ API 呼び出しと OpenAI Chat.Completions 互換の API 呼び出しもサポートします。
- 「クロード-3-5-ソネット」
- 「クロード-3-5-ソネット-20240620」
(ウェブマスターは 24-0614 に無事卒業し、現在は現役に戻っています (新しいチーズの学習 + コードの作成と新しいプロジェクトの維持/開発 + 移民計画の着実な推進に集中しています) 皆様の継続的なサポートに感謝します)
#24-0531 更新:
1. Google の最新 Gemini 1.5、新モデルのサポート:
- `ジェミニ-1.5-プロ-001`
- `ジェミニ-1.5-フラッシュ-001`
どちらもビジョン入力をサポートしています
注記:
gemini-pro-vision と gemini-pro-vision は gemini-1.5-pro-001 を指しています。
実際に測定された同時実行性は残念なほど小さく、依然として初期採用者のみに適しています。今後、増枠申請に努めてまいります。
2. `/v1/models` API の変更
このサイトでサポートされているすべてのモデル名が返されるようになりました
```json
{
"オブジェクト": "リスト",
"データ": [
{
"id": "gpt-3.5-turbo",
"オブジェクト": "モデル",
「作成済み」: 1717133244679、
"owned_by": "OhMyGPT"
}...
】
}
「」
添付:
「」
Gemini 1.5 の当初経費の会計メモ
#ジェミニ 1.5 プロ
価格(入力)
$3.50 / 100 万トークン (最大 128,000 トークンのプロンプトの場合)
1tk = (3.5 * 250000) / 1000000 = 0.875 コイン
$7.00 / 100 万トークン (128,000 を超えるプロンプトの場合)
1tk = (7 * 250000) / 1000000 = 1.75 コイン
価格(生産高)
$10.50 / 100 万トークン (最大 128,000 トークンのプロンプトの場合)
1tk = (10.5 * 250000) / 1000000 = 2.625 コイン
$21.00 / 100 万トークン (128,000 を超えるプロンプトの場合)
1tk = (21 * 250000) / 1000000 = 5.25 コイン
#ジェミニ 1.5 フラッシュ
価格(入力)
0.35 ドル = 100 万トークン (最大 128,000 トークンのプロンプトの場合)
1tk = (0.35 * 250000) / 1000000 = 0.0875 コイン
0.70 ドル = 100 万トークン (128,000 を超えるプロンプトの場合)
1tk = (0.7 * 250000) / 1000000 = 0.175 コイン
価格(生産高)
$1.05 / 100 万トークン (最大 128,000 トークンのプロンプトの場合)
1tk = (1.05 * 250000) / 1000000 = 0.2625 コイン
2.10 ドル / 100 万トークン (128,000 を超えるプロンプトの場合)
1tk = (2.1 * 250000) / 1000000 = 0.525 コイン
「」
#24-0514 更新:
**1. OpenAI の最も先進的なマルチモーダル モデルである最新の GPT-4 Omni のサポートが追加されました。 **
追加されたサポートモデル名:
-gpt-4o
- gpt-4o-2024-05-13
このモデルは現在 gpt-4-turbo と同じで、テキストと画像の混合推論 + プレーン テキスト出力のみをサポートします。
**入出力の価格は gpt4t より 70% ~ 50% 低くなります**。 GPT4o の単語セグメンターの最適化と組み合わせると、**実際には単語数が同じ場合、GPT4o のトークンは半分以上削減されます**。そのため、呼び出しコストは gpt3.5 とほぼ同じ桁になります。
参考:https://openai.com/index/hello-gpt-4o/
添付:
「」
#0514 GPT4o オリジナル価格会計
gpt-4o | gpt-4o-2024-05-13 $5.00 / 100 万トークン $15.00 / 100 万トークン
-gpt-4o
- gpt-4o-2024-05-13
入力:
$5 = 100万トークン
1tk = (5 * 250000)/1000000 = 1.25 コイン
出力:
$15 = 100万トークン
1tk = (15 * 250000)/1000000 = 3.75 コイン
「」
2. 一般ユーザー向けの GPT4 制限を削除する
3. OpenAI ストリーミング リクエストへの小さな変更
サーバーは OpenAI モデルの Stream リクエストに変更を加えました。破壊的な更新であってはなりません。 stream=true の場合、次のパラメータが強制的に追加され、OpenAI API がこのリクエストの入力および出力トークンの数を返すことが要求されます。
「」
"ストリームオプション":{
"include_usage": true
}
「」
将来的には、サーバー側のストリーム リクエストでトークンを解析して計算する必要がなくなります。すべては、アップストリーム API によって報告されたトークンの数に基づきます。これにより、多くのコードが簡素化されるだけでなく、請求の精度も向上します。
**注記:**
この変更により、ストリーミング リクエストの最後から 2 番目の行に追加のチャンクが含まれるようになります。
「」
データ: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-04- 09","system_fingerprint":"fp_0737e0dfd9","choices":[{"index":0,"delta":{},"logprobs":null,"finish_reason":"length"}],"usage":null}
データ: {"id":"chatcmpl-9OcFBHIB9jKqJ9El1a1AkxkN4SH2G","object":"chat.completion.chunk","created":1715653909,"model":"gpt-4-turbo-2024-0 4-09","system_fingerprint":"fp_0737e0dfd9","choices":[],"usage":{"prompt_tokens":778,"completion_tokens":10,"total_tokens":788}}
データ: [完了]
「」
最後のトークン チャンクは、AI SSE ストリーム出力の一般的な方法です。多くの AI サービスにはこのチャンクがあり、OpenAI は現在、これをネイティブにサポートしています。
注: 最後から 2 番目の行の選択肢は空の配列です。コードで安全でない配列読み取りメソッドを使用している場合、最後から 2 番目の行を読み取るときに配列範囲外例外が発生する可能性があります。
この問題が発生した場合は、プログラムのストリーム解析コードを改善して、プログラムのストリーム解析をより堅牢にすることをお勧めします。
#24-0510 更新:
- 次のオープン ソース モデルと、OpenAI 標準 Chat.Completions API を介した呼び出しのサポートを追加しました。
「」
TA/クウェン/クウェン1.5-0.5B-チャット
TA/Qwen/Qwen1.5-1.8B-チャット
TA/Qwen/Qwen1.5-4B-チャット
TA/クウェン/クウェン1.5-7B-チャット
TA/コデラマ/CodeLlama-7b-Instruct-hf
TA/メタ-ラマ/ラマ-2-7b-チャット-hf
TA/メタ-ラマ/ラマ-3-8b-チャット-hf
TA/ミストラライ/ミストラル-7B-命令-v0.1
TA/ミストラライ/ミストラル-7B-命令-v0.2
TA/google/gemma-7b-it
TA/クウェン/クウェン1.5-14B-チャット
TA/ウィザードLM/ウィザードLM-13B-V1.2
TA/メタ-ラマ/ラマ-2-13b-チャット-hf
TA/クウェン/クウェン1.5-32B-チャット
TA/ゼロワンアイ/Yi-34B-チャット
TA/ディープシーク-ai/ディープシーク-コーダー-33b-命令
TA/コデラマ/CodeLlama-34b-Instruct-hf
TA/クウェン/クウェン1.5-72B-チャット
TA/ディープシーク-ai/ディープシーク-llm-67b-チャット
TA/コデラマ/CodeLlama-70b-Instruct-hf
TA/メタ-ラマ/ラマ-2-70b-チャット-hf
TA/メタ-ラマ/ラマ-3-70b-chat-hf
TA/クウェン/クウェン1.5-110B-チャット
TA/ミストラライ/Mixtral-8x7B-Instruct-v0.1
TA/ミストラライ/Mixtral-8x22B-Instruct-v0.1
「」
- DeepSeekをサポートするCoderモデルを追加
「ディープシークコーダー」
#24-0509 更新:
24-0509 アップデートのお知らせ
低価格のOAIチャネルは基本的にWebサイトの正常な運営を維持できず、また、低価格チャネルは徐々に消滅していくことも予想されるため、サービス品質を確保するため、正式に正式な支払いに切り替えることを決定し、OpenAI API乗数を1.1に修正しました。つまり、Web サイトの OpenAI の控除価格が正式価格 * 1.1 になります。余剰金は、決済ゲートウェイ料金、ウェブサイト運営費の補助、ウェブサイトと会社の継続的な発展のサポートに使用されます。
これは難しい決断ですが、この調整後、API サービスはより安定して信頼性が高まり、Web サイトのビジネス モデルはより正式で健全なものになります。ご理解いただき、ご支援のほどよろしくお願いいたします。
ウェブサイト自体は米国の会社によって運営されており、その名前で多数の米国会社のアカウントがあり、デビットカードやクレジットカードも多数あるため、資金移動や請求書の支払いの点で非常に効率的で便利です。

OpenAI の AI サービスは確かに業界のベンチマークですが、AI 分野の最近の発展により、他にも多くの優れたオプションがあります。
代替案として次の AI サービスを検討することをお勧めします。
- Anthropic の Claude3 シリーズ: シリーズ全体がマルチモーダルで、その中でも Haiku と Sonnet は非常に費用対効果が高くなります。多くのタスクの実行と理解は明らかに 3.5 よりも優れています。現在の Web サイトの埋め込み検索機能も Haiku によって実装されています。
- DeepSeek の最新の DeepSeek-V2 モデル (ディープシーク チャット) は最近非常に人気があります。これは最も強力なオープンソース モデル (であると主張) であり、GPT4Turbo に匹敵します。価格も無料に近く、100万トークンのコストはわずか1元です。実際の実践体験は悪くないので、試してみる価値はあります。
- CoHere の CommandR シリーズも 3.5 の強力な競合相手です。
- 3.5 リバース: `gpt-3.5-turbo-web-rev` は Bindeng chatgpt を使用してリバース エンジニアリングされます。遅延は許容範囲です。リクエストが成功するたびに、数十のトークンが象徴的に差し引かれます。無料に近いですね。トークンではなく回数に基づいて計算されます。トークンが多い場合に非常に実用的です。
#24-0508 更新:
DeepSeek から最新の DeepSeekV2 にアクセス
追加されたモデル名:
- 「ディープシークチャット」
#24-0409 更新:
新しく追加された CommandR モデルは、人気のある Cohere に接続されており、OpenAI.Chat.Completions 互換 API を通じて直接呼び出すことができるようになりました。
期間限定 10% オフの特別オファー
新しいモデル:
- `command-r`: (おそらく) OAI の gpt-3.5-turbo をベンチマークするモデル
- `command-r-plus`: (言われている) ターゲットは Anthropic の C3 Sonnet です
- `command-r-online`: CR に基づいて、公式の組み込み Web 検索機能が追加されます
- `command-r-plus-online`: CRP に基づいた、追加の公式組み込み Web 検索機能
追伸:
(聞いた話です) コマンドRシリーズはロールプレイも比較的得意です。
#24-0405 更新:
- Claude Messages API は最新の「tools」パラメータをサポートします。クロードも ToolCall を使用できるようになりました。これには思考連鎖推論が組み込まれているようで、OpenAI の TC よりも少し優れています。
入力例:
```json
{
"モデル": "クロード-3-opus-20240229",
"max_tokens": 1024、
「メッセージ」: [
{
"ロール": "ユーザー",
"content": "今日、ドッグクックの株はどこで下落しましたか?"
}
]、
「ストリーム」: false、
「ツール」: [
{
"名前": "get_stock_price",
"description": "指定されたティッカー シンボルの現在の株価を取得します。",
"入力スキーマ": {
"タイプ": "オブジェクト",
"プロパティ": {
「ティッカー」: {
"タイプ": "文字列",
"description": "株式ティッカー シンボル、例: Apple Inc. の AAPL"
}
}、
"必須": [
「ティッカー」
】
}
}
】
}
「」
出力:
```json
{
"id": "msg_01HVfeUwYukk6pWKzkGWsn8h",
"タイプ": "メッセージ",
"役割": "アシスタント",
"コンテンツ": [
{
"タイプ": "テキスト",
"text": "<思考>\nユーザーは、Apple Inc. の CEO、ティム クックを指す可能性が高い「犬库克」の現在の株価について尋ねています。現在の株価を取得するには、get_stock_price 関数を使用し、Apple のティッカー シンボル (AAPL) を指定する必要があります。\n\nユーザーは、必要なパラメータ値を推測するのに十分なコンテキストを提供しました:\nticker: への参照に基づいています。 \"狗库克\" (ティム クックのニックネーム)、Apple (AAPL) のティッカー シンボルを推測できます。\n\n必要なパラメータはコンテキストから推測できるため、関数呼び出しを続行できます。\n</ Thinking>"
}、
{
"タイプ": "ツールの使用",
"id": "toolu_01Tmx5NLhQZ7hEUpnYUGSPqV",
"名前": "get_stock_price",
「入力」: {
"ティッカー": "AAPL"
}
}
]、
"モデル": "クロード-3-opus-20240229",
"stop_reason": "ツールの使用",
"stop_sequence": null、
"使用法": {
"input_tokens": 507、
「出力トークン」: 199
}
}
「」
#24-0401更新:
- Chat.Completions API 内の新しい互換互換サポート智谱 AI の GLM 系列モデル (料金 1.1)
新モデル名:
- glm-3-ターボ
- glm-4
- glm-4v
(glm-4v没法直在Lobe経由OpenAI API直接使用,明天再看看
- 人間モデル限界時折扣结了,恢复到1.1
#24-0326更新:
- 周波数調整:OpenAI通常モデルとGPT4の周波数一調整は「0.5」です。
#24-0321更新:
- 修复部分前端文字错误
- 优化内嵌合のLLM検索機能
- C3 シリーズは、OpenAI.Chat.Completions API で使用できる内部ネットワーク検索機能(プロンプトで /gs gs/ 即可触発)を使用します。
#24-0318更新:
- OpenAI.Chat.Completions互換インターフェイス内のClaudemodelstopパラメータの修正、正射影のない問題
- 优化兼容インターフェース中のクロードに対する適応:
- role=system のメッセージが抽出され、API のシステムパラメータに再公開されます
- アシスタントのメッセージに画像が含まれている場合、それをクロードのメッセージ API のチェックに使用するために、先頭に 1 つのメッセージが追加され、そのメッセージがユーザーの色に追加され、通常の画像コンテンツが表示されるようになります。
- メッセージの長さが偶数である場合、再强制奇数はありません、(一般的な状況下)今回は末尾会がアシスタントであり、この会は発生した直接機能を果たします
#24-0315更新:
- モジュールの変更: APIKey が「管理制限」のスイッチをオンにした場合、モデルの制限が検査されます。(新しいモデル名は毎回削除されます)
- C3 の中国語の半角記号の問題を解決し、C3 出力の中国語に含まれる半角記号を修正し、英文コンテンツの記号に影響を与えない 3 つのバージョンのバージョンを上書きしました (「OpenAI.Chat.Completions」互換インターフェイスでのみ使用できます)。
- 「クロード-3-作品-パッチ」
- `claude-3-sonnet-patch`
- `claude-3-haiku-patch`
- OpenAI.Models.RetliveModels APIインターフェースサポートの追加
#24-0314更新:
- 新增 Claude 3 Haiku (小杯) `claude-3-haiku` をサポート | 「クロード-3-俳句-20240307」
特色:
- 画像/文字混合の多モデ入力もサポート
- 評価とパフォーマンスのgpt-3.5-turbo
- (Anthropic声称)Haikuの性能比3.5更加优秀(https://www.anthropic.com/news/claude-3-family)
- C3系列の中で最も便利な
#24-0312更新:
- 上線上GroqのMixtral-8x7bモデル、免費(groq-mixtral-8x7b-32768)
**注意: 非生产就绪、仅供个人体验**
#24-0310
- 单笔$10以上の注文は免責Stripe手续费
#24-0309
- 补充Claude バージョン本番号のモデル名(claude-2.0/2.1/3-opus-20240229...
- 設定インターフェース内のモデル名の表示方法を拡張
#24-0308
- Anthropic(Claude) 系列モデルの前置内容軤器を移し、您在で任意に使用して角色扮演を行うことができます。
- Anthropic 系列モデル制限時間 5 折特惠
#24-0306
新しい人類インターフェースの互換性の問題には次のものが含まれます。
- 网页/互換 API 内の Cladue 系列モデル、故に各角の话顺序制限が生じた要求错误
- LobeChatでC3モデル+画像入力時に発生する問題
- Vision 関連コードを更新すると、GPT4V インターフェイスに頻繁に発生する問題が発生します
#24-0305
新しい Anthropic 最新の Claude3 系列モデル、C3 全系多モデルは、画像入力をサポートしており、C3 大杯 (Opus) の音声は GPT4 よりも優れています。
- `claude-3-opus` C3 (大杯)
- `claude-3-sonnet` C3 (中杯)
- C3小杯等配信待ち
价格参考:https://www.anthropic.com/api#pricing
OpenAI の Chat.Completions インターフェイスを介して、GPT4V の標準の入出力を使用することも、Anthropic 当局の Messages インターフェイスを介して使用することもできます。
文档:https://ohmygpt-docs.apifox.cn/api-152507338
#24-0303
マイクロチャネル セキュリティ チャネルは遮断され、各ビット ユーザはストライプ チャネルを介して充電されます。
#24-0217
OpenAI 当局が gpt-3.5-turbo を 0125 に更新したため、モデルの注文も同時に 0125 に更新されました
#24-0205
Google AI サービス(text-bision/gemini-pro 等モデルを含む)無し、倍率変更は 1.1
#24-0203
倍率変動
闲時と平時了の区別はなくなり、周波数の変更は次のとおりです。
通常モデル倍率: 0.3
GPT-4系列モデル倍率: 0.4
#24-0127
新しい画像生成 API とモデル ( nd-imagine-v3 )、二刺画像の生成に最適 (実験的)
API文档:https://ohmygpt-docs.apifox.cn/api-145379071
#24-0125
- 新しい gpt-4-0125-preview と gpt-4-turbo-preview 、その上下文口、パラメータおよび价格は 1106 均無変化(据说解决了懒的问题)
- 新しい第三代挿入モデル: text-embedding-3-small および text-embedding-3-large 、その中の第三代挿入モデルは第二代有如下変
1. 价格和ada v2異,3代小号嵌入モデル比ada v2便宜,大号比ada v2贵一点点
2. 嵌合 API の選択可能な寸法(寸法)パラメータ
总结:
新規に次のようなモデル名を共有します
gpt-4-ターボプレビュー
gpt-4-0125-プレビュー
テキスト埋め込み-3-small
テキスト埋め込み-3-大
影響を受ける API エンドポイント:
埋め込み API: v3 モデルを埋め込むための「dimensions」パラメータのサポートを追加
チャット完了 API: 新增0125批次のGPT4 Turboモデル
参考:
https://platform.openai.com/docs/changelog/jan-25th-2024
https://openai.com/blog/new-embedding-models-and-api-updates
附:前几天的更新:
0122更新:
- 新增serper的谷歌搜索开放API,更便宜更好用,文档: https://ohmygpt-docs.apifox.cn/api-145085337
- 将LLM内嵌搜索功能的搜索服务商更改为serper,仍然可使用 /gs | gs/ 或者特定的模型名称触发
0123更新:
- 解决账单数据量过大时,按月统计图表可能会加载不出来的Bug,同时优化统计速度
# 24-0119
新增大模型内嵌联网功能:
目前已支持通过网页端和API来访问内嵌了联网功能的大模型
目前仅支持OpenAI的3.5/4/4Turbo系列的模型(32k和Azure除外)
目前仅支持基于谷歌官方搜索API的搜索功能
后面会接入更多模型以及更多可选的搜索服务提供方
使用方法:
在网页中直接使用:
当你需要使用谷歌联网搜索时,在prompt开头加上 /gs 或者 gs/ 就可以强制要求LLM在本次回答中,先使用谷歌搜索一下,然后再结合搜索到的信息进行回答。
示例:
`/gs 什么是“芝士雪豹”?`
通过API调用:
当你需要通过API在第三方客户端或者其它项目中使用时,您可以通过以下两种方式调用本站内置的LLM联网功能:
方式1:在密钥权限列表中勾选 chat-completions-with-gs 这样您就可以像网页中的那样,在需要谷歌搜索辅助时,在您输入的prompt最前面加上 /gs 或者 gs/ 即可触发LLM的谷歌搜索功能。(不勾选此项的话无法触发LLM的谷歌联网搜索功能)
方式2:上线了 xx-online-with-gs 系列模型,您可以通过直接调用该模型名称,来要求每次请求都要使用谷歌查询来辅助回答,无需特别的关键字触发。
新增权限名称:
- chat-completions-with-gs LLM内嵌谷歌搜索开关,不勾选它的话,此Key将无法使用 /gs 或 gs/ 关键词触发谷歌联网搜索功能
- gpt-3.5-turbo-online-with-gs 强制触发基于谷歌搜索的LLM联网模型名称,下面都是一样的
- gpt-4-online-with-gs
- gpt-4-1106-preview-online-with-gs
已知缺点:
在能力较弱的3.5使用联网功能时,可能会出现脚标和链接输出格式错误或混乱的问题,会尝试继续调整和优化相关的Prompt
新增Completions模型支持:
- davinci-002
- babbage-002
作为初代GPT3的替代品
# 24-0113
- 上线了谷歌搜索兼容API
(为后面的LLM联网功能做铺垫
文档:https://ohmygpt-docs.apifox.cn/api-141553709
# 24-0110
移除了24-01-04弃用的模型,受影响的API和模型如下:
Completions: