OhMyGPT API
日本語
  • 中文
  • English
  • 日本語
OhMyGPT
OhMyGPT
日本語
  • 中文
  • English
  • 日本語
    • このサイトの紹介
    • 変更ログ
    • OpenAI
      • 応答
        • モデル応答の作成
        • モデルの応答を取得する
        • モデル応答の削除
        • キャンセル応答
        • 入力項目の一覧表示
      • 会話
        • 会話を作成する
        • 会話の取得
        • 更新 conversation
        • 会話を削除する
        • アイテムの作成
        • リスト項目
        • アイテムの取得
        • 項目の削除
      • 作成完了
        POST
      • TTS テキスト読み上げ
        POST
      • 埋め込み
        POST
      • 画像生成
        POST
      • 画像編集
        POST
    • OAuth开放API
      • オープン OAuth API の概要
      • ユーザー認証ページ
        GET
      • コード表示ページ
        GET
      • access_token を申請する
        POST
      • 基本的なユーザー情報を読む
        POST
      • ユーザー残高情報の読み取り
        POST
      • ユーザー料金を請求する
        POST
      • ユーザーの Stripe Checkout リチャージ注文を作成する
        POST
      • ユーザーの Stripe Invoice リチャージ注文を作成する
        POST
      • 他のオープン API を呼び出す
        POST
      • OAuth トークンを介してユーザー管理トークンを読み取る
        POST
      • OAuth トークンを介してユーザー管理トークンを更新する
        POST
    • 管理API列表
      • 新しい API キーを作成する
        POST
      • APIキー情報の変更
        POST
      • ユーザーのすべての API キーを照会します
        POST
      • 指定されたAPIキーを削除します
        POST
      • ユーザーメンバーシップの有効期限を問い合わせるインターフェース
        POST
      • ユーザー残高照会インターフェース
        POST
      • 現在のモデルの倍率インターフェイスを問い合わせます
        GET
    • 他の
      • 検索
        • Googleカスタム検索API
        • サーペルによる Google 検索
      • アズール
        • Azure テキスト読み上げ
        • Azure が TTS 音声リストを取得
    • オーバーライドルール
      • ルールの作成
      • 更新ルール
      • 削除ルール
      • ルールの取得
      • リストルール
      • 一括有効化/無効化
      • コピールール
      • テストルール
      • 統計の取得
      • 制限設定の取得
      • ルール名を確認してください
      • 一括削除
      • エクスポートルール
      • インポートルール
    • 画像生成
      • 他の
        • ND画像生成API
      • フラックス
        • フラックスシュネル画像の生成
        • Flux Dev イメージの生成
        • Flux Pro イメージの生成
        • Flux Pro 1.1 イメージの生成
        • Flux 1.1 Pro Ultura イメージの生成
    • ストレージサービス
      • ファイルストレージサービス
      • ファイルのアップロード
      • ファイル情報の更新
      • ファイルの削除
      • ユーザークエリ(ページネーション)
      • ユーザー メタデータ クエリ (fileUinqueIds による)
      • ファイルダウンロードインターフェース(パブリックファイルダウンロード)
      • ファイルダウンロードインターフェース(プライベートプライベートファイルダウンロード)
      • パブリック ファイルのメタデータを取得する
    • 店
      • チャットの完了をリストする
      • チャットを完了させる
      • チャットの削除が完了しました
    • クロード
      • Anthropic ネイティブ Completions エンタープライズ商用 API
      • Anthropic 原生 Messages API
      • Anthropic 原生 Messages Token Count API
    • 文書をアーカイブする
      • セルフサービス請求システムの使用に関するドキュメント
      • Telegram Bot の使用に関するドキュメント
      • 自作のCloudflare Workerアンチジェネレーションチュートリアル
      • クロードコード転送サービス
      • CodeX転送サービス
      • 新しいウェブサイトのご紹介
    • 機種一覧
      GET

    このサイトの紹介

    このサイトについて#

    このサイトは、現在人気のあるさまざまな強力な生成 AI サービスを提供します。
    新しいウェブサイト: https://www.ohmygpt.com
    新しいウェブサイトのミラー URL: https://www.wisegpt.top
    旧バージョンのミラー URL:
    https://x.dogenet.win
    https://www.aigptx.top
    このサイトの公開APIドキュメントはこちらです。開発とデバッグについては、ここで API ドキュメントを確認できます。
    OpenAI の「オーディオ」、「チャット」、「コンプリーション」、「埋め込み」、「画像」、および「モデレーション」インターフェイスはすべてサポートされています。パスとパラメータは OpenAI のものと一致します。ここにあるのは、プラットフォームに合わせてカスタマイズされた公開 API ドキュメントの一部のみです。特定の OpenAI 互換インターフェイスについては、公式ドキュメントを参照してください: https://platform.openai.com/docs/api-reference
    実際の使用では、以下の API エンドポイントの 1 つをベース URL として選択するか、https://api.openai.com を置き換えるか、後でドキュメント内のパスを接続するだけで済みます。
    API エンドポイント リスト:
    米国メインサイトへの直接接続「安定」、「米国国内通話に推奨」、「中国本土では利用不可」: https://api.ohmygpt.com
    Cloudflare Pro CDN 安定、高速 CDN、米国以外の地域に推奨、グローバル アクセラレーション (中国本土では利用できません): https://apic.ohmygpt.com
    本土に最適化された CDN: 「中国本土での推奨通話」、「安定」: 「https://c-z0-api-01.hash070.com」
    ※高品質回線逆生成1「高品質回線」:https://www.aigptx.top
    ※高品質回線逆生成2「高品質回線」:https://cn2us02.opapi.win
    注記:
    **サーバーは米国にあるため、世界の他の地域でのネットワークの最適化は理想的ではない可能性があります。したがって、通話場所が米国から遠い場合(アジアの香港やシンガポールなど)、Cloudflare CDN またはアンチジェネレーション API エンドポイント経由で接続することをお勧めします。 **
    非ストリーミングリクエストインターフェイスを使用する場合は、直接接続またはリバース生成エンドポイントを使用することをお勧めします。これは、直接接続およびリバース生成エンドポイントの応答タイムアウト制限が比較的緩く、Cloudflare のタイムアウト制限が 100 秒であるためです。タイムアウト制限を超えると、サーバーとの接続が切断されます。
    ストリーミング API 呼び出しを使用する場合、Cloudflare のこの制限の影響を受けません。

    画像入力でマルチモーダル モデルを使用するにはどうすればよいですか?#

    ###### ビジョン
    Web サイトに埋め込まれたチャットは Vision 機能を提供しませんが、この Web サイトが提供するオープン API を使用して、サードパーティのオープンソース/クローズドソース ソフトウェア呼び出しと連携できます。

    ローブチャット#

    このサイトでホストされている LobeChat インスタンス: https://lobe.dogenet.win
    リンクをクリックして Web サイトに入り、右下隅の [設定] をクリックします。
    以下に示すように設定します。
    1710034330061.png
    で
    API キー このサイトの「設定」で生成した API キーを入力します
    API プロキシ アドレス https://api.ohmygpt.com/v1 を入力します
    カスタムモデル名: クロードシリーズ「claude-3-opus、claude-3-sonnet」のモデルを入力できます。
    その後、使用を開始できます。
    マルチモーダル モデル (GPT4V、GeminiProV、Claude3 など) は画像入力をサポートしており、次の効果があります。
    1710034563396.png
    1710034605156.png
    401 エラーが発生した場合は、通常、アカウントが滞納しているか、キーに対応するモデル権限がチェックされていないことが原因です。アカウントの残高を確認するか、キーの権限リストを更新するか、新しいキーを作成して再試行してください。

    ボットジェム(AMA)#

    image.png

    このサイトで自分の openai キーを直接使用できますか?#

    いいえ、このサイトはユーザーによる独自のキーのアップロードをサポートしていません

    chatGPT-next-web でこのサイトのサービスを使用するにはどうすればよいですか?#

    img

    GPT アカデミック最適化でこのサイトのサービスを使用するにはどうすればよいですか?#

    1.既製品:
    この例は、このサイトのホストを対象としています。サイト設定で生成した APIKey を入力し、0 を使用するだけです。
    https://ga.dogenet.win
    2.自己展開:
    使用する前に、config.py に 2 つの変更を加えます。
    1.
    config.py の 11 行目の API_KEY をこのサイトの独自の KEY に変更します。
    2.
    config.py の 38 行目の API_URL_REDIRECT 値を {"https://api.openai.com/v1/chat/completions": "https://aigptx.top/v1/chat/completions"} に変更します。

    GPT アカデミック最適化でこのサイトの Claude2 サービスを使用するにはどうすればよいですか?#

    まず、Claude2 サービスを使用する必要があることを確認してください。次に、GPT アカデミック最適化でこのサイトの Claude2 を使用するには、より多くの設定が必要であり、より複雑です。
    次のように変更します。
    1.
    config.py の 11 行目の API_KEY をこのサイトの独自の KEY に変更します。
    2.
    config.py の 38 行目の API_URL_REDIRECT 値を {"https://api.openai.com/v1/chat/completions": "https://aigptx.top/v1/chat/completions"} に変更します。
    3.
    config.py の 73 行目の AVAIL_LLM_MODELS にモデル「claude-2-web」を追加します。
    4.
    toolbox.py の 622 行目で、コードを次のように変更します。
    「」パイソン
    llm_model.startswith('gpt-') または llm_model.startswith('claude-2-w') の場合:
    「」
    インデントに注意してください
    5.
    request_llm/bridge_all.py の model_info 変数にキーと値のペアを追加します。
    「」パイソン
    "クロード-2-ウェブ": {
    "fn_with_ui": chatgpt_ui、
    "fn_without_ui": chatglm_noui、
    「エンドポイント」: openai_endpoint,
    "max_token": 8196、
    「トークナイザー」: tokenizer_gpt35,
    "token_cnt": get_token_num_gpt35,
    }
    「」
    その後、claude2 モデルを使用できます。 Web で claude-2-web を選択して使用します。

    メンバーと GPT4 について#

    以下に示すように、このサイトでは、Free、VIP、Premium の 3 つのパッケージが提供されています。
    VIP とプレミアムは、すべてのモデル (GPT4 を含む) の API サービスのロックを解除できます。

    GPT4 の使用許可を取得するにはどうすればよいですか?#

    GPT4 の使用権を取得するには、パッケージを VIP にアップグレードする必要があります。これはこのサイトで最も低コストの方法であり、最も使用することをお勧めします。
    VIPにアップグレードする方法は非常に簡単です。このサイトで 20 RMB をチャージすると、1 か月分の VIP 資格を取得できます。 40元チャージすると6ヶ月間のVIP資格が得られます。規定金額をチャージしていれば、VIP資格の費用を支払うことなくVIP資格を取得できます。

    VIP パッケージは月額パッケージですか?#

    いいえ、リチャージ後にトークンを取得します。これを使用して各サービスの消費量を相殺できます。 VIP 資格はトップアップ後のギフトであり、VIP 資格を取得するためにトークン残高が差し引かれることはありません。

    20元チャージしたらVIP資格が失効してしまいました。さらに 20 元をチャージすると、いつまで VIP 特典を獲得できますか?#

    5ヶ月。
    以下の画像は、請求メカニズムをより深く理解するのに役立ちます。
    pidPffS.png
    この場合、複数回の支払いが VIP 条件に達した場合、最初の支払い時から対応する期間の VIP 特権を受け取ることになります。

    OhMyGPT.com にアクセスできません。ウェブサイトのサービスがダウンしていますか?#

    このサイトのサービスは非常に安定しています。特定の実行ステータスを確認できます。
    https://status.ohmygpt.com/status/main
    または
    https://status.aigptx.top/status/main
    この状況が発生する主な理由は、DNS 汚染と GFW からの SNI ブロックです。
    解決策は、はしごを開くか、このサイトのミラー サイトを使用することです: https://aigptx.top
    tg グループに参加して、最新の通知をタイムリーに入手してください: https://t.me/+SfPmr1psSNNhMzg1

    コスト消費について#

    支出の計算方法は?#

    旅行の途中を除き、システムによって差し引かれる実際の料金は次のとおりです。AI サービスの正式な料金が計算され、現在の倍数が乗算されます。
    たとえば、公式価格に従って 1 元相当の GPT4 リクエストを正常にリクエストした場合、これに現在の対応するサービス乗数 (たとえば、0.5) が乗算され、実際に差し引かれる料金は 1*0.5=0.5 元となります。

    請求表の各列は何を表しますか?#

    理解するために使用されるpromptTokensモデルコンテキストの長さ
    モデルによって生成されたcompleteTokensのテキストの長さ
    ※RURTリクエストのアップロード時間(単位:ミリ秒)
    ※TPSリクエスト時間(単位:秒)
    無料 このリクエストが無料割り当てを消費するかどうか

    プロンプトトークンと完了トークンとは何ですか?#

    言語モデルの場合、各単語は人間の言語から、モデルが「語彙」の形式で理解できるベクトルに変換され、各マッピングはトークンに対応します。言い換えれば、トークンは言語モデルがテキストを理解するための最小単位です。
    同時に、言語モデルの対話モードには、テキストの受信と応答による返信の 2 つのステップがあります。モデルが答えてくれる前に、モデルに質問する必要があることが簡単に理解できます。このうち、質問されたトークンの数はpromptTokens、応答のテキスト長はcompleteinoTokensです。
    さらに、各言語モデルでは、promptToken と completedToken の価格設定が異なるため、区別する必要があります。

    Web バージョンを使用すると、プロンプトトークンが非常に多くなるのはなぜですか?#

    モデルには人間のような記憶がありません。この質問を前の質問に関連付ける必要がある場合は、前の質問の内容とモデルの応答内容をモデルに送信する必要があります。これが、promptTokens 値が大きくなる主な理由です。
    費用を節約する必要がある場合は、詳細設定でコンテキストの数を減らすと、会話ごとのプロンプトトークンのサイズを効果的に減らすことができます。

    Web バージョンにはユーザーとモデルに加えてシステム ロールがあるのはなぜですか?#

    システム ロールは、OpenAI API のシステム ロールに対応し、このセッションでモデルが果たす役割と機能を決定するために使用されます。
    コンテキストを削減してコストを節約する必要がある場合、システムは最後に減算されるコンテキストです。例えば:
    コンテキストの長さは 0 です。リクエストで送信されるメッセージには質問のみが含まれます
    コンテキストの長さは 1 で、リクエストで送信されるメッセージは質問を除いてシステムです。
    コンテキストの長さが 1 より大きいです。質問とシステムに加えて、リクエストで送信されたメッセージは、この会話の最新の会話です。
    したがって、このセッションの重要な情報をシステムに追加できます

    APIについて#

    このサイトのオープン API を通じて、さまざまな機能をアプリケーションに接続できます

    私は初心者なのですが、サービスを呼び出すためのコード例を教えていただけますか?#

    OpenAI サービスを呼び出すときは、openai の公式 Python ライブラリを使用することを選択することも、より一般的なリクエスト ライブラリ + API を使用してアクセスすることを選択することもでき、どちらも利用できます。
    次のサンプル コードは、このサイトのサービスを使用してリクエストを送信し、非ストリーミング方式で結果を取得し、コンソールに出力します。
    まず、キーを準備する必要があります
    「」パイソン
    リクエストをリクエストとしてインポートする

    このサイトの API_KEY をここで設定します#

    api_key = "あなたのAPI_KEY"
    ヘッダー = {
    「認可」: 'Bearer' + api_key、
    }
    question = input("質問を入力してください\n")
    パラメータ = {
    「メッセージ」: [
    {
    "役割": 'ユーザー',
    「内容」:質問
    }
    ]、

    モデルを切り替える必要がある場合は、ここで変更してください#

    「モデル」: 'gpt-3.5-ターボ'
    }
    応答 = リクエスト.post(
    "https://aigptx.top/v1/chat/completions",
    ヘッダー=ヘッダー、
    json=パラメータ、
    ストリーム=偽
    )
    res = 応答.json()
    res_content = res['選択'][0]['メッセージ']['コンテンツ']
    print(res_content)
    「」
    修改于 2025-10-15 08:05:43
    下一页
    変更ログ
    Built with