OhMyGPT公开API文档
  • 本站介绍
  • 更新日志
  • 新版网站介绍
  • 自助开票系统使用文档
  • Telegram Bot使用文档
  • OAuth开放API
  • Midjourney、SD图像生成 API
  • 管理API列表
  • Claude
  • OpenAI
  • 其它开放API
logoPowered by Apifox

本站介绍

关于本站

本站提供各种当下流行,功能强大的生成式AI服务。

项目网址: https://www.ohmygpt.com

镜像网址:

  • https://x.dogenet.win
  • https://www.aigptx.top
  • https://textai.buzz

这里是本站的公开API文档,您可以在此查阅API文档以进行开发调试工作

OpenAI的Audio、Chat、Completions、Embeddings、Images、Moderations接口均已支持,路径、参数和OpenAI的保持一致,这里仅列出一些平台自定义且公开的API文档,具体OpenAI兼容接口请查阅官方文档:https://platform.openai.com/docs/api-reference

在实际使用中您只需要从下方的API端点中选择一个作为基础URL,替换掉https://api.openai.com,或者在后面拼接一下文档中的路径即可。

API端点列表:

  • 美国主站直连 稳定、部分地区不可用: https://api.ohmygpt.com
  • Cloudflare CDN 稳定、全球加速: https://cfcus02.opapi.win
  • Cloudflare Worker 稳定、全球加速: https://cfwus02.opapi.win
  • 优化CDN: https://c-z0-api-01.hash070.com
  • 优质线路反代1 优质线路: https://www.aigptx.top
  • 优质线路反代2 优质线路: https://cn2us02.opapi.win

注:

由于服务器位于美国,对于世界其它地区的网络优化可能不太理想,因此当您的调用位置距离美国较远时(如亚洲的香港、新加坡),推荐通过Cloudflare CDN或反代API端点连接。

当您在使用非流式请求接口时,推荐使用直连或反代端点,因为直连和反代端点响应超时限制较为宽松,而Cloudflare的超时限制为100s,超出则会导致您和服务器的连接被断开。
而使用流式调用API接口时则不会受到Cloudflare的这个限制的影响。

如何使用带图像输入的多模态模型?

vision

网站内嵌的聊天虽然没有提供Vision功能,但是您可以通过本站提供的开放API来配合第三方开源/闭源软件调用

LobeChat

本站托管的LobeChat实例:https://lobe.dogenet.win

点击链接进入网站,然后点击右下角的设置

https://lobe.dogenet.win/settings/llm

如图这样子配置:

1710034330061.png

其中

  • API Key 填写您在本站的“设置”中生成的API Key
  • API Proxy Address 填写 https://api.ohmygpt.com/v1
  • Custome Model Name: 可填写Claude系列的模型 claude-3-opus,claude-3-sonnet

然后就可以开始使用了:

多模态模型(例如GPT4V,GeminiProV,Claude3等)支持图片输入,效果如下:

1710034563396.png

1710034605156.png

如果您遇到了401错误,通常是您的账号欠费或者密钥没有勾选对应的模型权限,请检查您的账号余额或者更新密钥的权限列表,或新建一个密钥再试试。


BotGem(AMA)

image.png

在本站能否直接使用自己的openai的key?

不可以,在本站不支持用户上传自己的Key

我如何在chatGPT-next-web中使用本站的服务?

img

我如何在GPT学术优化中使用本站的服务?

1.现成的:

这个实例是本站Host的,直接填写您在本站设置中生成的APIKey就可以用0:

https://ga.dogenet.win

2.自行部署:

在使用前,先对config.py进行两处修改:

  1. 在config.py中第11行中修改API_KEY为自己在本站的KEY
  2. 修改config.py在第38行的API_URL_REDIRECT值为 {"https://api.openai.com/v1/chat/completions": "https://aigptx.top/v1/chat/completions"}

我如何在GPT学术优化中使用本站的Claude2服务?

首先,请您务必确定需要使用Claude2服务,其次,在GPT学术优化中使用本站的Claude2需要更多配置,更加复杂。

修改如下:

  1. 在config.py中第11行中修改API_KEY为自己在本站的KEY
  2. 修改config.py在第38行的API_URL_REDIRECT值为 {"https://api.openai.com/v1/chat/completions": "https://aigptx.top/v1/chat/completions"}
  3. 在config.py第73行AVAIL_LLM_MODELS中添加模型"claude-2-web"
  4. 在toolbox.py第622行,修改代码为:
        if llm_model.startswith('gpt-') or llm_model.startswith('claude-2-w'):
    
    请注意缩进
  5. 在request_llm/bridge_all.py的model_info变量添加一个键值对:
        "claude-2-web": {
        "fn_with_ui": chatgpt_ui,
        "fn_without_ui": chatglm_noui,
        "endpoint": openai_endpoint,
        "max_token": 8196,
        "tokenizer": tokenizer_gpt35,
        "token_cnt": get_token_num_gpt35,
    }
    
    然后就可以使用claude2模型了,在web中选中claude-2-web即可使用。

关于会员和GPT4

如下所示,本站提供三种套餐:Free, VIP,Premium。

VIP和Premiunm可以解锁全部模型(包括GPT4)的API服务。

我该如何获取GPT4的使用权限?

您需要将套餐升级到VIP即可获取GPT4的使用权限,这是您在本站成本最低、我们最推荐您使用的方式。

升级到VIP的方式很简单,只要您在本站充值20RMB即可获取一个月的VIP资格;充值40元就可以获取六个月的VIP资格。只要您充值指定额度,即可获取到VIP资格, 无需为VIP资格付费。

VIP套餐是否属于包月套餐?

不属于,充值后您会获得代币,用以抵扣每次使用服务的消耗。VIP资格是您充值后的赠品,您的代币余额不会因为获取VIP资格而被扣除。

我在充值20元后VIP资格过期了,再充值20元可以获取多久的VIP权限?

5个月。

下面的图片可以帮您更好地了解我们的计费机制。
pidPffS.png

这种情况数据您的多次支付达到了VIP条件,那么按照您第一次支付的时间开始算起,您将获得对应时长的VIP权限时间。

我无法访问OhMyGPT.com,是网站服务挂掉了吗?

本站的服务非常稳定,具体运行状态可以查看:
https://status.ohmygpt.com/status/main
或者
https://status.aigptx.top/status/main

您遇到这种情况的主要原因为来自GFW的DNS污染和SNI阻断

解决方法是打开梯子或使用本站的镜像站:https://aigptx.top

加入tg群以便及时获取最新的通知: https://t.me/+SfPmr1psSNNhMzg1

关于费用消耗

如何计算费用的消耗?

除了midjourney,系统实际扣除的费用为:AI服务官方的费用计算后乘以当前倍率。

比如说您现在成功请求了一个按照官方定价计算价值1元的GPT4请求,这边会再乘以当前的相应的服务倍率(比如说0.5),那么实际会扣除的费用是1*0.5=0.5元

账单表中的每一列分别表示什么?

  • promptTokens 模型用于理解的上下文长度
  • completionTokens 模型生成的文本长度
  • RURT 请求上传耗时(单位为毫秒ms)
  • TPS 请求耗时(单位为秒)
  • 免费 本次请求是否消耗免费额度

promptTokens和completionTokens是什么?

对于语言模型而言,每个词汇都是以“词汇表”的方式将人类语言转为模型可以理解的向量的,每个映射都对应一个token。也就是说,token是语言模型理解文本的最小单位。

同时,语言模型的交互方式存在两个步骤:接收文本,回复响应。可以简单理解为你需要向模型提出问题,模型才会给你回复。其中,提出的问题的token数就是promptTokens,回复的文本长度就是completinoTokens。

除此之外,各个语言模型对于promptToken和completionToken的定价不同,因此需要区别开来。

使用网页版时,为什么promptTokens会非常多?

模型没有类似于人类的记忆能力,如果你需要让这次的提问和之前的提问关联起来,您需要将之前的提问内容和模型的回复内容一起发送给模型。这是造成promptTokens数值变大的主要原因。

如果您需要节约费用,在高级设置中减少上下文数量可以有效减少每次对话promptTokens的大小。

网页版中为什么除了用户、模型之外还有一个系统角色?

系统角色和OpenAI的API中的system角色对应,它用来决定模型在本次会话中扮演的角色和担任的职能。

如果您需要通过减少上下文的方式来节约费用,system是最后才被减去的上下文。例如:

  • 上下文长度为0,发送请求的message将只有您的问题
  • 上下文长度为1,发送请求的message除了您的问题外,就是system
  • 上下文长度大于1,发送的请求的message除了您的问题和system外,就是和本次对话最近的对话

因此,您可以将本次会话中一些重要信息补充在system中

关于API

您可以通过本站的开放API将各种能力接入到您的应用中

我是新手,能否给出一个调用服务的代码示例?

调用OpenAI服务时,您可以选择使用openai官方的Python库,也可以选择使用更加通用的请求库+API来接入,二者均可。

下面的示例代码是使用本站的服务,发送请求,并以非流式的方式获取结果,然后打印在控制台上。
首先,您需要准备您的key

import requests as requests

# 在这里配置您在本站的API_KEY
api_key = "your API_KEY"

headers = {
    "Authorization": 'Bearer ' + api_key,
}

question = input("输入您的问题\n")

params = {
    "messages": [

        {
            "role": 'user',
            "content": question
        }
    ],
    # 如果需要切换模型,在这里修改
    "model": 'gpt-3.5-turbo'
}
response = requests.post(
    "https://aigptx.top/v1/chat/completions",
    headers=headers,
    json=params,
    stream=False
)
res = response.json()
res_content = res['choices'][0]['message']['content']
print(res_content)
最后修改时间: 1 个月前
下一页
更新日志