本站介绍
关于本站
本站提供各种当下流行,功能强大的生成式AI服务。
项目网址: https://www.ohmygpt.com
镜像网址:
这里是本站的公开API文档,您可以在此查阅API文档以进行开发调试工作
OpenAI的Audio
、Chat
、Completions
、Embeddings
、Images
、Moderations
接口均已支持,路径、参数和OpenAI的保持一致,这里仅列出一些平台自定义且公开的API文档,具体OpenAI兼容接口请查阅官方文档:https://platform.openai.com/docs/api-reference
在实际使用中您只需要从下方的API端点中选择一个作为基础URL,替换掉https://api.openai.com
,或者在后面拼接一下文档中的路径即可。
API端点列表:
- 美国主站直连
稳定
、部分地区不可用
:https://api.ohmygpt.com
- Cloudflare CDN
稳定
、全球加速
:https://cfcus02.opapi.win
- Cloudflare Worker
稳定
、全球加速
:https://cfwus02.opapi.win
- 优质线路反代1
优质线路
、不保证可用性
:https://aigptx.top
- 优质线路反代2
优质线路
、不保证可用性
:https://cn2us02.opapi.win
注:
由于服务器位于美国,对于世界其它地区的网络优化可能不太理想,因此当您的调用位置距离美国较远时(如亚洲的香港、新加坡),推荐通过Cloudflare CDN或反代API端点连接。
当您在使用非流式请求接口时,推荐使用直连或反代端点,因为直连和反代端点响应超时限制较为宽松,而Cloudflare的超时限制为100s,超出则会导致您和服务器的连接被断开。
而使用流式调用API接口时则不会受到Cloudflare的这个限制的影响。
如何使用带图像输入的多模态模型?
vision
网站内嵌的聊天虽然没有提供Vision功能,但是您可以通过本站提供的开放API来配合第三方开源/闭源软件调用
LobeChat
本站托管的LobeChat实例:https://lobe.dogenet.win
点击链接进入网站,然后点击右下角的设置
https://lobe.dogenet.win/settings/llm
如图这样子配置:
其中
- API Key 填写您在本站的“设置”中生成的API Key
- API Proxy Address 填写
https://api.ohmygpt.com/v1
- Custome Model Name: 可填写Claude系列的模型
claude-3-opus,claude-3-sonnet
然后就可以开始使用了:
多模态模型(例如GPT4V,GeminiProV,Claude3等)支持图片输入,效果如下:
如果您遇到了401错误,通常是您的账号欠费或者密钥没有勾选对应的模型权限,请检查您的账号余额或者更新密钥的权限列表,或新建一个密钥再试试。
BotGem(AMA)
在本站能否直接使用自己的openai的key?
不可以,在本站不支持用户上传自己的Key
我如何在chatGPT-next-web中使用本站的服务?
我如何在GPT学术优化中使用本站的服务?
1.现成的:
这个实例是本站Host的,直接填写您在本站设置中生成的APIKey就可以用0:
2.自行部署:
在使用前,先对config.py进行两处修改:
- 在config.py中第11行中修改API_KEY为自己在本站的KEY
- 修改config.py在第38行的API_URL_REDIRECT值为
{"https://api.openai.com/v1/chat/completions": "https://aigptx.top/v1/chat/completions"}
我如何在GPT学术优化中使用本站的Claude2服务?
首先,请您务必确定需要使用Claude2服务,其次,在GPT学术优化中使用本站的Claude2需要更多配置,更加复杂。
修改如下:
- 在config.py中第11行中修改API_KEY为自己在本站的KEY
- 修改config.py在第38行的API_URL_REDIRECT值为
{"https://api.openai.com/v1/chat/completions": "https://aigptx.top/v1/chat/completions"}
- 在config.py第73行AVAIL_LLM_MODELS中添加模型"claude-2-web"
- 在toolbox.py第622行,修改代码为:
请注意缩进if llm_model.startswith('gpt-') or llm_model.startswith('claude-2-w'):
- 在request_llm/bridge_all.py的model_info变量添加一个键值对:
然后就可以使用claude2模型了,在web中选中claude-2-web即可使用。"claude-2-web": { "fn_with_ui": chatgpt_ui, "fn_without_ui": chatglm_noui, "endpoint": openai_endpoint, "max_token": 8196, "tokenizer": tokenizer_gpt35, "token_cnt": get_token_num_gpt35, }
关于会员和GPT4
如下所示,本站提供三种套餐:Free, VIP,Premium。
VIP和Premiunm可以解锁全部模型(包括GPT4)的API服务。
我该如何获取GPT4的使用权限?
您需要将套餐升级到VIP即可获取GPT4的使用权限,这是您在本站成本最低、我们最推荐您使用的方式。
升级到VIP的方式很简单,只要您在本站充值20RMB即可获取一个月的VIP资格;充值40元就可以获取六个月的VIP资格。只要您充值指定额度,即可获取到VIP资格, 无需为VIP资格付费。
VIP套餐是否属于包月套餐?
不属于,充值后您会获得代币,用以抵扣每次使用服务的消耗。VIP资格是您充值后的赠品,您的代币余额不会因为获取VIP资格而被扣除。
我在充值20元后VIP资格过期了,再充值20元可以获取多久的VIP权限?
5个月。
这种情况数据您的多次支付达到了VIP条件,那么按照您第一次支付的时间开始算起,您将获得对应时长的VIP权限时间。
我无法访问OhMyGPT.com,是网站服务挂掉了吗?
本站的服务非常稳定,具体运行状态可以查看:
https://status.ohmygpt.com/status/main
或者
https://status.aigptx.top/status/main
您遇到这种情况的主要原因为来自GFW的DNS污染和SNI阻断
解决方法是打开梯子或使用本站的镜像站:https://aigptx.top
加入tg群以便及时获取最新的通知: https://t.me/+SfPmr1psSNNhMzg1
关于费用消耗
如何计算费用的消耗?
除了midjourney,系统实际扣除的费用为:AI服务官方的费用计算后乘以当前倍率。
比如说您现在成功请求了一个按照官方定价计算价值1元的GPT4请求,这边会再乘以当前的相应的服务倍率(比如说0.5),那么实际会扣除的费用是1*0.5=0.5元
账单表中的每一列分别表示什么?
- promptTokens 模型用于理解的上下文长度
- completionTokens 模型生成的文本长度
- RURT 请求上传耗时(单位为毫秒ms)
- TPS 请求耗时(单位为秒)
- 免费 本次请求是否消耗免费额度
promptTokens和completionTokens是什么?
对于语言模型而言,每个词汇都是以“词汇表”的方式将人类语言转为模型可以理解的向量的,每个映射都对应一个token。也就是说,token是语言模型理解文本的最小单位。
同时,语言模型的交互方式存在两个步骤:接收文本,回复响应。可以简单理解为你需要向模型提出问题,模型才会给你回复。其中,提出的问题的token数就是promptTokens,回复的文本长度就是completinoTokens。
除此之外,各个语言模型对于promptToken和completionToken的定价不同,因此需要区别开来。
使用网页版时,为什么promptTokens会非常多?
模型没有类似于人类的记忆能力,如果你需要让这次的提问和之前的提问关联起来,您需要将之前的提问内容和模型的回复内容一起发送给模型。这是造成promptTokens数值变大的主要原因。
如果您需要节约费用,在高级设置中减少上下文数量可以有效减少每次对话promptTokens的大小。
网页版中为什么除了用户、模型之外还有一个系统角色?
系统角色和OpenAI的API中的system角色对应,它用来决定模型在本次会话中扮演的角色和担任的职能。
如果您需要通过减少上下文的方式来节约费用,system是最后才被减去的上下文。例如:
- 上下文长度为0,发送请求的message将只有您的问题
- 上下文长度为1,发送请求的message除了您的问题外,就是system
- 上下文长度大于1,发送的请求的message除了您的问题和system外,就是和本次对话最近的对话
因此,您可以将本次会话中一些重要信息补充在system中
关于API
您可以通过本站的开放API将各种能力接入到您的应用中
我是新手,能否给出一个调用服务的代码示例?
调用OpenAI服务时,您可以选择使用openai官方的Python库,也可以选择使用更加通用的请求库+API来接入,二者均可。
下面的示例代码是使用本站的服务,发送请求,并以非流式的方式获取结果,然后打印在控制台上。
首先,您需要准备您的key
import requests as requests
# 在这里配置您在本站的API_KEY
api_key = "your API_KEY"
headers = {
"Authorization": 'Bearer ' + api_key,
}
question = input("输入您的问题\n")
params = {
"messages": [
{
"role": 'user',
"content": question
}
],
# 如果需要切换模型,在这里修改
"model": 'gpt-3.5-turbo'
}
response = requests.post(
"https://aigptx.top/v1/chat/completions",
headers=headers,
json=params,
stream=False
)
res = response.json()
res_content = res['choices'][0]['message']['content']
print(res_content)