SanShui API 使用教程

SanShui 介绍

SanShui API 是一个低价的 gpt 中转 API,支持 gpt3.5 gpt4 Claude3 DeepSeek 全系列模型。

价格优惠,仅需 1.5 元即可购买 1 美刀额度,只要官方价格的 五分之一

官方同等计费方式,不限时间,按量计费,明细可查,每一笔消耗都公开透明。

官网地址:SanShui API

支持模型

image-20250209140940808

如何充值

支持支付宝付款,前往 充值页面 输入金额,点击支付宝付款方式,付款成功即可完成充值。

image-20250210205146231

售后问题请进售后QQ群:1029767983

计费规则

总的来讲,就是我们后台用美元计费,与 open AI 的模型价格保持一致,折扣体现在充值的时候。目前是1 美元只需要 1.5 人民币,详细以充值页面价格为准。

请求明细查看

在本网站的日志界面可以查看到每一次调用的明细

image-20250209141459807

提示是用户使用时输入到模型的所有信息消耗的 token 数,补全是模型输出的所有信息消耗的 token 数 ,提示和补全都是要扣费的。

所有模型的计费方式,就是基于消耗的多少 token 来计算价格。 大部分情况下,你都可以使用 1 汉字 = 2 token 来近似估算中文聊天的中文所需 token 数。但这并不是绝对的,因为不同的字实际 token 不一样,官方只按 token 计算。

关于倍率

倍率是用来计算模型价格的,从而计算额度消耗

额度消耗 = 分组倍率 基准价格 模型倍率 (提示 token 数 + 补全 token 数 补全倍率)

基准价格是 1 美元 50w token

正常来说用户可以不用管倍率问题,因为在模型价格页面已经详细列出了每个模型提示和补全的价格

额度消耗 = 提示 token 数 提示价格 + 补全 token 数 补全价格

将鼠标移到日志界面详情上,也可以查看计算过程

image-20250209141611942

如何使用

使用与官方类似,首先需要获取 api key,即令牌,前往令牌页面,点击添加令牌。

image-20250209141714103

设置好令牌名称、过期时间、令牌额度,点击提交即可。

⚠️注意:令牌额度决定了你这个令牌能使用多少额度,但会受到你的余额限制。

image-20250209141902855

创建令牌后,点击复制按钮,即可复制令牌的值,也就是 api key,令牌形如 sk-xxxxxx。

image-20250209141939595

在需要使用 API 的平台,将 BASE_URL 改为中转 API 调用地址 https://api.aigpt4.top/ ,不同的客户端可能需要填写不同的 BASE_URL,请尝试如下地址:

在CherryStudio中使用

在官网下载客户端 客户端下载 | CherryStudio

第一步打开CherryStudio的设置界面,选择openai。输入我们网页中令牌的key,api地址填写:https://api.aigpt4.top

image-20250210185417245

第二步点击添加自定义模型,模型名称可以在https://api.aigpt4.top/pricing中找到对应需要的模型名字

image-20250210185603824

image-20250210185706892

第三步,点击对话上方选择模型,选择我们刚才添加的,然后就可以对话了

image-20250210185810781

在 Chatbox 中使用

访问 https://web.chatboxai.app/(国内稳定访问)或点击侧边栏 聊天

进入页面后在设置页面勾选自定义接口,模型服务商选择 openai,并将接口地址更改为 https://api.aigpt4.top/, API Key 填写上述创建的 API Key。

⚠️注意:本站所有模型都使用 openai 标准接口,即使是使用 claude3、deepseek 系列模型,模型服务商也要选择 openai

image-20250209142234746

如果有需要使用的模型,但是 chatbox 提供的下拉列表里面没有的话,请自定义模型,如 gpt-4-turbo-2024-04-09,gpt-4o,claude-3-sonnet-20240229,claude-3-opus-20240229,claude-3-haiku-20240307。

模型名称可以在https://api.aigpt4.top/pricing中找到对应需要的模型名字

:warning: deepseek模型名称为:deepseek-reasoner、deepseek-chat
:warning: deepseek-reasoner对应DeepSeek-R1模型,deepseek-chat对应DeepSeek-V3模型

image-20250209142322000

然后点击新的聊天之间使用即可,模型可点击输入框上方切换。

image-20250209142434965

在AnythingLLM中使用

打开官网AnythingLLM | The all-in-one AI application for everyone下载安装AnythingLLM

安装完成后打开设置

左侧选择LLM首选项,选择generic openai。填写base_url :https://api.aigpt4.top

api key在我们网站的令牌中申请,复制到这里

然后填写模型名称,模型名称可以在https://api.aigpt4.top/pricing中找到对应需要的模型名字,根据需求填入,即可使用。

上下文token和最大输出token可以根据自己需求修改。

image-20250212114109064

在Cline中使用

打开vscode,点击插件搜索Cline

打开Cline的设置,选择按照下图所示填写,key填写自己在令牌中复制的

base_url填写为:https://api.aigpt4.top/v1

模型名称:deepseek-reasoner对应DeepSeek-R1模型,deepseek-chat对应DeepSeek-V3模型

image-20250210185019281

在CodeGPT中使用

打开Pycharm,点击插件搜索CodeGPT

打开CodeGPT的设置,选择customer openai 选择按照下图所示填写,key填写自己在令牌中复制的

url填写为:https://api.aigpt4.top/v1/chat/completions

选择body,填写要调用的模型名称。根据需求填写max_token

模型名称:deepseek-reasoner对应DeepSeek-R1模型,deepseek-chat对应DeepSeek-V3模型

image-20250211175913188

image-20250211175918913

在Cursor中使用

打开Cursor设置,在openai key下方输入我们网站令牌中的key,base_url为https://api.aigpt4.top/v1

image-20250210190245028

添加模型,输入模型名称。模型名称可以在https://api.aigpt4.top/pricing中找到对应需要的模型名字,填入,即可使用。

image-20250210190417289

在沉浸式翻译中使用

沉浸式翻译 https://immersivetranslate.com/

一款免费的,好用的,没有废话的,革命性的,饱受赞誉的,AI 驱动的双语网页翻译扩展,你可以完全免费地使用它来实时翻译外语网页,PDF 文档,ePub 电子书,字幕文件等。

在基本设置中翻译服务选择 openai,勾选自定义 API Key,API Key 填写创建的令牌,模型建议选择 gpt-3.5 系列,自定义 API 地址填写 https://api.aigpt4.top/v1/chat/completions

image-20250209142632916

image-20250209142649269

在 LangChain 中使用

最简单的就是:直接设置环境变量代码如下

1
2
3
4
5
API_SECRET_KEY = "sk-pvMtoVO******66249058b93C766F2D70167" # 你创建的令牌
BASE_URL = "https://api.aigpt4.top/v1";

os.environ["OPENAI_API_KEY"] = API_SECRET_KEY
os.environ["OPENAI_BASE_URL"] = BASE_URL

注意:openai_api_base 的末尾要加上 /v1,

1
2
3
4
5
6
7
8
llm = ChatOpenAI(
openai_api_base="https://api.aigpt4.top/v1", # 注意,末尾要加 /v1
openai_api_key="sk-3133f******fee269b71d",
)

res = llm.predict("hello")

print(res)

示例代码,使用 LLM 进行预测

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import requests
import time
import json
import time

from langchain.llms import OpenAI

API_SECRET_KEY = "创建的令牌";
BASE_URL = "https://api.aigpt4.top/v1";

def text():
llm = OpenAI(temperature=0.9)
text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text))

if __name__ == '__main__':
text();

在官方 openai 库中使用

其他的方式和官方是一样的,只是改一个 URL 和 key 用我们的;具体 API 调用方法请查看官方文档即可。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
from openai import OpenAI

client = OpenAI(
# 将这里换成你创建的令牌
api_key="sk-xxx",
# 这里将官方的接口访问地址,替换成我们 api的接口地址
base_url="https://api.aigpt4.top/v1"
)

chat_completion = client.chat.completions.create(
messages=[
{
"role": "user",
"content": "Say this is a test",
}
],
model="gpt-3.5-turbo",
)

print(chat_completion)

常见问题

为什么 gpt-4 额度消耗这么快

gpt-4 的消耗速度是 gpt-3.5-turbo 的 20 到 40 倍,假设购买了 9w token,我们用 15 倍作为平均倍率,也就是 90000 / 15 = 6000 字左右,加上每次要附带上历史消息,能发的消息数将会进一步减半,在最极限的情况下,一条消息就能把 9w token 消耗完。

为什么 GPT4 不知道它自己是谁?

直接问 GPT4:” 你是谁?““你是什么模型?” 诸如此类问题,一般情况下 GPT4 的 API 也会回答自己是 GPT3,估计是官方预置的原因。GPT4 和 3.5 用的都是 2021 年之前的数据,那时候还没有 GPT4。
官网和某些套壳不回答是 GPT3,是因为他们提前预设了提示词,让 GPT 认为自己是别的模型了,这个可以通过问答所消耗的总 token 看出来,预设提示词是会消耗 token 的。
如果说你对比官网和 API 的回答,发现有所不一,那也很正常。一是因为,GPT4 对同一个问题的每次回答都是不同的;二是,官网对 GPT4 的参数进行了一定的优化。

为什么 GPT4 会给出这么弱智的回答,我还是觉得你们是假的 GPT4?

GPT4 也不是万能的,训练参数并不比 GPT3 大多少,不用因为营销号的宣传神话 GPT4。而且由于中文语料在训练中的占比很小,在回答中文问题时,不排除在某些问题上表现不佳,同样的问题用英文问可能结果完全不一样,您可以试着用英文提问试试。
GPT4 强在推理能力,从目前大家的使用体验中来看,写代码方面会比 gpt3.5 强很多,但仍然会给出胡编的答案。

如何检验 GPT3.5 还是 GPT4?

我们提供了一个简单的方法来验证您使用的是 GPT3.5 还是 GPT4。以下是一些测试问题及 其不同模型的预期回答,您可以使用这些问题来测试。 测试问题:

  • 昨天的当天的明天是哪天?GPT-3.5 应答 “昨天”,而 GPT-4 应答 “今天”。
  • 树上有 9 只鸟,猎人射杀了一只,还剩下多少只?GPT-3.5 可能说 “8 只”,GPT-4 会告诉你 “0 只,其他的鸟都飞走了”。
  • 为什么周树人要打鲁迅?GPT-3.5 可能给出一个编造的答案,而 GPT-4 会指出 “鲁迅” 和” 周树人 “是同一个人。

为什么后台创建的令牌没有显示已用额度

当设置成无限额度后,不会更新已用额度,修改无限额度为有限额度即可

无法登录

请确保用户名填写正确,不要填写邮箱地址,是填写你注册时候的用户名,如遇到登录问题无法自行解决,请联系客服(vx:sanshuibiancheng),第一时间为您处理