GPT-4 API 接口调用及价格分析

15日凌晨,OpenAI发布了万众期待的GPT-4!新模型支持多模态,具备强大的识图能力,并且推理能力和回答准确性显著提高。在各种专业和学术基准测试上的表现都媲美甚至超过人类。难怪OpenAI CEO Sam Altman称GPT-4“是我们迄今为止功能最强大的模型!”

关于GPT-4的能力,我在发布当天就做了测试,具体结果请阅读《OpenAI 发布GPT-4——全网抢先体验》。

对开发者来说,GPT-4最激动人心的是API接口同步发布。目前需要申请才能访问。我第一时间加入了waitlist,今天获得了访问权限,本文将跟大家分享GPT-4 API接口的使用以及大家关心的价格分析。

文章目录

    • GPT-4 API
      • 限制
      • 价格
    • 价格分析
      • token数评估
      • 价格比较
    • GPT-4是否值得?

GPT-4 API

GPT-4 API的接口和参数跟早前开放的GPT-3.5接口一致,模型名称为:

模型名称描述最大token数训练数据
gpt-4比 GPT-3.5 模型更强大,能够执行更复杂的任务,并针对聊天场景进行了优化。 会不断迭代更新。8,192截至2021年6月
gpt-4-0314gpt-4的2023年3月14日快照版本。此模型在接下来3个月内不会更新,有效期截止2023年6月14日。8,192截至2019年10月
gpt-4-32kgpt-4 功能相同,但上下文长度是gpt-4 的4 倍。会不断迭代更新。32,768截至2021年6月
gpt-4-32k-0314gpt-4-32k的2023年3月14日快照版本。此模型在接下来3个月内不会更新,有效期截止2023年6月14日。32,768截至2019年10月

限制

由于还在beta阶段,GPT-4 API的调用有频次限制:

  • 40k tokens / 分钟
  • 200 请求 / 分钟

这个频次对功能测试和概念验证来说已经足够了。

如果使用ChatGPT Plus体验GPT-4,有4小时100条消息的限制。

价格

GPT-4 API的定价策略与之前模型不同。在GPT-4之前,接口定价按照token数统一收费,不区分是prompt的token还是生成响应的token。而GPT-4将prompt token和生成响应token分开计价,价格如下:

  • $0.03美元 / 1K prompt token
  • $0.06美元 / 1K 生成响应 token

这个价格相比 gpt-3.5-turbo 的 $0.002 / 1K tokens来说贵了至少15倍起。

由于GPT-4接口价格太贵,且prompt和生成响应分开收费,因此在大规模使用GPT-4 API之前,我们有必要对其价格进行细致的分析。

价格分析

token数评估

GPT+ 系列API最难评估的一点就是token数与单词(字数)的对应关系。因为我们能直观了解到的只有字数或单词数,而token数是tokenized后的标记数,我们无法直接准确的估计。好在接口会返回每次请求promot和生成响应的token数,我们可以通过统计手段大致获得一个token数和字数之间的对应关系。

我从短到长找了8篇文章输入GPT-4 API,为了结果稳定,模型我选择了稳定不更新的gpt-4–0314,然后根据接口返回统计prompt token数,结果如下:

#字数token数百分比
11,6002,13375.01%
22,0002,66774.99%
347,09462,79275.00%
490,000120,00075.00%
5445,134593,51275.00%
6783,1341,044,18375.00%
7884,4211,179,22875.00%
81,084,1701,445,56075.00%

通过上面的测试结果,我们可以得到一个重要结论:

大约每750字(单词)消耗1000 token

价格比较

我们首先横向比较一下几个模型的单价

$0.06$0.03$0.002$0.02$0.002$0.0005$0.0004
gpt-4(completion)gpt-4(prompt)gpt-3.5-turbodavincicuriebabbageada
gpt-4(completion)0129229119149
gpt-4(prompt)-0.50140.5145974

从上表可以看到,gpt-4 promptgpt-3.5-turbo贵了14倍gpt-4 completiongpt-3.5-turbo贵了29倍!假设prompt和completion的字数为1:4(实际中completion往往比prompt要长),那么gpt-4接口的综合成本是gpt-3.5-turbo的27倍!

下面的表格更加直观地给出了各模型处理相应字数所需的花费:

从上表可见,gpt-3.5-turbo $20美元能处理750万字,而相同金额在gpt-4中只能处理30万字左右。

那么问题来了,是否值得花20多倍的成本去使用gpt-4?换句话说,gpt-4相对gpt-3.5-turbo的能力提升有没有20倍的效用?

GPT-4是否值得?

这个问题的答案很大程度上依赖你的场景。如果是对正确性要求较高的场景(比如法律,教育等),那么GPT-4绝对是比GPT-3.5更好的选择。其他用例和场景我都建议进行深入测试,以确定增加的成本是否会带来比 ChatGPT API 对等的好处。

值得一提的是,gpt-4 模型的最大token数是gpt-3.5-turbo的2倍,对于长文本生成的场景,如果gpt-3.5-turbo最大4,096 token不够用,那么可以选择使用gpt-4。同时GPT-4还提供了32K版本,支持32,768 token,不过价格也更贵。

  • $0.06美元 / 1K prompt token
  • $0.12美元 / 1K 生成响应 token

总之,ChatGPT API 和 GPT-4 API 之间的选择取决于项目的具体需求和约束。当你站在尖端技术的十字路口时,请认真考虑真正重要的因素:

  • 预期的应用
  • 期望的准确度
  • 道德考量
  • 财务影响
  • 对未来发展的适应性

最终,你的决定将证明你的远见和拥抱人工智能变革带来的领先优势。