OpenAI全面推出GPT-4!API付费用户可以即刻访问

奔跑财经 閱讀 7162 2023-7-10 09:52
分享至
微信掃一掃,打開網頁後點擊屏幕右上角分享按鈕

目前,所有OpenAI的API付费用户(有成功支付历史的)都可以访问拥有8K上下文记忆的GPT-4。并且该公司计划在本月底向新的开发人员开放API访问权限,然后通过算力可用性来调整可用限制。

OpenAI周四(7月6日)宣布,其最新的大型语言模型GPT-4将通过其API正式开放使用。

目前,所有OpenAI的API付费用户(有成功支付历史的)都可以访问拥有8K上下文记忆的GPT-4。并且该公司计划在本月底向新的开发人员开放API访问权限,然后通过算力可用性来调整可用限制。

这也就意味着全球开发者都能使用GPT-4大型语言模型,来增强自己的应用程序或开发全新的生成式AI应用。

OpenAI全面推出GPT-4!API付费用户可以即刻访问

OpenAI周四在一篇博客文章中写道,“自3月份以来,数以百万计的开发人员要求访问GPT-4 API,利用GPT-4的创新产品的范围每天都在增长。”

今年3月,OpenAI正式发布GPT-4,该模型可以接受图像和文本输入来生成文本(包括代码),并在各种专业和学术基准上达到“人类水平”,这是对其前身GPT-3.5的改进,后者只接受文本输入。与过往GPT模型一样,GPT-4是使用公开可用的数据进行训练的,包括来自公共网页的数据以及OpenAI许可的数据。

GPT-4在上下文窗口方面保持了之前的桂冠,默认为8k个token(token是模型处理文本的基本单位),上限为32k个token。一般来说,上下文窗口更大的模型越能记住最近对话的内容,而窗口较小的模型在对话过程中容易忘记上文内容,导致它们偏离主题。

01 支持任何用例

博客文章还指出,“我们设想未来基于聊天的模型可以支持任何使用案例。”

OpenAI还计划推出GPT-3.5 Turbo,DALL·E和Whisper的API接口。

GPT-3.5 Turbo是OpenAI的另一个文本生成模型之一,但功能较GPT-4较弱;DALL-E 2是OpenAI的图像生成模型;而Whisper是该公司的语音转文本模型。

目前图像理解功能还没有提供给所有OpenAI的客户。据悉,OpenAI正在与一家名为“Be My Eyes”的合作伙伴进行测试,但它还没有表明何时会向更广泛的客户群开放。

OpenAI还表示,在未来,它将允许开发人员用自己的数据微调GPT-4和GPT-3.5 Turbo,这一功能或将在今年晚些时候实现。

02 淘汰和替代

值得注意的是,即使是当今最好的生成式人工智能模型之一,GPT-4也并不完美。它会对事实产生错误认知,有时还会“很自信”地犯一些推理错误,并在一些复杂问题上失败了。

对此,OpenAI还宣布将在Completions API中淘汰几个旧版模型,未来的模型将侧重于Chat Completions API,作为该公司优化计算能力的一部分。

下图是OpenAI宣布淘汰的旧模型,以及替代它们的新模型:

OpenAI全面推出GPT-4!API付费用户可以即刻访问

OpenAI将在6个月内淘汰这些Completions API的旧型号。虽然现下这个API仍然可以访问,但从今天开始,该公司将在开发人员文档中将其标记为“遗留”。从2024年1月4日开始,旧的Completions API将不再可用。

btcfans公众号

微信掃描關注公眾號,及時掌握新動向

免責聲明:
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
標籤: 人工智能 OpenAI
上一篇:2023 第三季度加密投资叙事终极指南 下一篇:NFT借贷平台对Azuki FUD的敏感性分析

相關資訊