OpenAI 推出更小、更便宜的 AI 模型 GPT-4o mini

OpenAI 周四推出了其最新的小型 AI 模型 GPT-4o mini。该公司表示,GPT-4o mini比 OpenAI 目前的尖端 AI 模型更便宜、更快速,从今天开始面向开发者发布,并通过 ChatGPT 网页和移动应用面向消费者发布。企业用户将于下周获得访问权限。

该公司表示,GPT-4o mini 在涉及文本和视觉的推理任务上的表现优于业界领先的小型 AI 模型。随着小型 AI 模型的改进,它们因速度快、成本低廉而越来越受开发人员的欢迎,而大型模型则不然,例如GPT-4 Omni或Claude 3.5 Sonnet。对于开发人员可能反复调用 AI 模型执行的大量简单任务,它们是一个有用的选择。

GPT-4o mini 将取代 GPT-3.5 Turbo,成为 OpenAI 提供的最小模型。该公司声称,根据 Artificial Analysis 的数据,其最新的 AI 模型在衡量推理能力的基准 MMLU 上的得分为 82%,而 Gemini 1.5 Flash 的得分为 79%,Claude 3 Haiku 的得分为 75%。在衡量
数学推理能力的 MGSM 上,GPT-4o mini 的得分为 87%,而 Flash 的得分为 78%,Haiku 的得分为 72%。

此外,OpenAI 表示,GPT-4o mini 的运行成本明显低于其之前的 Frontier 型号,比 GPT-3.5 Turbo 便宜 60% 以上。目前,GPT-4o mini 在 API 中支持文本和视觉,OpenAI 表示该模型未来将支持视频和音频功能。

OpenAI 产品 API 负责人 Olivier Godement 在接受 TechCrunch 采访时表示:“为了让世界每个角落都能获得 AI 的支持,我们需要让模型变得更加实惠。我认为 GPT-4o mini 是朝着这个方向迈出的一大步。”

对于基于 OpenAI API 进行构建的开发人员,GPT4o mini 的定价为每百万输入令牌 15 美分,每百万输出令牌 60 美分。该模型的上下文窗口为 128,000 个令牌,大约相当于一本书的长度,知识截止时间为 2023 年 10 月。

OpenAI 并未透露 GPT-4o mini 的具体大小,但表示它与其他小型 AI 模型(如 Llama 3 8b、Claude Haiku 和 Gemini 1.5 Flash)大致处于同一级别。不过,该公司声称,基于 LMSYS.org 聊天机器人领域的发布前测试,GPT-4o mini 比业界领先的小型模型速度更快、更具成本效益、更智能。早期的独立测试似乎证实了这一点。

“与同类模型相比,GPT-4o mini 速度非常快,平均输出速度为每秒 202 个 token,”Artificial Analysis 联合创始人乔治·卡梅伦 (George Cameron) 在给 TechCrunch 的电子邮件中表示。“这比 GPT-4o 和 GPT-3.5 Turbo 快 2 倍多,对于依赖速度的用例(包括许多消费者应用程序和使用 LLM 的代理方法)来说,这是一个引人注目的产品。”

OpenAI 为 ChatGPT Enterprise 推出的新工具

另外,OpenAI 周四宣布了面向企业客户的新工具。OpenAI 在一篇博客文章中宣布了企业合规 API,以帮助金融、医疗保健、法律服务和政府等受到严格监管的行业的企业遵守日志记录和审计要求。

该公司表示,这些工具将允许管理员审核他们的 ChatGPT Enterprise 数据并采取行动。该 API 将提供带时间戳的交互记录,包括对话、上传的文件、工作区用户等。

OpenAI 还为管理员提供了对工作区 GPT 的更精细控制,这是为特定业务用例创建的 ChatGPT 的定制版本。以前,管理员只能完全允许或阻止在其工作区中创建的 GPT 操作,但现在,工作区所有者可以创建 GPT 可以与之交互的域的批准列表。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注