今日凌晨,OpenAI 正式发布 GPT-4.5 模型。
GPT-4.5 支持联网搜索,并能够处理文件和图片上传,还可以使用 Canvas 来进行写作和编程。
不过,目前 GPT-4.5 还不支持多模态功能,如语音模式、视频和屏幕共享。GPT-4.5 主要通过「无监督学习」(就是自己从大量数据中学习)变得更聪明,而不是像 OpenAI o1 或者 DeepSeek R1 那样专注于推理能力。
简单说,GPT-4.5 知道的更多,而 o1 系列更会思考。
API 价格方面,因 GPT-4.5 计算量极大,成本高昂,相较于 GPT-4o 价格有了较高上涨——价格涨到了75 美元 / 百万 tokens,是 GPT-4o 的 30 倍,更是 DeepSeek 的 280 倍。
Sam Altman 提到,GPT-4.5 不是推理型模型,不会在基准测试中碾压其他模型。在目前曝出的实测中,性能的提升远没有价格大。
GPT-4.5 更新要点如下:
从今天开始,ChatGPT Pro 用户已经可以用上 GPT-4.5(研究预览版)了。下周,将会逐步开放给 Plus 和 Team 用户;再下一周则是 Enterprise 和 Edu 用户。
(文/开源中国)