OpenAl正式发布GPT-4o模型,所有用户可免费使用!
5月13日OpenAI发布会,并没有发布GPT-5.没有发布ChatGPT搜索,而是正式发布GPT-4o!
GPT-4o (“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至232毫秒的时间内响应音频输入,平均为320毫秒,与人类的响应时相似(在新窗口中打开)在一次谈话中。
它在英语文本和代码上的性能与GPT-4 Turbo的性能相匹配,在非英语文本上的性能显着提高,同时API的速度也更快,成本降低了50%。
与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色。
目前GPT-4o使用限制,付费用户(Plus会员)三小时80条!免费用户三小时10条!
如果童鞋登陆账号还没有GPT-4o模型可选,临时解决方法是切换日本或者新加坡代理,重新登陆尝试!
总结内容
1.新的GPT-4o模型:打通任何文本、音频和图像的输入,相互之间可以直接生成,无需中间转换
2.GPT-4o语音延迟大幅降低,能在232毫秒内回应音频输入,平均为320毫秒,这与对话中人类的响应时间相似
3.GPT-4o向所有用户免费开放
4.GPT-4o APl,比GPT 4-Turbo快2倍,价格便宜50%
5.惊艳的实时语音助手演示:对话更像人、能实时翻译,识别表情,可以通过摄像头识别画面写代码分析图表
6.ChatGPT新Ul,更简洁
7.—个新的ChatGPT桌面应用程序,适用于macOS,Windows版本今年晚些时候推出
转载请注明:日记男孩的博客 » OpenAl正式发布GPT-4o模型,所有用户可免费使用!