OpenAI正式发布GPT-4o模型,所有用户可免费使用
OpenAI正式发布GPT-4o模型,所有用户可免费使用!5月13日OpenAI发布会,并没有发布GPT-5,没有发布ChatGPT搜索,而是正式发布GPT-4o!GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,与人类的响应时间相似(在新窗口中打开)在一次谈话中。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。 目前GPT-4o使非会员试读19%,加入社区后可阅读全文
页:
[1]