
GPT-4o Mini 是 OpenAI 最新推出的小型智能模型,专为高性能和低成本的人工智能解决方案而设计。它支持文本、视觉、音频等多模态输入输出,响应速度极快,适用于实时应用场景。GPT-4o Mini 在数学推理和编码任务上表现出色,并且能够处理大量上下文信息。其价格比之前的模型便宜一个数量级,每百万输入 token 仅需 15 美分,每百万输出 token 60 美分。无论是内容创建、问题解决、复杂数据分析还是代码生成,GPT-4o Mini 都能提供卓越的性能和经济的解决方案。
GPT-4o Mini:OpenAI 最新推出的高效、经济的小型模型
GPT-4o Mini的评测
GPT-4o mini 在文本智能和多模态推理方面的学术基准测试中都超过了 GPT-3.5 Turbo 和其他小型模型,并支持与 GPT-4o 相同的语言范围。它还在函数调用方面表现出强大的性能,这使开发人员能够构建获取数据或使用外部系统执行操作的应用程序,并且与 GPT-3.5 Turbo 相比,它提高了长上下文性能。
GPT-4o mini 已在几个关键基准测试中进行了评估 。
- 推理任务:GPT-4o mini 在涉及文本和视觉的推理任务方面优于其他小型模型,在文本智能和推理基准 MMLU 上得分为 82.0%,而 Gemini Flash 为 77.9%,Claude Haiku 为 73.8%。
- 数学和编码能力:GPT-4o mini 在数学推理和编码任务方面表现出色,优于市场上以前的小型型号。在 MGSM 上,衡量数学推理,GPT-4o mini 得分为 87.0%,而 Gemini Flash 为 75.5%,Claude Haiku 为 71.7%。GPT-4o mini 在衡量编码性能的 HumanEval 上得分为 87.2%,而 Gemini Flash 为 71.5%,Claude Haiku 为 75.9%。
- 多模态推理:GPT-4o mini 在多模态推理评估 MMMU 上也表现出强劲的表现,得分为 59.4%,而 Gemini Flash 为 56.1%,Claude Haiku 为 50.2%。
定价
GPT-4o mini 现在可在 Assistants API、Chat Completions API 和 Batch API 中用作文本和视觉模型。开发人员每 1M 输入令牌支付 15 美分,每 1M 输出令牌支付 60 美分(大约相当于一本标准书中的 2500 页)。我们计划在未来几天内推出 GPT-4o mini 的微调。
在 ChatGPT 中,Free、Plus 和 Team 用户将从今天开始访问 GPT-4o mini,而不是 GPT-3.5。从下周开始,企业用户也可以使用,这符合我们的使命,即让所有人都能享受人工智能的好处。
数据统计
相关导航

M2UGen是一个由腾讯和新加坡国立大学共同研发的多模态音乐生成模型,它具备音乐生成、理解和编辑的能力。具体来说,M2UGen可以接收文字、图片、视频或音频作为输入,然后生成与之相匹配的音乐。例如,给它一段文字,如诗句或故事,它能够创作出与文字内容相应的音乐;对于图片,它能创作出匹配的音乐,让图片仿佛“动起来”;对于视频,它可以根据视频内容创作出合适的背景音乐。

Lumiere
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。

LTX Video
LTX Video是由 Lightricks公司推出的首个REAL-TIME AI视频生成开源模型。它基于 DiT (Diverse Image Transformer) 架构,能够实时生成高质量的视频。LTX Video 能够以 24 FPS 和 768x512 分辨率生成视频,生成速度比观看速度还要快。

ReSyncer
ReSyncer 是由清华大学、百度和南洋理工大学 S-Lab 实验室联合开发的多功能 AI 框架,专注于视频合成技术。它能够生成与音频高度同步的逼真口型视频,支持个性化调整、视频驱动口型同步、说话风格迁移和人脸交换。ReSyncer 在创建虚拟主持人、电影配音和多语言内容制作等领域具有广泛应用前景。

Codex大模型
Codex大模型是一个基于GPT技术的强大编程语言模型,具备自动生成代码、文档、测试用例等功能。它能够理解和处理复杂的编程问题,提高开发效率,是编程领域的重要创新。

FunAudioLLM
FunAudioLLM 是由阿里巴巴通义团队开发的旨在增强人类与大型语言模型(LLMs)之间的自然语音交互的框架。其核心包括两个创新模型:SenseVoice 和 CosyVoice。SenseVoice 提供高精度的多语言语音识别、情绪识别和音频事件检测,支持超过 50 种语言,并具有极低的延迟。CosyVoice 则专注于自然语音生成,支持多语言、音色和情绪控制,能够进行零样本语音生成、跨语言语音克隆和指令遵循。

Magi
Magi 的模型是一个可以自动将漫画页转录成文字并生成剧本。该模型通过识别漫画页面上的面板、文字块和角色,实现了全自动的剧本生成功能。

MagicVideo-V2
MagicVideo-V2是字节跳动公司团队开发的一款AI视频生成模型和框架。它通过集成文本到图像(Text-to-Image, T2I)模型、图像到视频(Image-to-Video, I2V)模型、视频到视频(Video to Video, V2V)模型和视频帧插值(Video Frame Interpolation, VFI)模块,以实现从文字描述到高分辨率、流畅且具有高度美学的视频的自动化生成。
暂无评论...