苹果的Apple Intelligence研究团队发布了两个用于训练 AI 生成器的新型小型但高性能语言模型。
苹果的机器学习团队正在与业内其他团队一起参与语言模型开源 DataComp 项目。苹果最近推出的两种模型被认为可以匹敌甚至超越其他领先的训练模型,例如 Llama 3 和 Gemma。
此类语言模型用于通过提供标准框架来训练 ChatGPT 等人工智能引擎。这包括架构、参数和数据集筛选,以便为人工智能引擎提供更高质量的数据。
苹果提交的项目包括两个模型:一个较大的模型有 70 亿个参数,另一个较小的模型有 14 亿个参数。苹果团队表示,较大的模型在基准测试中的表现比之前的顶级模型 MAP-Neo 高出 6.6%。