上周,苹果公司的研究人员在Hugging Face模型库中推出了OpenELM,这是一系列“odels”。这四个变体的大小从 2.7 亿个参数到 30 亿个参数不等,最有可能成为 Apple 设备设备上 AI 的候选者。
作为背景,Apple 在 2023 年 12 月悄悄推出了一个名为 MLX 的机器学习框架。接下来是 MLLM 引导的图像编辑 (MGIE),然后是一系列生成式 AI 工作,包括 Keyframer、Ferret-UI 和 Xcode 中的 AI 代码完成。在大多数情况下,这些项目利用了 Apple 芯片的处理能力,而不是将 AI 功能卸载到云端。
同样,OpenELM 代表了 Apple 对 AI 的设备端方法。通常,公共 LLM 利用数千亿(有时是数万亿)的变量来理解用户输入并决定合适的响应。另一方面,较小的语言模型,如Microsoft的 Phi-3,使用的参数只有 38 亿个,而 Google Gemma 则拥有 20 亿个参数。然而,由于 OpenELM 对 transformer 模型架构的独特方法,该模型的底部只有 2.7 亿个参数。
显然,小有一些缺点。首先,OpenELM 不是多模态的,参数太少,因此不可行。此外,正如技术报告所证明的那样,它的事实知识相当低。这个问题困扰着所有类似规模的公共 LLM。然而,由于体积小,AI模型可以本地托管在手机或笔记本电脑上,而不是在云上。
苹果公开发布的OpenELM与该公司的典型做法背道而驰。从模型的完整框架和评估,到训练日志、预训练配置和 MLX 推理代码,语言模型的各个方面都可以通过 Hugging Face 公开提供,供开发人员针对不同的用例进行调整和重新调整用途。完美体育从表面上看,如此广泛的发布应该会通过激励研究人员在苹果设备上玩弄各种可能性来加强苹果在人工智能中的股份。
但这个领域还有其他参与者。Microsoft 的 Phi-3 是一个非常称职的竞争对手,Redmond 的其他开放 LLM 项目也是如此。谷歌的 2B - 3B Gemma 是另一个。虽然上述所有模型的运行速度仍然太慢,但硬件和软件肯定朝着小型语言模型的正确方向发展。
目前,三星 Galaxy S24(亚马逊起价 799 美元)或使用内部 Andes-GPT 型号的 OnePlus 12R 等边缘设备必须依赖云处理。无论苹果是否将OpenELM整合到下一代iPhone中,这家总部位于库比蒂诺的公司都可能与谷歌或Open AI合作,以实现更重的生成式AI功能。
IT时代网(关注微信公众号ITtime2000,定时推送,互动有福利惊喜)所有原创文章版权所有,未经授权,转载必究。
创客100创投基金成立于2015年,直通硅谷,专注于TMT领域早期项目投资。LP均来自政府、互联网IT、传媒知名企业和个人。创客100创投基金对IT、通信、互联网、IP等有着自己独特眼光和丰富的资源。决策快、投资快是创客100基金最显著的特点。
来自:【人物】滴滴创始人程维回顾与Uber竞争:中国互联网从来没有输过--IT时代网