您的位置:首页 >精选百科 >

Apple正在探索在闪存上存储大型语言模型以便将该技术无缝引入手机笔记本电脑

导读 大型语言模型(LLM)对CPU和内存的资源极其密集,但据说苹果正在尝试将这项技术存储在闪存上,可能会使其在多个设备上轻松访问。然而,这家科...

大型语言模型(LLM)对CPU和内存的资源极其密集,但据说苹果正在尝试将这项技术存储在闪存上,可能会使其在多个设备上轻松访问。然而,这家科技巨头还希望让法学硕士在其iPhone和Mac系列中无处不在,并正在探索如何实现这一目标。

将法学硕士存储在闪存上一直很困难;苹果的目标是在容量有限的机器上解决这个问题

在典型情况下,大型语言模型需要人工智能加速器和高DRAM存储容量。据TechPowerUp报道,苹果正在努力将相同的技术引入内存容量有限的设备中。在一篇新发表的论文中,Apple发表了一篇论文,旨在将LLM引入内存容量有限的设备。iPhone的内存也有限,因此苹果研究人员开发了一种使用闪存芯片来存储人工智能模型数据的技术。

由于Apple的iPhone和Mac计算机上有大量闪存,因此有一种方法可以通过一种称为“窗口化”的技术来绕过此限制。在这种方法中,AI模型重用了一些已经处理过的数据,减少了对连续内存获取的需求,并使整个过程更快。第二种技术是行列捆绑;数据可以更有效地分组,使人工智能模型能够更快地从闪存读取数据并加快其理解能力。

这两种技术和其他方法都将允许AI模型运行高达iPhone可用RAM大小的两倍,从而使标准处理器上的速度提高多达5倍,在图形处理器上提高多达25倍。有大量证据表明苹果对人工智能很认真,首先是它自己的聊天机器人,内部称为AppleGPT。据传明年的iPhone16还将配备升级的麦克风,这对公司来说成本高昂,但可以改进语音输入,这对于Siri执行多项任务是必要的。

还有传言称,某种形式的生成式人工智能将在明年正式发布时融入iOS18中,因此,尽管苹果一直落后于OpenAI、谷歌、亚马逊等公司,但这种差距到2024年可能会大幅缩小。,将这项技术引入内存有限的iPhone、iPad和Mac可能会给这些设备带来独特的卖点,但我们必须首先看看存储在闪存上的LLM的表现如何。

免责声明:本文由用户上传,如有侵权请联系删除!