Apple的新突破让明年iPhone上的AppleGPT更加令人兴奋

导读 AppleGPT可能很快就会成为现实。在过去的几个月里,我们听到了一些关于这种学习语言模型正在研究的报道。例如,TheInformation报道称,苹果

AppleGPT可能很快就会成为现实。在过去的几个月里,我们听到了一些关于这种学习语言模型正在研究的报道。例如,TheInformation报道称,苹果公司每天花费数百万美元来培训其法学硕士。

虽然该出版物称大部分投资将集中在AppleCare客户上,但Siri团队计划整合这些语言模型,以使复杂的快捷方式集成更容易访问。此外,海通国际证券分析师JeffPu报告称,苹果在2023年全年构建了数百台AI服务器,并计划在2024年增加更多。

他认为,苹果计划将基于云的人工智能和设备上的数据处理结合起来,在2024年末iOS18周期期间向iPhone和iPad用户发布其生成式人工智能。由于我们都期待苹果GPT技术能够登陆我们的iPhone,因此一个小细节可以使该GPT与其他GPT区分开来:在设备上使用,而不是基于云。

虽然Pu认为苹果将两者结合起来,但该公司大力倡导将隐私视为“基本人权”,因此主要依赖设备上的处理将是与所有其他公司的关键区别。但由于大型语言模型……很大,这意味着iPhone从技术上讲无法在本地运行未来的AppleGPT,因为它需要适当的服务器来做到这一点。

也就是说,一些苹果研究人员发表了一篇论文,展示了他们如何在有限的内存下有效地使用大型语言模型,这非常令人兴奋。

在MacRumors最先发现的这篇论文中,研究人员表示,“该方法涉及构建与闪存行为相协调的推理成本模型,指导我们在两个关键领域进行优化:减少从闪存传输的数据量和读取数据更大、更连续的块。”为此,该公司计划使用两项新技术:

窗口化:它仅加载过去几个令牌的参数,重用最近计算的令牌的激活。这种滑动窗口方法减少了加载权重的IO请求数量。

行列捆绑:它存储上投影层和下投影层的串联行和列,以从闪存读取更大的连续块。这通过读取更大的块来增加吞吐量。

这些方法的结合可以使CPU的速度提高4-5倍,GPU的速度提高20-25倍,这将使AI模型的运行速度达到iPhone内存大小的两倍。最终,这项技术可以提高Siri的功能、实时翻译以及其他用于照片、视频的AI功能,以及了解客户如何使用iPhone的功能。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。