苹果要在iPhone上运行AI大模型, 据苹果人工智能研究人员称,他们在iPhone和其他内存有限的设备上发明了一种创新的闪存利用技术。这项技术是一项重要的突破,复杂的语言模型可以部署在这些设备上。
苹果希望在iPhone上运行AI大模型。
据苹果人工智能研究人员称,他们在iPhone和其他内存有限的设备上发明了一种创新的闪存利用技术。这项技术是一项重要的突破,复杂的语言模型可以部署在这些设备上。
目前风靡全球的ChatGPT和Claude都是基于大规模语言模型的,但这些模型需要大量的数据和内存,对于内存有限的设备来说很难运行这些大型模型。
苹果研究人员通过选择闪存在许多数据存储位置存储人工智能模型的数据来解决这一问题。
In a paper entitled "LLM in a flash: efficient large-scale language model reasoning with limited memory",
与用于运行大型语言模型的传统随机存取存储器相比,闪存在移动设备中更加丰富。
为了在内存有限的设备上运行大规模语言模型,苹果研究人员使用了两项关键技术:窗口和行列绑定。窗口技术允许AI模型重复使用处理过的数据,这减少了频繁读取内存的必要性,从而提高了整个处理过程的效率。
行列绑定技术可以更快地从闪存中读取数据,从而提高AI理解和语言生成的速度。
这两种技术的结合使人工智能模型的运行内存是iPhone可用内存的两倍,这可以将标准CPU的速度提高4-5倍,将图形处理器(GPU)的速度提高20-25倍。
这一技术突破极大地扩展了高级大规模语言模型的应用可行性和可访问性。
这一技术突破使iPhone变得更加智能,例如更高级的Siri功能、实时语言翻译以及摄影和增强现实中的复杂人工智能驾驶功能,为在iPhone上运行复杂的AI助手和聊天机器人做好了准备。
据彭博新闻报道,苹果正在开发自己的生成式人工智能模型“Ajax”。该模型可以在2000亿个参数上运行,具有很高的复杂性和能力。Ajax的开发旨在将AI技术更深入地集成到苹果生态系统中。
分析师Jeff Pu表示,苹果将在2024年底左右在iPhone和iPad上提供某种生成式人工智能功能。这项技术可能会在iOS 18系统更新时发布。
苹果要在iPhone上运行AI大模型,以上就是本文为您收集整理的苹果要在iPhone上运行AI大模型最新内容,希望能帮到您!更多相关内容欢迎关注。