苹果要在iPhone上运行AI大模型,据苹果人工智能研究人员称,他们在iPhone 和其他内存有限的设备上发明了一种创新的闪存利用技术。这项技术是一项重要突破,可以在这些设备上部署复杂的语言模型。
苹果希望在iPhone 上运行大型人工智能模型
据苹果人工智能研究人员称,他们在iPhone 和其他内存有限的设备上发明了一种创新的闪存利用技术。这项技术是一项重要突破,可以在这些设备上部署复杂的语言模型。
目前全球流行的ChatGPT、Claude等模型都是基于大型语言模型,但这些模型需要大量的数据和内存。对于内存有限的设备来说,运行这些大型模型很困难。
苹果研究人员通过在众多数据存储位置中选择闪存来存储AI 模型的数据来解决这个问题。在一篇题为“LLM in a flash: Efficient Large Language Model Inference with Limited Memory”的论文中,研究人员表明,移动设备中的闪存比传统上用于运行大型语言模型的随机存取存储器更丰富。
为了在内存有限的设备上运行大型语言模型,苹果研究人员使用了两种关键技术:窗口和行列捆绑。窗口技术允许AI模型重用处理后的数据,减少频繁读取内存的需要,从而提高整个处理过程的效率。行列捆绑技术可以更快地从闪存读取数据,从而提高人工智能理解和生成语言的速度。
这两种技术相结合,使得AI 模型的运行速度高达iPhone 可用内存的两倍,在标准处理器(CPU) 上运行速度提高4-5 倍,在图形处理单元(GPU) 上运行速度提高20-25 倍。速度。这一技术突破极大扩展了先进大规模语言模型的应用可行性和可访问性。
这一技术突破使iPhone变得更加智能,例如更先进的Siri功能、实时语言翻译以及摄影和增强现实方面复杂的人工智能驱动功能,为在iPhone上运行复杂的AI助手和聊天机器人设备做好准备。
据彭博社报道,苹果正在开发自己的生成人工智能模型,称为“Ajax”。该模型运行2000 亿个参数,具有很高的复杂性和能力。 Ajax 的开发是为了将AI 技术更深入地集成到Apple 生态系统中。
分析师Jeff Pu 表示,苹果将在2024 年底左右在iPhone 和iPad 上提供某种生成式AI 功能。这项技术可能会在iOS 18 系统更新中发布。
苹果要在iPhone上运行AI大模型,以上就是本文为您收集整理的苹果要在iPhone上运行AI大模型最新内容,希望能帮到您!更多相关内容欢迎关注。