使用 Ollama 的机器学习研究人员将享受到 LLM 处理速度的提升,因为该开源工具现在使用 Apple Silicon 上的 MLX 来充分利用统一内存。
Ollama 已通过 Apple Silicon 上的 MLX 得到提升。
任何从事大型语言模型 (LLM) 工作的人都希望尽快获得结果。
有一些技术可以使用多台 Mac 来实现这一点,在集群中工作以增加手头的处理量,但 Apple 开发的一种方法还提供了额外的帮助。
开源模型管理和执行工具 Ollama 的开发人员已经采用了这种方法。
继续阅读 AppleInsider |在我们的论坛上讨论。
来源:AppleInsider











