观澜Media

AI技术 · 深度资讯 · 前沿观察

Ollama 因 Apple Silicon 上的 MLX 统一内存使用而得到增强

使用 Ollama 的机器学习研究人员将享受到 L..

使用 Ollama 的机器学习研究人员将享受到 LLM 处理速度的提升,因为该开源工具现在使用 Apple Silicon 上的 MLX 来充分利用统一内存。

Ollama 已通过 Apple Silicon 上的 MLX 得到提升。

任何从事大型语言模型 (LLM) 工作的人都希望尽快获得结果。

有一些技术可以使用多台 Mac 来实现这一点,在集群中工作以增加手头的处理量,但 Apple 开发的一种方法还提供了额外的帮助。

开源模型管理和执行工具 Ollama 的开发人员已经采用了这种方法。

继续阅读 AppleInsider |在我们的论坛上讨论。

来源:AppleInsider

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关于我们

观澜Media

AI技术 · 深度资讯 · 前沿观察。专注科技、AI、互联网领域的深度报道与前沿资讯。

搜索归档

Access over the years of investigative journalism and breaking reports