观澜Media

AI技术 · 深度资讯 · 前沿观察

Ollama v0.19

Ollama 在本地运行大型语言模型的最简单方法 ..

观澜Media 的头像

作者

1 分

阅读时间

Ollama 在本地运行大型语言模型的最简单方法 5。

3K 关注者 在本地运行大型语言模型的最简单方法 5。

3K 关注者 访问网站 AI 基础设施工具 • LLM 开发人员工具 在 macOS 上运行 Llama 2 和其他模型,Windows 和 Linux 即将推出。

概述 发布 4 条评论 26 个替代方案 客户 团队奖项 更多 这是 Ollama 的第四次发布。

19 今天推出,借助 MLX 在 Apple Silicon 上实现大规模本地模型加速 访问 Ollama v0。

免费发布标签: 开源 • 人工智能 • Apple 发布团队 显示更多 显示更多。

来源:Product Hunt

上一篇

下一篇

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关于我们

观澜Media

AI技术 · 深度资讯 · 前沿观察。专注科技、AI、互联网领域的深度报道与前沿资讯。

搜索归档

Access over the years of investigative journalism and breaking reports