观澜Media

AI技术 · 深度资讯 · 前沿观察

停止在 LLM 上浪费金钱:推出 Otellix for Go

在生产中使用大型语言模型 (LLM) 是一件很神奇..

在生产中使用大型语言模型 (LLM) 是一件很神奇的事情。

蜜月期通常持续大约一个月,直到您收到不可避免的 API 账单。

如果您曾经不小心将 LLM 生成调用放入深度嵌套的后台循环中(别撒谎,我们都做过),或者如果您只是想防止某个重度用户耗尽组织的日常预算,那么您可能知道其中的痛苦。

当前的 LLM 可观察性平台要么是重型 SaaS 产品,有自己的按事件定价,要么完全缺乏硬性预算执行。

我想要一些免费的、OpenTelemetry 原生的东西,并且专注于 Go 中成本受限的应用程序的硬预算限制。

它包含 Anthropic、OpenAI、Gemini 和 Ollama 的官方 SDK,让您能够拦截和跟踪成本,而无需大幅更改代码库。

来源:Dev.to

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关于我们

观澜Media

AI技术 · 深度资讯 · 前沿观察。专注科技、AI、互联网领域的深度报道与前沿资讯。

搜索归档

Access over the years of investigative journalism and breaking reports