观澜Media

AI技术 · 深度资讯 · 前沿观察

TurboQuant RaBitQ:Big Labs 如何重塑品牌迭代

谷歌写了一篇关于加速人工智能模型的论文,媒体称其为..

谷歌写了一篇关于加速人工智能模型的论文,媒体称其为突破,然后 RaBitQ 作者出现在 Reddit 上,发表了一篇礼貌的长文,解释说 TurboQuant RaBitQ 比较悄悄地将他们的工作涂在附录中,并将他们的方法放在单核 CPU 上,而谷歌则在 GPU 上运行。

TurboQuant 论文几乎肯定低估了 RaBitQ 和早期的 PTQ 方法(如 QuIP 和 QTIP),然后用不平衡的基线放大了自己的收益。

这是一本剧本:将现有技术移至附录,选择令人满意的基准,并让声望和公关将增量工程转化为“新”想法。

如果您阅读 ML 论文(或有关它们的报道),则需要将 TurboQuant 之类的声明视为营销文案,除非您检查了三件事:引文的位置、基线的配置方式以及附录悄悄承认的内容。

TurboQuant 与 RaBitQ:简单案例。

RaBitQ 作者随后在 Reddit 上发布了详细的“技术澄清”,认为 (1) TurboQuant 是由他们之前的讨论和 RaBitQ 的想法塑造的,(2) 论文将大多数 RaBitQ 讨论降级到附录,(3) 至少有一些标题比较在单核 CPU 上使用 RaBitQ 与在 GPU 友好内核上使用 TurboQuant。

来源:Dev.to

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关于我们

观澜Media

AI技术 · 深度资讯 · 前沿观察。专注科技、AI、互联网领域的深度报道与前沿资讯。

搜索归档

Access over the years of investigative journalism and breaking reports