谷歌写了一篇关于加速人工智能模型的论文,媒体称其为突破,然后 RaBitQ 作者出现在 Reddit 上,发表了一篇礼貌的长文,解释说 TurboQuant RaBitQ 比较悄悄地将他们的工作涂在附录中,并将他们的方法放在单核 CPU 上,而谷歌则在 GPU 上运行。
TurboQuant 论文几乎肯定低估了 RaBitQ 和早期的 PTQ 方法(如 QuIP 和 QTIP),然后用不平衡的基线放大了自己的收益。
这是一本剧本:将现有技术移至附录,选择令人满意的基准,并让声望和公关将增量工程转化为“新”想法。
如果您阅读 ML 论文(或有关它们的报道),则需要将 TurboQuant 之类的声明视为营销文案,除非您检查了三件事:引文的位置、基线的配置方式以及附录悄悄承认的内容。
TurboQuant 与 RaBitQ:简单案例。
RaBitQ 作者随后在 Reddit 上发布了详细的“技术澄清”,认为 (1) TurboQuant 是由他们之前的讨论和 RaBitQ 的想法塑造的,(2) 论文将大多数 RaBitQ 讨论降级到附录,(3) 至少有一些标题比较在单核 CPU 上使用 RaBitQ 与在 GPU 友好内核上使用 TurboQuant。
来源:Dev.to











