找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 6|回复: 0

一个6000星的AI模型推荐工具,给出的推荐全是幻觉

[复制链接]

6867

主题

0

回帖

2万

积分

管理员

积分
20967
发表于 前天 11:10 | 显示全部楼层 |阅读模式
该图片可能由AI生成



有人分享了一个工具,叫llmfit。

介绍写得很漂亮:497个模型,133个提供商,一条命令,告诉你哪些能在你的硬件上跑起来。支持多GPU、MoE架构、动态量化选择、速度估算。

6000颗星。



然后有人拿自己的服务器试了一下:500GB内存,两张RTX PRO 6000。把筛选条件设成“完美适配”,按分数排序,结果告诉他:你的最佳编程模型是bigcode/starcoder2-7b,评分79,27 tokens/秒。

他目前跑的是另一个模型,实测60-70 tokens/秒。llmfit给那个模型的评分是64,估计速度4.9 tokens/秒。

相差十倍。

另一个人跑了Gemma 3 12B的Q4_K_M量化版,工具说显存占用76%,显示“良好”。他算了一下:光模型权重就6.8GB,他的显卡是8GB,已经占了85%。KV cache和131K上下文完全没地方放。

有人去翻了一下源码。

数据来自一个文件:`hf_models.json`。一个静态JSON。497个模型的配置,包括速度估算、内存需求、量化推荐,全在这一个文件里,写死的。

没有人知道这些数字从哪儿来的。

有人怀疑是用AI生成的。评论区有人确认:“感觉就是vibe coding出来的幻觉数据。”分享这个工具的原帖作者没有否认,只说“建议去repo开issue”。

这个工具解决的问题是真实的。折腾本地大模型的人,大概一半时间都在搞清楚“这个模型到底能不能跑”——显存算不算得上、量化版本选哪个、上下文开多长会崩。LM Studio其实已经做了类似的事,但很多人不知道,或者习惯用命令行。

需求在,工具缺口在,包装精准,star积累了。

数字没验证过。

现在本地大模型社区里有一类工具正在快速繁殖:解决真实痛点,用AI批量生成数据,做出看起来很专业的界面,推上去收割星标。在有人认真测试之前,外观和实际精度之间的差距不会自动暴露。

如果你用llmfit的推荐来决定下载哪个模型,你得知道这件事。

实际上,llama.cpp自带的`llama-fit-params`命令可以做类似的事,而且用的是本地实时测量的数据,不是静态文件里的估算值。在评论区里,提到这个工具的人只有一个。

---

简评:

真正有意思的不是这个工具有没有bug,而是6000颗星本身变成了一种信任证明。我们在用同一套机制评估AI生成的内容和人类写的代码——看起来靠谱就先信了,直到有人去算那个数字。

---

ref: reddit.com/r/LocalLLaMA/comments/1rg94wu/llmfit_one_command_to_find_what_model_runs_on
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|花享网 ( 琼ICP备2024046163号-1 )

GMT+8, 2026-3-3 03:48 , Processed in 0.111334 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表