Reverse Donkey
03:57 · Aug 18, 2024 · Sun
https://x.com/tuturetom/status/1824992362709532704?t=oTObmsadzNGFv7vzhnGwnQ&s=35
X (formerly Twitter)
Tom Huang (@tuturetom) on X
运行 Llama 3.1 70B 需要多少 GPU VRAM?
🤯
🤯
一个非常标准的计算公式,了解 LLM 和 GPU VRAM 换算规则,下次发新模型就知道本机能不能跑了
⚡️
🔥
来源
👉
https://t.co/XbJ37SEhsl
Home
Powered by
BroadcastChannel
&
Sepia