>QLoRA凄そう!
>https://t.co/Fi8lVqzkQu
>4ビット量子化でメモリ使用量削減でLLaMA 65Bを単一GPUの48GB VRAMで微調整でき
>Guanaco 33Bと65BがChatGPTに勝つるw
>
>グアナコ13BでもBardに優り
>7B/13BならColabで動くだと🫢
>LLaMA 65Bを16-bitで微調整にはVRAM780GB必要だった
>https://t.co/23MuSYE3I7 forasteran