generated at
QLoRA
Paper | Adapter Weights | Demo |


>QLoRA凄そう!
>4ビット量子化でメモリ使用量削減でLLaMA 65Bを単一GPUの48GB VRAMで微調整でき
>Guanaco 33Bと65BがChatGPTに勝つるw
>
>グアナコ13BでもBardに優り
>7B/13BならColabで動くだと🫢
>
>LLaMA 65Bを16-bitで微調整にはVRAM780GB必要だった
>