Доброчанька
03/03/2023 (Fri) 15:41
No.3421
del
>>3419> в другом датасетено справедливости ради, концептуальной разницы никто не обещал. Как раз наоборот, это у кальсонов есть фетиш на большие концепции, а ML – скучная и скромная область, scale is (almost) all you need.
Так вот к вопросу scale.
>>3415> Но можно сжать до 4 или 3 бит, хотя пока это скорее исследовательская область. И рыхлые 175b не нужны, когда LLaMA-13b сравнима с GPT-3. Осталось её слить на торренты.Вчера слили.
magnet:?xt=urn:btih:b8287ebfa04f879b048d4d4404108cf3e8014352&dn=LLaMA&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce
Слава анону-освободителю.