Доброчанька
01/25/2023 (Wed) 23:55
No.3043
del
>>2646Спасибо, но я с МЛ на базовом уровне знаком, сейчас именно на NLP подробнее смотрю.
Алсо, такой реквест. Какие есть предобученные генеративные модели для русского языка, чтобы их файнтюнить для определённых текстов? В GPT-2 1.5 миллиарда параметров, это жирновато чтобы дообучать в Колабе или на нищеноуте, хотелось бы что-нибудь простенькое. А BERT не генерит текст, а угадывает маскированные токены, это другое.