Доброчанька 01/25/2023 (Wed) 23:55 No.3043 del
>>2646
Спасибо, но я с МЛ на базовом уровне знаком, сейчас именно на NLP подробнее смотрю.

Алсо, такой реквест. Какие есть предобученные генеративные модели для русского языка, чтобы их файнтюнить для определённых текстов? В GPT-2 1.5 миллиарда параметров, это жирновато чтобы дообучать в Колабе или на нищеноуте, хотелось бы что-нибудь простенькое. А BERT не генерит текст, а угадывает маскированные токены, это другое.