Доброчанька 12/27/2022 (Tue) 16:56 No.2075 del
>>2055
>Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
>Методичка, копипаст, есть несколько моделей, *dirty panties dance intensifies*
Что ж, батенька, пора вам менять очередные кальсончики.
>Машинное обучение более воспроизводимо и открыто, чем академическая наука.
Ну как тут не поверить пачкающему собственные штаны шизофренику с манией еврейского заговора и нейросетевой обсцессией?
>А статья-то вышла
И как это относится к тому, больной, что вы гордо распушили свои кальсоны с предложением пари, а потом наложили в них кучу и попытались сбежать под надуманными предлогами?
>То есть, она может с некоторой вероятностью дать верный ответ, но не выполнить эту детективную работу.
Как и сломанные часы, которые могут с некоторой вероятностью показать верное время. А вот есть ли у вас, уважаемый, численные оценки этой вероятности в общем случае? Или все вновь закончится тверком грязного филея под истошные вопли о грядущем пришествии нейробоженьки?
>Про Тао слышали все, кто хоть немного интересуется наукой и математикой, это не просто потешный азиат с высоким IQ, и даже не просто лауреат премии Филдса, а человек, к которому обращаются за советами другие люди уровня премии Филдса
Да вы, батенька, никак читали переписку Перельмана с Тао? Не пора ли просто все взять и отмасштабировать?
>К слову о масштабировании. Показано, что можно с небольшими потерями точности сжимать нейросети до 4 бит на параметр. Это значит, что тот же ChatGPT влезет в 87 гигабайт – его можно было бы запустить на четырёх 3090-х.
На системе за 600к рублей.
Пора. Пора! Скоро, уважаемый, вы будете начальником подотдела масштабирования!