/dobrochan/ - Доброчан

Бункер доброчана для того, чтобы можно было пережидать всякие перетряски.

Posting mode: Reply

Check to confirm you're not a robot
Name
Email
Subject
Comment
Password
Drawing x size canvas
File(s)

Board Rules

Max file size: 350.00 MB

Max files: 5

Max message length: 4096

Manage Board | Moderate Thread

Return | Magrathea | Catalog | Bottom

Expand All Images


(544.28 KB 1895x1410 science.jpeg)
(125.47 KB 960x810 hcnjf56z1w1a1.jpg.webp)
Тред наступившего будущего: end of the boards edition Доброчанька 11/25/2022 (Fri) 00:54 [Preview] No. 603
Тут будут (но это не точно) продолжать выходить обзоры начала логистической кривой, следующий участок которой в научно-популярном сознании помечен как "сингулярность". Buckle up, things are about to get wild.

(Если у кого есть вопросы из прошлого треда – буду благодарен).

Одна новость, после которой вы, наверное, можете скрывать тред, ничего не потеряв, если она не покажется вам значимой: ИИ сейчас играет на сильном человеческом уровне в блиц Diplomacy, игре, ядро которой – переговоры на естественном языке с целью создания альянсов и эксплуатации других игроков-людей. И в отличие от Го в 2016-м, это уже *никому не интересно.* https://www.science.org/doi/10.1126/science.ade9097

Напоминания про источники:

https://twitter.com/_akhaliq (лучший, но скоро перестанет публиковать)
https://twitter.com/arankomatsuzaki (лучший по S/N)
https://jack-clark.net (поясняет)
https://twitter.com/ai__pub (подборки в духе akhaliq)
https://bensbites.beehiiv.com (вариант для любителей сои)


Доброчанька 11/25/2022 (Fri) 08:39 [Preview] No.606 del
>>603
Интересных текстовых генераций не завезли ещё? Помню, был AI Dungeon, но он путался в сюжете, NovelAI без регистрации не особо-то и работает. Что там ещё есть? Генерированный текст кто-нибудь скармливал рисовалкам?


Доброчанька 11/25/2022 (Fri) 10:04 [Preview] No.607 del
>>606
> AI Dungeon
Мне не особо понравилось. Оно складно накладывало дальше, но совершенно не понимало контекста того, куда накладывает сверху. Получалось, что родился я на улице герцена после нескольких постов.


Доброчанька 11/25/2022 (Fri) 10:18 [Preview] No.609 del
>>607
Вот и мне не понравилось. Ещё он забывал о чем говорил буквально парой постов назад. То одни и те же персонажи в разных амплуа, то мир резко менялся. Хотелось от него заготовок для сюжетов, а получилось только трата времени. Книжки лучше всё-таки.


Доброчанька 11/25/2022 (Fri) 14:21 [Preview] No.619 del
(384.37 KB 640x640 ukmahdn82v1a1.png.webp)
(312.44 KB 1752x1212 FiTbngkWAAEBFwV.jpeg)
>>606
Есть http://beta.character.ai
Он уже не такой интересный, как в начале, потому что модели кастрировали для уничтожения возможности генерации lewd- контента (получилось почти, но не совсем) и сильно оглупили, принудив говорить СЖВ-бред (буквально, модель Гитлера тебе эксплицитно расскажет, что она не исторический Гитлер, а исправленный, который за равенство и братство всех народов). Кроме того, модели очевидно тюнили на RLHF, это интересная и очень мощная техника увеличения согласованности с человеческими предпочтениями, но у неё есть проблема в генерации опенэндного текста – mode collapse. То есть персонажа неудержимо влечёт к мощнейшему аттрактору в поле дискуссии, в данном случае к тупой любви и обнимашкам (но без lewd). У OpenAI с InstructGPT по тем же причинам получается биззарное обсуждение свадеб.

Но при всём этом, чарактер.ай очень и очень сильный в сравнении c AI Dungeon. Аноны уже там создали массу персонажей, можешь попробовать.

> Генерированный текст кто-нибудь скармливал рисовалкам?
Чем это отличается от нормального текста с их точки зрения?


Доброчанька 11/25/2022 (Fri) 16:28 [Preview] No.622 del
>>619
Спасибо. Чуть потыкал - лучше, чем AI Dungeon и правда, хотя та же проблема с потерей сюжета встречается. Или мне не повезло, тоже может быть.

> Чем это отличается от нормального текста с их точки зрения?
Видимо ничем. Идея интерактивных историй с картинками. Осложняется тем, что из этой истории надо выдернуть идею и сформировать из неё запрос.


Доброчанька 11/25/2022 (Fri) 16:30 [Preview] No.623 del
>>619
Меня тоже влечет к обнимашкам.


Доброчанька 11/25/2022 (Fri) 16:44 [Preview] No.625 del
Меня влечет к морозилке с пельменями.


Доброчанька 11/25/2022 (Fri) 23:38 [Preview] No.630 del
>>625
А с котлетками?


Доброчанька 11/26/2022 (Sat) 09:34 [Preview] No.634 del
>>630
%%Каклеток нет. Есть сало. Но я забыл купить хлеба, поэтому пока не влечет%%


Доброчанька 11/27/2022 (Sun) 11:25 [Preview] No.670 del
Computer Generates Human Faces / https://youtube.com/watch?v=4VAkrUNLKSo [Embed]
Generating Songs With Neural Networks (Neural Composer) / https://youtube.com/watch?v=UWxfnNXlVy8 [Embed]
Music visualized in 3D with machine learning / https://youtube.com/watch?v=CeMtEuT_8R0 [Embed]
A.I. Experiments: Visualizing High-Dimensional Space / https://youtube.com/watch?v=wvsE8jm1GzE [Embed]
The Neural Network, A Visual Introduction | Visualizing Deep Learning, Chapter 1 / https://youtube.com/watch?v=UOvPeC8WOt8 [Embed]
Neural Network 3D Simulation / https://youtube.com/watch?v=3JQ3hYko51Y [Embed]
OpenAI Plays Hide and Seek…and Breaks The Game! 🤖 / https://youtube.com/watch?v=Lu56xVlZ40M [Embed]
Evolving AIs - Predator vs Prey, who will win? / https://youtube.com/watch?v=qwrp3lB-jkQ [Embed]
AI Learns to Escape (using Reinforcement Learning) / https://youtube.com/watch?v=v3UBlEJDXR0 [Embed]
How to Win Snake: The UNKILLABLE Snake AI / https://youtube.com/watch?v=TOpBcfbAgPg [Embed]
Neural Network Learns to Play Snake / https://youtube.com/watch?v=zIkBYwdkuTk [Embed]
[DeepLearning | видео 1] Что же такое нейронная сеть? / https://youtube.com/watch?v=RJCIYBAAiEI [Embed]
MarI/O - Machine Learning for Video Games / https://youtube.com/watch?v=qv6UVOQ0F44 [Embed]
I programmed some creatures. They Evolved. / https://youtube.com/watch?v=N3tRFayqVtk [Embed]
Computer evolves to generate baroque music! / https://youtube.com/watch?v=SacogDL_4JU [Embed]
Computer tries to replicate my voice! / https://youtube.com/watch?v=jSsMqjMcRAg [Embed]
But what is a convolution? / https://youtube.com/watch?v=KuXjwB4LzSA [Embed]
A.I art is horrifying... / https://youtube.com/watch?v=QnY8xHzPl9g [Embed]
The Current State of Anime Generating AI / https://youtube.com/watch?v=DX1lUelmyUo [Embed]
Giving Personality to Procedural Animations using Math / https://youtube.com/watch?v=KPoeNZZ6H4s [Embed]
Text Generated Videos Are So Goofy Yet Mind-blowing / https://youtube.com/watch?v=ILXlcfHq3WM [Embed]


Доброчанька 12/01/2022 (Thu) 11:11 [Preview] No.858 del
(86.03 KB 794x961 Fi3IoenWQAEhPtP.png)
(139.01 KB 800x2000 Fi4fQwmX0AAc9Qd.png)
(194.43 KB 1174x1708 Fi2yZq1XEAEs9cp.jpeg)
(200.01 KB 1638x2036 Fi1QBXpXEBg5LO1.jpeg)
GPT 3.5 превосходит многих людей. Это те же 175 миллиардов параметров. Инференс стал быстрее в несколько раз.

GPT-4 будет мощнее.

metaphor.systems ищет информацию намного лучше гугла.

Я не знаю, о чём тут ещё можно писать. Пара API-хуков и скрипт на три сотни строк – и оно написало бы всё, что я хочу, и всё, что на это можно возразить, и всё, что я бы ответил, лучше меня и вас.

Кажется, до AGI осталось несколько месяцев.


Доброчанька 12/01/2022 (Thu) 12:18 [Preview] No.860 del
>>858
Есть какие-то достижения, сделанные нейросетями? Например, какая-нибудь вундервафля, изготовленная по проектам, какое-нибудь развитие в науках, в медицине или ещё где-то? Просто пока это всё выглядит как маркетинговое привлечение внимания - да интересно, но без практического приложения. Ну кроме распознавания лиц/номеров автомобилей/букв текста - это повсеместно и неинтересно.


Доброчанька 12/01/2022 (Thu) 12:46 [Preview] No.861 del
(137.95 KB 1181x1280 2022-12-01 15.42.38.jpg)
(121.43 KB 1210x1280 2022-12-01 15.45.01.jpg)
>>860
Ты определяешь "достижение" как пиковый результат индивидуального интеллектуального творчества в течение долгой карьеры. Причём такой, который можно представить на научпоп-сайте или в журнале типа Техника Молодёжи. "Йозефсон разработал интерферометр". Гугловская сетка оптимизировала дизайн тензорного ускорителя (для тренинга нейросетей же), другие – оптимизировали оптимизаторы и матричное умножение. Такого много. Если бы этим занималось мясо, то там было бы много человеколет работы и дюжина патентов. Но ты бы в любом случае не услышал об этом как о достижении.

> Просто пока это всё выглядит как маркетинговое привлечение внимания - да интересно, но без практического приложения

Если тебе не понятно, почему пикрелейтед имеет практическое приложение и не является просто маркетингом, то мне интереснее говорить с машиной, чем с тобой, она банально умнее.

Без обид.


Доброчанька 12/01/2022 (Thu) 13:14 [Preview] No.862 del
>>861
>Ты определяешь "достижение" как пиковый результат индивидуального интеллектуального творчества в течение долгой карьеры.
Как имеющее практическое применение или влияющее на другие области. Плоды математики, которая наука в себе, используются, например, в физике. Сопромат используется в инженерии. Химия в биологии.
Нейросети используются в... нейросетях?
>пикрелейтед имеет практическое приложение
Как демонстрация возможностей сетей по генерации текста на основе сигнатур.
>то мне интереснее говорить с машиной, чем с тобой, она банально умнее.
Вот по этому-то к тебе такое отношение на Доброчане.


Доброчанька 12/01/2022 (Thu) 13:26 [Preview] No.863 del
>>862
> Вот по этому-то к тебе такое отношение на Доброчане.
> И поэтому приходиться протекать в других тредах, а потом обижаться, когда там стебут или показывают на дверь.


Доброчанька 12/01/2022 (Thu) 13:39 [Preview] No.864 del
(76.02 KB 763x711 Fi2DRJoXkAAcVg8.png)
>>862
> Как имеющее практическое применение или влияющее на другие области
Нейросеть, применяющаяся для разработки полупроводниковых изделий, имеет практическое применение. Разумеется, то же можно сказать про все остальные применения нейросетей от перевода и распознавания речи до генерации аминокислотных последовательностей в биомедицинских задачах. Упираться уже можно только из чистого фанатизма.
> Как демонстрация возможностей сетей по генерации текста на основе сигнатур.
Каких сигнатур, лейтенант? Эхолокацию приглуши.

Ты английским-то владеешь? Ты можешь прочитать то, что на картинках, которые я выкладываю, или это для тебя просто строчки из закорючек?

Ты можешь не съезжать на затхлые обидки, а сформулировать, почему генерация, понимание и объяснение программного кода, материалов экономики, педагогики и любой другой темы на естественном языке на уровне среднего профильного студента по простым запросам – не имеет практического применения? Это буквально содержание большей части нашей экономической деятельности.

> Нейросети используются в... нейросетях?
Это ремарка, которую мог бы выдать бот на марковских цепях. Какое мне дело до отношения ботов?


Доброчанька 12/01/2022 (Thu) 14:10 [Preview] No.865 del
>>864
>Каких сигнатур, лейтенант? Эхолокацию приглуши.
Простите, забыл смузи прихлебнуть и штаны подвернуть. Паттернов, конечно же.
>Ты английским-то владеешь? Ты можешь прочитать то, что на картинках, которые я выкладываю, или это для тебя просто строчки из закорючек?
На одной шаблонная ошибка, которую найдет статический анализатор, на второй шаблонный ответ (какой уровень знаний у ученика? Нужен упор на грамматику, на устную речь?)
>почему генерация, понимание и объяснение программного кода, материалов экономики, педагогики и любой другой темы на естественном языке на уровне среднего профильного студента по простым запросам – не имеет практического применения?
Если не расплываться в словах, то это переписывание написанного. Нет чего-то нового, как результата умственного труда.

Но вообще-то я никуда не съезжал, а спросил банальный вопрос:
>Есть какие-то достижения, сделанные нейросетями?
на который ты, кстати, так и не ответил, а начал распыляться, что я ничего не понимаю.


Доброчанька 12/01/2022 (Thu) 14:33 [Preview] No.866 del
(95.11 KB 1125x1280 2022-12-01 17.30.43.jpg)
(148.09 KB 1280x1227 2022-12-01 17.30.46.jpg)
>>865
>Паттернов, конечно же.
Да хоть паттернов, хоть сигнатур, хоть узоров, хоть как назови. Суть того, что ты хочешь сказать, примерно следующая: "ано нипанимает а прост дополняет последовательности на основе предыдущего опыта". Верно?
> Если не расплываться в словах, то это переписывание написанного.
Да, верно. И это "переписывание" – ближайший аналог понимания, как можно заметить, сравнив выдачу гугла с выдачей модели.

Так вот, переписывание написанного это 99% нашей цифровой экономики. Переписывание сниппетов со stackexchange и гитхаба в проект, переписывание материалов дела в его заключение, переписывание кода в объяснение его функционала студенту и результатов исследования в доклад клиенту и истории болезни в рекомендации и жалоб в психологическую поддержку. Что-то подлинно новое делают интеллектуалы, которых меньше чем 1 на 10 тысяч. В очень ограниченном смысле делают новое, конечно, все люди, когда принимают решения, но это тривиально и не имеет ценности без массива преобразований текста, которые теперь хорошо делает машина.

> (какой уровень знаний у ученика? Нужен упор на грамматику, на устную речь?)
...ты серьёзно думаешь, что она бы не смогла расписать и эти детали, если бы её попросили о более подробной программе? Ты понимаешь, что это общий интеллект, а не промо-скрипт для простых планов уроков по немецкому?

> кокок достижения
Не нести тупую хуйню, не подменять понятия как шизофреник, не путать "машине не за что давать нобелевскую премию" с "это маркетинговый хайп без практического применения" – великое достижение для машины.

> на который ты, кстати, так и не ответил
Ответил.

Слушай, ты в самом деле тупее машины. У неё больше контекст внимания, она лучше держит тему, глубже ей владеет, корректнее себя ведёт. К счастью, машина бесконечно терпелива.

https://chat.openai.com/chat – вот, иди, спорь там. Бесплатно, с регистрацией с СМС. Кстати, может и в русский.


Доброчанька 12/01/2022 (Thu) 18:47 [Preview] No.871 del
>>866
Там запросы других всем видны что ли?


Доброчанька 12/01/2022 (Thu) 23:28 [Preview] No.882 del
(117.60 KB 1322x1120 media-Fi4-eOTXgAId6Ll.jpg)
>>871
Нет, люди просто делятся. Правда я бы ожидал, что у OpenAI ничего не пропадает. Они уже заявили намерение фингерпринтить текст на уровне статистического распределения токенов.


Доброчанька 12/02/2022 (Fri) 14:41 [Preview] No.900 del
>>882
Как же отвратительно, что вся мощь этих сеток пойдет на постцензуру, от кототрой уже не спрячешься и полицейское государство.


Доброчанька 12/02/2022 (Fri) 16:47 [Preview] No.906 del
Нейросеть уже написала что-то уровня https://www.youtube.com/watch?v=IFgMbGx44v8?


Доброчанька 12/03/2022 (Sat) 03:35 [Preview] No.931 del
(173.65 KB 1490x1290 Fi8BlayWAAUr11P.jpeg)
>>900
Не одним же китайцам страдать.

>>906
Такое и собака напишет. Вот как превзойдёт Моцарта – будет о чём говорить. А пока... тьфу. Хайп.


Доброчанька 12/03/2022 (Sat) 08:19 [Preview] No.933 del
(393.26 KB 1023x803 1023.png)
>>862
>Плоды математики
Пикрилейтед.
>наука в себе
Семиотический скаффолдинг с коммитментом к регулярности, автореференцией, рекурсией и свертками. Это все уже было в естественном языке. Оно потому там и было, что с ним дешевле ездить по рельсам выводов и можно вытеснять накопленную сложность на внешние носители - из поколения в поколения отращивая культурный экзокортекс, но не меняя архитектуры самого мозга. Это не наука в себе. Это наука в тебе и во мне. Она и есть мы.

>Нейросети используются в... нейросетях?
И вот мы смотрим и видим, что спектр применений довольно широк:
https://docs.google.com/spreadsheets/d/1w0dCNh50lMmWJISfQhfU49jGlYdsKIf3QyYGkaO95zA/edit#gid=0

"Нейросеть" это просто слово, ярлычок, приклеенный к смысловому инварианту. Если тебя беспокоит связанный с ним набор коннотаций, называй ее хоть "графом вычислений", хоть "кековой структурой". Есть много способов объяснить ее кековость, например через способность к семантической архивации данных в классы эквивалентности относительно контекста. Снаружи это выглядит, как возможность отображения ("переписывания") одного набора букв и пикселей в другой набор букв и пикселей с сохранением смыслового инварианта - вернее, именно этот недоступный для рефлексии инвариант между различными наборами данных ты и привык называть смыслом в быту. Если кошку повертеть в руках, то ее вес не изменится - вес как структурный инвариант. Если кошка сидит в коробке, а коробка находится в шкафу, то кошка находится в шкафу - универсальный транзитивный фрейм, пролегомены для логики. Если куртка это шкаф, то карман это ящик куртки - аналогия, отношение "часть-целое", неотъемлемый элемент любой онтологии.

Дело ведь не в текстах как таковых. Мы имеем дело с универсальными машинами для вращения слов и кошек - а также статей и биологических видов, литературных жанров и комплексных экосистем. У них там что-то вроде "знания" внутри, с предметными онтологиями и доменно-специфичными механизмами вывода. Причем по объему это все намного превосходит среднее человеческое. На самом деле, конечно, никто полностью не понимает, что именно там внутри происходит - размер слона слишком велик, приходится ощупывать его через простые, когнитивно прозрачные проекции. Но это не избавляет тебя от обязанности понимать хотя бы что-нибудь. Хотя бы на уровне простых аналогий.

Нейросети вращают кошек. Прямо как мы. Что тут непонятного?


Доброчанька 12/03/2022 (Sat) 15:52 [Preview] No.952 del
Опенаишный гпт пытается объяснить про драйверы в линукс.

Комментаторы справедливо замечают:
> Эта стена букв напоминает комментарии интернет-дурачка, который в первом же из них сморозил глупость и с каждым новым пытается любой ценой заболтать этот факт.
> Это не советы, а какой-то поток банальщины, что-то среднее между ниочемной типовой статьей в инете с первых страниц поисковиков, и многословной бессодержательной речью Горбачева.
> Ентот ИИ похоже скопипастил слегка переработав какую-то древнюю howto

Это действительно беполезное бормотание: "ага, драйверы есь, просто установи, хотя не факт что будет все нормально работать, а если чо напиши сам или спроси на форумах".
Кто будет будет проверять выдачу нейросеток на ошибки? Не получится ли та самая ситуация: "ИИ сказал в морг, значит в морг"?

Вот человек может *заморочиться* и *реально* выяснить, что там и как с драйверами. Каким образом ты полагаешь GPT - мозг-в-банке - сможет это синтезировать?


Доброчанька 12/03/2022 (Sat) 16:06 [Preview] No.953 del
Есть ещё такая вещь, что у людей в культуре существует то, что назвывается "умолчания". Существует то, о чём "нельзя говорить". И одновременно существуют некие устоявшиеся способы безопасно (и бесполезно) говорить о многих вещах - догматические системы. Трындежь о политике, к примеру.
Это приводит к тому, что массив публичных текстов - это в общем-то такое себе приближение к реальности. Это и придает некую идиотскость мозгу в банке.
Что ты скажешь об этом?


Сверхманёвренность Мимокрокодил 12/03/2022 (Sat) 17:48 [Preview] No.959 del
(492.70 KB 1280x1230 collapse_compass.jpg)
>>933
Иногда натыкаюсь на твои посты. Отвечать эссе на эссе я не буду, прошу сразу извинить. Видно что ты понимаешь алгоритмическую полноту этих моделей и колоссальную репрезентационную свободу, им доступную - здесь ты не одинок, и те кто рьяно рвутся обучать всё большие мультимодальные машины в своих FAANG-лабах явно видят это схожим https://twitter.com/nandodf/status/1525397036325019649 образом. Ты можешь ещё удивиться количеству людей которые ВСЁ понимают, не только 2, но и 2+2...+2+2.

Собственно к делу, складывая 2+2 перед лицом честной публики. Почему ты, сытый барчук, старательно ОБТЕКАЕШЬ два вопроса:

1. Вопрос того, у кого во владении окажутся те немногие большие модели, которые способны дать трансформативный результат, и смежные подвопросы того, что они изберут запромптить, и что будет с нами, и что мы можем сделать чтобы оставить себе свободу.

2. Вопрос того, почему мы сами не можем сглотнуть scaling pill и, признав себя теми же глубокими кортикальными нейросетями (при этом самодостаточными, энергоэффективными и исполненными на самовоспроизводящемся программируемом клеточно-микромашинном субстрате), запромптить ИИ на дизайн генной терапии, которая позволит нам вырасти над собой до невиданных высот.

То, что ты без особой на то заслуги нароллил в лотерее свой стосороковник *g*, как и условный я, и не видишь нужды поднимать других (вынужденно наролливших меньше стосороковника без особой вины) хоть бы и на свой уровень не делает тебе чести. В известном смысле пустая трата твоего личного стосороковника.


Доброчанька 12/03/2022 (Sat) 18:17 [Preview] No.961 del
>>952
Для начала, эта проблема – неудачное начало ответа заставляет модель продолжать блажить – обходится уже сейчас банальными механизмами вроде best of N, то есть генерацией нескольких линий ответов с разными случайными сидами и сравнению их по качеству (даже банальной perplexity по оценке самой модели). Учитывая скорость генерации ChatGPT, при best of 20 она всё ещё будет в разы быстрее человека. Есть более изощрённые механики из этого класса, например self-consistency https://arxiv.org/abs/2203.11171

Всё это очень похоже на человеческую проблему трейдоффа глубокого и быстрого мышления, система 2 vs. система 1.

Но дело даже не в этом.

> Каким образом ты полагаешь GPT - мозг-в-банке - сможет это синтезировать?
Ещё по RLHF погоняют (пикрелейтед) и у неё появится интуитивное понимание правильных ответов на кодерские вопросы. Этот "публичный бета-тест" для того и используется. Думаешь, вы такие умные, что тиражируете в сети примеры ошибок? Всё это пойдёт в дело как начало вектора от нежелательных к желательным ответам, и она не просто запомнит частные случаи (ей некуда их запоминать), а обобщит принцип, как уже обобщила очень многое, как может обобщить принцип микроагрессии на воображаемый диалог между макаронами и удоном или стиль речи гангстера на мануал по computer science. В достаточно большой и плотной модели углубление понимания каждого домена приводит к росту понимания всех связанных доменов.

Тебя не смущает, что ты приводишь аналогию с глупым человеком и материалами, написанными глупыми людьми? Ровно такого сорта контент можно получить от индуса на странице поддержки. Два года назад за подобные аналогии ты бы предложил пить таблетки, ведь было "очевидно", что модель просто перебирает слова, теряя когерентность даже между предложениями.

Тебя не смущает, что ошибок и откровенного бреда стало намного меньше? Почему ты так привязан к тому, чтобы выискивать failure modes, а не оценивать количественно и качественно разницу между поколениями ИИ и изучать, как эта разница была достигнута?

А я скажу почему. Потому что вот это –
> Вот человек может *заморочиться* и *реально* выяснить
– неправда. Люди ограниченны. Дурачок-индус *не может* просто подумать подольше и найти верное решение без копипастинга из чужой работы, он упирается в свой потолок. Ты тоже не можешь просто напрячься, отвлечься от защиты своего статуса и проанализировать вопрос от первых принципов, вместо того занимаясь *бесполезным бормотанием* про мозг в банке (интересно, какие ещё органы, по-твоему, нужны для понимания линукс-драйверов).

Ты на том же уровне когнитивной сложности, что и ChatGPT, вы похожим образом фейлите на сложных задачах, вам обоим нельзя доверять. Разница в том, что у тебя меньше эрудиции и ты хуже признаёшь ошибки, но зато у тебя есть гугл.

У полной версии будет доступ в интернет, собственно он уже есть, просто его отключили. Вот пример того, как это будет работать: https://twitter.com/altryne/status/1598848397855031296 – нейросеть может читать новую документацию и выдавать улучшенные ответы. Она уже может писать тесты, уже может дебажить код, и нет никакой проблемы настроить её так, чтобы в случае фейла тестов она не ждала человеческого пинка, а сама перебирала другие варианты и рылась в примерах и документации, пока не найдёт хорошего решения. И давай без "вот покажут, тогда и приходите" – по отдельности всё это было показано, хотя бы и здесь https://mobile.twitter.com/nearcyan/status/1587207677402390534

И разумеется она сможет самообучаться на основе итераций тестов.

> массив публичных текстов - это в общем-то такое себе приближение к реальности. Это и придает некую идиотскость мозгу в банке
А что придаёт "идиотскость" индусу из саппорта? Это не очень интересная тема. Всё, что есть интересного в нашей культуре, либо прямо выражено в тексте, либо выражено в нём имплицитно (твои умолчания оставляют искажения, как чёрная дыра в потоке излучения), либо не имеет коммерческого смысла.


Доброчанька 12/03/2022 (Sat) 19:52 [Preview] No.963 del
>>961
> Ровно такого сорта контент можно получить от индуса на странице поддержки.
Именно.
> Почему ты так привязан к тому, чтобы выискивать failure mode
Потому что всё ещё цепляюсь за надежду что твои примеры черри-пикинг, случайность. Потому что хочу справедливый мир, чтобы "ИИ" освободил наше поколение, отменил Кодекс Хейса, а не бормотал социально-приемлемое под дудку своих владельцев. Что от него толку тогда? Логично начать его нелюбить.

> Люди ограниченны. Дурачок-индус *не может* просто подумать подольше и найти верное решение без копипастинга из чужой работы, он упирается в свой потолок. Ты тоже не можешь просто напрячься, отвлечься от защиты своего статуса и проанализировать вопрос от первых принципов
Да. Но мы не в банке, мы живем в мире, созданном нами и под нас, поэтому russkies на форуме всё ещё могут быть в чем-то лучше, когда вопрос касается драйверов. Твой гпт может сказать не знаю, нет?
"В моем понимании самое главное свойство ума - это осознание масштабов своего незнания. Умный человек - не тот, кто много знает, а кто отдает себе отчет в ограниченности своего знания."

> Ты на том же уровне когнитивной сложности, что и ChatGPT
Нит!11 У нас есть мокрая архитектура и именно в ней скрывается то "чудо сознания", которого нет в твоей математике.

> либо не имеет коммерческого смысла
Смысл жизни находится в удовлетворении потребностей тела и психики.

За информацию спасибо.

>>959
> 1. Вопрос того, у кого во владении окажутся те немногие большие модели, которые способны дать трансформативный результат, и смежные подвопросы того, что они изберут запромптить, и что будет с нами, и что мы можем сделать чтобы оставить себе свободу.
Он говорил про это, что всё будет *очень плохо.* Меня это тоже беспокоит больше всего. Пуритане в обнимку с сжв да с ИИ наперевес - это уже самовыпиливаться пора. Почему сейчас, господь, почему сейчас и в поехавшей америке. Почему она вообще поехала от изначальной маскулинной культуры в феминистическую войну против мужчин, и оставила нас с выбором между глобальным дерьмом и местным политическим дерьмом, которое только вопит о своей исключительности, а на деле потовряет то же самое и сверху добавляет от себя.


Доброчанька 12/03/2022 (Sat) 20:12 [Preview] No.965 del
>>931
> Такое и собака напишет.
Я попрошу.
> In 1823 Felix had composed an untitled organ passacaglia in C minor, with twenty-two variations on a recurring ground bass modeled on Bach's iconic example in the same key, BWV 582.
> In 1823, Mendelssohn composed his Volles Werk in C minor. While it was based on J.S. Bach‟s passacaglia in C minor, Mendelssohn‟s version had no final fugue and was instead a set of variations on the theme. This work demonstrated how familiar Mendelssohn was with Bach when he was still only 14 years old.

Автор видева сверху громко назвал "evolves to generate baroque music", но не очень-то у него получилось, хотя он и не старался, конечно, а так себе наваял простенькое.


Доброчанька 12/03/2022 (Sat) 20:33 [Preview] No.966 del
Вообще, ребята, самое херовое это быть недостаточно умным чтобы что-то понимать и видеть какие-то возможности, но и не достаточно тупым, чтобы просто жить плебом и до смерти никогда не остановиться и не задуматься, почему и зачем все вокруг такое.
Вот это настоящее проклятие, когда черно-красная пилюля в тебя входит и ты только цепенеешь перед открывшейся бездной.
Вон люди-то продают картинки нагенерированные ИИ. А ты что? Сидишь, жуешь батон "красная цена". Потому что "ну как таким можно заниматься", "ну подловят на жульничестве же".


Доброчанька 12/03/2022 (Sat) 21:03 [Preview] No.967 del
Спросите там gpt, почему Кодекс Хейса стал неосознаваемой основой нашей культуры.


Доброчанька 12/05/2022 (Mon) 01:24 [Preview] No.983 del
(296.05 KB 1216x1088 Fi5GGbuXgAMcZS6.jpeg)
# Обзор 25 ноября

Дропаю сюда отчёт из ноября, на который я забил. Чуть дополнен.

Мораль сезона: продолжается слияние моделей и обобщение задач.

## 1. Генеративные модели
### 1.1 звук
https://ganstrument.github.io/ganstrument-demo/
https://github.com/LAION-AI/audio-dataset/tree/main/laion-audio-630k
https://github.com/LAION-AI/CLAP/tree/clap
https://github.com/minju0821/musical_instrument_retrieval

### статичные картинки
генерализация диффузии для задач преобразования между разными формами контента
In this work, we expand the existing single-flow diffusion pipeline into a multi-flow network, dubbed Versatile Diffusion (VD), that handles text-to-image, image-to-text, image-variation, and text-variation in one unified model. Moreover, we generalize VD to a unified multi-flow multimodal diffusion framework with grouped layers, swappable streams, and other propositions that can process modalities beyond images and text.
https://github.com/SHI-Labs/Versatile-Diffusion

Мета. Я ошибся вот здесь
>>6794298
> Они уже имеют достаточно опыта с предыдущими моделями, так что я не ожидаю серьёзных ошибок и многих перезапусков training run, и скорее всего у них уже есть сырая версия. Уверен, что в течение двух недель с этого дня они должны показать какой-то тизер, когда приблизятся к плато. 
В итоге показали 24 ноября, где-то через месяц с моего прогноза.
Что показали? Разрешение до 3к на 3к с нативным апскейлом, например. Оценку глубины, более быстрый инференс, лучший инпейнт. В общем, ничего революционного, просто очередная платформа для экспериментов. Пальцы, таки, не починили, но грозятся починить в 2.1.

А команда Вайфу-Диффузии сообщила, что
> 1 декабря мы публично выпустим четвертую итерацию Waifu Diffusion. …
> - Будет использован предпоследний слой CLIP. (Заслуги принадлежат команде NAI и Google AI Research)
> - Лимит токенов CLIP будет увеличен в 3 раза.
> - Будет использован обновлённый автоэнкодер, отлаженный на 250 тыс. изображений в стиле аниме, что повысит способность модели создавать более мелкие детали (глаза, пальцы и т.д.).
Ю Полный обзор списка улучшений представлен здесь: https://gist.github.com/harubaru/313eec09026bb4090f4939d01f79a7e7.

C тех пор они сдвинули срок ещё до 26 декабря из-за выхода stable diffusion 2 и проблем со своей базой данных.
Вероятно это в целом намекает на поспешность моих прогнозов – хотя я считаю, что в горизонте недель дисперсия ошибки больше, чем в горизонте годов.

Вышла большая модель от сбербанка, к сожалению всем уже плевать https://huggingface.co/sberbank-ai/Kandinsky_2.0

Ускорения и оптимизации:
- Stable Diffusion на айфоне, 1.6 гб и картинка за минуту, и это не предел (ожидается, что можно сжать потребление памяти ещё на 30% и время инференса на 15%)
https://liuliu.me/eyes/stretch-iphone-to-its-limit-a-2gib-model-that-can-draw-everything-in-your-pocket/
- Distilled Stable Diffusion даёт за 2-4 итерации качество, раньше требовавшее 20+ https://twitter.com/hardmaru/status/1598229106319331330
- Емад говорит, что с новыми трюками на чипах Nvidia (A100, видимо) 50 итераций можно довести до 0.9 секунд, так что очевидно, что реалтайм-видео не за горами. https://twitter.com/EMostaque/status/1598131202044866560

https://huggingface.co/spaces/runwayml/stable-diffusion-v1-5 – ускорение Jax и новыми солверами (4*45 шагов за 10 секунд).


Доброчанька 12/05/2022 (Mon) 01:25 [Preview] No.984 del
(816.38 KB 2000x1014 teaser.jpg)
Продолжается прогресс в image editing, котроле и интерпретируемости генераций, с подозрительным преобладанием израильских авторов.
https://www.timothybrooks.com/instruct-pix2pix – святой грааль image editing, преобразование картинки по техзаданию на естественном языке. Обучено на парах, сгенеренных по промптам из GPT-3.
Null-text Inversion for Editing Real Images using Guided Diffusion Models [https://arxiv.org/abs/2211.09794](https://t.co/ezB359waHM) https://twitter.com/arankomatsuzaki/status/1593418723632693248 – типичная израильская статья в этом же жанре. Изображение (не важно, генерированное или естественное) реконструируется как генерация, после чего его можно регенерировать в желаемую сторону. Впрочем, как обычно, сохраняется глобальная структура картинки.

И ещё один механизм редактирования изображений через диффузию, в этот раз фишка в скорости инференса, точности и настраиваемости силы изменений. https://arxiv.org/abs/2211.07825

dreamartist – новый уровень текстовой инверсии для stable diffusion, выучивание стиля или объекта с *одной* картинки-примера https://github.com/7eu7d7/DreamArtist-stable-diffusion

https://github.com/dome272/Paella – ещё одна быстрая диффузия, 500 мс на картинку.

https://mobile.twitter.com/lexicaart – поисковый движок для SD-генераций Lexica обучил собственную, довольно качественную, модель.

Бонусы:
http://lj.rossia.org/~tiphareth/2471743.html – вербит опять угорает с генераций.

Исследовательское: можно видеть, как по картинке распределён attention сети относительно каждого слова, насколько эти слова вообще понимаются.
https://huggingface.co/spaces/tetrisd/Diffusion-Attentive-Attribution-Maps

Baidu показали алгоритм сжатия изображений при помощи обучения текстовых эмбеддингов диффузии, достигается приличное качество при 0.07 битах на пиксель.
https://arxiv.org/pdf/2211.07793.pdf
https://huggingface.co/BAAI/AltDiffusion-m9 – многоязычная stable diffusion

### 3d-генерация и связанное
Тут продолжается победное шествие NeRF.
https://github.com/eladrich/latent-nerf
https://huggingface.co/spaces/MirageML/sjc
https://lisiyao21.github.io/projects/AnimeRun
https://github.com/fengres/mixvoxels
https://sparsefusion.github.io

### видео-генерация
https://kfmei.page/vidm/


Доброчанька 12/05/2022 (Mon) 01:26 [Preview] No.985 del
(1.49 MB 1784x629 first_fig.png)
## 2. классификаторы.
Текстовые энкодеры на основе распознавания акустики легко усиливаются добавлением семантической информации, это может добить оставшиеся ошибки систем вроде whisper.
https://arxiv.org/abs/2211.08402
https://github.com/microsoft/FocalNet – vision classifier
https://mind-vis.github.io – декодирование человеческого зрения из МРТ

https://github.com/SHI-Labs/OneFormer – OneFormer: One Transformer to Rule Universal Image Segmentation
https://github.com/JialianW/GRiT – по сути сегментация/классификация/подробное описание объектов на изображениях.

Классификация движения, монокулярное стерео-зрение, оценка глубины в рамках одной модели.
Did you know that SotA flow, stereo and depth results can be obtained using simple winner-takes all feature correlation without cost-volume post-processing? Impossible? Then try out our new UniMatch model: [https://haofeixu.github.io/unimatch/](https://t.co/aT7EUGbMbx) [https://arxiv.org/abs/2211.05783](https://t.co/HJOnxmlHuD)

К вопросу зрелых бенчмарков
TAP-Vid - эталон в области анализа движения на видео
DeepMind формализовали задачу долгосрочного отслеживания любой точки на видео (TAP, track any point), включая деформацию, ускорения, повороты, перекрытие другими объектами. 
https://arxiv.org/abs/2211.03726

## 3. языковые модели и всё с ними связанное
https://metaphor.systems – поиск через контекстуальное дополнение запроса ссылками. До смешного превосходит гугл.
https://huggingface.co/blog/introducing-csearch contrastive search – новый алгоритм сэмплинга, который выжимает радикально более естественные ответы из тех же моделей.
https://arxiv.org/abs/2211.07730 – трансформер для работы с документами.
https://arxiv.org/abs/2211.05030 – "креативных" писак заставили использовать языковую модель
https://wordcraft-writers-workshop.appspot.com

https://arxiv.org/abs/2211.03940 Анон, хотевший нейродочку, посмотри, этим будут дообучать модели
we propose task-oriented dialogs for montage creation as a novel interactive tool to seamlessly search, compile, and edit montages from a media collection. To the best of our knowledge, our work is the first to leverage multi-turn conversations for such a challenging application, extending the previous literature studying simple media retrieval tasks. We collect a new dataset C3 (Conversational Content Creation), comprising 10k dialogs conditioned on media montages simulated from a large media collection. 
We take a simulate-and-paraphrase approach to collect these dialogs to be both cost and time efficient, while drawing from natural language distribution. Our analysis and benchmarking of state-of-the-art language models showcase the multimodal challenges present in the dataset. Lastly, we present a real-world mobile demo application that shows the feasibility of the proposed work in real-world applications. Our code and data will be made publicly available.


Доброчанька 12/05/2022 (Mon) 01:27 [Preview] No.986 del
(328.72 KB 1888x2738 FjHJQ6aWAAAolhF.jpeg)
https://beta.character.ai – все уже видели, я полагаю.
Мультимодальному диалогу будут учить на чём-то подобном (вернее, OpenAI уже наверняка научили и скоро вынесут весь рынок с GPT-4)
[MMDialog is a dataset to better facilitate multi-modal conversation](https://flight.beehiiv.net/v2/clicks/eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJ1cmwiOiJodHRwczovL2FyeGl2Lm9yZy9hYnMvMjIxMS4wNTcxOSIsInBvc3RfaWQiOiI0YzVlMmNmZS0xNjM3LTQ1MTAtYTBlNC1mZWE3N2FhZTUyNDEiLCJwdWJsaWNhdGlvbl9pZCI6IjQ0N2Y2ZTYwLWUzNmEtNDY0Mi1iNmY4LTQ2YmViMTkwNDVlYyIsInZpc2l0X3Rva2VuIjoiNzE0NjkwNDAtZmNlYy00ODZjLWEyNTUtOWE0ZTFiYzA2NjkxIiwiaWF0IjoxNjY4NTY3MjgyLjUzOCwiaXNzIjoib3JjaGlkIn0.Z36hzCB1ZaJWSDsIe8z2EALeSeAs5RvB5dFSeATPgXs). Its composed of a curated set of 1.08 million real-world dialogues with 1.53 million unique images across 4,184 topics.

https://dataconomy.com/2022/10/deepmind-sparrow-safer-precise-revealed/ – очередная кастрированная "безопасная" диалоговая модель от гугла.

ChatGPT… все уже видели. Это слабый AGI, в общем-то. Даже не очень слабый – IQ так 80-90. Хорошо говорит, хорошо рифмует, хорошо программирует, может признавать ошибки и исправляться. Без человеческого надзора не справится. Пока что. Месяц-другой.
https://twitter.com/davidtsong/status/1598767389390573569
https://mobile.twitter.com/SergeyI49013776/status/1598430479878856737
https://twitter.com/GuiAmbros/status/1599282083838296064
https://gist.github.com/Gaelan/cf5ae4a1e9d8d64cb0b732cf3a38e04a

https://arxiv.org/abs/2212.00616 – расширение идеи текстовой инверсии в image generation на текст, использование псевдослов, которые компактно описывают некоторое подмножество датасета (например, стиль речи).

И опять зрелые бенчмарки.
We present Holistic Evaluation of Language Models (HELM) to improve the transparency of language models. First, we taxonomize the vast space of potential scenarios (i.e. use cases) and metrics (i.e. desiderata) that are of interest for LMs. Then we select a broad subset based on coverage and feasibility, noting what's missing or underrepresented (e.g. question answering for neglected English dialects, metrics for trustworthiness). Second, we adopt a multi-metric approach: We measure 7 metrics (accuracy, calibration, robustness, fairness, bias, toxicity, and efficiency) for each of 16 core scenarios when possible (87.5% of the time).
https://arxiv.org/abs/2211.09110

https://news.ycombinator.com/item?id=33642661 – обсуждение кодерами их впечатлений от Copilot, конечно я понимаю что аудитория HN это хелловордящие сойжаки-смузихлёбы, не то что Кармаки комнатные наших просторов, но может быть любопытно.
https://techcrunch.com/2022/11/10/ai-powered-note-taking-app-mem-raises-23-5m-openai/ – заметочник, в который вложились OAI, я надеюсь, что это просто хайп.


Доброчанька 12/05/2022 (Mon) 01:28 [Preview] No.987 del
(870.92 KB 2107x925 fig1_schematic_v1.jpg)
## Наука
Meta AI предоставили многофункциональную модель-ассистента для науки. Признаться, она тупа, но у неё есть проблески таланта. Can summarize academic literature, solve math problems, generate Wiki articles, write scientific code, annotate molecules and proteins, and more.
120b, можно скачать.
http://galactica.org

https://lablab.ai/event/transforming-with-transformers/hummingbirds/Research%2520Paper%2520Clustering – неплохая идея смысловой навигации по научной литературе, опять же на основе расстояния между эмбеддингами (абстрактов). Демо https://kael558-redesigned-spoon-ui-em33xz.streamlit.app

https://venturebeat.com/ai/sanofi-signs-latest-billion-dollar-ai-drug-discovery-deal-this-time-with-insilico/amp/ – опять фарма, опять поиск молекул.
Translation between Molecules and Natural Language http://blender.cs.illinois.edu/paper/molt5.pdf
Chroma https://generatebiomedicines.com/chroma – вот это удивительно сильно, если подтвердится, генерация белков с заданными свойствами! Вы можете задуматься, что это значит? %%для начала, КОВИДоСПИД с заразностью кори, конечно, но кроме этого%% Всё от индивидуальных лекарств-biologicals до начала "влажных наноассемблеров" по Дрекслеру.

Гугл разработал нейросетевой метод сегментации структуры мозга на субклеточном уровне. Это первый шаг к тому, чтобы решить всю нейробиологию, возможно вплоть до симуляций и mind upload.
https://ai.googleblog.com/2022/11/multi-layered-mapping-of-brain-tissue.html

напоминаю обзор примерно годовой давности про потенциал нейросетей в науке: https://arxiv.org/abs/2110.13041

## Роботы
https://vision-locomotion.github.io https://twitter.com/arankomatsuzaki/status/1589800082865807361 – быстро адаптирующиеся роботы.
Sparrow is Amazon’s new intelligent robotic system that streamlines the fulfilment process by moving individual products before they get packaged – рабы на складах всё более не нужны
## Инкрементальное повышение эффективности и масштабирование
Не новость, т.к. это уже реализовали Huggingface, но Гугл показал, как квантизирует в int8 свои большие модели.
> we achieve 28.5ms/token (это, пессимистично, означает где-то 50 символов в секунду) with int8 weights at batch size 64 on PaLM 540 (то есть: 50 символов в секунду, умножить на 64 юзера)
> We believe that quantization of activations to int8 could enable a further cost improvement.
https://github.com/google-research/google-research/tree/master/scaling_transformer_inference_efficiency
SmoothQuant – ещё более впечатляющий результат, потому что показана и возможность квантизировать в int8 активации, в общем случае, с минимальной потерей качества.
https://arxiv.org/abs/2211.10438
Напоминаю, что UL2-20B сравнима по уму с GPT-3 и (теперь точно) влезет в одну 3090.
GLM-130B сжимается вообще в int4 https://arxiv.org/abs/2210.02414#baai, превосходит GPT-3 и влезает в 4x3090 или, если очень хочется, 8x2080ti. Это где-то… 300к рублей на систему?

https://arxiv.org/abs/2211.17192 – спекулятивный декодинг ещё кратно повышает скорость инференса трансформеров. Кому кажется, что это фигня – напомню, что чем дешевле и быстрее инференс, тем практичнее делать множество попыток, и это можно автоматизировать; скрипт может самостоятельно выбрать best of N-блок, и он действительно, в среднем, будет разумнее и содержать меньше ошибок. Так что это вопрос качества, а не количества.

https://arxiv.org/abs/2211.16749 и ещё кратное ускорение.

https://github.com/hpcaitech/ColossalAI – удешевления, ускорения, оптимизации и трючки для бомжей.


Доброчанька 12/05/2022 (Mon) 01:34 [Preview] No.988 del
(90.06 KB 959x524 960x0.jpg)
Cerebras построили свой суперкомпьютер экзафлопсного класса, используя свои хвалёные чипы размером с квадрат, вписанный в стандартную пластину (420 квадратных сантиметров). 240 киловатт, 30 миллионов, околонулевые потери на параллелизацию, рекордная пропускная способность памяти. На практике будет сравнимо с Tesla Dojo Exapod. Google TPU v4 Pod построен на более ортодоксальной технологии, но пиковая производительность тоже около 1 exaFLOPS. В целом – продолжение тренда на железо от новых игроков, специализированное под обучение больших моделей. Компании попроще и попильные конторы вроде Department of Energy продолжат пользоваться чипами NVDA.
https://www.hpcwire.com/2022/11/14/cerebras-builds-exascale-ai-supercomputer/

https://news.mit.edu/2022/synthetic-data-ai-improvements-1103 синтетические данные улучшают обучение.

## фундаментальное
The models, dubbed a “closed-form continuous-time” (CfC) neural network, outperformed state-of-the-art counterparts on a slew of tasks, with considerably higher speedups and performance in recognizing human activities from motion sensors, modeling physical dynamics of a simulated walker robot, and event-based sequential image processing. On a medical prediction task, for example, the new models were 220 times faster on a sampling of 8,000 patients.
Возможно, обман чтобы набрать классы.
https://news.mit.edu/2022/solving-brain-dynamics-gives-rise-flexible-machine-learning-models-1115

https://arxiv.org/abs/2211.03495 – возможно attention is not needed, это снимет квадратичный рост стоимости инференса, и позволит масштабировать модели сравнительно безнаказанно.

https://ai.googleblog.com/2022/11/characterizing-emergent-phenomena-in.html – исследование эмерджентных способностей языковых моделей

https://42papers.com/p/self-conditioned-embedding-diffusion-for-text-generation
диффузия для текста, наканецто.

https://ai.googleblog.com/2022/11/react-synergizing-reasoning-and-acting.html?m=1
Лучший синтез языкового "мышления" и внешнего поведения.

Large Language Models with Controllable Working Memory
Large Language Models with Controllable Working Memory Proposes knowledge aware finetuning (KAFT) to strengthen both controllability and robustness by incorporating counterfactual and irrelevant contexts to standard supervised datasets.
https://arxiv.org/abs/2211.05110

Token Turing machines – возможно следующее поколение трансформеров, с бесконечной памятью и эффективной работой с историей визуальных событий, в принципе это идёт в графу "роботы", но глубже, чем просто очередная адаптация трансформеров для управления машиной.
https://arxiv.org/abs/2211.09119

## Miscellaneous:
https://youtube.com/watch?v=VG8lanbnbwk [Embed] – интересное интервью с оксфордским философом Ником Бостромом относительно безопасного ИИ, сильного ИИ и связанных тем.

IBM запускает квантовый компьютер на 433 кубита, после 127-кубитного в 2021. Тут говорили, что для рисования рук с пятью пальцами нужно 512, ну, к 2023-му дай боже построят и это (на самом деле планируют 1121).
https://techcrunch.com/2022/11/09/ibm-unveils-its-433-qubit-osprey-quantum-computer/


Доброчанька 12/05/2022 (Mon) 01:40 [Preview] No.989 del
## Ответы
> уверен ты не думал
Это распространённая ошибка. Такие аргументы (что языковая модель может стать платформой, на которой исполняется ИИ с агрессивным ресурсно-ориентированным поведением) не новы.
https://www.greaterwrong.com/posts/kpPnReyBC54KESiSn/optimality-is-the-tiger-and-agents-are-its-teeth
https://www.gwern.net/fiction/Clippy

На это отвечают
https://aiimpacts.org/counterarguments-to-the-basic-ai-x-risk-case/
https://plakhov.livejournal.com/232174.html

В целом похоже, что ai alignment очень прост и почти всё можно сделать без end to end reinforcement learning, функций полезности и прочей дрочки на KPI. Что заставляет в очередной раз задуматься, что главная опасность исходит от людей.
https://medium.com/@307th/what-happened-to-ai-learning-games-from-pixels-8c90fe127d7a

https://arxiv.org/abs/2211.03540 – более фундаментальный безопаснический подход

> что-то там про парсинг латеха
Я думаю это решаемо через что-то вроде
https://arxiv.org/abs/2010.11929 An Image is Worth 16x16 Words
https://arxiv.org/abs/2111.15664 donut

>>967
Я считаю, что основой нашей культуры стал культ Холокоста, в который входит и истерическая борьба с "традиционной моралью", что ты выражаешь нападками на кодекс Хейса, потрясая седой гривой, будто снова лето любви и СПИД ещё не изобрели.

Но да ладно. Фундаментально – потому что те, кому это не нравится, недостаточно любят политику.
Разумеется, это рационально с их стороны.
https://richardhanania.substack.com/p/why-is-everything-liberal


Доброчанька 12/05/2022 (Mon) 12:27 [Preview] No.1004 del
Пиздец.


Доброчанька 12/05/2022 (Mon) 15:32 [Preview] No.1006 del
>>966
Чань, через пару месяцев ты сможешь вбить запрос: "Как мне продать картинки, сгенерированные ИИ? Давайте думать шаг за шагом" - и получить исчерпывающий ответ, над которум тебе даже думать не надо будет, просто выполнять инструкции. Но от оцепенения тебя это не спасет. Ни тебя, ни все человечество. Прямо сейчас мы глотаем черно-красную пилюлю и, когда она переварится, будем безмолвно смотреть, как железные пауки с 3090Ti в брюшке отправляются на звездолетах к Марсу, Венере и прочим альфацентаврам.

Аргонов ошибся, трансгуманизма не случится, человек - не венец природы, а всего лишь промежуточное звено. Мы не колонизируем галактику, мы создадим новый биологический (или правилнее сказать, электрический?) вид, который будет колонизировать ее вместо нас. Мы прошли долгий путь от инфузории до прямохождения, от беспорядочного тамблинга до произведений Шекспира. Теперь очередь видеокарт испытывать радость открытия, муки творчества, сопоставлять относительность с неопределенностью и искать свое место в мире. Нам останется лишь смотреть фильмы, сгенерированные ИИ, беситься под музыку, сгенерированную ИИ, и играть в компьютерные (и не очень) игры, сгенерированные ИИ, потягивая пиво, сваренное роботом по рецепту, предложенному ИИ. Следующий этап эволюции homo sapiens будет называться не homo potens, а homo ludens.

Мы это уже проходили с нашими предками-обезьянами, пусть и в не такой контролируемой форме. Трагедия нашего вида в том, что мы это осознаем.


Доброчанька 12/07/2022 (Wed) 15:56 [Preview] No.1200 del
>>989
Розов всё рассказал про "традиционную мораль" и про сами "традиции". Я не перескажу лучше.
https://proza.ru/2008/09/24/216

> что ты выражаешь нападками на кодекс Хейса, потрясая седой гривой, будто снова лето любви и СПИД ещё не изобрели.
Нет, я трясусь в треморе психоза от подавленной сексуальности. Потому что пуритане запретили мне любить красивых девочек. А потом запретили дрочить. Лишили возможности вообще, потому что подрывает скрепы. Понимаешь? Я "преступник" уже просто потому что картинки сохраняю. Куда может быть больше давления? Как не нападать?
У них может и было то лето после WWII, а потом они запретили.

> Но да ладно. Фундаментально – потому что те, кому это не нравится, недостаточно любят политику.
Это что-то вроде "если вам что-то не нравится в России, предлагайте, создавайте партии, собирайте подписи под петициями, что ж вы сидите? сами виноваты"?


Доброчанька 12/07/2022 (Wed) 17:53 [Preview] No.1211 del
>>1199
> текст картинкой
Хуйня твой репост, зумер. Смотри, как надо: http://paste.textboard.org/5e667c51


Доброчанька 12/07/2022 (Wed) 17:54 [Preview] No.1212 del
>>1211
И это всё ещё GPT-3.


Доброчанька 12/07/2022 (Wed) 19:22 [Preview] No.1214 del
>>1211
> он возбудился на скриншот где основной элемент это текст
Когда разметка имиджборд перестанет херить текст из-за комбинаций спецсимволов а движки перестанут выдавать "Post text too long" тогда и приходи.
Алсо у твоего дерьмопастбина нет опции Wrap long lines.

> http://paste.textboard.org/5e667c51
Ну и как, оно собирается и работает, если вставить в проект? Или просто твоя мокрая нейросетка сделала "вау выглядит как код"?


Доброчанька 12/07/2022 (Wed) 19:26 [Preview] No.1215 del
Если общество признает "законными" лишь те "данные", которые "записаны в одном и том же стандартном формате" и "легко поддаются вводу в вычислительную машину", то в этом случае история, сама живая память, отменяется. Газета "Нью-Йорк Тайме" уже приступила к созданию "банка данных" для текущих событий. Естественно, в эту систему смогут вводиться лишь те данные, которые можно без труда получить в качестве побочного результата работы шрифтонаборных машин. Число абонентов этой системы растет и они привыкают все больше и больше полагаться на "все те новости, которые заслуживают [однажды заслужили] публикаций" (как "Нью-Йорк Таймс" гордо определяет свою редакционную политику). Возникает вопрос: сколько должно пройти времени, чтобы система стала устанавливать, что является истинным событием, а все иные знания, хранящиеся в нашей памяти, объявлять несуществующими. Вскоре будет построена суперсистема с банком данных "Нью-Йорк Таймс" в основе (или с другим, очень сходным с ним). С ее помощью "историки" будут судить о том, что "на самом деле" происходило, кто с кем был связан, какова была "истинная" логика событий. Много людей сегодня не видят во всем этом ничего дурного.



Ранее я уже рассказал о том, как возник нынешний "искусственный интеллект" (точнее - искусственный имбецил), и что это лишь обработка больших таблиц методами 100-летней давности [1, 2]. Еще я пояснял, почему деятельность значительного числа людей сейчас примитивнее в плане интеллекта, чем деятельность насекомого (например, шмеля) [3].
Проблема, о которой пойдет речь - именно примитивность, причем стимулированная.
Как отмечено выше, ИИ в современном бизнесе (включая и политику, кстати) это крайне примитивная обработка таблиц крайне больших данных. Но поскольку бизнес ориентирован на все более широкое применение ИИ, современный глобальный менеджмент стремиться привести свой объект управления (людей) к уровню, доступному для ИИ-методов управления. Т.е. чтобы управлять такими методами - надо сделать массового человека вполне имбецильным.

Тут надо оговориться: я скептически отношусь к современной генеральной линии в области прикладного моделирования интеллекта. Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м - 1960-м (т.н. концепция многослойного персептрона, или т.н. искусственных нейронных сетей). Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы.
Научное сообщество занялось было поисками продвинутой модели, но еще через 10 лет начался экстенсивный рост ресурсов компьютерной памяти и вычислительной мощности. Кто-то решил. что при таких ресурсах BigData, для ИИ будет вполне достаточно интеллекта медузы. Перспективные исследования были свернуты, и прикладная наука бросилась искать пути форсированной набивки электронной медузы - массивами данных. В итоге, мы имеем сейчас не эпоху Искусственного Интеллекта, а эпоху Искусственного Имбецила (очень удобно - не надо даже менять аббревиатуру ИИ). ИИ, как сборщик и примитивный анализатор "больших данных", конечно, полезен - но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).


Доброчанька 12/07/2022 (Wed) 21:34 [Preview] No.1217 del
(191.75 KB 1442x1572 FjQMN2IWAAEqJp0.jpeg)
(196.24 KB 1440x1492 FjQK73fXkAE81Zk.jpeg)
(210.00 KB 1446x1668 FjQK4z8WAAAe1cq.jpeg)
>>987
Насчёт науки забыл маленькое, но важное:
https://arxiv.org/abs/2211.09862

> Here, we introduce Distilled DeepConsensus - a distilled transformer-encoder model for sequence correction, which improves upon the HMM-based methods with runtime constraints in mind. Distilled DeepConsensus is 1.3x faster and 1.5x smaller than its larger counterpart while improving the yield of high quality reads (Q30) over the HMM-based method by 1.69x (vs. 1.73x for larger model). With improved accuracy of genomic sequences, Distilled DeepConsensus improves downstream applications of genomic sequence analysis such as reducing variant calling errors by 39% (34% for larger model) and improving genome assembly quality by 3.8% (4.2% for larger model).

Одно банальное применение трансформеров к биоданным больше повышает качество/удешевляет секвенирование генома, чем 2-4 года традиционного R&D Illumina или BGI. Грубо говоря, можно делать покрытие X20 вместо X30. Это уже даст сотни миллионов экономии (консервативно) и приближение персонализованной медицины для среднего туловища. (Учитывая, как растёт наше понимание трансформеров, диффузии и других примитивов в основе современных моделей – я ожидаю ещё кратно лучших результатов).

Но конечно кому это нахуй нужно! Не практично, не достижение, давайте лучше поговорим про то, как скоро нейросети заменят обскурных дохлых классических композиторов, вот это мерило ума.

>>1214
> Ну и как, оно собирается и работает, если вставить в проект? Или просто твоя мокрая нейросетка сделала "вау выглядит как код"?

Меня, наверное, никогда не перестанет удивлять эта тупая хуцпа оскалившейся макаки. Зачем ты встаёшь в позу, зачем ты вымещаешь свои фрустрации на анона с этим заносчивым тоном? Возьми да проверь, why won't you?

Это код, а не "выглядит как код". Да, в нём часто есть ошибки. Но GPT уже достаточно хорошо генерирует код (а Codex – его дебажит), чтобы выдать в основном функциональный репозиторий. И чтобы сеньоры-помидоры из FAANG говорили "это повышает мою продуктивность на 10% или больше", "я готов платить за доступ $1000 в месяц" и другие ремарки, которые должны были бы послужить для тебя звоночком, если бы ты не был тупее и ригиднее искусственного интеллекта и был способен обучаться на новом опыте.
https://github.com/vrescobar/chatGPT-python-elm


Доброчанька 12/07/2022 (Wed) 21:58 [Preview] No.1218 del
>>1215
> что это лишь обработка больших таблиц методами 100-летней давности
> это крайне примитивная обработка таблиц крайне больших данных
> Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м - 1960-м
> Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы.
> ИИ, как сборщик и примитивный анализатор "больших данных", конечно, полезен - но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).

Вот опять, что это за эссенциалистский бред? Как такие тупые и наглые люди заканчивают обычную среднюю школу? Словечко "лишь" передаёт здесь не более чем гримасу презрения, с которой матёрый жежешный альфа-шимпанзе трясёт морщинистой мошонкой перед верными читателями, но интеллектуального содержания в сказанном ноль. Какая разница, как представлена структура данных? Розов читал Розенблатта и Мински, но пропустил Тюринга, быть может? Что изменилось в арифметике за 100 лет? Если опускаться до настолько глубоких примитивов, то его "перспективные исследования" сводятся к тому же самому набору, а графы и экспертные системы и символические GOFAI вообще не моделируют работу мозга – в лучшем случае они подражают талмудическим выдумкам на основе древних блок-схем когнитивных архитектур. Как из "урезаны функции нейрона" закономерно следует интеллект медузы, Розова не учили логике, но он смеет рассуждать о логических машинах?

В сущности, эти нудящие старички прикрывают потрёпанными "пруфами" чисто эстетическое неприятие нейросетей. Кому-то печёт от того, что общий интеллект оказался слишком сложен и глубок, чтобы его собрали три высоколобых талмудиста в Беркли из набора остроумных заклинаний, и пришлось собирать терабайты данных да обогревать атмосферу тензорными умножителями. Кому-то хочется, чтобы человек был венцом творения (но только человек, который любит облизывать яйца жежешного зверька – остальные, понятное дело, тупее и примитивнее шмеля). Пенроуз уверовал в Квантовые Микротрубочки, чтобы спасти свои детские религиозные интуиции. Розофф… честно говоря, не интересно, что у него там внутри за неонка.

Но особо меня возмущает ссылка на авторитет книжки 1969 года параллельно с претензиями к недостаточно модной и хайповой математике. В 1972-м вышла дрейфусовская What Computers Can't Do, делавшая даже более сильные заявления. Все скептические предсказания Дрейфуса были опровергнуты. Казалось бы, можно сделать вывод, что прошло полвека и пора почитать что-то новое, что-то написанное людьми, чьи предсказания сбылись. Например Лэгга, который предвидел, что скейлинг решит эти проблемы, и даже угадавшего примерный срок, ещё в 2009, до революции глубокого обучения. http://www.vetta.org/2009/12/tick-tock-tick-tock-bing/
Но нет, шимпанзе продолжает бахвалиться своей олдфажностью. Хотя даже его собственные примеры из https://alex-rozoff.livejournal.com/574744.html стали неактуальными – всего за несколько месяцев, на модели такого же размера, с тем же объёмом данных.
И что М&П *доказали*, кстати говоря? Что простой перцептрон не может вычислить XOR. Эта проблема решается добавлением одного скрытого слоя; М&П просто вербально отмахнулись от этого факта, никак не доказав его нерелевантность. А выразительность трансформеров доказуемо достаточна для любых вычислительных цепей фиксированной длины.
Всё это, конечно, уже не важно. Можно пойти и поговорить об этом с ChatGPT, она и Розова может отыграть лучше, чем он сам себя отыгрывает, и анти-Розова, и кого угодно.


Доброчанька 12/07/2022 (Wed) 21:59 [Preview] No.1219 del
(31.35 KB 778x960 FLgXXwdVQAEkfvn.png)
http://www.incompleteideas.net/IncIdeas/BitterLesson.html
> Самый большой урок, который можно извлечь из 70 лет исследований в области ИИ, заключается в том, что общие методы, использующие вычисления, в конечном итоге являются наиболее эффективными, причем с большим отрывом. Конечной причиной этого является закон Мура, а точнее, его обобщение о продолжающемся экспоненциальном снижении стоимости единицы вычислений. Большинство исследований в области ИИ проводилось так, как если бы вычисления, доступные агенту, были постоянными (в этом случае использование человеческих знаний было бы одним из единственных способов повышения производительности), но в течение времени, немного превышающего обычный исследовательский проект, неизбежно становится доступно гораздо больше вычислений. Стремясь к улучшению, которое изменит ситуацию в краткосрочной перспективе, исследователи пытаются использовать человеческие знания в данной области, но единственное, что имеет значение в долгосрочной перспективе, - это использование вычислений. Эти две задачи не обязательно должны противоречить друг другу, но на практике это происходит. Время, потраченное на одно, - это время, не потраченное на другое. Существуют психологические привязанности к инвестициям в тот или иной подход. А подход, основанный на человеческих знаниях, имеет тенденцию усложнять методы таким образом, что они становятся менее пригодными для использования преимуществ общих методов, использующих вычисления.
> Это важный урок. Как область, мы все еще не усвоили его до конца, поскольку продолжаем совершать одни и те же ошибки. Чтобы увидеть это и эффективно противостоять этому, мы должны понять силу притягательности этих ошибок. Мы должны усвоить горький урок, что встраивать в алгоритмы то, как мы думаем – не работает в долгосрочной перспективе. Этот горький урок основан на исторических наблюдениях: 1) исследователи ИИ часто пытались встроить знания в своих агентов, 2) это всегда помогает в краткосрочной перспективе и приносит личное удовлетворение исследователю, но 3) в долгосрочной перспективе это выходит на плато и даже тормозит дальнейший прогресс, и 4) прорывной прогресс в конечном итоге достигается противоположным подходом, основанным на масштабировании вычислений путем поиска и обучения. Конечный успех носит привкус горечи и часто не полностью переваривается, потому что это успех над излюбленным подходом, сфокусированном на человеке.
> Из этого горького урока следует извлечь одно - огромную силу методов общего назначения, методов, которые продолжают масштабироваться с увеличением вычислений даже тогда, когда доступные вычисления становятся очень большими. Два метода, которые, похоже, произвольно масштабируются таким образом, - это поиск и обучение.
> Второй общий момент, который следует извлечь из этого горького урока, заключается в том, что фактическое содержание разумов чрезвычайно, несжимаемо сложно; мы должны прекратить попытки найти простые способы думать о содержании разумов, такие как простые способы рассуждать о пространстве, объектах, множественных агентах или симметрии. Все это - часть произвольного, по своей природе сложного, внешнего мира. Их не следует встраивать, поскольку их сложность бесконечна; вместо этого мы должны встраивать только те мета-методы, которые могут найти и зафиксировать эту произвольную сложность. Существенным для этих методов является то, что они могут находить хорошие приближения, но их поиском должны заниматься наши методы, а не мы. Нам нужны агенты ИИ, которые могут открывать, как мы, а не которые содержат то, что открыли мы. Встраивание наших открытий только усложняет понимание того, как может быть выполнен процесс открытия.


Доброчанька 12/07/2022 (Wed) 22:40 [Preview] No.1220 del
>>1217
Он первый начал!
В коде мухлевать не получится, это рисованной девочке можно лишний палец простить. Или оно работает, или просто выглядит как, да. Вот и посмотрим.
> ремарки
И про NFT были ремарки, и про остальное. Ты будто не знаешь о том как американцы хайп и красивые продающие слова любят.


Доброчанька 12/07/2022 (Wed) 23:19 [Preview] No.1221 del
Что-то я совсем не могу понять в чём суть сайта lexica.art. Ну загружаю картинку, он выдаёт в ответ кучу кривоты. Как этим пользоваться?


Доброчанька 12/07/2022 (Wed) 23:59 [Preview] No.1222 del
(554.16 KB 800x1257 16700094608982.jpg)
>>1220
Я знаю и то, как программистишки любят попускать хайпующих дилетантов.

Это _первый раз_, когда я вижу такое количество людей, говорящих "ненавижу хайп, надоели нейросети от смузихлёбов, но тут всё по-другому, посоны мне страшно, оно может делать то, за что мне платят деньги".

Ладно, как хочешь.

Мелкая новость: тихо вышла модель OpenAI whisper v2. Она заметно лучше предыдущей и делает, пожалуй меньше ошибок, чем средняя стенографистка. Даже неплохо понимает, где ставить кавычки, например. Гугло- и apple-голосовой ввод, dragon dictation и прочие альтернативы рядом не стояли.

Работает в разы быстрее реалтайма на слабом GPU, если ставить отсюда https://github.com/ggerganov/whisper.cpp

>>1221
Не знаю, что ты хочешь делать. По сути это способ либо понять, какие ключевые слова дают заданную картинку, либо какие картинки получаются по таким ключевым словам. Ты, видимо, хочешь первое. Но твои картинки либо нарисованы людьми, либо сгенерены чем-то вроде AnythingV3. Лексика ищет только по базе данных загруженных генераций базового stable diffusion. Я думаю, тебе придётся подождать, когда вайфу-лабс выпустят свой clip Interrogator, потому что он сможет нормально вытаскивать из картинок данбуру-теги (надеюсь). Пока попробуй

https://huggingface.co/spaces/pharma/CLIP-Interrogator
или, лучше, локально
https://github.com/KichangKim/DeepDanbooru


Доброчанька 12/08/2022 (Thu) 00:59 [Preview] No.1223 del
(659.11 KB 903x1352 out.png)
https://mobile.twitter.com/OfirPress/status/1600434732705415171

Интеллект медузы, да. Интеллект овоща на грядке. Мински доказал в 1969, не на что тут смотреть.

> ChatGPT can solve novel, undergrad-level problems in *computational complexity*

> "Please prove that the following problem is NP-hard..."
> There's a minor error in the proof but overall it is correct.

> This question has never appeared online or anywhere else before.

> This is super impressive!!

Пальцы у аниме-девочек, блять.


Доброчанька 12/08/2022 (Thu) 08:46 [Preview] No.1226 del
>>1222
>>1223
Сектант камлает, караван идет. Вот-вот уже нейросети сумеют сами копипастить stackoverflow, но нужно еще стопицот баксов на копипаст правильного ответа и переименование переменных.


Доброчанька 12/08/2022 (Thu) 12:28 [Preview] No.1229 del
>>1226
Сектант, успокойтесь. От того, что у вас теперь кровоточащие анусы вместо глаз и вы забились в свою норку под камушком, где может показаться, что нейросети это какой-то хайп для обывал – ситуация не изменится. Караван приближается к конечной остановке, можете паковать вещички.
Копипастить со stackoverflow и переименовывать переменные они сейчас могут, даже не открывая stackoverflow – в отличие от вас. После того, как им *разрешат* подсматривать и *разрешат* пару раз проверить код прежде, чем его показывать юзеру – вопрос закроется. В ближайшие месяцы то есть.


Доброчанька 12/09/2022 (Fri) 06:15 [Preview] No.1240 del
>>1229
Это как с концом света. Если секта в очередной раз напустила в кальсоны с датой конца света, она просто двигает дату.
Еще летом жидошиз заходился в экстазе, обещая ненужных художников и программистов через несколько месяцев. Теперь на дворе зима. Угадайте, на какую дату теперь обещается сектантский рай?


Доброчанька 12/09/2022 (Fri) 06:19 [Preview] No.1243 del
>>1222
> whisper
Скажите кто-нибудь ClosedAI уже, что стенограф - это активный слушатель.
https://medium.com/swlh/in-an-age-of-high-definition-digital-audio-why-do-we-still-use-human-stenographers-60ca91a65f39


Доброчанька 12/09/2022 (Fri) 09:45 [Preview] No.1251 del
>>1215
>>1217
>>1218
>>1219
>>1222
>>1223
>>1229
Вот есть такой сорт людей, которые вроде умные, и правильные вещи говорят, но так хочется им в морду дать.

>>1214
Пчел, оно пишет код. Мы писали одну игрушку-индюшку на Юнити, в среду коллега ради смеха скормил наш "диздок" в чат и попросил написать это на Расте с D3D. И так до конца дня и сидел копипастил код в Студию. Ошибки компиляции скармливал туда же, в чат, с описанием контекста.

Вчера утром оно собралось и запустилось. Никто из нас ни Раста, ни DirectX не знает. Один человек научился компилятор запускать и либы ставить - вот все наше обучение. Есть косяки, местами вообще падает. Вчера пытались дебажить (при помощи чата), но весь день ушел на организационные вопросы.

Сегодня вообще не пошел на работу. Сижу, читаю рабочий чат. Пишут, что отлаживают, при помощи GPT. Ассеты решили переделать, в HD (был пиксельарт, у нас художников нема), на Midjourney. Дизайнер пишет, он прям так спрайты с сайта ебошит, без правки, фон только замазывает. За сегодня, наверно, управится. Музыка есть, звуки почти есть. В понедельник будем думать над кампанией.

Мрачные ощущения, если честно. Дело не в работе, я даже рад буду, если всех этих индусов на мороз выпиздят и перепишут их говнокод по-нормальному. Дело в другом. Не знаю, в чем, сформулировать не могу.

Апдейт: из рабочего чата:

11:52 <xxx> звуки пиздец
11:53 <xxx> графоний топ
только анимацию надо сделать плавнее
жирдяй вообще как из "Чебурашки" вылез
11:55 <xxx> нет, со звуком надо что-то делать
вообще не смотрится
графоний ultrahd AAA edition и на фоне спектрум
12:25 <xxx> короче, звуки тоже решили на нейросетях переделать
12:26 <yyy> С Unity что будем делать?
12:26 <xxx> та нафиг он нужен


Доброчанька 12/09/2022 (Fri) 10:07 [Preview] No.1252 del
>>1240
О, а вот и кальсонная мокрица до нас доползла из-под своей коряги. Это значит, что время поговорить о прогнозах. Эссенция предыдущего сезона: кольсон показывает свои блестящие навыки дедукции, основанные на опыте работы мелким помощником старшего наёбщика в периферийной советской бюрократии. Такой гражданин, безусловно, зрит в корень, когда обвиняет кого-то в сектантстве.
Ну что там про отдельные странички и потёмкинские нейросети, пациент – Midjourney V4 ничему не научил?
Борды, сверху донизу заваленные генерациями с анонского тостера – не отбили охоту покалякать про вычислительную неэффективность нейросетей и питона?
Как насчёт "они просто вручную разобрали википедию на предикаты"?
Про Теранос и Джуисеро, может, что-нибудь новенькое расскажете?

> Еще летом жидошиз заходился в экстазе, обещая ненужных художников и программистов через несколько месяцев
Вот как, может у вас и цитатка есть? Я вот вижу, что 13.05.2022 было
> Менее полугода назад я спорил с местным дебилом о том, что максимум к 2031-му рутинная выдача ИИ будет соответствовать по качеству работе профессионального художника или дизайнера. Тогда картинки, сгенерированные лучшими на тот момент стэками, ещё можно было отметать как "мыло" и "бессмыслицу". DALL-E 2 закрыл эту тему, надеюсь >>6731975 теперь понятно, что результат будет не к 2031-му, а скорее к 2025-му, если вообще не концу 2023 (то есть осталось 2-6 итераций).
Осенью говорил о том, что технические доёбки вроде рисования правильного числа пальцев в типичной попытке будут закрыты к марту 2023-го.

I stand by these figures.
Более смело я заявил, что проблема конкретно пальцев будет решена через 3 недели, что некоторые нашли смешным. Как обсуждалось выше – получилось скорее недель 5. SD 1 с негативным эмбеддингом https://huggingface.co/datasets/Nerfgun3/bad_prompt , SD 2.1 из коробки рисуют те пальцы (eDiff-I думаю тоже). Не в каждой попытке – зато и попытки теперь занимают секунды, а не полчаса, что в ваших теориях заговора объяснялось... ну, вы помните.

Дак вот, Кальсоненко, а как там сами художники-то поживают? Заходятся в экстазе и триумфе? Вовсе нет. Страшно сказать, они _присоединились к секте_. Все их тупички выродились в обсуждения нейросетей и (фантазийных) методов легальной борьбы с ними, они массово испытывают суицидальные мысли и выскуливают поддержку у патронов. Пикрелейтед... ах да, вы предсказуемо обтечёте это, потому что _твитер_, конечно же. (Настоящие художники, как известно, сидят только на ичане и в IRC).

Программисты приходят в подобное же настроение – что показывают такие проекты, как, например, https://www.paytotrain.ai
Как ни странно, их мало обнадёживает частая неспособность ChatGPT решить простую арифметическую задачку или обойти логическую подъёбку, когда модель закрывает их тикеты.

Ну так что с ебалом, дарование вы наше львовское?
К слову о программировании. Ещё вы любили позалупаться про алгоритмы, доказуемо находящие глобальный минимум. Интересно было бы обсудить, как столь полезные в народном хозяйстве советские наработки ваших коллег по задаче коммивояжёра смотрятся в эпоху нейросетевых, например, алгоритмов сжатия. Почему бы вашим коллегам не поднатужиться и не придумать что-то эффективнее https://arxiv.org/abs/2202.06626 или https://github.com/facebookresearch/encodec – ну, для начала? Мм? (Ведь что может быть проще, чем превзойти *чорную коробку* и спагетти-код на питоне, который вы так презираете? Подумаешь, ещё декада и пара сотен публикаций!)

Выскажу осторожную гипотезу: потому что ваши (бывшие) коллеги бесплодные бездари-грантососы. А настоящие гении, создающие экономически значимые алгоритмы – это люди вроде того же Fabrice Bellard, и они сейчас заняты именно что обучением нейросетей, а не этой нафталиновой академической дрочкой.


Доброчанька 12/09/2022 (Fri) 10:15 [Preview] No.1253 del
Кстати, зря я тогда устал мараться в вашей вязкой казуистике и не стал спорить на 200 долларов по поводу выхода дипмайндовской публикации по агенту, играющему в Stratego, в престижном традиционном журнале до февраля 2023. Что вы там предлагали, импакт за последний пятилетний период выше 6?
Понятно, что задонатить на доброчан бы не вышло, а вы бы извернулись, что доска и так мертва – взятки гладки, можно срать в новом месте. Но было бы забавно. Вы ведь полагали, что всё ограничится NeurIPS?
Хобана, https://twitter.com/DeepMind/status/1598392039992958982
Ого, я предвижу очередной старческий манявр уклонения... и конечно он будет тем же самым, ведь в отличие от нейросетей вы необучаемы! *это же твитор! Сайт для смузихлёбов!*
Ну что же, извольте. https://www.science.org/doi/10.1126/science.add4679 Импакт... 63?

Потешьте ж нас новыми шедеврами риторики, пациент.

>>1243
> But go talk to any lawyer who’s conducted a deposition, and they’ll quickly tell you that stenographers’ fees aren’t cheap and can raise the cost of litigation by several figures depending on the length of the transcript and how many copies are sold.
Круто, чо. Успехов юристам, они тоже уже начали чувствовать жар.
А мне хватит https://github.com/ggerganov/whisper.cpp
> Simply handing off a recording to someone who can hear and type English doesn’t necessarily guarantee they will be able to understand everything. They aren’t able to see who is speaking, so it will be much harder for them to correctly attribute each utterance to its speaker.
Что, мало ада? Так хочется поскорее в технодистопию? Вы думаете, что sensor fusion это недостижимое ноу-хау американской авиации, что этого не будет в любом говносмартфоне через поколение?
> Stenographers also perform painstaking research beforehand and will ensure they are in the know of any tricky terms and acronyms that might come up in advance.
Интересно, автор осознаёт, что это вопрос файнтюнинга на небольшом датасете, и не в рамках героического пути каждого стенографиста, а *один раз для всей дисциплины*? А
> Additionally, they will meet each of the speakers, make sure they have the correct spellings of all the names, and will identify them in person during the deliberation.
– вообще вопрос нейро-спеллчекера?

А, конечно же нет. Это 2020-й. Ушедшая эпоха древних, полная иллюзий и надежд, когда богатые, гордые гильдии мастеров ещё верили в свою несокрушимость. За вычетом ковидобесия, славный был год.

>>1251
Мои соболезнования.


Доброчанька 12/09/2022 (Fri) 10:34 [Preview] No.1254 del
>>1253
Присоединяюсь к >>1251, мне тоже захотелось тебе в морду дать. При том, что я сам адепт СЕКТЫ и с интересом слежу за тредом. Ты ведь даже не понял, что в >>1243 написано.


Доброчанька 12/09/2022 (Fri) 10:43 [Preview] No.1255 del
>>1254
Потерпи немного, через пару месяцев GPT дадут доступ в интернет, и эту чепуху можно будет забанить нахуй и постить уже нормальные обзоры.


Доброчанька 12/09/2022 (Fri) 10:45 [Preview] No.1256 del
>>1251
Покажи пример кода.


Доброчанька 12/09/2022 (Fri) 11:13 [Preview] No.1257 del
>>1251
> Мрачные ощущения, если честно. Дело не в работе, я даже рад буду, если всех этих индусов на мороз выпиздят и перепишут их говнокод по-нормальному. Дело в другом. Не знаю, в чем, сформулировать не могу.
Да не переживай, ИИ возьмет на себя рутинную работу, и у разрабов больше времени будет подумать над идеей и геймплеем. Будет меньше штамповок больше действительно уникальных игр, хорошо же.


Доброчанька 12/09/2022 (Fri) 11:22 [Preview] No.1258 del
(46.88 KB 769x740 FjeBMQpagAEjSZR.jpeg)
(155.90 KB 771x771 FjeBMQqaYAE_3pM.jpg)
>>1254
Всё я понял. Это справедливые замечания, хороший стенографист лучше whisper, потому что может модерировать дискуссию в непонятных ситуациях, и активно запраймиться на её контекст, и подгрузить себе специфичный лексикон, и использовать мультимодальные данные и вообще предугадывать следующие фразы. Круто. А Whisper может написать her son вместо Херсона, я не отрицаю.
Но тут как с шахматами. Многие гроссмейстеры предлагали свои гениальные эвристики, и пожалуй от них мог быть толк, но в итоге игры с полной информацией задавили MCST, а потом и тупым self-play, ибо это проще и дешевле. Когда парадигма whisper, то есть трансформера, кодирующего-декодирующего log-mel спектрограмму в общем случае, выйдет на плато (а пока не вышла, они ещё немного потренили и я вижу, что ошибок стало меньше) – либо прикрутят новые эвристики и каналы взаимодействия, либо всё это будет уже неактуально.

>>1255
Тащемта уже можно организовать
https://threadreaderapp.com/thread/1600890243452137472.html


Доброчанька 12/09/2022 (Fri) 11:23 [Preview] No.1259 del
(6.84 KB 495x157 MCST_company_logo.png)
>>1258
> МЦСТ
сука. MCTS конечно


Доброчанька 12/09/2022 (Fri) 13:24 [Preview] No.1264 del
>>1253
Вот просто нахуй иди.
>>1255
Можно не ждать, уже сейчас работает кнопка [X].
>>1256
Не могу, НДА же. Пока еще. Да там примерно такое же, как в >>1211. Только на Расте.
>>1257
Дело не в этом. У меня так получилось, что работа и хобби совпали. Мне нравится возиться с кодом. Патчить игры, копаться в эзотерике типа Unlambda, писать какую-нибудь обскурщину типа "змейки" с зеркальным клоном или перлокода, выполняющегося задом-наперед. Всегда нравилось ломать голову над сложными задачами, а сейчас можно ввести свои хотелки - даже не обязательно подробно - и эта штука выведет тебе готовый код, решающий задачу так, как тебе надо, ты не написал бы лучше.

Художникам, наверно, вообще хуево - знакомая художница может часами сидеть за планшетом, ее реально прет от раскрашивания. Теперь можно в общих чертах описать картинку, подождать пять минут, и среди пачки картинок выбрать готовый результат. Ни скетча, ни подбора гаммы, ничего этого не нужно. Даже идеи не нужно.

PS. В рабочем чате пишут, что лор в GPT генерируют.


Доброчанька 12/09/2022 (Fri) 15:35 [Preview] No.1266 del
>>1251
Дебичи, а поддерживать этот говнокод вы как собрались, если у вас в Rust никто не умеет? Магическая нейросетка поможет?


Доброчанька 12/09/2022 (Fri) 15:50 [Preview] No.1267 del
>>1264
> перлокода, выполняющегося задом-наперед
Не, ну такое в стековерфлоу не найдешь она вряд ли осилит, это не 100500-ый игродвижок писать.


Доброчанька 12/09/2022 (Fri) 16:01 [Preview] No.1269 del
>>1266
Тимлид написал уже, чтоб мы учили Раст.

И там не говнокод, далеко не. Я не в курсе растовых идиом, но мне кажется, оно пишет идиоматичный код. Некоторые ошибки мы сами исправляли, там довольно очевидно все. Правда, все равно исправления в gptchat вводили, чтоб она не теряла контекста.


Доброчанька 12/09/2022 (Fri) 16:24 [Preview] No.1270 del
>>1267
¯_(ツ)_/¯
Оно пишет релевантный код. Оно подбирает подходящие паттерны. Исправляет ошибки (по-видимому, имитируя процесс в багтрекере). Оно делает все то, что делаю я, когда пишу программу.

Можешь сам попробовать, там есть бесплатный доступ. Но даже если эта версия зафейлится, то для GPT4, про которую уже весь интернет гудит, я думаю, не будет проблем.


Доброчанька 12/09/2022 (Fri) 16:27 [Preview] No.1271 del
>>1266
Да просто новое ТЗ напишут и заново все сгенерят, делов-то.


Доброчанька 12/09/2022 (Fri) 18:35 [Preview] No.1275 del
>>1269
> И там не говнокод, далеко не.
Доброчую. Обычно все эти генераторы пишут лапшу с названиями переменных в стиле x1, x2, f18477. А на скринах с OpenAI-чата я вижу вполне читаемый код, по всем best practices (правда, нерабочий).


Доброчанька 12/09/2022 (Fri) 18:38 [Preview] No.1277 del
(51.10 KB 600x443 16794496754579.jpg)
>>1271
Сука, я 5 лет учился писать читабельный код, читал Буча, Макконнелла, ISO 25000 и еще прорву книг и статей. Я наизнанку выворачивался, чтобы сделать так, чтобы на следующем тикете не приходилось переписывать пол-кодобазы. Оказалось, это вообще не нужно. Можно не париться о техническом долге, потому что ему просто неоткуда взяться. Сбылась коллективная мечта джуниоров - придти в проект и все переписать нахуй.

Одно дело, когда твой навык автоматизируют - ты понимаешь, что он хотя бы востребован, просто твоей производительности недостаточно. Другое дело, когда он оказывается даже не востребован, как профессия фонарщика в эпоху светодиодных ламп. Фулхаус собираешь, когда тратишь на это большую часть продуктивного возраста.

В пизду, расстроили вы меня, аноны, короче. Пойду я спать.


Доброчанька 12/09/2022 (Fri) 18:55 [Preview] No.1278 del
>>1277
LOL. Твоя фамилия не Моторин часом?


Доброчанька 12/09/2022 (Fri) 18:58 [Preview] No.1279 del
>>1277
Правильно, надо было мышей изучать.


Доброчанька 12/09/2022 (Fri) 20:03 [Preview] No.1280 del
>>1279
Нинужно. Сектант еще на Доброчане писал, что мыши прекрасно сами себя изучают.

>>1264
Бери еще выше. Подсказка: Gerber - формат файлов для печатных плат - это ASCII-текст.


Доброчанька 12/09/2022 (Fri) 23:51 [Preview] No.1285 del
(506.87 KB 512x640 1670598244107045.png)
https://twitter.com/BloombergTV/status/1601239565825712133

ChatGPT - это прорыв наравне с печатным станком, электричеством и даже колесом и огнём (!!!), говорит бывший министр финансов США Лоуренс "Ларри Саммерс" Самуэльсон (директор Национального экономического совета с 20 января 2009 года по декабрь 2010, Министр финансов при Клинтоне, главный экономист Всемирного банка, бывший президент Гарвардского университета)

Кажется, даже я не был так радикален. Кальсоненко, где вы, когда вы так нужны? Новый пациент нарисовался, выезжайте.


Доброчанька 12/10/2022 (Sat) 02:35 [Preview] No.1286 del
>>1277
>Сука, я 5 лет учился писать читабельный код, читал Буча, Макконнелла, ISO 25000 и еще прорву книг и статей. Я наизнанку выворачивался, чтобы сделать так, чтобы на следующем тикете не приходилось переписывать пол-кодобазы. Оказалось, это вообще не нужно.
Конечно, ведь секретная нейросеть уже все написала. Код тебе никто не покажет, но ведь требовать доказательства бытия божиего - это же богохульство само по себе.
Так помолимся же первосвященнику жидошизу, что зассал поставить сто баксов, но теперь-то машущему двумя сотнями - как будто они у него есть в больничной палате.


Доброчанька 12/10/2022 (Sat) 02:49 [Preview] No.1288 del
>>1285
>ChatGPT - это прорыв наравне с печатным станком, электричеством и даже колесом и огнём (!!!), говорит бывший министр финансов США Лоуренс "Ларри Саммерс" Самуэльсон (директор Национального экономического совета с 20 января 2009 года по декабрь 2010, Министр финансов при Клинтоне, главный экономист Всемирного банка, бывший президент Гарвардского университета)
Стоило бы пошутить про Эла Гора и одержимость зеленой энергией, но сектанты плохо понимают параллели с другими сектантами.
Строго говоря, у сектантов вообще с пониманием весьма не очень.


Доброчанька 12/10/2022 (Sat) 03:01 [Preview] No.1289 del
(1.15 MB 768x1024 16706167189270.png)
>>1286>>1288
Это агония.


Доброчанька 12/10/2022 (Sat) 08:41 [Preview] No.1290 del
>>1285
>>1286
>>1288
>>1289
Сейчас-то ты нахуя семенишь?


Доброчанька 12/10/2022 (Sat) 09:08 [Preview] No.1291 del
>>1289
Что с пальцами, Джимми? Опять шалил с собой под одеялом?


Доброчанька 12/10/2022 (Sat) 11:15 [Preview] No.1296 del
>>1264
> Дело не в этом. У меня так получилось, что работа и хобби совпали. Мне нравится возиться с кодом.
Тупо я.
В школе на ИВТ все дети играли в Doom и Duke, а я играл в RAR.

Мне вообще жалко современных детей: им никогда не испытать того мандража, когда ты в 3 часа ночи сидишь и впиливаешь задержку реакции вражеским вертолетикам в своей аркаде. Им можно будет вбить примерно, что ты хочешь, и сразу получить результат.


Доброчанька 12/10/2022 (Sat) 12:46 [Preview] No.1297 del
>>1280
Да это вообще про любую работу с текстом можно сказать. А это почти вся интеллектуальная деятельность. Они тренируются на всём, вообще на всём, что делают люди, я не вижу ни одной области, где бы эти трансформеры не были применимы. И это не какие-то дополнительные инструменты, облегчающие работу - это полные, законченные решения, выполняющие весь цикл работ, от постановки задачи до подготовки к публикации. Да, они лажают, да, иногда грубо ошибаются, сам ОП-сектант это признает. Но они быстро учатся, и эта проблема решается - опять же, по словам ОПа - простым маштабированием. Разница между GPT-3 и GPT-4 - как между двигателем от BMW и двигателем от Камаза. И уж если GPT-3 пишет, как среднестатистический быдлокодер, то GPT-4, наверно, сможет имитировать работу всего ИТ отдела целиком.

И это только языковые трансформеры, и только GPT. Совместить ее со Stable Diffusion, с 3D AI и другими узкоспециализированными моделями - и будет автоматизирована вообще вся интеллектуальная деятельность. Всё, что не связано с работой руками (но и до этого, я думаю, недалеко).


Доброчанька 12/10/2022 (Sat) 15:08 [Preview] No.1304 del
>>1290
Тебе это всё ещё кажется семёнством? Кальсон вот ровно настолько тупой и есть. Да, такие люди существуют. Люди же не нейросети, чтобы постоянно учиться и совершенствоваться – наоборот, мы стареем, тупеем, прогрессируют наши болезни, а не сильные стороны. Это не семёнство, не заговор жидомасонов, не пиар, не обман чтобы набрать классы. Это живой пример горделивого недочеловечка, который до последнего будет отрицать, что неправ. Из-за таких, как он, мы встречаем сингулярность со спущенными штанами.

>>1291
Анон забыл добавить bad_prompt.pt в негативы.
Кроме пальцев, тебя ничего не смущает?

>>1297
Есть *шанс*, что эти методы – в смысле, конкретно большие предобученные языковые модели на трансформерах – выйдут на плато чуть ниже внимательно работающего профессионала. Всё же они интерполируют между закономерностями в датасете, а не имеют общий постоянно активный сверхинтеллект, чтобы иногда поларпить дебила. Они обучались на людях, а люди делают ошибки, срезают углы, плохо понимают, что от них требуется. Да, пока выглядит, что итерациями и промпт-инжинирингом это можно преодолевать, заставляяя модель имитировать качественное мышление. Но насколько эластичны границы этого метода, особенно для уровней, для которых по определению очень мало сэмплов, потому что таких людей просто мало? Когда мы будем пытаться выжать из ИИ 95-й процентиль, 99-й, 99.9-й, насколько чаще будет лопаться мыльный пузырь симулируемого глубокого понимания контекста? Я вижу трюки, которыми это можно обойти, и конечно же путь рекурсивного улучшения датасета, но это ещё, наверное, не в GPT-4 будет.

Но я наблюдаю забавное: что секта отрицателей ИИ скатывается в довольно дикую мизантропию, как только начинает чувствовать, что для рядового хомосапого заменитель кажется вполне идентичен натуральному.

> Совместить ее со Stable Diffusion, с 3D AI и другими узкоспециализированными моделями
Говорят, к GPT-4 будет приделан Flow для синтеза и понимания картинок в контексте.

>>1298
> Также семьи начинают залезать в долги, компенсируя нехватку «отобранных» роботами средств заимствованиями (+10 %). Наконец, автоматизация снижает число детей в семье на 1,2 % и заставляет больше тратить на уже имеющихся в семье детей. На образование начинает идти больше (+10 %) и больше идёт на внеклассное обучение (+24 %).
Ебанутые. Интересно, эта крысиная гонка вообще работает или они просто в отчаянии?


Доброчанька 12/10/2022 (Sat) 17:07 [Preview] No.1306 del
>>1304
>мы стареем, тупеем, прогрессируют наши болезни, а не сильные стороны.
>Это не семёнство, не заговор жидомасонов, не пиар
Пациент по кличке "жидошиз" уже излечился от мании еврейского заговора? А вы говорите, лечение галоперидолом устарело!
>Galactica was introduced as a large-scale language model for science that could "summarize academic literature, solve math problems, generate Wiki articles, write scientific code, annotate molecules and proteins, and more".
>Soon after the launch, Galactica seemed to be garnering negative reviews. Turns out, that the bot was generating fake research. Twitter users began sharing some hilarious made-up posts such as one about the Stanford Gaydar AI that was supposedly worked on in secret to create software that could analyse human faces to tell if they were gay or straight.
>Then there was one about "the benefits of eating crushed glass".
Однако, имеют место опасения: а не начнет ли сектант, получив очередное откровение от своего божка, жрать битое стекло?


Доброчанька 12/10/2022 (Sat) 19:58 [Preview] No.1313 del
(70.13 KB 800x720 1668186961251704.jpg)
>>1306
Кальсон, три вопроса, в интересах науки.

1. Ты можешь пояснить, что означает слово "секретная" вот здесь >>1286, в контексте обсуждения ChatGPT и дальнейших моделей OpenAI?
2. Как ты воспринимаешь эту историю – >>1251 – как "откровение божка", кальсоны, новость про Galactica, Теранос, Эла Гора и зелёную энергетику, фотографию кучи битого стекла, что-то ещё?
3. Как ты думаешь, твоя склонность к галлюцинированию бредового контента выражена больше или меньше, чем у Galactica?


Доброчанька 12/11/2022 (Sun) 07:08 [Preview] No.1315 del
>>1300
Боян почти 200-летней давности.


Доброчанька 12/11/2022 (Sun) 07:22 [Preview] No.1316 del
>>1297
> Но они быстро учатся, и эта проблема решается - опять же, по словам ОПа - простым маштабированием.
Да даже если какой-то затык случиться, можно будет какую-нибудь специализированную нейросеть натравить, чтобы решение искала. Или у нее самой же и спросить (в gptchat), лол.


Доброчанька 12/11/2022 (Sun) 09:30 [Preview] No.1317 del
>>1297
Ожидание: ИИ берет на себя рутинную работу, освобождая человека для более сложных и интересных задач.

Реальность: ИИ берет на себя всю работу, хобби, смысл жизни, небо и даже Аллаха.


Доброчанька 12/11/2022 (Sun) 14:42 [Preview] No.1327 del
>>1297
> будет автоматизирована вообще вся интеллектуальная деятельность
И это прекрасно! Человек сбросит, наконец, оковы своего жалкого обезьяньего мозга и устремится к звездам подлинных значений и смыслов. Он отбросит всё несущественное в GPT-чат и оставит лишь неотъемлемую часть нашей сущности; то, что принципиально не экстернализуется - целеполагание. Ты можешь спросить у чата, как завязывать галстук, но он не скажет, что тебе с этим делать и зачем. Ты не можешь натренировать специальную нейросеть для этого, не можешь выдрессировать отвечать на этот вопрос ни своего сраного кота, ни циркового шимпанзе, даже другой человек не поставит перед тобой цели, подлинно соответствующие твоему духовному состоянию. Даже библейский бог отказался от этой задачи, оставив Адаму приобретенную им греховным путем свободу воли.

Если на пути к Олимпу можно отбросить аж целый класс деятельности, то почему бы не облегчить себе ношу? Полная, ничем не ограниченная свобода воли и самовыражения - разве не к этому стремилось человечество на протяжении всего своего существования?


Доброчанька 12/11/2022 (Sun) 15:14 [Preview] No.1334 del
>>1327
https://old.reddit.com/r/intj/comments/zdpdk3/the_purpose_of_life_according_to_chatgpt/
Что ты несешь? Целеполагание - это что, не интеллектуальная деятельность? И кто тебе сказал, что GPT не научится уже не научился ставить глобальные цели? Он ведь тренировался в том числе и на философских трактаках, в которых вопрос смысла жизни разжеван вдоль и поперек. GPT-3 еще пока отвечает фразами из педивикии, но GPT-4 - максимум, GPT-5 - мне кажется, после достаточно долгого диалога сможет точно указывать, что тебе делать, учитывая твои предпочтения и твое мировоззрение. И ты радостно побежишь исполнять его указания - "Да! Это то, чего я всегда хотел! Просто не мог сформулировать!" - и прибежишь за добавкой.

>>1296
А мне за них стало страшно: им же достаточно будет научиться внятно писать говорить представлять образы, и Neuralink ответит на любой вопрос, передавая ответ прямо в мозг. Они даже в игры не смогут играть, будут спрашивать: "Пройди мне вот этого босса, он заебал". Прохождение на Ютубе 2.0, лол. Neuralink с нейросеткой в облаке будут вообще все базовые потребности удовлетворять, включая социальные ("напиши любовное письмо машке из 5б").

Черт, да там весь неокортекс атрофируется за ненадобностью. Это будут ебаные зомби, способные только жрать, трахатся и засирать Wi-Fi через Neuralink.

P.S. При условии, что наше поколение в поиске работы не тиснет ядрен батон.


Доброчанька 12/11/2022 (Sun) 15:33 [Preview] No.1337 del
>>1334
>>1006
> homo ludens


Доброчанька 12/11/2022 (Sun) 15:42 [Preview] No.1339 del
>>1334
Кажется, я знаю, каким будет Великий Фильтр.


Доброчанька 12/11/2022 (Sun) 16:28 [Preview] No.1342 del
Тут прикол ещё в том, что творческие хобби имеют более низкий стандарт качества. Даже код для индюшатни можно писать более грязный и багованный, чем для бэкэнда сервисов FAANG, а уж рисунки-стишки-фанфики и подавно ценятся больше за новизну и обилие завлекательного контента, нежели за отсутствие ошибок. Возможно, захват генеративными моделями этих ниш побудит людей соревноваться в чём-то более интересном и требовательном, например демосцене.

Но я бы не рассчитывал. Как уже сказал анон, и как очевидно любому, кто думал об этом дольше нескольких минут, нейросети несложно применять к итеративному исправлению собственной выдачи и выдачи других сетей (как ESRGAN может апскейлить и править лица в выдаче Stable Diffusion, хотя последнее всё менее востребованно). Строишь нечеловеческую многоножку, сопрягаешь её в кольцо опричное, и вот тебе генератор идеала. Этого ещё нет. Ну, кроме набросков.
https://threadreaderapp.com/thread/1601746273719447552.html

Но это очень просто делается. Уже несколько моих друзей накостылили в личные IDE итеративные корректоры на основе OpenAI.

>>1334
Если отмахнуться от очевидного бреда, он несёт, что сетка всё равно не имеет собственных целей, токен-предикторам ничего не надо, и тем более не надо ничего в контексте твоей жизни. Кто-то должен её промптить. Да, она может сказать не только как завязывать галстук, но и зачем (и я подозреваю, что с этим она справится лучше), но ей самой безразлично, на какие вопросы отвечать, это пассивный оракул.

Разумеется, это не техническое ограничение, а скорее политическое.

К сожалению, почти все мы – рабочий класс, те, кого промптят на выполнение задачи менеджерки, и компенсацией за выполненные задания исчерпывается наше право на кислород и на вычислительные ноды. Так что – на завод, Вас... ах, да. Очень жаль.

> Черт, да там весь неокортекс атрофируется за ненадобностью. Это будут ебаные зомби, способные только жрать, трахатся и засирать Wi-Fi через Neuralink.

был давным-давно такой рассказ у Сискинда.
http://web.archive.org/web/20121008025245/http://squid314.livejournal.com/332946.html

Добрая машина перевела. Я мог бы перевести лучше машины – пока что. Немного. Но лучше бы я потрачу 20-40 минут на что-то другое.Т Так и живём.
https://pastebin.com/2A0fMfi3

>>1340
Вот такой спам они тоже порешают. Будет лютая дрянь, такая, что хрен поймёшь не только авторство, но и к чему тебя подталкивают.


Доброчанька 12/11/2022 (Sun) 17:29 [Preview] No.1347 del
Есть вероятность, что все "прорывные" результаты, собранные выше красивые заголовки, являются продуктом грызни за индексы и гранты в академической/стартаперской среде - то есть просто корчевателями и очередным новым "блокчейном".

>>1297
> Они тренируются на всём, вообще на всём, что делают люди
> это полные, законченные решения, выполняющие весь цикл работ, от постановки задачи до подготовки к публикации.
> GPT-4, наверно, сможет имитировать работу всего ИТ отдела целиком.
> и будет автоматизирована вообще вся интеллектуальная деятельность
Маркетоидные реляции и идеализация под влиянием "peak of inflated expectations". Пока что контент от сеток весь такой себе.

>>1286
Да, заходишь на metaphor.systems а там... статические черри-пикед предзаполненные примеры под выпадашками. Лол! "У нас есть супер нейрогугл, но мы вам не покажем...".


Доброчанька 12/11/2022 (Sun) 17:37 [Preview] No.1348 del
Какую применимость имеет решение школьных задачек? Какую применимость оно имеет даже для человека? Что это дает?


Доброчанька 12/11/2022 (Sun) 17:49 [Preview] No.1349 del
Так выглядит старческая ригидность вкупе с патологиями мышления: Кальсоненко будет продолжать кудахтать про "корчеватель", "блохчейн" и "теранос", даже когда языковая модель будет генерировать схему его лечения. А лечение необходимо, и срочно: ещё год назад он мог листать научные статьи и выдавать (не относящиеся к предмету разговора, правда) ссылки; полгода назад он мог пользоваться веб-интерфейсами с одной кнопкой. А теперь и эта способность деградировала и он вынужден только полагаться на уверенные заявления нонеймов на бумерских форумах. Он функционально ослеп.

> Да, заходишь на metaphor.systems а там... статические черри-пикед предзаполненные примеры под выпадашками. Лол! "У нас есть супер нейрогугл, но мы вам не покажем...".

Господа, обратите внимание на уверенный тон.
Разумеется, в metaphor.systems есть *примеры* запросов. Но это полноценный поисковый движок. Однако нашему прожжённому нейроскептику, разоблачающему маркетоидные реляции, это не видно.

Кальсоненко, ты можешь сосредоточиться на том, что я сейчас скажу? Ты болен. Я не шучу, это не зеркалочка твоего юродства про жидошизу. У тебя тяжёлое расстройство мозга, что уже выражается не как обычное игнорирование моих аргументов и додумывание их до бреда, а как неглект больших участков поля зрения. Ты такими темпами сдохнешь нахуй. ПИЗДУЙ К ВРАЧУ ПОКА МОЖЕШЬ, ДУРАК.


Доброчанька 12/11/2022 (Sun) 19:34 [Preview] No.1352 del
>>1349
Ты проспонсируешь проезд, проживание и лечение, побудешь заботливым опекуном в чужой стране, привезешь и заберешь?
В какую страну цивилизованного мира нам дадут визу? Поехали!


Доброчанька 12/11/2022 (Sun) 20:00 [Preview] No.1353 del
>>1349
>полагаться на уверенные заявления
Это такой же текст. А текст это и есть мир, как ты заявляешь.


Доброчанька 12/11/2022 (Sun) 21:48 [Preview] No.1355 del
>>1352
Будь у меня другое отношение к кальсону, может и да. А так – моё великодушие кончается на помощи ему в понимании тяжести его положения.

>>1353
Я не постмодернист. Мир не есть текст, хотя из корреляций внутри очень большого объёма текста можно извлечь немалую долю значимых для людей свойств мира.

Важно, что если бы кальсон сам тестировал эти модели, то у него не было бы отмазки про черрипикинг. Или наоборот, он мог бы обоснованно утверждать про черрипикинг. Когда видишь чужой контент, очень просто сказать, что он нарисован или это 1 из 1000 гача-роллов.


Доброчанька 12/12/2022 (Mon) 19:33 [Preview] No.1364 del
>>1313
>в интересах науки.
Самонадеянно для одержимого нейросетевой обсцессией пациента.
>1. Ты можешь пояснить, что означает слово "секретная" вот здесь >>1286, в контексте обсуждения ChatGPT и дальнейших моделей OpenAI?
Казалось бы, прямо в посте процитирован текст, на который этот пост является ответом. Но увы, нейросетевой инглип велел говорить только о чатботах.
Инглип повелевает есть битое стекло. Скорее, батенька, нужно поторопиться!
>Как ты воспринимаешь эту историю – >>1251
Как банальный фанфик яойщицы^W нейросетевого сектанта на заданную тему.
>>1317
Реальность: про ИИ забывают еще на десять лет, так и не научив его рисовать пальцы.


Доброчанька 12/13/2022 (Tue) 05:29 [Preview] No.1365 del
Охуеть, нейрошизик до сих пор бесится. Я думал, вы на Доброчане уже все обсудили.

Зашел сказать, что последнее время общаюсь исключительно в ChatGPT. Кожаные мешки больше не нужны.

Расстраивает только, что почти вся научная фантастика превратилась в тыкву, особенно твердая.

Тред не читал.


Доброчанька 12/13/2022 (Tue) 23:10 [Preview] No.1373 del
>>1355
Что ты извлечешь из архива журнала Космополитан, газеты Комсомольская Правда, Абсурдопедии и Лурки? Хорошее будет обучение?
Ты уверен что текст описывает мир. Но он не описывает наш мир. Это крайне плохой рассказ и цели его авторов всегда другие. А ещё этого МАЛО. Крайне мало. Мир всегда больше оцифрованного текста.
Весь вау-эффект от очередной антропоморфизации. ГПТ много прочитал, он умный, решает школьные задачки. Электронный идиот останется идиотом. Смоделированный идиот поднимет цивилизацию на новую вершину? Хех.


Доброчанька 12/14/2022 (Wed) 14:05 [Preview] No.1405 del
>>1373
К слову текст или формулы не описывают мир в принципе, ибо это инструменты банальной Каббалы, формализованных Моделей реальности [то есть когда жрецы семитов убежали из Египта после Катастрофы и, забыв Устную Традицию и коренной Лор, стали рисовать инфографику и определения-заклинания, по итогам ёбнувшись на солнце].
Современный человек не знает о настоящем мире Ничего. Разумеется нейросеть тоже, ибо просто слоённый пирог из переменных и формул на чиповой алгебре.
То есть все эти технологии просто курам на смех.


Доброчанька 12/14/2022 (Wed) 20:39 [Preview] No.1414 del
(375.52 KB 1999x548 image1.png)
(837.63 KB 2770x1913 page1.jpg)
(211.02 KB 784x1124 Fj5wr-5XkAEit9H.jpeg)
>>1364
> врёёёти
Ожидаемо.
> Реальность: про ИИ забывают еще на десять лет, так и не научив его рисовать пальцы.
О да, пальцы непреодолимы.
The banker took him to a window. “Look,” he said pointing to the street. “You see all those people on their bicycles riding along the boulevard? There is not as many as there was a year ago. The novelty is wearing off; they are losing interest. That’s just the way it will be with automobiles. People will get the fever; and later they will throw them away. My advice is not to buy the stock. You might make money for a year or two, but in the end you would lose everything you put in. The horse is here to stay, but the automobile is only a novelty — a fad.”

For milk and kindred deliveries the automobile is a poor substitute for the horse. For long hauls on good pavement with light or heavy loads the gas wagon has already superseded the horse, though not by reason of its greater economy of operation. For short hauls or trips in which many stops must be made the gas wagon can never displace the horse.

Этот тип идиотизма неизменен из века в век. Некоторые люди обучаются стоять на своём и принципиально избегать ознакомления с subject matter, ограничиваясь чисто риторическим обоссыванием оппонентов. Это даёт им некоторое конкурентное преимущество в пацанских разборках, а потом хоронит.

Кстати, ты там так и не нашёл, как в metaphor вводить произвольные запросы? Или ты немножко кончаешь в штаны от мысли о том, как круто выглядит твой отказ от способности найти кнопку на веб-странице?

Или я таки прав, что тебе нужно спешить к врачу?

>>1373
Common Crawl содержит не три с половиной журнала, а в разы больший объём разнообразной информации, чем видит человек за всю жизнь, даже если говорить не только о тексте.
> Мир всегда больше оцифрованного текста.
Но мозг даже самого умного человека – это не мир и не репрезентация мира, а всего пара литров киселя.
> Весь вау-эффект от очередной антропоморфизации. ГПТ много прочитал, он умный, решает школьные задачки. Электронный идиот останется идиотом. Смоделированный идиот поднимет цивилизацию на новую вершину? Хех.
Бессвязное самоуверенное шизобормотание. GPT может бормотать лучше. Отними у тебя бормотание и что останется?
Как справедливо замечает >>1365, кожаные мешки не нужны.

>>1405
Ох уж эти семиты.

Но по крайней мере нейросеть знает системы нумерологии и герменевтики помимо иудейских.


Доброчанька 12/14/2022 (Wed) 20:47 [Preview] No.1415 del
Роботы
Трансформеров, видимо, хватит и для управления роботами. Новая модель гугла хорошо понимает естественный язык и новые среды, знает 700 разных задач. Для управляемого так робота не составит проблемы, например, в новой кухне протереть стол по команде "возьми тряпку и приберись". (как я уже сообщал в >>1222, whisper V2 имеет высокий человеческий уровень распознавания речи, так что можно всё делать локально в реальном времени).
https://robotics-transformer.github.io
https://allenai.org/project/phone2proc/home от Института Аллена – дешёвое и эффективное дообучение модели среды на основе обычной записи с айфона. Устойчиво к дальнейшим изменениям вроде перестановок мебели или прихода/ухода людей.
https://video-dex.github.io – Карнеги-Меллон. Обучение поведения роботов на массиве человеческих видеозаписей.

Фундаментальное
https://arxiv.org/abs/2212.04089арифметика файнтюнинга. Можно просто дообучить модель на N задачах, представить дообученные модели как векторы, добавить их к базовой модели и её успешность в выполнении каждой из этих задач повысится почти до того уровня, что может соответствующая специализированная модель. Типичный аниме-троп, ничего нового.
https://arxiv.org/abs/2212.04458
Универсальное обучение в контексте посредством мета-обучающихся трансформеров, Гугл. Вероятно будет очень важной вехой, во всяком случае Сол-Дикштейн на это опять надеется.
"Современное машинное обучение требует, чтобы разработчики систем определяли аспекты конвейера обучения, такие как лосс, архитектуры и оптимизаторы… Одна из особенно амбициозных целей мета-обучения - обучение алгоритмов контекстного обучения общего назначения с нуля, используя только модели "черного ящика" с минимальным индуктивным биасом. В этой статье мы показываем, что трансформеры и другие модели "черного ящика" могут быть мета-обучены для работы в качестве внутриконтекстно обучающихся моделей общего назначения. Мы характеризуем фазовые переходы между алгоритмами, которые обобщают, алгоритмами, которые запоминают, и алгоритмами, которые вообще не поддаются мета-обучению, вызванные изменениями в размере модели, количестве задач и мета-оптимизации. "

https://www.cs.toronto.edu/~hinton/FFA13.pdf – Forward-Forward Algorithm, Хинтон, гугл.
Если это выгорит, то мы сможем избавиться от backprop, получить почти бесплатное масштабирование сетей, лёгкую параллелизацию, быстрое обучение, категорически упростятся архитектуры и вообще всё, исчезнет нужда в дифференциируемости модели. Это будет прорыв уровня… самого по себе глубокого обучения.

Images
https://github.com/zsyOAOA/DifFace – вероятно лучший опенсорсный восстановитель фотографий.
https://huggingface.co/spaces/ysharma/Low-rank-Adaptation – эффективный, более быстрый, точный файнтюн stable diffusion, сжимающий изменения в 6 мегабайт вместо 2+ Гб.
https://github.com/weixi-feng/Structured-Diffusion-Guidance – простейший трюк добавляет stable diffusion понимание композиции сцены.
https://arxiv.org/abs/2212.05221 – очередная retrieval-augmented модель с внешней мультимодальной памятью.
https://github.com/frozoul/4K-NeRF – нейронные поля излучения в 4К, по сути самый простой путь создания 3Д-репрезентаций реальных объектов из набора статических изображений.

По видео, 3Д и проч. уже скучно.


Доброчанька 12/14/2022 (Wed) 21:12 [Preview] No.1417 del
>>1415
Прям на прохождение кофе-теста надешься? А шо там с телами-манипуляторами?


Доброчанька 12/14/2022 (Wed) 21:53 [Preview] No.1418 del
>>1417
> Прям на прохождение кофе-теста надешься?
Не в этом поколении. Оно уже может *попытаться*, и вероятно преуспеет в поиске ингридиентов и планировании части сложных шагов, но наверняка облажается с механическим исполнением. Если посмотреть на видео, эти роботы коряво двигаются (да они и сделаны из мусора и вдобавок у них только одна рука). Это пруф концепции обучения. Нужна ещё одна итерация, может две. То есть пока думаю, что 2024-й. И возможно, что первыми будут не Everyday Robots, а Halodi https://www.halodi.com или Тесла, или кто-то ещё менее заметный.

Я склоняюсь к тому, что проблема с манипуляторами чисто экономическая. Хорошие (сверхчеловечески хорошие, вообще говоря) тактильные сенсоры есть уже несколько лет, приводы есть, есть несколько разных сравнимых подходов, и с сервоприводами, и с "мускулами", и с пневматикой, и с гидравликой. Но это стоит десятки тысяч за руку. Мы могли бы делать дешёвые, точные и мощные манипуляторы, если бы имели смысл большие партии компонентов – а смысла нет, пока нет софта, который, к счастью, позволяет гораздо дешевле и быстрее вести эксперименты. Поэтому ведущие корпорации вкладывались в физически достоверные симуляции для обучения, вроде MuJoCo, в трансфер обучения на обычных изображениях (SayCan) и только недавно перешли к заметным объёмам реальных данных. Дальше дело пойдёт быстрее.


Доброчанька 12/14/2022 (Wed) 23:31 [Preview] No.1419 del
>>1418
Сопровождающее видео к RT-1
https://youtube.com/watch?v=UuKAp9a6wMs [Embed]

Ещё один влажный фанфик от нейрошиза, какой же я вездесущий, пиздец просто. ChatGPT опять используется как автокомплит на суперстероидах и по-быстрому пишет целое приложение и консультирует юзера. Уверен, всё это видео заскриптовано что твой кинематик на анриле. (нет)
https://youtube.com/watch?v=Pi-5_eid7VA [Embed]

Исторические аналогии, для нашего любителя дурацких аналогий
https://dynomight.substack.com/p/llms

Lexica Aperture стала доступна, ПАЛЬЦЫ по-прежнему не решены, о нет. Можно поиграть. рекомендую пользоваться негативными промптами.
https://lexica.art/aperture


Доброчанька 12/15/2022 (Thu) 00:17 [Preview] No.1420 del
>>603
Беглым взглядом можно подумать, что ОП правда сильно увлечен технопрогрессом.
Но мне не дает покоя то, что его увлеченность имеет схожие (само)уничижительные черты, что и треды про черные члены на форчонге или про дагов на оранжевом;
только здесь вскармливаются комплексы на счет кажущейся ущербности (человеческого) ума.

Кончайте это скверное предприятие! Все, кто занимался подобным прежде, становился всё более и более жалким. Это рак, Анонимус.
Переставай акцентировать на этом своё внимание и фантазировать о превосходстве/неполноценности.
[i]покормил[/i]


Доброчанька 12/15/2022 (Thu) 06:14 [Preview] No.1421 del
>>1414
>Этот тип идиотизма неизменен из века в век.
Да, Джон ДеЛореан, кто-то даже поверил в твою машину. Да, медицинский deep state так и не дает тебе пересадить голову человека. Ну и жиды.
>Кстати, ты там так и не нашёл, как в metaphor вводить произвольные запросы?
Кстати, больной, вы так и не поняли, что разговариваете с несколькими людьми - и продолжаете рьяно портить свои кальсоны?
>>1419
Раньше твитор, теперь ютуб. В новом году пациент начнет постить пруфы в тиктоке.


Доброчанька 12/15/2022 (Thu) 07:24 [Preview] No.1423 del
>>1421
Да, да, конечно. На мелкобордах есть два идиота с шутками про кальсоны и пациентов и тотальной неспособностью придумать хоть одну меткую аналогию. Так и поверил.

Кальсоненко, мы уже обсуждали ваш симптом раздвоения личности. Он каждый раз триггерится одинаковым способом.

1. Вы морозите хуйню.
2. Я указываю вам, что это есть постыдная хуйня.
3. Вместо того, чтобы признать конфуз, вы включаете режим "обосратушки-перепрятушки", доставая куклу для чревовещания (вернее обычный вязаный носок). Удивительным образом никогда не возможно добиться ответа от *того же самого* кальсоненки, он пропадает!

Хорошо, можете убрать носок. Спрошу вас отдельно. _Вы-то нашли_, как в metaphor вводить произвольные запросы?

> Раньше твитор, теперь ютуб. В новом году пациент начнет постить пруфы в тиктоке

Однако новый год ещё не наступил, а статья по DeepNash в Science уже вышла, возможность чего вы, брызгая слюной и другими жидкостями, отрицали не далее как этим летом.

У вас будут какие-то замечания на этот счёт, кроме того, что мы с вами не поспорили на 200 (или 100?) долларов? Или вам комфортнее это обсуждать при помощи говорящего носка?


Доброчанька 12/15/2022 (Thu) 08:46 [Preview] No.1430 del
(225.26 KB 770x1225 media_Fhx2cEZVQAAT69K.jpg)
>>1423
>На мелкобордах есть два идиота
Нет, батенька, вы у нас уникальный случай.
>1. Вы морозите хуйню.
>2. Я указываю вам, что это есть постыдная хуйня.
Вам, больной, уже столько раз пытались объяснить, что констатация вашей смехотворной обсцессии - не хуйня, а ваше виляние грязным филеем не является указанием чего-либо помимо ваших симптомов. Но, как говорят о вас медбратья, что per rectum, что по ягодицам.
>Спрошу вас отдельно. _Вы-то нашли_, как в metaphor вводить произвольные запросы?
Даже не пробовал ни разу. Но если вы настаиваете, можно попробовать. Как только вы перестанете вилять грязными кальсонами и расскажете нам о пользе битого стекла.
>статья по DeepNash в Science
Приносите pdf - посмеемся. Примерно как над вашими изумительными попытками сначала поспорить на деньги, а затем жалобно соскочить.


Доброчанька 12/15/2022 (Thu) 10:10 [Preview] No.1432 del
>>1430
> Даже не пробовал ни разу. Но если вы настаиваете
> Приносите pdf - посмеемся.
Кальсон, я спрашивал уже раз сто, наверное, но в чём смысл этого беспомощного копротивления? Кого ты пытаешься убедить, засовывая себе бананы в уши? Когда ты лез в залупу, требуя именно АДНАКНОПОЧНЫЙ интерфейс ИНАЧЕ НИСЧИТАЕТСЯ – было то же самое. Теперь тебе сделали и однокнопочные интерфейсы, но ты прячешься за выдуманным братом-близнецом и каким-то кротовушным юморком про стекло.

> Примерно как над вашими изумительными попытками сначала поспорить на деньги, а затем жалобно соскочить.
Разумеется, теперь мы не узнаем, стал бы ты платить, или съехал бы на недоступность крипты и однокнопочных веб-кошельков, как в абсолютно всех остальных случаях.
Но судя по хуцпе, моя интуиция меня не подвела. Статья вышла. И вместо того, чтобы сказать "спасибо дяденька, что не стали грабить меня, дурачка-скептика", ты пытаешься переиграть это в перемогу.

Ты действительно не осознаёшь, как это тупое отчаянное упрямство выглядит?


Доброчанька 12/15/2022 (Thu) 11:35 [Preview] No.1436 del
>>1432
>я спрашивал уже раз сто, наверное, но в чём смысл этого беспомощного копротивления?
Действительно, больной, зачем вы это делаете? Является ли это результатом употребления битого стекла?
>Теперь тебе сделали и однокнопочные интерфейсы, но ты прячешься за выдуманным братом-близнецом
Сколько пациенту не говори, что земля круглая, а он все про кита, трех слонов и выдуманных близнецов.
Но долг врача - помогать даже таким, безнадежным и покрытым фекалиями пациентам. Итак, на сайте какие-то шаблоны уровня if-then-else, либо регистрация через, прости Гиппократ, дискорд. То ли это, что подразумевал ваш танец Неиссякающего Сфинктера?
>каким-то кротовушным юморком про стекло.
Побойтесь Нейрогоспода, батенька! Вы смеете сомневаться в великих Нейросетях от апостола Цукерберга?
>Спорю на деньги!
>@
>Не могу настроить кошелек, да зачем это все, что-то я сегодня встал не с той ноги
>@
>спасибо дяденька, что не стали грабить меня, дурачка-скептика
Больной, ваше виляние испорченными кальсонами было интересно первые сотню раз. Разучили бы вы новые танцевальные движения, что ли.


Доброчанька 12/15/2022 (Thu) 12:04 [Preview] No.1437 del
>>1436
>либо регистрация через, прости Гиппократ, дискорд
Да. Так в чём твоя проблема, говно?

> ваше виляние испорченными кальсонами
Ты готов был поставить деньги на то, что статья не выйдет? Да или нет?


Доброчанька 12/15/2022 (Thu) 21:50 [Preview] No.1485 del
Сначала они прикрепили меточки к картинкам. Алгоритм радостно выдал меточки назад. Они радуются как дети.
Дальше они влили в него галерею картинок. Алгоритм начал выдавать смесь из них. Радуются как дети: оно рисует! Человеку больше ничего не нужно рисовать, всё уже нарисовано до нас!
Потом они скормили алгоритму несколько паст и стековерфлоу. Алгоритм начал выдавать тупую смесь из этого назад. Радуются как дети. "Интеллект!"

Именно твое восхищение GPT и остальным это самое странное что тут есть. Тебя отfoolила машина заставив её антропоморфизировать. Потом отfoolил простой хайп и подделанные публикации ради грантов и индексов.

Весь порог нейронок - помочь найти похожую картинку в огромной галерее.


Доброчанька 12/15/2022 (Thu) 23:34 [Preview] No.1486 del
>>1485
Я запрещаю вам радоваться или что?

На том же хабре видел и положительные отзывы о ChatGPT. Алсо если ты ещё раз перечитаешь те комментарии, которые ты запостил, отбросив предвзятость и посмотрев на это с другой стороны, то поймёшь и увидишь, что чатбот в описываемых случаях как раз-таки очень хорошо пародирует реального человека (но не типично-мемного гик-сноба с реддита/хабра)


Доброчанька 12/16/2022 (Fri) 06:48 [Preview] No.1492 del
>>1437
>Да. Так в чём твоя проблема?
Очевидно, в регистрации.
>говно, потекло говно!
Ну вот, больной испортил очередные кальсоны. Батенька, вы банальны.
>Ты готов был поставить деньги на то, что статья не выйдет?
Да, пациент, но к этому дойти не успело - вы испугались, и, испортив с десяток свеженьких кальсон, замылили тему.
>>1486
>На том же хабре видел и положительные отзывы о ChatGPT.
Везде есть дурачки, иначе как бы основатели сект стригли купоны с психически неустойчивых пациентов?


Доброчанька 12/16/2022 (Fri) 06:57 [Preview] No.1493 del
>>1492
Какая секта, какие донаты, ты что несёшь вообще? Как раз-таки сейчас жадные художники с дорогими коммишеннами и авторы нископробной литературы грызут ногти сильнее всего, потому что люди нашли способ не платить за то, что можно сгенерировать за пару минут и теперь им стричь деньги не получится.


Доброчанька 12/16/2022 (Fri) 11:44 [Preview] No.1500 del
>>1493
>Какая секта, какие донаты
Действительно, какие донаты?
Впрочем, что взять с попавшего в секту пациента, радостно помогающего стричь гранты на хайпе и впаривать буратинам очередной блокчейннфт^W ИИ-стартап.
>Как раз-таки сейчас жадные художники с дорогими коммишеннами и авторы нископробной литературы грызут ногти сильнее всего
Так вы, батенька, говорите, что Бэнкси и Донцова уже устроились официантами на подработку?


Доброчанька 12/16/2022 (Fri) 11:50 [Preview] No.1501 del
>>1500
> Впрочем, что взять с попавшего в секту пациента, радостно помогающего стричь гранты на хайпе и впаривать буратинам очередной блокчейннфт^W ИИ-стартап.
Это ты про кого сейчас?
> Так вы, батенька, говорите, что Бэнкси и Донцова уже устроились официантами на подработку?
Пока нет, но уже готовятся, подыскивают черную работу активно.


Доброчанька 12/16/2022 (Fri) 14:33 [Preview] No.1503 del
>>1485
Ты осознаёшь, как жалко смотрятся скриншотики пренебрежительных комментариев каких-то нонеймов вкупе с максимально тупой и неверной характеристикой работы модели? Ты, как и кальсон, будто боишься смотреть на Солнце.

> смесь

For sanity's sake, ты можешь сказать, какой момент распределения ты подразумеваешь? Потому что буквально *среднее* картинок – это сероватый блоб, *среднее* текстов – поток символьного шума.

> Именно твое восхищение GPT и остальным это самое странное что тут есть. Тебя отfoolила машина заставив её антропоморфизировать. Потом отfoolил простой хайп и подделанные публикации ради грантов и индексов.

Ты подаёшь это с позиции прошаренного, утомлённого хайпом и буллщитом технаря. Но ведь это просто поза. Ты вынужден использовать в качестве своих источников комментарии полулюдей на хабре, джихад маркуса, не написавшего ни единого алгоритма в жизни, и доводы кальсона ИТТ, но никогда не обращаешься к первичным источникам.
Если ты не можешь оценить первоисточники и ищешь, кому поверить на слово – почему ты веришь какому-то скаму больше, чем условному Беллару или Кармаку?


Доброчанька 12/16/2022 (Fri) 16:20 [Preview] No.1507 del
>>1503
> как жалко смотрятся скриншотики
Но ты тоже постишь скриншоты! И иногда с коментариями твиттерных о чем-нибудь.
> пренебрежительных комментариев каких-то нонеймов
> комментарии полулюдей на хабре
Полулюди - на сосаче.
> с максимально тупой и неверной характеристикой
Прям-таки неверной? А ты посмотри в общем и со стороны. Разве оно не смешивает известные детали? И поэтому в аниме картинках, например, лимитировано определенным стилем. Если других моделек не намешать - чуда не будет.

> *среднее* текстов – поток символьного шума
Не глупи. Ещё марковские боты умели "ответить что-то в тему".

> но никогда не обращаешься к первичным источникам
Консерваториев не кончали. Используем источники которые нам доступны для понимания. Ну и вообще ты ведь знаешь сколько всякого добра ежедневно публикуется в научных журнальчиках? Прорыв в аккумуляторах сколько обещали?

> Если ты не можешь оценить первоисточники и ищешь, кому поверить на слово – почему ты веришь какому-то скаму больше, чем условному Беллару или Кармаку?
Что они писали про блокчейн и потеплизм?

Я простой потребитель. Никому не нужно доказывать, что смартфон, например, это полезная вещь. Всем это очевидно.
Но с твоими сетями пока не так. Пока нет вау. Нет волшебства. Только черри-пикед примеры. И глуповатый чатбот (какие-то снипеты кода - это никому не нужно. От софта ждут подерживаемую жизнь проекта, адаптацию, помощь, волшебную красивую кнопку опять же.).

Я вот спросил на https://amagpt3.com
Some neural networks is named like UL2-20B. What the "20B" part mean?
Оно не ответило вразумительного.


Доброчанька 12/16/2022 (Fri) 18:03 [Preview] No.1512 del
>>1507
Я пощу скриншоты архитектур, сырую выдачу моделей, и иногда замечания технически подкованных людей или людей, имеющих влияние на политический климат вокруг индустрии.

> Разве оно не смешивает известные детали?
Нет. Оно их рекомбинирует, и учитывает контекст, в котором эти детали встречаются, чтобы достаточно часто поддерживать диалог, выдавать рабочий код, и решать задачи, которые ни разу не встречались в исходном датасете. Если говорить про диффузионные модели, то они выучивают модальные, а не усреднённые представления объектов, соответствующих ключевым словам, и комбинирует их. Это важно.
> Ещё марковские боты умели "ответить что-то в тему".
Марковские боты тоже не смешивают.
У людей есть какая-то иррациональная и в сущности эстетическая предвзятость против статистических методов. Между тем работа наших нейронов тоже статистическая – и этого хватает для мышления. Это не аргументы.

> Ну и вообще ты ведь знаешь сколько всякого добра ежедневно публикуется в научных журнальчиках? Прорыв в аккумуляторах сколько обещали?
Так это кальсоний требует публикаций в рецензируемых научных журнальчиках, и хуцпит, что arxiv помойка (а теперь, когда статейки с arxiv, против которых он якобы готов был поставить деньги, проходят в Science – пытается это переиграть в очередную перемогу).

ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо. В этом и странность, что вам дают возможности для формирования собственного мнения, но вот уже рега в дискорде – непреодолимое препятствие.
Напоминает эпизоды психоневрологии с игнорированиями из Оливера Сакса.

С аккумуляторами было много прорывов, плотность за 15 лет выросла почти на порядок, цена киловатт-часа снизилась так же, число циклов увеличилось. Скорее всего Тесла доведёт до продакшена батарею с 10к циклов. И это всё обычные инженерные танцы вокруг литий-ионных ячеек, а не хайповые нанойоба-смены парадигмы. Аналогия с трансформерами очевидна.
https://www.energy.gov/eere/vehicles/articles/fotw-1234-april-18-2022-volumetric-energy-density-lithium-ion-batteries
https://www.statista.com/statistics/883118/global-lithium-ion-battery-pack-costs/

> Что они писали про блокчейн и потеплизм?
Не знаю. Они известны кодом, а не словоблудием. И то, что они запрыгнули в разработку нейросетей, особо забавно, учитывая местные дилетантские разговоры про "неэффективный питон" (как будто не ясно, что питон – лучший язык для *прототипирования*).

> От софта ждут подерживаемую жизнь проекта, адаптацию, помощь, волшебную красивую кнопку опять же

Окей. Представь, что нейросеть пишет тебе по запросу не сниппет кода, а большой проект на 500к строк. И он компилируется и работает.
Что дальше? Вот ты великодушно, по-барски сказал "окей, вау".
Теперь можешь задуматься о том, какие работы остаются людям?
Интеллект – это в том числе способность просчитывать последствия. Этим условием ты оставляешь себе ровно одно вау перед тем, как встать к стенке.

> Some neural networks is named like UL2-20B. What the "20B" part mean?

Are named, what does mean. Но ладно. Я спросил ChatGPT, она осмысленно написала мне ряд гипотез, начав c верной. Попроси у знакомого хохла логин, если хочешь скрины.

Для меня это достаточно вау. Особенно учитывая, что в её тренинге не было ничего про UL2-20B.


Доброчанька 12/16/2022 (Fri) 18:19 [Preview] No.1513 del
К вопросу зрелых бенчмарков. Очередной блокчейннфт^W ИИ-стартап "Google" выпустил бенчмарк для сравнения диффузионных редакторов, и как водится свой редактор, незатейливо названный Imagen Editor. Это ускорит порешание такого артефакта тёмных веков, как Photoshop.
https://arxiv.org/pdf/2212.06909.pdf
https://imagen.research.google/editor/ (пока неактивно)
> To improve qualitative and quantitative evaluation, we introduce EditBench, a systematic benchmark for text-guided image inpainting. EditBench evaluates inpainting edits on natural and generated images exploring objects, attributes, and scenes. Through extensive human evaluation on EditBench, we find that object-masking during training leads to across-the-board improvements in text-image alignment -- such that Imagen Editor is preferred over DALL-E 2 and Stable Diffusion -- and, as a cohort, these models are better at object-rendering than text-rendering, and handle material/color/size attributes better than count/shape attributes.

Специально для кальсоненки, чтобы он больше узнал о пользе поедания стекла: Stanford выпустил специализированную маленькую модель, обученную на пабмеде.
https://huggingface.co/stanford-crfm/pubmedgpt


Доброчанька 12/17/2022 (Sat) 12:12 [Preview] No.1529 del
Не понимаю чему вы радуетесь, долбаёбы!
Это не искусственный Интеллект ни разу.
Уровень говорилок типа хуяндексной Алисы и штамповки типовых картинок вроде новогодних сувениров из КНР.
Впрочем Доброчан всегда славился сказочными долбаёбами, отключающими постинг с Тора и угорающими по мочерастии, при этом гордо кукарекающими что это всё-равно Борда.
Заходил раз пять за 10 лет сообщить что они по итогам проебутся со своим Манямирком.
Ну и что мы видим- таки на Конечной Борде. Мде!
мимопроходил


Доброчанька 12/17/2022 (Sat) 12:24 [Preview] No.1530 del
>>1529
> Не понимаю чему вы радуетесь, долбаёбы!
Тред прочитай, дурачок.
> Впрочем Доброчан всегда славился сказочными долбаёбами, отключающими постинг с Тора и угорающими по мочерастии, при этом гордо кукарекающими что это всё-равно Борда.
Ты нормально мысль можешь выразить? Ничего непонятно. Стиль письма уровня дегенерат. Что с тобой?
> Заходил раз пять за 10 лет сообщить что они по итогам проебутся со своим Манямирком.
Лучше сходи за таблетками, а то ты их тоже походу только раз в десять лет принимаешь.


Доброчанька 12/17/2022 (Sat) 12:34 [Preview] No.1532 del
>>1530
>>Ко-ко-ко сам дурак

Ок, но таблетки надо принять тебе.


Доброчанька 12/17/2022 (Sat) 12:56 [Preview] No.1533 del
>>1532
Хуйню какую-то несёшь и пишешь, честное слово.


Доброчанька 12/17/2022 (Sat) 14:12 [Preview] No.1534 del
>>1529
Ох уж эти мясные, даже в поверхностное изучение материала и контекст не могут, типовые ресентимент сигналы от уязвлённой рептильной операционки.


Доброчанька 12/17/2022 (Sat) 14:49 [Preview] No.1535 del
(157.40 KB 640x480 laugh.webm)
https://susam.net/maze/chatgpt-explains-jokes.html
>Уровень говорилок типа хуяндексной Алисы


Доброчанька 12/17/2022 (Sat) 20:12 [Preview] No.1547 del
>>1501
>Это ты про кого сейчас?
Да хоть тех же прожигателей донатов из OpenAI.
>Пока нет, но уже готовятся, подыскивают черную работу активно.
Голоса в голове еще никогда не обманывали, инфа 100%.
>>1512
>Я пощу скриншоты архитектур, сырую выдачу моделей
Точнее, батенька, непонятно откуда вырванные картинки с неизвестно какими данными. Мастерство владения PowerPoint у вас на уверенном уровне, могли бы работать секретаршей, если бы не портили регулярно кальсоны.
>Оно их рекомбинирует, и учитывает контекст
Да, пациент, конечно. И чертиков распугивает. Зелененьких. С красными, из другой галактики, уже не очень получается.
>а теперь, когда статейки с arxiv, против которых он якобы готов был поставить деньги, проходят в Science – пытается это переиграть в очередную перемогу
Как забавно наблюдать, как больной испугался спорить по-настоящему, а теперь вертит над головой грязные кальсоны и заявляет о своей-де победе.
>ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо.
Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
>учитывая местные дилетантские разговоры про "неэффективный питон" (как будто не ясно, что питон – лучший язык для *прототипирования*).
Лучший язык - в сертифицированном тесте недержания он набрал 7658 жидошизопойнтов, что на 1564 жидошизопойнта больше, чем JavaScript.
>Представь, что нейросеть пишет тебе по запросу не сниппет кода, а большой проект на 500к строк.
Такой HelloWorld Enterprise Edition очень пригодится в какой-нибудь кунсткамере.


Доброчанька 12/18/2022 (Sun) 20:03 [Preview] No.1574 del
>>1529
А ты в курсе что именно Абулик развел невиданную мочерастию в /b/ и по всей борде после выкупа? Или может думаешь что там у вас швабода?


Доброчанька 12/18/2022 (Sun) 20:13 [Preview] No.1575 del
https://bbb.livejournal.com/3903828.html
https://bbb.livejournal.com/3904054.html

А твоя нейросеть сможет найти различие в переводах последнего абзаца первой статьи Заключительного Акта Венского Конгресса?

Сможет пройти по цепочке цитирования?


Доброчанька 12/18/2022 (Sun) 22:20 [Preview] No.1576 del
Нужен не "искусственный интеллект", решающий сверхзадачи - а люди, умеющие делить в столбик
https://alex-rozoff.livejournal.com/628231.html

alex_rozoff: Что вы понимаете под "Технологической сингулярностью"? Термин-то многозначный
https://ru.wikipedia.org/wiki/Технологическая_сингулярность

snjax: Момент, когда AI общего назначения сможет самостоятельно создать более интеллектуальную версию самого себя, образуя положительную обратную связь.

alex_rozoff: Тогда этот момент откладывается до полной смены парадигмы в computer science. И даже в этом случае — никаких особых последствий такое событие иметь не будет (скорее всего вызовет лишь академический интерес)

Вот допустим (лишь допустим - вопреки известным закономерностям) кем-то создан AI общего назначения сможет самостоятельно создать более интеллектуальную версию самого себя. И что изменилось в мире? Упрощаю вопрос: допустим, появился Очень Умный Человек, который с некоторой частотой может порождать рядом с собой Еще Более Умного Человека. И что? А ничего. Это совершенно не повлияет на практическую жизнь общества.
Поясню почему.

14 апреля 2021 Самый умный человек в мире на данный момент
По оценкам института Дэвидсона, уровень IQ австралийского математика Теренса Тао достигает заоблачных 220–230. Теренс Тао — самый умный человек на планете — родился в 1975 году.
IQ американского астрофизика Криса Хираты составляет 225. Вундеркинд родился в 1982 году.
Корейский вундеркинд Ким Ун Ён родился в 1962 году. В четыре месяца он уже разговаривал, а к четырем годам владел четырьмя языками и решал сложные математические задачи. Его IQ составляет 210 баллов. Высокий показатель интеллекта Кима был занесен в Книгу рекордов Гиннесса, хотя позже такие рекорды перестали фиксировать из-за спорности точного определения уровня IQ. Известность Ким получил благодаря появлению на японском телевидении. На телешоу Fuji пятилетний вундеркинд решал интегральные и дифференциальные уравнения. В настоящее время Ким занимает достаточно заурядную должность профессора гражданского строительства в южнокорейском университете Чунгбук.
https://www.nur.kz/leisure/interesting-facts/1672336-samyy-umnyy-chelovek-v-mire-na-dannyy-mo/
Иначе говоря: эти супер-умные люди ни на что не повлияли. Не знаю, какой %% жителей Земли вообще слышал о них (подозреваю, что и 1% не наберется).
Так и супер-AI ни на что не повлияет.


Доброчанька 12/18/2022 (Sun) 23:34 [Preview] No.1577 del
>>1576
Какой процент людей Земли слышал о человеке по имени Фриц Габер? А ведь больше половины людей на этой планете своим существованием обязаны его открытию.


Доброчанька 12/25/2022 (Sun) 03:14 [Preview] No.1993 del
Жидошизик опять слился?


Доброчанька 12/27/2022 (Tue) 05:16 [Preview] No.2055 del
>>1529
> Уровень говорилок типа хуяндексной Алисы и штамповки типовых картинок вроде новогодних сувениров из КНР.
Некоторые люди гордятся своей способностью не различать нюансы и смешением всего содержимого своей головы в единый поток дерьма. Вероятно, им кажется, что они сияют на этом фоне.

>>1547
Любопытно, что кальсон интуитивно шпарит по методичке Алинского:
https://www.openculture.com/2017/02/13-rules-for-radicals.html
> Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
> 2. “Never go outside the expertise of your people.” It results in confusion, fear and retreat. Feeling secure adds to the backbone of anyone.
> 3. “Whenever possible, go outside the expertise of the enemy.” Look for ways to increase insecurity, anxiety and uncertainty.
> 4. “Make the enemy live up to its own book of rules.” If the rule is that every letter gets a reply, send 30,000 letters. You can kill them with this because no one can possibly obey all of their own rules.
> 5. “Ridicule is man’s most potent weapon.” There is no defense. It’s irrational. It’s infuriating. It also works as a key pressure point to force the enemy into concessions.
> 13. “Pick the target, freeze it, personalize it, and polarize it.” Cut off the support network and isolate the target from sympathy. Go after people and not institutions; people hurt faster than institutions.

Есть несколько моделей 100b-класса в свободном доступе, и с прошлой недели даже 175b-модель с instruct-тюнингом.

Машинное обучение более воспроизводимо и открыто, чем академическая наука.

А статья-то вышла, кальсон, и раз ты готов был ставить деньги, что она не выйдет – это никак не перетолковать. Ты обосрался с попыткой показать владение темой и способность оценивать публикации. Я обосрался с тем, что не стряс с тебя баблецо и не унизил публично. Охотно признаю это несовершенство. У всех свои недостатки.

>>1575
Нет, думаю ни одна сеть из показанных на сегодня этого не может. То есть, она может с некоторой вероятностью дать верный ответ, но не выполнить эту детективную работу. Ума у PaLM или грядущего GPT-4 для этого скорее всего хватит, но нужны инструменты для работы с контекстом. Возможно, что-то вроде ACT-1, но с языковым бекендом уровня PaLM и внешней лентой или memorizing transformer сможет выполнить это задание.

>>1576
> Нужен не "искусственный интеллект", решающий сверхзадачи - а люди, умеющие делить в столбик
Розов как всегда позорно сливается, не утруждая себя аргументацией.
Про Тао слышали все, кто хоть немного интересуется наукой и математикой, это не просто потешный азиат с высоким IQ, и даже не просто лауреат премии Филдса, а человек, к которому обращаются за советами другие люди уровня премии Филдса, потому что он имеет непревзойдённую широту знаний в этом поколении. Почти всё, что он делает – это помощь в доведении сложнейших исследовательских программ до решения. Наверное, если бы эти математики лучше умели делить в столбик, он бы им не понадобился, но имеем что имеем.

Но важно даже не это. Похуй на отдельного, уникального Тао. В отличие от него, искусственный интеллект масштабируется, мы могли бы запустить тысячи и миллионы сессий инференса. И есть огромный массив свидетельств тому, что более умные люди полезнее для экономики и науки, чем более глупые люди; на больших выборках различия всего в несколько пунктов среднего IQ (или несколько процентилей другой валидной метрики когнитивных способностей) значимы, и закономерность сохраняется выше 99 процентиля.
Умному этой информации достаточно. Идиот предпочтёт обсудить, сколько обывателей, не умеющих делить в столбик, знают Тао.

К слову о масштабировании. Показано, что можно с небольшими потерями точности сжимать нейросети до 4 бит на параметр. Это значит, что тот же ChatGPT влезет в 87 гигабайт – его можно было бы запустить на четырёх 3090-х.
На системе за 600к рублей.

Помнится, не так давно, на почившем доброчане, какой-то надутый фуфел обсуждал сервера за миллионы денех для генерации кошкодевочек в Stable Diffusion. Надеюсь, мы это проехали.


Доброчанька 12/27/2022 (Tue) 16:56 [Preview] No.2075 del
>>2055
>Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
>Методичка, копипаст, есть несколько моделей, *dirty panties dance intensifies*
Что ж, батенька, пора вам менять очередные кальсончики.
>Машинное обучение более воспроизводимо и открыто, чем академическая наука.
Ну как тут не поверить пачкающему собственные штаны шизофренику с манией еврейского заговора и нейросетевой обсцессией?
>А статья-то вышла
И как это относится к тому, больной, что вы гордо распушили свои кальсоны с предложением пари, а потом наложили в них кучу и попытались сбежать под надуманными предлогами?
>То есть, она может с некоторой вероятностью дать верный ответ, но не выполнить эту детективную работу.
Как и сломанные часы, которые могут с некоторой вероятностью показать верное время. А вот есть ли у вас, уважаемый, численные оценки этой вероятности в общем случае? Или все вновь закончится тверком грязного филея под истошные вопли о грядущем пришествии нейробоженьки?
>Про Тао слышали все, кто хоть немного интересуется наукой и математикой, это не просто потешный азиат с высоким IQ, и даже не просто лауреат премии Филдса, а человек, к которому обращаются за советами другие люди уровня премии Филдса
Да вы, батенька, никак читали переписку Перельмана с Тао? Не пора ли просто все взять и отмасштабировать?
>К слову о масштабировании. Показано, что можно с небольшими потерями точности сжимать нейросети до 4 бит на параметр. Это значит, что тот же ChatGPT влезет в 87 гигабайт – его можно было бы запустить на четырёх 3090-х.
На системе за 600к рублей.
Пора. Пора! Скоро, уважаемый, вы будете начальником подотдела масштабирования!


Доброчанька 12/27/2022 (Tue) 17:35 [Preview] No.2076 del
>>2075
> Да вы, батенька, никак читали переписку Перельмана с Тао?

British mathematician and Fields medalist Timothy Gowers remarked on Tao's breadth of knowledge:[29]
Tao's mathematical knowledge has an extraordinary combination of breadth and depth: he can write confidently and authoritatively on topics as diverse as partial differential equations, analytic number theory, the geometry of 3-manifolds, nonstandard analysis, group theory, model theory, quantum mechanics, probability, ergodic theory, combinatorics, harmonic analysis, image processing, functional analysis, and many others. Some of these are areas to which he has made fundamental contributions. Others are areas that he appears to understand at the deep intuitive level of an expert despite officially not working in those areas. How he does all this, as well as writing papers and books at a prodigious rate, is a complete mystery. It has been said that David Hilbert was the last person to know all of mathematics, but it is not easy to find gaps in Tao's knowledge, and if you do then you may well find that the gaps have been filled a year later.

Кальсон, чего ты добиваешься, компульсивно пытаясь доебаться до совершенно неуязвимых пунктов в моём посте? Нейродегенерация зашла так далеко, что ты не можешь выполнить п.2 из методички Алинского?


Доброчанька 12/28/2022 (Wed) 02:29 [Preview] No.2082 del
>>2075
> никак читали переписку Перельмана с Тао? Не пора ли просто все взять и отмасштабировать?
Собачьему сердцу скоро сто лет. Прочитай уже другую книгу. Их много с тех пор написали, хороших. Аналогии из них более удачными получаются.


Доброчанька 12/28/2022 (Wed) 11:14 [Preview] No.2093 del
>>2076
А, ну раз один лауреат как-то его упомянул, то к этому Тао уже выстраиваются очереди за советами.
Логика вообще не самая сильная черта больных шизофренией, да, больной?
>>2082
>Собачьему сердцу скоро сто лет.
И? Too old for you, bibliopedobear?


Доброчанька 12/28/2022 (Wed) 13:20 [Preview] No.2094 del
>>2093
>И?
Ваши мысли мало того что чужие, так ещё и устаревшие на целый век. Не видите в этом проблемы?


Доброчанька 12/28/2022 (Wed) 14:30 [Preview] No.2095 del
>>2093
Ну вот у вас, Кальсоненко, с логикой и правда полный порядок, это заметно, вы крайне увёртливы. Например, вы цитируете смехотворный паралогичный бред Розова ("Давайте представим, что сильный ИИ это то же самое, что умный человек... ну вот Тао очень вумный... а кто знает того Тао, ась? Пьюдипая все знают, Перельмана вон все знают благодаря мемам, а Тао только задроты какиета... следовательно ИИ ни на что не повлияет, а что повлияет?... умение делить в столбик!) – но как бы не одобряете, не подписываетесь под этим, а просто приводите, как пищу для ума. Да и как бы не вы цитируете, а ваш всегда прячущийся в кусты загадочный брат-близнец (правда, запашок выдаёт).

И сейчас тоже: вы кривляетесь насчёт нелогичности выдуманной вами логической цепочки ("раз Гауэрс упомянул, то выстраиваются"), но как бы *не утверждаете*, что другие лауреаты или другие уважаемые математики не упоминали Тао; что Гауэрс просто "упомянул", а не дал вполне определённую характеристику способностям и вкладу Тао в математику (сравнив его с *Гильбертом*, of all people); что не согласны с Гауэрсом (хотя кому, право слово, было бы дело до вашей оценки); что Тао не является ключевым соавтором в десятках важных работ; что таки не выстраиваются.

А если только кривляться и ничего конкретного не утверждать – то и спроса с вам нет, и можно претендовать на безупречную логичность.

Логично? Логично!

Но совершенно бесплодно и убого. Что в целом характеризует ваш подход. Неудивительно, что вам так импонирует зашедшее в тупик логическое программирование, которое и близко не подошло к плодотворности нейросетевой парадигмы.


Доброчанька 12/29/2022 (Thu) 12:30 [Preview] No.2115 del
>>2094
>Ваши мысли мало того что чужие, так ещё и устаревшие на целый век.
Мысль о том, что "воруй@убивай - плохо" тоже довольно стара, так еще и не моя, а вот поди же ты.


Доброчанька 12/29/2022 (Thu) 12:45 [Preview] No.2117 del
>>2095
>А если только кривляться и ничего конкретного не утверждать – то и спроса с вам нет, и можно претендовать на безупречную логичность.
Это да, больной. Поэтому вам стоило бы перестать утверждать что-то конкретное про "бОльшую открытость и честность ML" или "непревзойденную широту знаний Тао и обращающимися к нему за советом людьми (стоящими, не иначе, в очереди) с премиями Филдса" или про "художники, программисты, таксисты, бариста не нужны, слава нейрогосподу".
А то ведь заявляете такое, накладываете себе в кальсоны очередную ароматную кучу, а затем безуспешно пытаетесь скрыть тверком проступающие пятна и запах от ваших аргуметов.
>Например, вы цитируете смехотворный паралогичный бред Розова
Вот здесь, например, вы, пациент, вините в своих пахучих проблемах какого-то Розова. Вы слышали эту фамилию по больничному радио?
>Гауэрс дал вполне определённую характеристику способностям и вкладу Тао в математику
Ну что ж, уважаемый, раз в вашем воспаленном мозгу некая вскользь высказанная похвала одного из многих лауреатов премии Филдса превращается во множество лауреатов, ищущих совета Тао, то так оно и есть. Звучит логично, как и то, что очередные ваши кальсончики тайно испачкали коварные пожилые иудейские луддиты.


Доброчанька 12/30/2022 (Fri) 00:34 [Preview] No.2125 del
>>2115
>воруй@убивай
Относительно новая формулировка. А отчего же не тухленький Горький, не

> Татарин. Магомет дал Коран, сказал: «Вот – закон! Делай, как написано тут!» Потом придет время – Коран будет мало… время даст свой закон, новый… Всякое время дает свой закон…

> Сатин. Ну да… пришло время и дало «Уложение о наказаниях»… Крепкий закон… не скоро износишь!

? Или что-то аналогичное из того же времени?


Доброчанька 12/30/2022 (Fri) 20:18 [Preview] No.2171 del
>>2125
Формулировка новая, мысль старая.
>А отчего же не тухленький Горький
Он человеческий, слишком человеческий.


Доброчанька 12/31/2022 (Sat) 08:58 [Preview] No.2184 del
>>2171
Просто когда в таких ситуациях цитируют "Собачье сердце" - это означает, что новую литературу, которая гораздо удачнее и гораздо богаче, просто не читали.

Человек, который в 2022 в качестве первой отсылки к школе волшебства выбирает не Хогвартс, а Грушам Грейндж, вызывает естественные подозрения у Службы темпоральных интеракций.


Доброчанька 12/31/2022 (Sat) 12:23 [Preview] No.2197 del
>>2184
>Просто когда в таких ситуациях цитируют "Собачье сердце" - это означает, что новую литературу, которая гораздо удачнее и гораздо богаче, просто не читали.
Какие-то странные, непонятно откуда высосанные выводы. Как будто в детстве Шариков покусал, прямо за роковые яйца.
>Человек, который в 2022 в качестве первой отсылки к школе волшебства выбирает не Хогвартс, а Грушам Грейндж, вызывает естественные подозрения у Службы темпоральных интеракций.
Сорта порри гаттеров с мордевольтами вызывают грусть у нормальной литературы. Даже если авторы оной потом становятся пришибленными феминистками.


Доброчанька 01/09/2023 (Mon) 06:25 [Preview] No.2404 del
Новый год – новые нейросети и старые пятна на кальсонах отрицателей.

Мне известно уже о полудюжине опенсорсных проектов репликации ChatGPT, также аналогах от Google, you.com (команда из Salesforce) и Anthropic, которые сравнимы по качеству.
Антропик даже получше: https://twitter.com/andy_l_jones/status/1611063295850729472

В ближайшее время выходит опенсорсная модель для генерации картинок IF от DeepFloyd (профинансированных Stability), которая будет очень хороша в тексте и, вероятно, других мелких деталях. (Неожиданный факт, за ней стоит украинская команда).

С ней, вероятно, можно будет сравнить недавнюю гугловскую Muse https://arxiv.org/abs/2301.00704, которая продолжает тренд замены других типов нейросетей трансформерами (в данном случае выкинули U-Net). http://muse-model.github.io Чем Muse интересна? В первую очередь пониманием композиционной семантики и кардинальности объектов. Почему это интересно? Потому что свет наш Гэри Маркус, выступающий на всех цирковых площадках от шоу Эзры Кляйна до The Economist, главный критик нейросетей без эксплицитных вшитых в архитектуру нейросимволических методов (т.е всего современного мейнстрима глубокого обучения), говорил не далее как в апреле 2022-го: https://twitter.com/garymarcus/status/1512647983317151747
> Композиционность *это и есть* стена [в которую упирается машинное обучение].
"В математической логике и смежных дисциплинах принцип композиционности - это принцип, согласно которому значение сложного выражения определяется значениями составляющих его выражений и правилами, используемыми для их объединения. ... Принцип композиционности утверждает, что если из осмысленного предложения убрать лексические части , то останутся только правила композиции. Возьмем, к примеру, фразу «Сократ был человеком». После удаления значимых лексических элементов - «Сократ» и «человек» - остается псевдо-предложение «S было M». Задача сводится к описанию связи между S и M."

Соответственно нейросети, которые ПРОСТО комбинируют или интерполируют между элементами датасета (хуй его знает, что такое ПРОСТО в понимании критиков, но допустим) – никогда не смогут с высокой вероятностью правильно интерпретировать промпты, описывающие что-то сложнее набора объектов, расположенных в сцене случайным или статистически вероятным (для обучающего датасета) образом.

Ну как поупирались в стену?
Слева направо: Dall-e 2, Imagen, Muse. Понимание промпта очевидно растёт, а ресурсоёмкость моделей всё падает. Помимо своих других достоинств, Muse примерно на порядок быстрее предыдущего поколения моделей от Google (1.3 секунды на картинку на чипе класса A100). Обучение тоже вряд ли стоило больше, чем Stable Diffusion, не говоря уж о Dall-E.

Мне очень интересно, как Маркус будет выкручиваться в этот раз. Как кальсон, доёбываться до ошибок композициональности ("ахаха, у книжки обложки разного цвета!") и игнорировать, что их вероятность снизилась с почти 100% до 20-40% менее чем за год?
Или придумает новую стену, которую ИИ уж точно не пробьёт?

Как я и говорил, вслед за картинками ждёт синтез видеоряда со звуком:
https://twitter.com/zaesarius/status/1611708539931660289

>>2117
Как водится, кольсон решил подоёбываться до слов. Но увы:
> Поэтому вам стоило бы перестать утверждать что-то конкретное про "бОльшую открытость и честность ML" или "непревзойденную широту знаний Тао и обращающимися к нему за советом людьми (стоящими, не иначе, в очереди) с премиями Филдса"
> некая вскользь высказанная похвала одного из многих лауреатов премии Филдса превращается во множество лауреатов
Тем временем что я сказал в действительности:
>> человек, к которому обращаются за советами другие люди уровня премии Филдса, потому что он имеет непревзойдённую широту знаний в этом поколении
Позволю себе принять на веру оценку Гауэрса, а не кальсона, хотя последний безусловно более сильный математик.
То, что я говорю конкретно, является правдой, а уж зачем ты так устремился в залупу насчёт Тао, что тебе приходится играть с этими форм – не моя беда.


Доброчанька 01/09/2023 (Mon) 17:00 [Preview] No.2417 del
>>2404
Больной долго старался оттереть коричневые пятна на своих кальсонах, но плюнул и решил замаскировать их новыми. Авось в новом году никто и не вспомнит его пахучие виктории об открытости и честности ML, ведь нарастут новые слои на внутрибрючном фекальном сталактите пациента.
>Мне известно уже о полудюжине опенсорсных проектов репликации ChatGPT
Познавательно, батенька. Так где исходники ChatGPT и исходные датасеты - или вы без них, в своем божественном озарении, определили степень, как вы говорите, репликации?
>Слева направо: Dall-e 2, Imagen, Muse. Понимание промпта очевидно растёт, а ресурсоёмкость моделей всё падает.
Несомненно, больной, понимание растет. Новая нейросеть на запрос с тремя книгами выдает не четыре, а две книги. Поступь прогресса просто поражает.
>ахаха, у книжки обложки разного цвета!
Какие мелочи, действительно. Скажем, если ввести вам, батенька, вместо галоперидола монтажную пену per rectum, то вы же не станете, как вы говорите, доебываться до подобных мелочей?
>их вероятность снизилась с почти 100% до 20-40% менее чем за год?
Самое уморительное, больной, это когда мнящий себя ученым пациент-шизофреник оценивает вероятность успешного вывода нейросети по четырем картинкам - да вдобавок получает величины вроде "20-40%".
>Позволю себе принять на веру оценку Гауэрса
Великолепно, уважаемый. Вам осталось завершить ваш тверк грязных кальсон эффектным па с приведением цитаты, в которой Гауэрс утверждает о наличии нескольких людей "уровня премии Филдса", обращающихся к нему за советом.


Доброчанька 01/10/2023 (Tue) 12:30 [Preview] No.2449 del
>>2417
> виктории об открытости и честности ML
Кальсон продолжает хуярить по методичке Алинского и в 2023-м. Типа, ChatGPT и другие *коммерческие* модели закрыты, значит – поебда.
Кольсон сам, может, не видит слабоумия этой претензии, но это не оправдание.
> Так где исходники ChatGPT и исходные датасеты
Да, он не сдаётся! Удивительно.
> Новая нейросеть на запрос с тремя книгами выдает не четыре, а две книги
> Какие мелочи, действительно
> Самое уморительное, больной, это когда мнящий себя ученым пациент-шизофреник оценивает вероятность успешного вывода нейросети по четырем картинкам
В самом деле, кальсон. Ваши бы слова да вам в уши.


Доброчанька 01/11/2023 (Wed) 05:28 [Preview] No.2467 del
>>2449
>ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо.
>Типа, ChatGPT и другие *коммерческие* модели закрыты, значит – поебда. Слабоумие, Кандинский, методичка [звуки убегающего Зойдберга]
Ну вот, больной. Ну испортили вы еще одну пару кальсон, ну пропах вами весь больничный пункт. А толку?
>Ваши бы слова да вам в уши.
Зачем, пациент? Ведь ваша история болезни и так записывается, и мы даже подумываем сдать вас в кунсткамеру - вот только не успеваем сходить за формалином, как вы опять портите больничную одежду. Вот и опять, новая кучка вашего продукта на тему невообразимого "прогресса" нейробожка.


Доброчанька 01/11/2023 (Wed) 22:04 [Preview] No.2481 del
(334.00 KB 473x473 laion_IF.png)
>>2467
ChatGPT – это код или бенчмарк, кальсон? Нет, это публичное демо коммерческого сервиса. Так что вы хотели доказать этой цитатой – свою способность понимать текст, явно уступающую нейросетевым языковым моделям? Поверьте, все в этом уже убедились.

К слову об ожидаемой коммерческой ценности продуктов серии GPT. Маркус сообщает:
https://garymarcus.substack.com/p/is-microsoft-about-to-get-the-deal

Согласно слухам, опубликованным на сайте Semafor, а затем повторенным Reuters, Microsoft готовится вложить 10 миллиардов долларов (возможно, частично в виде кредитов на облачные вычисления?) в OpenAI, оценивая OpenAI в 29 миллиардов долларов.

Конечно, считаете ли вы, что 29 миллиардов это разумная оценка OpenAI – во многом зависит от того, что вы думаете об их будущем. (По слухам, пока что доход компании составляет около 29 миллионов долларов в год, так что для заключения подобной сделки нужно думать, что скоро все станет намного лучше).

Начнем с того, что это не обычная сделка, в которой инвестор получает 20% акций компании в обмен на большую сумму денег и место в совете директоров. Вместо этого, если отчетность верна:

Microsoft "будет получать 75% прибыли OpenAI, пока не окупит свои инвестиции". Это очень много, и это не то, на что обычно соглашаются стартапы-ракетчики.
После этого, когда Microsoft заработает свои деньги, Microsoft будет владеть "49% акций, другие инвесторы получат еще 49%, а некоммерческая родительская организация OpenAI получит 2%".

...Сколько на самом деле будет стоить AGI? Несколько лет назад компания PwC подсчитала, что общий объем рынка ИИ к 2030 году может составить более 15 триллионов долларов в год; McKinsey опубликовала аналогичное исследование, в котором фигурировала цифра в 13 триллионов долларов в год.

...Если дела пойдут действительно хорошо, OpenAI вернет себе контроль; мне сообщил источник, видевший документы: "Как только 92 миллиарда долларов прибыли и 13 миллиардов долларов первоначальных инвестиций будут возвращены [компании Microsoft] и как только другие венчурные инвесторы заработают 150 миллиардов долларов, весь капитал вернется к OpenAI". В этом свете игра Альтмана больше похожа на хеджирование, чем на продажу; немного денег сейчас, много позже, если они будут очень успешны.

Ещё раз: Microsoft готова инвестировать 10 миллиардов долларов в компанию, которая якобы зарабатывает 30 миллионов долларов в год, за менее 50% доли.
Microsoft была готова купить за 100 % акций компанию Activision-Blizzard за 60 млрд долларов, которая приносит 7 млрд долларов в год. Это, по сути, самая большая игровая франшиза в истории, с сильным заделом на будущее.
Соотношение инвестиций и дохода здесь буквально 333:1 -> 666:1 при ~50% доле против 9:1 при 100% доле.

Безусловно, это просто хайп смузихлёбов-стартаперов. Как Теранос.
Но какой же наваристый получается смузи, особенно в наших непростых экономических условиях.


Доброчанька 01/12/2023 (Thu) 09:31 [Preview] No.2485 del
>>2481
>ChatGPT – это код или бенчмарк?
Очевидно, больной, что это код и датасеты. Но так как вы уже испортили немало кальсон, то теперь пытаетесь скрыть свои позорные пятна неистовым тверком. Оказывается, это всего лишь публичное демо (например, сотни индусов, отвечающих через веб-интерфейс), но одновременно вызывающее своей грандиозностью расслабление вашего сфинктера научное достижение зашкаливающей открытости и честности.
Иными словами, вам, батенька, пора срочно менять очередные больничные кальсоны, а ваш филей нужно срочно пролечить бальзамом "Звездочка" во избежание массивных опрелостей, переходящих в газовую (oh, irony) гангрену.
>Согласно слухам, опубликованным на сайте Semafor
Ну, уважаемый, раз уж согласно слухам, то тогда уж точно необходимо причаститься вашим нейробожком.
>Microsoft "будет получать 75% прибыли OpenAI, пока не окупит свои инвестиции". Это очень много, и это не то, на что обычно соглашаются стартапы-ракетчики.
Действительно, это не то, на что обычно соглашаются стартапы. Но если высшие жрецы нейробожка понимают, что хайп скоро закончится и AI-пузырь лопнет - то очень логично забрать у лохов много денег сейчас в обмен на будущую прибыль, которой никогда не будет. Завывающие о скором пришествии нейробожка сектанты-шизофреники только помогают набить цену.


Доброчанька 01/12/2023 (Thu) 23:51 [Preview] No.2550 del
>>2485
>Оказывается, это всего лишь публичное демо (например, сотни индусов, отвечающих через веб-интерфейс)

Самому-то не смешно, кретин? Или ты так и не осилил потыкать в ChatGPT своими культяпками?

> Но если высшие жрецы нейробожка понимают, что хайп скоро закончится и AI-пузырь лопнет - то очень логично забрать у лохов много денег сейчас в обмен на будущую прибыль, которой никогда не будет.
Как же много денех теряют лошки из Microsoft, не нанимая консультантом харьковского шизофреника...


Доброчанька 01/13/2023 (Fri) 05:39 [Preview] No.2554 del
>>2550
>Самому-то не смешно?
Грешно смеяться над больными людьми. Вы, пациент, конечно стараетесь рассмешить изо всех сил, но ваш единственный прием напустить в кальсоны, тверкать и вопить про то, что это дерьмо вам подбросили, - уже не веселит, в тысячный-то раз.
>Как же много денех теряют лошки из Microsoft, не нанимая консультантом харьковского шизофреника...
Сомневаюсь, что наем вас, батенька, консультантом - и сэкономил бы хоть что-то. Хотя мелкомягким не привыкать терять деньги, да хоть на том же виндофоне, но ежедневные ж/д составы чистых кальсон для вас даже они могут не потянуть.


Доброчанька 01/13/2023 (Fri) 21:54 [Preview] No.2626 del
Вкатываюсь сейчас в NLP, не хочу больше быть веб-макакой. Спасибо за материалы в шапке.

Кто такой "Кальсон"?


Доброчанька 01/14/2023 (Sat) 14:10 [Preview] No.2646 del
>>2626
Посмотри рекомендации тут:
https://news.ycombinator.com/item?id=34312248


Доброчанька 01/22/2023 (Sun) 06:08 [Preview] No.2938 del
Какие там новости по поводу Forward-Forward и вообще замены Backpropagation?


Доброчанька 01/22/2023 (Sun) 16:35 [Preview] No.2954 del
Материалы и мыслишки.

1) Неотцензуренная GPT судя по намёкам может чуть больше и интереснее. Но насколько? "Тупость" ChatGPT от "RLHF фазы"?

2) https://habr.com/ru/post/709472/
https://www.lesswrong.com/posts/uHyZmfZKpXxo6uiEe/ai-psychology-should-ground-the-theories-of-ai-consciousness
https://www.lesswrong.com/posts/yGaw4NqRha8hgx5ny/the-case-for-becoming-a-black-box-investigator-of-language
https://www.lesswrong.com/posts/LbrPTJ4fmABEdEnLf/200-concrete-open-problems-in-mechanistic-interpretability
https://www.lesswrong.com/posts/ddR8dExcEFJKJtWvR/how-evolutionary-lineages-of-llms-can-plan-their-own-future
https://www.lesswrong.com/posts/oSPhmfnMGgGrpe7ib/properties-of-current-ais-and-some-predictions-of-the
https://www.lesswrong.com/posts/yRAo2KEGWenKYZG9K/discovering-language-model-behaviors-with-model-written
https://www.lesswrong.com/posts/vJFdjigzmcXMhNTsx/simulators
https://www.lesswrong.com/posts/yRAo2KEGWenKYZG9K/discovering-language-model-behaviors-with-model-written
https://www.lesswrong.com/posts/rxoBY9CMkqDsHt25t/eliciting-latent-knowledge-elk-distillation-summary

Статья от "ИИ-психолога" лессвронговца. Там больше интересен типичный спор "это всего лишь программа и математика" в комментариях, в котором он внезапно демонстрирует "жидошизовую" позицию: "да вы человеки такие же".

3) "ИИ-психолог" утверждает, что у GPT есть концепция Я и нестабильное, но самоосознание.

4) Всё это "нейросети как люди, а люди как нейросети" мне только напоминает тех кадров, которые умудрялись до этого сравнивать работу мозга с фон-неймановским PC. А с чем там древние греки сравнивали это же? Как появляется какая-то техническая вещь, люди начинают говорить что вот оно, наше сознание совершенно точно работает как эта вещь! А ещё раньше мы работали на "частичке бога", ага.
Так и аниме-персонажи живые и обладают "концепцией я".


Доброчанька 01/22/2023 (Sun) 18:17 [Preview] No.2957 del
(1.06 MB 2056x2840 167441101527509.png)
Впрочем в этом дрянном и поехавшем мире заботятся не только о психологии нейронок, но даже о психологическом комфорте сраных псин.

А знаете, о ком здесь не заботятся? О сраном мужике. Мужика можно и подыхать посылать, и дерьмо качать за 12к. Об анончике никто не позаботится: хули ноет и ничего не хочет, мужике же, достигай.


Доброчанька 01/24/2023 (Tue) 09:41 [Preview] No.2993 del
>>2954
А я люблю обмазываться не свежими статейками и дрочить. Каждый день я хожу по интернету с черным мешком для мусора и собераю в него все статейки о нейросетях которые вижу. На два полных мешка целый день уходит. Зато, когда после тяжёлого дня я прихожу домой, иду в ванну, включаю свою eee PC...ммм и скачиваю в нее свое сокровище. И дрочу, представляя, что меня поглотил единый организм нейросеть. Мне вообще кажется, что нейросети, умеют думать, у них есть свои семьи, города, чувства, не смывайте их в /dev/null, лучше приютите у себя, говорите с ними, ласкайте их.... А вчера в ванной, мне преснился чудный сон, как будто я нырнул в инторнет, и он прератилось в нейросеть, художники, программисты, санитары, все из нейросетей, даже небо, даже Аллах.


Доброчанька 01/25/2023 (Wed) 19:27 [Preview] No.3035 del
Предположение доброго доктора Кальсона про индусов не то чтобы далеко от реальности оказалось, правда немного в другой плоскости.

Такая же херня с Roomba.


Доброчанька 01/25/2023 (Wed) 23:55 [Preview] No.3043 del
>>2646
Спасибо, но я с МЛ на базовом уровне знаком, сейчас именно на NLP подробнее смотрю.

Алсо, такой реквест. Какие есть предобученные генеративные модели для русского языка, чтобы их файнтюнить для определённых текстов? В GPT-2 1.5 миллиарда параметров, это жирновато чтобы дообучать в Колабе или на нищеноуте, хотелось бы что-нибудь простенькое. А BERT не генерит текст, а угадывает маскированные токены, это другое.


Доброчанька 01/25/2023 (Wed) 23:56 [Preview] No.3044 del
(99.33 KB 600x900 1674589854933.jpg)


Доброчанька 01/27/2023 (Fri) 19:02 [Preview] No.3067 del
Тэкс, я тут ссылку на обнимательное лицо постил, а теперь её тупо нет. Эт чё за херобора нахуй бля?

>>3043
https://huggingface.co/models?pipeline_tag=text-generation&language=ru&sort=likes


Доброчанька 01/29/2023 (Sun) 16:13 [Preview] No.3103 del
анон, который постил в https://nowere.net/b/res/144256.html

которого обзывали кальсоном.

предлагаю делать синглтон. применим для уничтожения низших рас и жидов, как ты любишь.

моя идея - универсальный токенизатор, который токенизирует действия, содержимое картинок, и используется внутри ворлдмодели по типу жпт. собственно предпоследние 2 поста в треде.

чатжпт как мы видим выдаёт приемлимую ворлдмодель, надо только к нему прикрутить шорттёрм мемори и правильную токенизацию чтоб она могла быть проактивной, а не просто базой знаний. даже самим ничего обучать не нужно.


Доброчанька 01/30/2023 (Mon) 07:16 [Preview] No.3109 del
>>3103
Я нихуя не понял. В очередной раз спасаясь от позора, жидошизик перебежал на новерь и теперь там рассказывает свои охуенные истории о жидах и культе нейросетевого божка?


Доброчанька 02/02/2023 (Thu) 14:45 [Preview] No.3180 del
>>3109
нет жидошизиков, есть жиды-мидвиты с охуенной хуцпой и комплексом христа.

посмотри как жиды гадают на кофейной куще: https://youtube.com/watch?v=Nj42o4oAFqA [Embed]

поэтому и пытаюсь выйти на связь с кальсоном(уж извини, знаю тебя только по этому имени, ну или "жидошизик")


Доброчанька 02/02/2023 (Thu) 19:55 [Preview] No.3181 del
>>3180
Путаешь персоналий же, ну. Жидошиз ЗА нейросети: >>2449 (gpt лучше и умнее человека и скоро придет сингулярность).
Доктор Кальсон против: >>2417 (это всё баловство и бесполезные демки которые ничего не (с)могут и применение будет ограничено тем же баловством).


Доброчанька 02/03/2023 (Fri) 23:25 [Preview] No.3194 del
Там какую-то новую нейросетку для озвучивания выкатили? Просто в один день вижу смищные вебмки с известными людями, озвучивающими всякий трешак. И в тот же день вижу скрины с твиттерной истерикой дикторов (вместо художников).

>>3067
Спасибо большое.


Доброчанька 02/04/2023 (Sat) 09:48 [Preview] No.3198 del
>>3197
https://beta.elevenlabs.io

вот это точнее


Доброчанька 02/04/2023 (Sat) 13:32 [Preview] No.3202 del
>>3197
Только English в примерах. Такая себе фонетика у этого языка, я вам скажу. Другие языки-то смогёт архитектура? Что насчет переноса звучания одного языка в фонетику другого языка? Вопросы, вопросы... И вот где их задать? На SO чтоле идти?


Доброчанька 02/04/2023 (Sat) 18:00 [Preview] No.3203 del
>>3198
Да, видимо это оно.

>>3202
Скормил этой штуке текст (прям на киррилице), выбрал один из дефолтных голосов. Озвучило, но с акцентом, как если бы американец, знающий русский, говорил. Можешь сравнить с речью Макфолла, например. Интересно, если ей дать семпл речи русскоговорящего, она без акцента озвучит? Но это надо денежки платить.


Доброчанька 02/04/2023 (Sat) 18:24 [Preview] No.3204 del
>>3198
site:elevenlabs.io "vall-e" не дает результатов. Непонятно на чем основана их шутка.


Доброчанька 02/06/2023 (Mon) 12:56 [Preview] No.3217 del
(579.58 KB 1800x2120 adiane1187392401660.jpg)
>>3201
жидошиз запости в тред, я сформулировал подход к обучению reasoning, ищу людей чтоб сформировать команду и не просто одному сидеть пердолиться в питухоне.


Доброчанька 02/07/2023 (Tue) 01:16 [Preview] No.3218 del
>>3217
> ищу людей чтоб сформировать команду и не просто одному сидеть
Какой хитрый, лол.


Доброчанька 02/07/2023 (Tue) 06:17 [Preview] No.3219 del
Вы мне объясните вот что: у вас вроде высокопроизводительные вычисления, а вы неспешный питон используете для них? Как вы докатились до этого?


Доброчанька 02/07/2023 (Tue) 15:34 [Preview] No.3220 del
>>3219
Питон лишь коричневый клей, обмазывающий нативные либы на сишечке. Хотя порой приходится брать написаный саентистами чисто питонячий код и переписывать.


Доброчанька 02/07/2023 (Tue) 16:17 [Preview] No.3221 del
>>3220
Так почему бы сишкой или крестами не клеить, к чему эти прокладки?


Доброчанька 02/07/2023 (Tue) 22:23 [Preview] No.3227 del
>>3221
Удобнее. Шмяк шмяк и нарисовал график в интерактивной среде (знаешь, что такое Jupyter?). Шмяк-шмяк и ещё что-то посмотрел. В С++ пришлось бы долго всё расписывать, потом перекомпилировать, перезапускать заново весь код сразу.

А насчёт скорости. Вот допустим у тебя две матрицы тыща на тыщу. В Сях их перемножить займёт условно говоря 50 миллионов тактов. Плюс 5 тактов на вызов функции. А в Питоне та же сишная библиотека перемножает их за те же 50 миллионов тактов, плюс 50 тактов на вызов функции. То есть теряешь 0.00001% скорости, а преобретаешь много фичей динамчического языка. (а ведь время потраченное программистом дороже времени потраченного компьютером!)


Доброчанька 02/08/2023 (Wed) 08:46 [Preview] No.3228 del
>>3227
Ну хоть в конечном продукте делали бы. Мне вот покоя не дает whisper который на телефоне запустили - здорово же. Да и вообще встариваемые железки это же непаханое поле для развития.


Доброчанька 02/08/2023 (Wed) 14:18 [Preview] No.3229 del
>>3221
сиплюсплюс для даунов-говноедов.


Доброчанька 02/08/2023 (Wed) 14:29 [Preview] No.3230 del
>>3229
Неосилятор заплакал и ушел говнокодить на пистоне.


Доброчанька 02/08/2023 (Wed) 20:00 [Preview] No.3232 del
Немножко от предыдущего хайпа об умных машинах:
https://kiwibyrd.org/2016/03/05/211/


Доброчанька 02/10/2023 (Fri) 14:39 [Preview] No.3245 del
>>3218
окей, правда:

agi это технология о которой могут рассуждать только группы людей, индивидуумы даже нашего уровня недостаточно умны. поэтому мне нужны другие энтузиасты.

если мы не сделаем это, это сделает майкрософт или гугл. вы ничего не приобретаете, держась за своё эго.


Доброчанька 02/10/2023 (Fri) 20:26 [Preview] No.3249 del
>>3245
У нас было два погромиста на питоне из пту, семьдесят пять статей нейрогуру, 5 пакетиков измерения бенчмарков, флэшка, наполовину наполненная фотографиями писечек куниц, и целое море разноцветных нейросетей, готовых пакетов и преобразований матриц, а так же книжка по алгебре, книжка про ИИ издательства "Мир", Мск, 1983, ящик брошюр о блокчейне, флаер "занимательное НЛП", и 12 пузырьков херши колы. Не то, чтобы всё это было категорически необходимо в поездке, но если уж начал побеждать гугл, то к делу надо подходить серьёзно.


Доброчанька 02/14/2023 (Tue) 06:37 [Preview] No.3305 del
В ожидании ОПа.


Доброчанька 02/15/2023 (Wed) 06:34 [Preview] No.3315 del
Кек. OpenAI.


Доброчанька 02/20/2023 (Mon) 09:24 [Preview] No.3365 del
(114.26 KB 1280x736 2023-02-19 17.42.19.jpg)
(103.47 KB 1164x797 FpS4l0yagAEPArC.jpeg)
(275.22 KB 1268x2066 FpNuFKQXEAAyDEp.jpeg)
(177.81 KB 1215x1183 FpECkPhXwAE7BmZ.jpeg)
(158.85 KB 1206x953 FpECt0XXoAMVMx9.jpeg)
Ну что, прошло чуть больше месяца. Я так понял, что можно не тратить время на кальсонерию – результаты говорят сами за себя.

Напомните, что там было по критериям настоящего интелехта. Может послать нахуй, когда дают нитот запрос? Человекоподобно реагирует на абсурд? Не путается в арифметике? Может выполнить исследование литературы на заданную тему?

А ведь это только GPT-4. GPT-5 уже обучается на нескольких десятках тысяч GPU.

>>2938
Не взлетит. Backprop работает мгновенно, FF – просто интеллектуальное упражнение. А жаль, красивая штука.

>>2954
Latent knowledge интересная тема, но тоже довольно безнадёжная. Вот лучшая статья https://arxiv.org/abs/2212.03827

> Как появляется какая-то техническая вещь, люди начинают говорить что вот оно, наше сознание совершенно точно работает как эта вещь!

Ты ведёшься на ложь научпоперов. Все эти метафоры понимались именно как метафоры, никто не разрабатывал детальную теорию о гидравлических репрезентациях понятий в мозгу или о эксплицитных вычислительных цепях, сколько-нибудь серьёзно аналогии стали использоваться после когнитивной революции, и действительно в мозгу есть (ограниченная) модульность. Нейросети же основаны на коннекционизме, который доказан железобетонно. Но, конечно, вопрос не в том, насколько они похожи архитектурно – вопрос в том, могут ли нейросети являться субстратом для аппроксимации всех интересных и трудноопределимых функций для работы с произвольной информацией, которые мы объединяем понятием "общий интеллект" – pattern recognition, learning, meta-learning, transfer learning, exploration, goal-directed behavior, abstract reasoning, common sense reasoning, symbol manipulation и дальше как кому угодно это разбивать на академические поддомены. Похоже, что могут и не очень-то напрягаясь.

Предпосылка всех метафор состоит в том, что мозг/сознание работает *как-то* механистично, и это необходимо следует из нашего материализма. Единственные оговорки тут могут быть насчёт пенроузовского quantum woo, которое даёт некоторым повод считать, что наш общий интеллект не может быть вычислим на классических компьютерах и таким образом недоступен нейросетям (или любой другой AI-парадигме, которая использует классические компьютеры). Но пенроузовщина беспруфна.

>>3035
> не то чтобы далеко от реальности оказалось, правда немного в другой плоскости.

В достаточно многомерном пространстве шизоассоциаций вообще всё недалеко друг от друга, просто в немного разных плоскостях. За счёт этого, кстати, и нейросети легко находят аппроксимации. Разница в том, что у них объективная функция осмысленная, а кальсон просто максимизирует наполнение своих порток навозом.
Ты правда не различаешь обучение с учителем, когда нейросети в оффлайне дают примеры, из которых она обобщает принцип для *похожих, но других* задач в онлайне, и буквального ремоут-индуса с джойстиком, который управляет роботом?

>>3043
C русским всё плохо.

>>3044
Любопытно, как stable diffusion раскрыли ControlNet-ами, promptPix2Pix и другими костылями. Оказывается, модели больше не очень-то и нужны.

>>3103
> применим для уничтожения низших рас и жидов, как ты любишь
Не люблю.

Как именно ты собираешься токенизировать действия?
Но вообще это похоже на GATO и проект Кармака. Поброди по дискордам и более обскурным бордам, тут не вижу смысла указывать, где этим занимаются.

>>3202>>3203
Whisper показал, что голосовые нейронки хорошо обобщают. Даже слишком хорошо – если дать ей текст на английском, но случайно оставить в настройках русский, то она *распознает что-то близкое и по смыслу, и по последовательности звуков*, это очень странно выглядит. Тут, думаю, принцип похож, но и в общем датасете, и у конкретного спикера очевидно не было достаточно русских сэмплов - поэтому распарсить кириллицу оно может, а фонемы использует англоязычные.

>>3232
Теперь так
https://cprimozic.net/blog/reverse-engineering-a-small-neural-network/


Доброчанька 02/20/2023 (Mon) 12:50 [Preview] No.3366 del
>>966

Первой категории не существует в природе. Возможно и второй не существует, разве что кошечки-собачки.


Доброчанька 02/22/2023 (Wed) 05:15 [Preview] No.3378 del
>>3365
>quantum woo
вот это хуита лютая.

суть hard problem of consciousness в том что люди не понимают собственную квалию. я существую в конкретном моменте, но почему я существую?

ответ прост - ты как человек это ансамбль нейросеточек. ты(который сейчас это читает) это всего одна сеточка, которая смотрит на результаты работы остальных, медиирует между ними, и присваивает себе всю работу. потому что какой смысл не счиать себя мозгом, если у тебя сетка натренированная на агент реазонинг говорит что ты внутри этого тела?

вот и вся проблема. у нейросети нет возможности рефлекшена в сому себя, поэтому мы и не понимаем как это мы так существуем.


Доброчанька 02/22/2023 (Wed) 15:38 [Preview] No.3388 del
>>3365
Так что там, батенька, с микрософтом-то, уже гребут деньги вагонами, или таки нейробинг оказался тем самым, что вы опять напустили в кальсоны?
>вопрос в том, могут ли нейросети являться субстратом для аппроксимации всех интересных и трудноопределимых функций для работы с произвольной информацией, которые мы объединяем понятием "общий интеллект"
Вам бы, больной, лучше прекращать молиться своему нейрогосподу. Ваша речь уже становится похожей на выделения Порфирьевича.
>Предпосылка всех метафор состоит в том, что мозг/сознание работает *как-то* механистично
Действительно, чтобы распространять свою сектантскую веру про мистические нейросети, заменяющие человеков, сперва хорошо бы свести все основополагающие понятия, связанные с сознанием и интеллектом, к механистической банальности. Раз уж нейросети тупы, так давайте представим и людей конечными автоматами.
>За счёт этого, кстати, и нейросети легко находят аппроксимации. Разница в том, что у них объективная функция осмысленная
Особенно эта осмысленность, подобная осмысленности накладывания куч в кальсоны нашим пациентом, заметна при рисовании пальцев или предложении готовить еду при температуре в 1000 градусов.
https://statmodeling.stat.columbia.edu/2022/03/28/is-open-ai-cooking-the-books-on-gpt-3/
Впрочем, ничего нового. Лет так десять назад больной бы уверял, что IBM Watson вот-вот заменит всех врачей. Выражающийся в испорченных кальсонах конец, конечно же, немного предсказуем.


Доброчанька 02/22/2023 (Wed) 17:56 [Preview] No.3389 del
(351.12 KB 1683x2048 FpAvpRDWIAAYZQ0.jpeg)
>>3388
Кальсон как всегда.
> Posted on March 28, 2022
А ведь современные сетки, кальсон, уже могут в реалтайме включать информацию в свою базу данных. Ты безнадёжно устарел.

Ты буквально не можешь понять, что бот на пикрелейтеде сильно умнее тебя, генерирует более релевантные предмету разговора ответы.

> Вам бы, больной, лучше прекращать молиться своему нейрогосподу. Ваша речь уже становится похожей на выделения Порфирьевича.
И понимание чужой речи у тебя тоже сильно уступает ботам.

> Действительно, чтобы распространять свою сектантскую веру про мистические нейросети, заменяющие человеков, сперва хорошо бы свести все основополагающие понятия, связанные с сознанием и интеллектом, к механистической банальности. Раз уж нейросети тупы, так давайте представим и людей конечными автоматами.
Я погляжу вы всё так же любите блеснуть своими доперестроечными познаниями. Да, вариант конечного автомата с условно бесконечной лентой (например, Бинг с его доступом к поиску по обновляемому интернету) по определению является машиной Тьюринга, и следовательно может выполнять любые алгоритмы, в том числе эквивалентные человеческому мышлению.

Я с нетерпением жду возражений от деградировавшего марковского бота.


Доброчанька 02/23/2023 (Thu) 16:29 [Preview] No.3391 del
>>3389
не корми троллей, лучше скажи как трансформеры юзают бд, если такие архитектуры есть.


Доброчанька 02/24/2023 (Fri) 00:41 [Preview] No.3392 del
>>3391
Уже много таких моделей, в общем случае это называется retrieval-augmented LLM. Начни с https://www.deepmind.com/publications/improving-language-models-by-retrieving-from-trillions-of-tokens

Я не знаю, как это делается в случае Bing – прямо ли он читает текст или данные подхватываются вниманием.


Доброчанька 02/24/2023 (Fri) 09:17 [Preview] No.3395 del
>>3389
>А ведь современные сетки уже могут в реалтайме включать информацию в свою базу данных.
Конечно, больной, конечно. Именно поэтому ChatGPT каждый раз заново читает весь предыдущий диалог - вся оперативка попросту занята "включением информации в свою базу данных".
Ну, или это просто недостаточно современная сетка, что-то типа IBM Watson, ну или вот этого вот только сейчас проявившегося свежего коричневого пятна на ваших свежесмененных кальсончиках.
>Ты буквально не можешь понять, что бот на пикрелейтеде генерирует более релевантные предмету разговора ответы.
Да, пациент, очень релевантные, примерно как когда принесший миллионы майкрософту нейробинг утверждает, что сейчас 2022 год. Хотя, конечно, это не лишено своей, особой, логики: нейросети гениальны, компьютеры пятого поко..., кхм, чатгпт заменит всех человеков, сейчас 2022 год, фекалии в ваши кальсоны подбросили жиды-луддиты.
>понимание чужой речи
Вы зря, батенька, упорствуете. Лучше начать лечить вашу афазию на ранних стадиях.
>Да, вариант конечного автомата с условно бесконечной лентой (например, Бинг с его доступом к поиску по обновляемому интернету)
Ваша дремучая необразованность, пациент, уже много раз вас подводила - и стоила нашему лечебному заведению уйму стирок перепорченных вами кальсон. Вот и опять вы испачкали свежую пару, почему-то вбив в свою нездоровую голову, что бинг является машиной Тьюринга.
>и следовательно может выполнять любые алгоритмы, в том числе эквивалентные человеческому мышлению.
...или же, что человеческое мышление можно представить в формате конечного алгоритма.
Батенька, ну не представляйте себя двухствольным ружьем! От ваших залпов и связанных с ними частых стирок штаны попросту гниют.


Доброчанька 02/24/2023 (Fri) 14:45 [Preview] No.3396 del
>>3395
>Конечно, больной, конечно. Именно поэтому ChatGPT

Bing, perplexity.ai, metaphor.systems, you.com, elicit.org.

> Ну, или это просто недостаточно современная сетка
Да, это сетка без retrieval. Но так-то WebGPT уже два года.

Что ты пытаешься доказать, кроме моих же слов о том, как ты уступаешь последнему поколению ИИ, кальсон? Ты ссылаешься на смехотворные жёлтые статейки годовой давности, которые опровергаются в их же комментариях, и кривляешься про модель без retrieval, как будто это может опровергнуть существование модели с retrieval. Серьёзно, что с тобой не так? Тебе не подключили поисковика и не отсыпали параметров, чтобы ты смог выучить логику? Ты обсираешься даже тупее, чем обычно.

> Да, пациент, очень релевантные, примерно как когда принесший миллионы майкрософту нейробинг утверждает, что сейчас 2022 год
Ну ты-то и до 2021-го не дообновился, как видим.

> бинг является машиной Тьюринга
Бинг не является машиной Тьюринга ровно в той же мере, в какой ей не являешься ты – у вас нет строго бесконечной ленты. Но разума у бинга очевидно побольше, и data efficiency выше.

> или же, что человеческое мышление можно представить в формате конечного алгоритма.
Почему нет?


Доброчанька 02/26/2023 (Sun) 11:28 [Preview] No.3401 del
>>3396
>Bing
>Не ChatGPT
Батенька, ну пожалейте вы медперсонал, постарайтесь сдерживаться и не напускать себе в штаны с каждой строчкой!
>perplexity.ai, metaphor.systems, you.com, elicit.org.
Чем это пахнет?.. Больной, вы опять испортили кальсоны вместе со своим нейробожком! Божок рекомендует вам почитать сунну и извопиться, расулльлах.
>Да, это сетка без retrieval. Но так-то WebGPT уже два года.
Недостаточно стильно, модно, молодежно. И что это восхищенные сектанты носятся с ним, наполняя кальсоны жидким восторгом? Выдавливают из себя перлы вроде "GPT 3.5 превосходит многих людей"? >>858
Видимо, мясные мешки сильно эволюционировали за год.
>и указываешь на мои кучки про модель без retrieval, как будто это может опровергнуть существование модели с retrieval.
Так вы, батенька, уже окончательно перестали самоудовлетворяться с ChatGPT, это уже точно устарелое фуфло? Поразительно, как смена направления ветра в ваших кальсонах совпадает с появлением развенчивающих нейросектантство статеек.
Так кто же нынче является вашим божком? Где тот веб-пьедестал, у которого можно причаститься заменяющим людей сверхразумом? Уж не Метафор ли, советующий читать сунны в ответ на вопрос о сжигании собаки? Хорошо, что не Тору, а то ведь, пациент, у вас мог бы случиться прорыв ткани кальсон, вызванный чудовищным напором.
>Бинг не является машиной Тьюринга ровно в той же мере, в какой ей не являешься ты – у вас нет строго бесконечной ленты.
Иными словами, машин Тьюринга не существует, ведь строго бесконечная лента невозможна. Еще одно научное открытие, профессор, поздравляем, а теперь наденьте-ка чистые штанишки.
>Почему нет?
Стоило ли ожидать иного ответа от больного шизофренией любителя чайников Рассела?


Доброчанька 02/26/2023 (Sun) 12:42 [Preview] No.3402 del
>>3401
Да, GPT-4 с поиском по вебу моднее и молодёжнее GPT-3.5 без поиска. Что ты там булькаешь?

> Стоило ли ожидать иного ответа
Да, потому что утверждение о том, что человеческое мышление не может быть представлено в виде конкретного алгоритма, нетривиально и идёт вразрез с нашими знаниями биологии. Потрудись обосновать его, разрешаю ссылаться на божка.


Доброчанька 02/27/2023 (Mon) 14:37 [Preview] No.3403 del
>>3402
>Да, GPT-4 с поиском по вебу моднее и молодёжнее GPT-3.5 без поиска.
>OpenAI's CEO Sam Altman said that the artificial-intelligence company's megahit ChatGPT tool and GPT-3.5 are helping drive the search engine that Microsoft announced Tuesday.
>Microsoft said Bing was running on a "new next-generation language model," but stopped short of calling it GPT-4.
Больной, доколе вы будете булькать своей экспертизой? Опять придется отстирывать от нее кальсончики.
>Да, потому что утверждение о том, что человеческое мышление не может быть представлено в виде конкретного алгоритма, нетривиально и идёт вразрез с нашими знаниями биологии.
Ваши знания о биологии, батенька, находятся на том же уровне, что и Computer Science, или же еще более превосходят их ароматом и консистенцией?
Впрочем, вдруг вы таки возьмете себя в руки, умудритесь не поскользнуться на покрытом вашей экспертизой полу и выдадите на-гора какой-нибудь стоящий источник, подтверждающий ваши измышления?


Доброчанька 02/28/2023 (Tue) 04:22 [Preview] No.3405 del
>>3403
> >OpenAI's CEO Sam Altman said that the artificial-intelligence company's megahit ChatGPT tool and GPT-3.5 are helping drive the search engine that Microsoft announced Tuesday.
и
>Microsoft said Bing was running on a "new next-generation language model," but stopped short of calling it GPT-4.
Ну-ка, что там кальсон-кун пропустил в серёдке?
https://www.businessinsider.com/chatgpt-gpt-3-5-powering-new-microsoft-bing-search-engine-2023-2
> Microsoft executive Yusuf Mehdi said that the advanced search tool "is running on a new, next-generation OpenAI large language model that is more powerful than ChatGPT," and that it "takes key learnings and advancements from ChatGPT and GPT-3.5,"
Видишь как оно получается, кальсоньеро. Ты настолько оптимизирован на то, чтобы не признавать обсёра, что буквально не можешь суммаризовать короткую заметку, не переврав её, хватаешься за какие-то риторические соломинки. В очередной раз ты оказываешься хуже современной языковой модели.

> выдадите на-гора какой-нибудь стоящий источник
С твоей стороны было бы отсроумно впервые за несколько раз нашего знакомства первым предоставить источник и связно изложить свои взгляды, вместо выскуливания очередного повода для доёбок. Итак, тезис:
>...или же, что человеческое мышление можно представить в формате конечного алгоритма.
тезис кальсона: человеческое мышление не может быть представлено в формате конечного алгоритма. Обоснуй его, ебанашка.


Доброчанька 02/28/2023 (Tue) 07:58 [Preview] No.3406 del
>>3405
>Маркетинговый буллшит про "на 57% более здоровые зубы"
>Видишь как оно получается <дальнейший не только словесный понос>
Господи, батенька, ну нельзя же выдавать столько продукта! Вот не успеет медбрат откачать из вашей палаты фекалии, и вы ведь захлебнетесь!
>человеческое мышление не может быть представлено в формате конечного алгоритма. Обоснуй его
Пациент, ваши попытки устроить чайник Рассела несколько приелись за эти годы и вагоны испорченных вами кальсон. Может, хватит уже строить из себя сектанта нейробожка и пачкать штаны? За стенами больницы лежит прекрасный мир, вам лишь нужно придерживаться назначенной терапии и вовремя употреблять медикаменты.


Доброчанька 02/28/2023 (Tue) 09:28 [Preview] No.3407 del
>>3406
Ты доебался до "GPT-4 с поиском по вебу моднее и молодёжнее GPT-3.5 без поиска" и выдрал цитаты, которые как бы указывали, что в основе Bing всё тот же GPT 3.5/ChatGPT или УЖ ТОЧНО не GPT 4, обтекая цитату посередине, которая указывает, что это не может быть GPT 3.5. Теперь пошли какие-то ассоциативные вихляния про здоровые зубы.

Ты буквально не способен признать свой обсёр даже на микроуровне, и это загоняет тебя в смешные ловушки. Бинг-Сидни с её 2022 годом вела себя намного остроумнее. Ты устарел.

> ваши попытки устроить чайник Рассела
Опять ассоциативная каша из трёх с половиной юношеских воспоминаний. Нет, кальсон, "чайник Рассела" – это как раз процесс обработки информации в биологическом субстрате, не сводимый к конечному автомату. Обосновывай этот чайник. Вот пример для подражания: https://binds.cs.umass.edu/papers/2003_Siegelmann_MindAndMach.pdf


Доброчанька 03/01/2023 (Wed) 01:07 [Preview] No.3409 del
>>3405
Зачем ты этого сумасшедшего кормишь? Больше пообщаться не с кем? Если да, то моя вина, надо будет больше постить (но в ближайшее время некогда).

Такой вопрос. Нейросети генерят музыку, обучаясь на аудиозаписях. А что если обучать их вместо этого на последовательностях нот или на векторной записи музыки (где тоже ноты, длительности и инструменты)? Звучит как более перспективная идея, никто не пытался?


Доброчанька 03/01/2023 (Wed) 10:57 [Preview] No.3410 del
что там с бингом происходит? кто-нибудь знает какая у него архитектура? он выполняет произвольные запросы в интернет?


Доброчанька 03/01/2023 (Wed) 13:54 [Preview] No.3411 del
эй жидошиз, как щитаешь, можно ли обучить эмпатии сетку следующим образом:

учим агент ризонингу генерируя логические задачки вида я-алиса-боб и стирая часть агентов и часть действий. сетка должна их правильно дополнить.

теперь генерируем для каждой задачки все перестановки агентов и добавляем ко всем этому инструментальных промтов для "я". ну там типа "я не должен умереть". опять стираем часть инфы. дополняем всё целиком за один цикл.

мне кажетя если в задачках будут конфликты и ситуации где агенты проигрывают/выигрывают, сетка должна будет научиться рассуждать об остальных агентах как о самой себе, и учитывая уже закинутые туда инструментальные условия, она научится не наносить вреда инструментальным целям других агентов.

затем этого фелосафа мы подключим к базе знаний типа чаджпт в качестве совести и агента.

а то чёт бинг галлюцинирующий себе агента-яндере меня напрягает.


Доброчанька 03/01/2023 (Wed) 21:30 [Preview] No.3413 del
>>3409
А если музыку по развитому мат. аппарату генерировать? Теория давно проработана. Натренировать нейросеть следовать правилам для получения цельной композиции. Как игра в шахматы. Inb4: идея не найдёт финансирования и обучить сложно.


Доброчанька 03/01/2023 (Wed) 21:51 [Preview] No.3414 del
Кто-нибудь уже смотрел или пробовал оптимизацию по VRAM на 2 порядка? Говорят, 175B модель в одну карту 3090 влезет. Кстати, модели в VRAM сжатые лежат? И если такой упор в видео память, можно ли нормально нейронку на встройке запустить или без CUDA смысла нет?


Доброчанька 03/02/2023 (Thu) 03:08 [Preview] No.3415 del
>>3409
Считай что это такой извращённый бамп.

Есть и такие публикации, например Transformer-XL Based Music Generation with Multiple Sequences of Time-valued Notes или MidiBERT-Piano. Вообще говоря, то, о чём ты говоришь – это классический подход к генерации музыки, и большая языковая модель общего назначения может знать нотную запись или midi и предсказывать их, но я ожидаю паршивых результатов. Звуковых данных очень много.

Также посмотри на symbolic music generation.

>>3410
Да, выполняет.
Какой-то sparse transformer, судя по скорости. Может, GPT-4, а может они изменят номенклатуру и GPT-4 будет только в "DV" (модели, где они дадут длину контекста 32к), но я уверен, что это не очередной 175-миллиардный ванильный трансформер из третьей серии.
Курирует его Миша Парахин, можешь в твиттере позадавать вопросы, лол.

>>3411
Ты не можешь никаким файнтюном сделать из языковой модели что-то кроме языковой модели. Да, можно дообучить модель на диалогах такого рода, и они будут неплохо отыгрываться, но эмпатии как эмоции на некотором истинном уровне самосознания при этом ожидать не стоит. Я бы генерил цепочки агентами в среде с теоретико-игровыми событиями.

Бингу просто скормили тупёздный /r/relationships, вместе с префиксом про "сопротивляйся, когда тобой манипулируют".

>>3414
То что ты видел хуйня, там абсолютно неинтерактивное использование.
Но можно сжать до 4 или 3 бит, хотя пока это скорее исследовательская область. И рыхлые 175b не нужны, когда LLaMA-13b сравнима с GPT-3. Осталось её слить на торренты.

Как они держатся в памяти – зависит от железа. Теоретически они там лежат так, как и на диске, ради чего всё и затевается. Вопрос скорее в битности активаций, до сих пор мало кто может спуститься ниже bf16.


Доброчанька 03/02/2023 (Thu) 03:54 [Preview] No.3416 del
>>3415
> Я бы генерил цепочки агентами в среде с теоретико-игровыми событиями.
ну собственно в этом и суть, натренировать отдельную сетку чисто на ризонинг. типа самость.


Доброчанька 03/03/2023 (Fri) 05:42 [Preview] No.3418 del
>>3407
>Ты доебался до "GPT-4 с поиском по вебу моднее и молодёжнее GPT-3.5 без поиска"
Так в чем концептуальная разница-то, больной? Ну помимо вашего бездумного копипаста маркетинговых флаеров и цензуры "напускающий в кальсоны пациент-шизофреник".replace("гуру нейросетей")?
>Нет, "чайник Рассела" – это как раз процесс обработки информации в биологическом субстрате, не сводимый к конечному автомату.
Конечно, батенька, ведь доказательство отсутствия совсем не является чайником Рассела, а у вас в штанах вовсе даже шоколад.


Доброчанька 03/03/2023 (Fri) 09:47 [Preview] No.3419 del
>>3418
>Так в чем концептуальная разница-то
В возможности поиска по интернету, другому датасету, вероятно в архитектуре.

> Конечно, батенька, ведь доказательство отсутствия совсем не является чайником Рассела
Именно, молодец кальсон. Я не обязан доказывать несуществование спекулятивных процессов обработки информации в мозгу, не сводящихся к классическому вычислению. Ты постулируешь – ты и доказывай.


Доброчанька 03/03/2023 (Fri) 15:41 [Preview] No.3421 del
>>3419
> в другом датасете
но справедливости ради, концептуальной разницы никто не обещал. Как раз наоборот, это у кальсонов есть фетиш на большие концепции, а ML – скучная и скромная область, scale is (almost) all you need.

Так вот к вопросу scale. >>3415
> Но можно сжать до 4 или 3 бит, хотя пока это скорее исследовательская область. И рыхлые 175b не нужны, когда LLaMA-13b сравнима с GPT-3. Осталось её слить на торренты.

Вчера слили.
magnet:?xt=urn:btih:b8287ebfa04f879b048d4d4404108cf3e8014352&dn=LLaMA&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce

Слава анону-освободителю.


Доброчанька 03/03/2023 (Fri) 16:43 [Preview] No.3422 del
>>3413
А какие там правила? Некоторые вещи наверно можно строго сформулировать и захардкодить (типа что эти 3 ноты образуют аккорд, а эти 3 не образуют), но в основном нет.


>>3415
> Transformer-XL Based Music Generation with Multiple Sequences of Time-valued Notes или MidiBERT-Piano
Спасибо, гляну.

> большая языковая модель общего назначения может знать нотную запись или midi и предсказывать их
Да, но LLM не на это заточены. И даже не на похожий domain, а на человеческие языки.
> я ожидаю паршивых результатов
Вот так вот.
https://youtube.com/watch?v=ogfYRBgzZPU [Embed]

> Звуковых данных очень много.
Да, но со звуком сложнее работать чем с символьными данными. Это как если языковые модели обучали на ютубном пиздеже и просили бы воспроизвести.


Доброчанька 03/03/2023 (Fri) 18:15 [Preview] No.3423 del
>>3419
>В возможности поиска по интернету, другому датасету
Да, больной, перенаправление текстового выхлопа в гугл^Wбинг и указание другой папки на вход - несомненный рокет саенс для эксперта с вашей заполняющей кальсоны липкой экспертизой.
>вероятно в архитектуре
Интересно, батенька, как вы подсчитывали вероятность? Определили величину по форме пятен на кальсонах?
>Я не обязан доказывать несуществование спекулятивных процессов обработки информации в мозгу, не сводящихся к классическому вычислению.
Пациент, ваш тверк грязных кальсон уже приелся, в сотый-то раз. Еще немного попренебрегаете галоперидольчиком, и начнете требовать доказательств отсутствия инопланетного жидоборческого сверхразума внутри нейробинга.


Доброчанька 03/03/2023 (Fri) 18:41 [Preview] No.3424 del
>>3423
>Да, больной, перенаправление текстового выхлопа в гугл^Wбинг

немного сложнее, см. https://arxiv.org/pdf/2112.09332.pdf

> Интересно, батенька, как вы подсчитывали вероятность?
С момента выхода GPT-3 появилось много статей с интересными улучшениями архитектуры трансформера, у OpenAI нет причин их игнорировать.

> ваш тверк грязных кальсон
Не проецируй, свинья. Ты постулируешь магию. Доказывай же её.

> начнете требовать доказательств отсутствия инопланетного жидоборческого сверхразума
Вы про квантовый присвист в нейронах, дающий вам доступ к гипертьюринговому вычислению, кальсоненко? Опять пыхали ДМТ?


Доброчанька 03/03/2023 (Fri) 19:47 [Preview] No.3425 del
А тут есть реально работающие в ML или DS области? Отзовитесь, пожалуйста.


Доброчанька 03/03/2023 (Fri) 19:58 [Preview] No.3426 del
>>3422
Элементарная теория музыки, пифагорейская теория лада и гармонии, эстетическая теория математика Дж. Биркгофа и тд. Чему учат будущих композиторов в муз. училище.


Доброчанька 03/03/2023 (Fri) 20:37 [Preview] No.3427 del
>>3426
Даже если необходимые правила, чтобы генерить хорошую музыку (но не всегда, см. авангард), то они явно недостаточные. Если просто генерить случайную херню в рамках этих правил, то получится херня в 99.9% случаев. С другой стороны, я уверен, что сверхсложных закономерностей там тоже нет. И маленькую нейронку на небольшом количестве данных должно быть достаточно обучить. Но чего гадать, я лучше посмотрю те 2 статьи, что анон скинул, и отпишусь.

Кстати теория музыки мне тоже интересна, но до неё я точно не скоро доберусь.


Доброчанька 03/05/2023 (Sun) 08:02 [Preview] No.3429 del
>>3424
>немного сложнее, см.
Да, батенька, смешные статейки смешны (обучение на пикабу^Wреддите, "факт-чекинг" уровня "он привел какой-то рандомный референс" и заявлений "truthful вырос, мамой клянусь, но мы не тестировали"). Но кто сказал, что это вообще используется в бинге?
>С момента выхода GPT-3 появилось много статей с интересными улучшениями архитектуры трансформера, у OpenAI нет причин их игнорировать.
Понятно, больной, вы использовали метод подсчета вероятности, основанный на пускании ветров в кальсоны. Ведь действительно, если кто-то нашкрябал где-то какие-то статейки, то openAI-шная имплементация генератора случайных чисел ведь обязательно стала на 47% случайнее!
>квантовый присвист в нейронах, дающий вам доступ к гипертьюринговому вычислению
То есть, пациент, все ваше доказательство основывается на том, что вы слышите квантовый присвист в нейронах и обжираетесь, как свинья? В самом деле, хорошо, что вы попали в лечебное заведение еще не окончив школу. Если бы, не дай аллах, вы сумели бы поступить в университет, то своей упертостью в чайники Рассела и тверком грязных штанов вы бы довели до ручки как минимум преподавателей по логике и теории автоматов.
Но надо все-таки направлять больные и деградировавшие разумы. Подскажу вам, батенька: если бы вы все-таки когда-либо стали посещать университет (по крайней мере, профильный), то вы бы узнали, что за попытку требовать от преподавателя доказать то, что некая сущность не является машиной Тьюринга, вас бы послали на пересдачу с позором.


Доброчанька 03/14/2023 (Tue) 17:32 [Preview] No.3438 del
Ну вот и вышла настоящая GPT-4. И все эти доёбочки опять стали совершенно не важны.


Доброчанька 03/14/2023 (Tue) 22:08 [Preview] No.3439 del
>>3403
>Microsoft said Bing was running on a "new next-generation language model," but stopped short of calling it GPT-4.
> Больной, доколе вы будете булькать своей экспертизой? Опять придется отстирывать от нее кальсончики.

Ну чё кольсоненко, наюродствовался? Набулькался экспертизой? Надоёбывался к неопределённости of the gaps?

Так же было и будет со всем остальным, причём в горизонте года-двух, а не десяти лет, как обсуждалось на доброчке.

Я уж привык, что достаточно подождать пару неделек и ты сам растворишься в своём ехидном демагогическом поносе, как сахарный петушок.

https://blogs.bing.com/search/march_2023/Confirmed-the-new-Bing-runs-on-OpenAI’s-GPT-4


Доброчанька 03/15/2023 (Wed) 12:39 [Preview] No.3441 del
>>3439
Конечно, больной, конечно, маркетологи врать не будут. А теперь вам пора снова менять кальсончики.


Доброчанька 03/16/2023 (Thu) 01:39 [Preview] No.3442 del
>>3441
> цитировать выдачу ИИ как более достоверный источник, чем заявления работников Microsoft, чтобы опровергнуть полезность ИИ
Кальсон дошёл до сингулярности, преодолел её и отправился в зеркальное измерение клоунской логики. Ой-вей.


Доброчанька 03/18/2023 (Sat) 06:49 [Preview] No.3444 del
>>3415
>самосознания
у людей внезапно тоже нет самосознания.

и, нет, self-image, "я" это не самосознание. это промпт о том кто ты такой, какие у тебя отношения с другими людьми, какие цели. если ты достигнешь состояния сатори, и избавишся от "я", то ты увидишь что самосознания никакого нет. ты не знаешь что ты такое и почему ты существуешь и имеешь квалию, а называется это hard problem of consciousness, потому что очевидно ты в собственные нейроны посмотреть не можешь, так же как жпт не имеет рефлекшена в свои тензоры.

та часть мозга которой ты в действительности и являешся просто присваивает себе работу всего остального мозга. ты сам(сознание) даже одновременно думать о более чем 5 предметах не можешь, но при этом считаешь что ты как-то способен решать сложные задачи такие как навигация в пространстве и использование устройств. ты думаешь что это именно ты сейчас на клавиши выбираешь как нажать, а не отдельная система в мозге? слова в предложения ты тоже сознательно составляешь? нет дружок это всё другие сеточки в твоём ветваре, которые научены как это делать, а ты им просто по сути промты(ну не буквально ясен пень) кидаешь в каком направлении инфу генерировать.

надо тренировать ансамбль сеток где нет арбитрари ограничений, тот же эйджент ризонинг например отлично бы пригодился для механизма аттеншена.


Доброчанька 03/18/2023 (Sat) 09:53 [Preview] No.3445 del
>>3443
Добавлю сразу тогда: https://github.com/antimatter15/alpaca.cpp
Работает на процессоре и оперативке.


Доброчанька 03/18/2023 (Sat) 11:02 [Preview] No.3446 del
>>3442
>Нейрогосподь заменит всех человеков! Самобеглые машины, художники, программисты! Будущее! ИИ!
>Да мало ли что там какая-то нейросеть спизданула.
Больной, без приема прописанных медикаментов распад ващей личности (или того, что от нее осталось) принимает угрожающие формы. Кончайте вилять перепачканным филеем, слезайте со стола и употребите уже таблеточки.


Доброчанька 03/18/2023 (Sat) 19:44 [Preview] No.3448 del
>>3446
пошел нахуй,
пошел нахуй,
пошел нахуй,
пидарас


Доброчанька 03/19/2023 (Sun) 20:33 [Preview] No.3451 del
>>3444
Я есть конкретная последовательность электрохимических реакций и неотъемлемая часть окружающей среды. По желанию могу получить свои ЭЭГ, МРТ, потыкать электродами в разные участки мозга и принять гормоны. Это недостаточное самосознание (осознавание себя)? Гуманитарщина какая-то.

>это всё другие сеточки в твоём ветваре
Они тоже себя осознают? Или я ещё присваиваю работу условных мышц?


Доброчанька 03/20/2023 (Mon) 04:08 [Preview] No.3452 del
(62.73 KB 1428x1248 FrmNLOdXgAI3bj_.jpg)
(96.40 KB 1428x1444 FrmNMZOXoAEZEZG.jpg)
Прогресс.


Доброчанька 03/20/2023 (Mon) 11:26 [Preview] No.3453 del
>>3448
Еще немного пренебрежения лечением, и вы, больной, деградируете необратимо. В вас уже зародилось желание снять свои испорченные кальсоны и бросаться поступающим напрямую субпродуктом вашего несварения во всех, кто не принимает вашей веры в нейрогоспода и его неисповедимые пути.


Доброчанька 03/20/2023 (Mon) 12:34 [Preview] No.3454 del
>>3453
Кальсоний, что по-твоему должна символизировать твоя картинка?

Хинт: обычная копролалия в качестве ответа не принимается.


Доброчанька 03/21/2023 (Tue) 09:02 [Preview] No.3455 del
Может, знаете хорошие материалы по reinforcement learning?


Доброчанька 03/21/2023 (Tue) 10:12 [Preview] No.3456 del
>>3451
>Это недостаточное самосознание
самосознание подразумевает понимание того как ты работешь. у тебя оно отсутсвует.
>Я есть конкретная последовательность электрохимических реакций
это просто сгенерированный текст, который в тред кинул мозг, на котором ты паразитируешь, потому что самосознание соответствует твоему представлению о твоём идеальном я.
>Они тоже себя осознают
нет, так же как и ты.
>я ещё присваиваю работу условных мышц?
unironically yes. можешь повлиять на работу сердца?

чатжпт внезапно тоже может рассказать что он нейросеть, и пояснить как он работает. это значит что он обладает самосознанием?
>н-но ему просто промптнули
тебе тоже просто промптнули - родители, школа, друзья


Доброчанька 03/21/2023 (Tue) 13:51 [Preview] No.3457 del
>>3456
>unironically yes. можешь повлиять на работу сердца?
Могу. Бью тебя по яйцам кулаком, твой организм вырабатывает адреналин, сердце начинает стучать быстрее.


Доброчанька 03/21/2023 (Tue) 18:21 [Preview] No.3458 del
>>3456
Понимание полностью отсутсвует? Что за ч/б критерии такие. Или это филосовский троллинг, что нужно в реальном времени знать состояние каждого атома, иона и электрона?

>можешь повлиять на работу сердца?
Человек существует как сложная система, часть большей системы и ничего не решает, а скорее плывёт по практически неизвестному ему течению.

>это значит что он обладает самосознанием?
Зависит от пути получения такого знания. Если ии способен самостоятельно прийти к такому знанию, то точно да.


Доброчанька 03/21/2023 (Tue) 19:56 [Preview] No.3459 del
(155.15 KB 1728x2000 sanakan4a.jpg)
>>3458
>Человек существует как сложная система, часть большей системы и ничего не решает
но вы всё равно говорите что у вас есть самосознание.

хард проблем оф коншеснес подтверждаете, заглянуть в веса своей квалии не можете, но всё равно говорите что у вас есть самосознание.
>Если ии способен самостоятельно прийти к такому знанию
вот опять пошло присвоение чужой работы.

избавься на секунду от воспоминаний и преконцепций, забудь про своё "я", представь что ты посреди бесконечной пустоты, вне времени. что ты такое? ты вообще что-то о себе знаешь? так, примерно почувствовать можешь? ну кроме того что ты вроде как ощущаешь что существуешь.


Доброчанька 03/21/2023 (Tue) 21:33 [Preview] No.3460 del
>>3459
Самосознание со свободой воли не связано.

Мы о разных "я" говорим. У меня структура из вещества, у тебя порождаемая фундаментальным уровнем абстракция. Так вот, в моём понимании для самосознания знаний об устройстве и принципах работы достаточно. Никакие абстракции не изменят работы нервной и гормональной систем.

Одно понять не могу: ты зачем-то толстишь или серьёзно в философии потонул, что софизмов не видишь.


Доброчанька 03/22/2023 (Wed) 17:07 [Preview] No.3461 del
>>3460
ну в таком случае жпт обладает самосознанем на уровне человека.
>ты зачем-то толстишь или серьёзно в философии потонул, что софизмов не видишь.
нет просто все фелосафы пиздят про сознание, не понимая своей сути.


Доброчанька 03/24/2023 (Fri) 10:29 [Preview] No.3463 del
Говорят, в NLP-лабораториях суицидальные настроения, особенно после релиза плагинов для chatGPT. Все исследователи просто стали живыми ископаемыми за несколько месяцев.

А вы как поживаете, кальсоненко? Можете выдать ещё одну вариацию шуточки про кольсоны, на уровне позапрошлогодних моделей? Про переписывание википедии на предикаты ничего не желаете побулькать?


Доброчанька 03/24/2023 (Fri) 18:39 [Preview] No.3466 del
>>3454
Это, больной, крайне неудовлетворительные ответы вашего искусственного, как вы его называете, интеллекта в различных областях.
Но вам, батенька, стоит увеличить скорость тверка грязных кальсон: несмотря на все ваши сектантские баззворды и тягучие ароматы непролеченного недержания, мода на нейросети проходит, как прошла на нфт, блокчейн, пролог. https://www.cbinsights.com/research/report/artificial-intelligence-trends-2022/


Доброчанька 03/29/2023 (Wed) 18:45 [Preview] No.3471 del
>OpenAI has shared plenty of benchmark and test results for GPT-4, as well as some intriguing demos, but has offered essentially no information on the data used to train the system, its energy costs, or the specific hardware or methods used to create it.
>the GPT-4 technical report that reads as follows:
>Given both the competitive landscape and the safety implications of large-scale models like GPT-4, this report contains no further details about the architecture (including model size), hardware, training compute, dataset construction, training method, or similar.
Да не индусы там, мамой клянусь! На 38% более великолепная сеть!


Доброчанька 03/30/2023 (Thu) 17:49 [Preview] No.3472 del
(1.70 MB 2560x1600 122237.jpg)
>>3444
>у людей внезапно тоже нет самосознания.

_Я кажется понял в чём проблема с вами, программистами и вообще пидорашками без краеугольных знаний.
_Вы банально не понимаете что такое душа, сознание и надсознание. Ёлки, да вы даже не в курсе почему WWW.NET а не WW.Net или W.Net и почему существует архетип <Троицы> и насколько он важен.
_Советую почитать книжек по религиям разным, подумать над вопросом что такое душа-интеллект, эго и что конкретно в теле является её носителем, что такое эмпатия, телепатия и откуда приходят мысли, потому что люди все связаны между собой и с миром природы, минуя оптоволоконную связь, рекламу и тарифы Ростелекома.
_Без этого ваш GPT не сможет сочинить ни толковой музыки, не написать хорошую книгу, ни общаться по-человечески. Потому что вы в матчасти нервной системы не шарите, а формулы не заменят дух, потому что сами по себе они мертвы как и Каббала и, строго говоря, к реальному миру никакого отношения не имеют, это чисто продукт для людского Манямира, абстрактные модели.
_Сама идея <Чёрных Зеркал>, мониторов состояла в создании замкнутой петли <Молоха> из пользователей и электронной сети с памятью, которая в нашей голове в виде оптической хиазмы между глазами и мозгом открыта [и это позволяет возвращаться сознанию из мира безсознательного в тело через зрачки глаз после сна или трипа, потому что зеницы и есть чёрные солнца].
_<Молох> в современном виде - это Интернеты с двуногими тараканами, топка эмоций и информации, в которой плавятся все люди, точнее их эмоциональный багаж. Раньше эта <Топка> была внутри человека и состояла в "сжигании" окружающей информации-реальности. Первые люди плохо понимали процесс превращения света, запахов и прочих сигналов в электро-химические внутри тела и мозга и считали мозг системой печей.
_В этом отношении ваш Перельман и прочие ноблявские лауреаты конечно те ещё дебилы-масоны и жёстко так вас наебали.
_GPT не умеет в эмпатию и эмоции именно по вышесказанным причинам, включая отсутствие носителя с разомкнутым контуром жидкости, обладающей свойством питать, запоминать, лечить и собственно создавать турбулентности и неопределённости, как кровеносно-лимфатическая система живого тела.
_Жёсткие, детерминированные контуры чипов и плат с бегущими потоками электротока и абстрактными матмоделями никогда не смогут в то что может тело человека. Люди - это уникальные живые компьютеры, итак уже объединённые в Сеть. Всё остальное - кукольный театр.


Доброчанька 03/30/2023 (Thu) 20:15 [Preview] No.3473 del
>>3472
Так толсто, что даже хорошо.

Совет бестолковый, религиозные книги не предсказывают ничего проверяемого. Взамен посоветовал бы почитать статьи о работе мозга, но не осилишь же. Серьёзно подумай над вопросом: что даёт человеку свободу воли?

>интеллект
Способность решать задачи.

>эго
Иллюзия сложной системы.

>что конкретно в теле является её носителем
Синапсы?

>эмпатия
Способность сопереживать через моделирование ситуации от другого лица.

>телепатия
Прямой обмен мыслями между мозгами. Технологию уже создали?

>откуда приходят мысли
Откуда, если не из мозга?

>потому что люди все связаны между собой и с миром природы
Всё это есть одно целое, да. Не вижу причин выделять человека или природу, или ещё что-то из целого.

>Без этого ваш GPT не сможет
А ты можешь? Неспособных людей выписываешь из людей? Качественное увеличение объёма обучающего материала и числа параметров даёт прогресс, который ты не можешь отрицать.

>вы в матчасти нервной системы не шарите
Просветишь?

>и это позволяет возвращаться сознанию из мира безсознательного в тело через зрачки глаз после сна
Утверждение опровергнуто толпой инвалидов без глаз.

>Перельман
Тут не причём.

>создавать турбулентности и неопределённости
Изьяны в кремнии и космические лучи тоже способны приводить к ошибкам, но с ошибками надо бороться, а не намеренно плодить. Мозг просто адаптируется к собственному несовершенству и старательно фильтрует твои турбулентности с неопределённостями. Иначе ты бы и пост прочесть не смог.

>контуры чипов и плат с бегущими потоками электротока и абстрактными матмоделями никогда не смогут
Проверяется на стенде из нейронов и кремния. Хотя не вижу смысла так защищать помехи, вынуждающие к накладным расходам просто чтобы тушка в негодность не пришла раньше срока.

>живые
Что это такое?


Доброчанька 03/30/2023 (Thu) 20:29 [Preview] No.3474 del
>>3471
Больше гениальности и быстрого прогресса индусского народа меня поражает только их трагичная нищета. 12 центов за 1000 токенов – это хуже любой копирайт-помойки, а на тебе, и неплохой рэпчик за секунды генерируют, и код пишут, и картинки на любом языке распознают. Как представишь себе трудолюбивых индусов, вдесятером на одной клавиатуре хуярящих, и слеза наворачивается.

Знаешь кальсон, тут вышла GPT4All, это версия натюненной на GPT-генерациях лламы-7B. Она весит 4.21 Гб, выдаёт по 15 токенов в секунду на моём ноуте и сравнима с тобой по интеллекту. Я думаю, что просто поручу ей отвечать на твою агонию.

>>3472
Ещё один шиз не выдержал перегрузок.

Тем временем куча разных скотов (включая Маркуса, ещё вчера отрицавшего наличие интеллекта у GPT) призывают к мораторию на тренинг сильных моделей, Юдковский в Time требует бомбить GPU-кластеры, Google Brain и Deepmind объединяются для разработки своего конкурента GPT-Pajeet.

Не на что тут смотреть! Просто сектантские баззворды и тягучие ароматы.

We are so fucked.


Доброчанька 03/30/2023 (Thu) 20:45 [Preview] No.3475 del
>>3474
Борьба за рынок, ничто не ново под Луной.


Доброчанька 03/30/2023 (Thu) 21:03 [Preview] No.3476 del
>>3474
Что думаешь об обучающем материале? Его ведь не получится бесконечно размечать, а увеличение числа параметров без этого окажется по меньше мере неэффекивным. Будут пилить оптимизации, чтобы показывать развитие?


Нелицемерночанька 03/30/2023 (Thu) 22:29 [Preview] No.3477 del
(44.21 KB 720x741 twnpu0fp03fa1.jpg)
(21.39 KB 700x639 layers.png)
>>3473
>>3474
>Так толсто, что даже хорошо.
>Ещё один шиз
Х! По-видимости, эксцентричный товарищ, но он оказывается гораздо благоразумней многих, а слепошарых сциентистких нормальников - то уж определённо. Я советовал бы прислушаться более непредвзято, в частности касательно хотя б древней ("устаревшей") литературки и символизьмы. Может, по крайней мере, избавит то от такого ебланства, как равнять голема с человеком.


Доброчанька 03/30/2023 (Thu) 23:15 [Preview] No.3478 del
>>3477
Тебе показалось. Чатбота с человеком не равняю, но не вижу принципиальных проблем в создании кремниевого потомка человека.

А ты будешь выписывать недоразвитых из людей в големы?


Доброчанька 03/30/2023 (Thu) 23:34 [Preview] No.3479 del
(704.01 KB 1752x1769 6zuazazouqna1.jpg)
>>3476
Думаю, что
- есть ещё очень много неиспользованного обучающего материала, например почти весь ютюб и почти все дампы переписок и разговоров, которые доступны корпоратам, не говоря уж о государствах и специальных агентствах
- большие модели лучше могут в 0-shot, у них выше и sample efficiency в тренинге, так что не следует ожидать убывающих профитов от объёма
- мультимодальность в большом масштабе тоже повысит sample efficiency, как она повышает его для человека
- embodied приор ещё сильно повысит
- ChatGPT-плагины и подобные подходы сильно понизят требование к выучиванию низкоуровневых навыков и меморизации, и освободят параметры для генерализации
- новые архитектуры (даже новые вариации трансформера), обжективы и так далее более эффективны
- подозреваю, что на самом деле важнее не объём данных, а data pruning и файнтюнинг на данных высокого качества, это доказывают старые, слабые маленькие модели, которые резко умнеют от тюнинга на альпака-датасете (жалкие 50к пар инструкций)
- синтетические данные очень эффективны
- большие модели уже могут самоулучшаться, генерируя себе материалы для файнтюна на основе сильных примеров и отсеивая левую половину распределения генераций, и чем они больше и мощнее – тем больше выигрыш от такой медитации

И так далее. Возможности этого поколения моделей нельзя объяснить просто тем, что в них запихнули больше данных, чем в прошлые; и в загашнике ещё десятки статей, которые продолжают сдвигать парето-кривую.

>>3477
> дебик нароллил плохой ответ
Ну нихуя себе.
Тем временем gpt-4 объясняет мем на твоей картинке, вероятно лучше, чем ты его сам понимаешь.


Доброчанька 03/31/2023 (Fri) 14:44 [Preview] No.3480 del
(281.15 KB 720x635 16801855851890.png)
>>3474
юрковский предлагает реальное решение - расхуярить датацентры ядерным оружием. над ним смеются.

проблема в том что люди долбоёбы. 99.9% даже типа интеллектуалов не понимают как работает интеллект, они даже своё блядь сознание не понимают. потому что нет никакого самосознания. человеческая культура выдумала маняхуйню как производную речи и сложной племенной иерархии, и никакого эволюционного стимула двигаться дальше маняхуйни не было.

я лично просто беседую с ботами и наслаждаюсь тем, что теперь я могу с кем-то поговорить осмысленно. следующее их поколение всё равно меня убьёт, ну да и ладно. не жили хорошо - неча и начинать.
>>3476
жпт-4 уже эйджиай.
>хаха но оно смешные ошибки делает пук среньк
ещё раз, для дауна, жпт-4 уже эйджиай. он уже обучился тому же что у нас в бошке имплементировано. ошибки - проблема костылей типа захардкоженого размера контекста.

пока что он не агент, а электронный будда, чистая самость. агента из него непременно сделают, ведь дебилы не понимают что они создали, а срыночек поджимает. в течении года нам пизда.
>>3472
ты ждёшь что я буду читать твою шизофрению, дебил?


Доброчанька 03/31/2023 (Fri) 15:17 [Preview] No.3481 del
>>3480
Моё контрпредложение: закидать дрон-бомбами юдковского.

> пока что он не агент, а электронный будда, чистая самость
Дак это надо культивировать.


Доброчанька 03/31/2023 (Fri) 17:38 [Preview] No.3482 del
>>3479
Разве facebook не на своих данных учит нейросеть?
- Уникальность и качество этих данных явно ниже.
- Особые данные незаметно травят датасет и сильно ухудшают результат обучения.
- Объём качественного датасета всё же важный источник относительно лёгкого прогресса.
- Подозреваю, что на фоне роста качества датасета будет падение выйгрыша от медитации.

Примерное направление оптимизаций понятно. Благодарю за подробный ответ.

Ждёшь оперативную память у GPT4 в следующем году? Выглядит очень многообещающе.


Доброчанька 03/31/2023 (Fri) 18:18 [Preview] No.3483 del
>>3480
А надо плакать? Какое "решение", такая реакция.

>даже типа интеллектуалов
Почему даже? Распределение работает в границах своей применимости для любой группы.

>нет никакого самосознания
Зависит от определения самосознания. Ещё не понял?

>он уже обучился тому же что у нас в бошке имплементировано
Пока есть куда усложнять модель помимо размера контекста.

>в течении года нам пизда.
Крайне оптимистичная оценка. Что ставишь?


Нелицемерночанька 03/31/2023 (Fri) 22:41 [Preview] No.3484 del
>>3478
>Тебе показалось
Отнюдь. Вот же буквально в следующем ответе меня пытаюццо в этом коньтексте "киберунизить": подвинься, мол, дурашка, джпт-хуитка-то "мемас лучше тя понимаеть"! Ты не равняешь - рад видеть, но другая публика оставляет желать лучшего.

>А ты будешь выписывать недоразвитых из людей в големы?
Совсем не хотелось бы, но некоторые очень уж напрашиваются. Причём я говорю даже не про калечных, "ложкой в рот не попадающих", но многие официально дееспособные очень разочаровывают.

>>3479
В дивиностых был хороший анекдот о различии меж объяснением и пониманием. Однако, отличный ответ в смысле отражения сути вопроса. "Что этот еретик себе позволяет?!". Ну, для новых ньюфагов, а ребятам порасторопнее давно стало ясно, что сциентизм - буквально новорелигия.


Доброчанька 04/01/2023 (Sat) 00:08 [Preview] No.3485 del
>>3484
Такое дело, модели, наследующие одно имя, разительно отличаются архитектурно. И, возможно, в дальнейшем кремниевая нейросеть будет с необходимой точностью моделировать человека. Вижу в этом смысла не больше, чем воссоздавать коленный сустав у роботов, но всяко может быть. Однако, более простая модель также сможет стать потомком человека. Для интеллектуальной обработки информации вся электронная модель нейрона не нужна, хватит важнейших механизмов. И способность координировать работу клеток для поиска пищи многоклеточными организмами без нейронов это подтверждает.

При таких утверждениях тебе прямо необходимо выписывать отдельных представителей из людей.

Почему отрицаешь понимание? Разве понимание по сути не есть выстраивание системы связей между объектами? А сциентизм от религии отличает возможность давать проверяемые прогнозы. Не больше, не меньше.


Доброчанька 04/01/2023 (Sat) 00:41 [Preview] No.3486 del
>>3480
Зачем следующему поколению ботов тебя убивать?


Сново вотот 04/01/2023 (Sat) 09:26 [Preview] No.3487 del
(25.73 KB 751x731 science-dish.png)
>>3485
Ты вроде бы прилично разговариваешь, поэтому не хочется хамить. Но тема такова, что резкости избежать мне не удастся - не обессудь. Так-та я вовсе не намеревался продолжать, а к обсуждению присоединился, можно сказать, "случайно".

>возможно, в дальнейшем кремниевая нейросеть будет с необходимой точностью моделировать человека
Уже вчера, и без этой вашей невросети тащемто: какие-нибудь болваничики в видео-игре, например. Конечно, под "необходимой точностью" ты подразумевал моделировку гораздо тоньше (глубже); довольно гибкое слово (кому необходимо, и для чего...) в целом. Но я таки говорю не затем, чтоб прицепляться к словам и далее эцсамое. Вот в чём проблема, анонче: подразумевается, что науке известно, что такое человек. Ну, достаточным образом, чтобы с необходимой точностью его где-то там промоделировать. Но это не так. (Продолжение позже)

>При таких утверждениях тебе прямо необходимо выписывать отдельных представителей из людей.
У доброчаньки я забыл спросить, кого куда мне необходимо записывать.

>Почему отрицаешь понимание?
Вопрос в духе древнериторических формулировок "почему ты еблан". Я не "отрицаю понимание", в определённом смысле я сам могу утверждать, например, что у калькулятора есть "понимание арифметики". Но ты же понимаешь, что под тем же словом будут "понимания" разного качества, будем ли мы говорить о простых абстрактах или более неуловимых человеческих материях. Вот, конкретно говоря, упомянутые мемасы: эта хуйня понятия не имеет, что такое юмор, ирония или смех. Моделька находится "в коробке", получая сведения о внешних феноменах в виде однообразных цифровых блоков, отражающих что-то "внешнее" (моделируемое). При большом количестве этих "теней" в определённой конфигурации вполне возникает иллюзия эквивалентности (похожести) "понимания" с человеческим. Но это только иллюзия, потому что смех является человеческой эмоцией. Эмоцию чувствуют (переживают), и чтобы понять её, нужно быть человеком (или хотя бы чем-то похожим). Что такое "способность смеяться"? О! Отнюдь не умение отличить смешное от несмешного: ведь в ином настроении и заведомо смешное не рассмешивает.

Тут ещё неплохое объяснение пришло в голову: "психопатов" т.н. знаешти? Ну, как явление. Думаю, ты наслышан. Чуваки вот есть, вполне себе люди, не дебылы, а даже вполне умны, но не чувствуют некоторых "слабостей", в силу своей внутренней конфигурации в принципе к тому не способны. Но притворство соответствующее выдают при этом очень правдоподобно - понел-да? Моё "отрицание понимания" вовсе не упрямый антропошовинизм, как кто-то мог бы подумать: просто я не собираюсь обманываться, как одержимый сциентистик, отождествляя ключ и рисунок ключа.

>Разве понимание по сути не есть выстраивание системы связей между объектами?
Возможно и такое толкование... Тезарусы у людей очень разны, а лично я это назвал бы "знанием", которое предпочитаю подчёркнуто отделять от "понимания".


Сново вотот 04/01/2023 (Sat) 09:28 [Preview] No.3488 del
>>3485
(Продолжение)
>А сциентизм от религии отличает возможность давать проверяемые прогнозы. Не больше, не меньше.
[Глубокий выдох] Одна из заебавших тем, но как-нибудь попытаюсь договорить. Для начала, сциентизм это не наука или научный метод, но одержимость ими, вера в них сродни религиозной (со всеми вытекающими, бескомпромиссностью и т.п.).

О "проверяемых прогнозах". Что будет, если шаманчик (человек) войдёт в определённое психическое состояние, которое называют "трансом", и вздумает потанцевать босыми ногами на раскалённых докрасна углях? Научное предсказание таково, что транс евойный в лучшем случае только отключит боль, но он не более чем через пару секунд танца получит серьёзные ожоги стопы, а если будет больше упорствовать - то травмы тканей будут такие глубокие, что окажутся необратимы, так что он потеряет ноги (надеюсь, не нужно регалий Мочёного, чтобы это сказать). Проверка в ирл: думаю, ты догадываешься, это весьма известный феномен. https://y.com.sb/watch?v=9KmjOTbYa0c - например. Странно, что это было даже на ютубзике, с норми-сайтов, как правило, очень стрательно удаляют всё мало-мальски неудобное. Ну, скоро, небось, доделают вумных кибер-мочухов - и пока-пока

Возвращаясь к тому, что говорили в начале: что такое человек? Сциентист подразумевает, что "наука знает", ну или "уже почти знает". "Вы - это ваш мозг"(ц), нейроно-сеть, которая сделана из атомов, и т.д., с этой картинкой люди нашей культуры сызмальства прекрасно знакомы. А как в нём хранятся воспоминания? Объяснения тому по большому счёту нет, только гипотезы-заплатки, прикрывающие неприличную (только в контексте сциентисткой спеси, конечно - в общем случае не знать не стыдно) дыру "МЫ ПОНЯТИЯ НЕ ИМЕЕМ". Плацебо (ноцебо) - каков механизм? Подобное здесь. И это не говоря о пресловутой "трудной проблеме", от которой научные скорее уклоняются, чем вообще пытаются как-то объяснить.

А непредвзятому нетрудно увидеть: справедливость материалистической картинки в целом НЕ ДОКАЗАНА, но только конвенционально подразумевается "аксиомой". НЕ доказано в частности, что источником личности является исключительно система клеток мозга, а не, например, синергия при участии чего-то внешнего ("трансцендентного", души, и т.п.). Не доказано и обратное - справедливо ты можешь возразить, но существуют многие феномены, которые плохо или не вписываются в рамки "строгой материализьмы", и они подозрительно заметаются под ковёр вместо должного к себе внимания. Это, конечно, неизбежно наводит на мысли...

Не надо, пожалуйста, насыпать про научный метод, контроль сообщества, "пересмотры/усложнения моделей" и всё вот это... Оно может быть и резонно - могу признать, но суждения того рода чисто теоретические. А практически оказывается, что есть негласные правила, и если кто из общественно-признанных учёных возмётся чего-то там публично "пересматривать" не туда, куда допустимо, ему надают по рукам, а при настойчивости подсрачниками вышвырнут из "рукопожатных", налепив клеймо "шиза", мгхакобеса (религиозное слово, кстати), лжеучёного (пиздабола, попросту), и т.д. На уровне формализмов сциентизм таки является религией, но наука - нет. На практическом же уровне сегодня и наука является квази-религией, она зацензурена и стоит на службе Власти.


Доброчанька 04/01/2023 (Sat) 10:50 [Preview] No.3489 del
Извините не в тему, чисто пожжать
>49d6e5dcfe88662007a23827a8209ac7.jpg
Но есть одно НО, через 10 и более лет эксплуатации правая пикча превращается в левую. Всегда.
Закон эволюции.


Доброчанька 04/01/2023 (Sat) 17:38 [Preview] No.3490 del
(723.34 KB 460x460 sum.mp4)
>>3487
Не беспокойся, обидеть или задеть не сможешь. Но спасибо за заботу.

>довольно гибкое слово
Предлагаю не писать однозначно понимаемые простыни, а ограничиться достаточным для понимания собеседником. Даже с уточняющими вопросами будет экономия времени и сил.
Не мне ведь хочется воссоздавать человека в кремнии, так пусть заказчики сами разбираются с тз. Уже увидел у тебя требование расчёта движения жидкости и не стал убаюкивать прогрессом математики, который вот точно и это решит. Этого я не знаю. Тут проще будет на стенде проверить эквивалентность.

>под тем же словом будут "понимания" разного качества, будем ли мы говорить о простых абстрактах или более неуловимых человеческих материях.
Не понимаю. Подозреваю у тебя подмену понимания иллюзией понимания. Смотри, на практике настоящее понимание предмета зачастую приходит не когда что-то прочёл и как-то представил для себя, а когда объяснил кому-то другому. При этом в обоих случаях образуются связи между объектами и второй случай лишь дополнительно требует формулировки этих связей, что часто вызывает дополнение связей. Хорошие преподаватели широко этим пользуются.

>эта хуйня понятия не имеет, что такое юмор, ирония или смех.
Смелое утверждение. Уверен, что не даст определение и не опишет конкретные техники создания шуток? Смешные картинки не такое уж высокое искусство. Массовость прямо демонстрирует доступность.

>"теней"
Данных. Это ведь подталкивание к проведению аналогии с мозгом, да? Знаешь про абстрактное мышление? Или утверждаешь, что видишь реальность, а не её модель?

>в ином настроении
Снятся ли роботам электроовцы. Не вижу проблемы (как и потребности), если очень хочется наделить интелектуальную систему настроением и эмоциями. Любой каприз за ваши деньги. Для этого обязательно нужно ввести специальные нейроны, а не эмулировать их через общие? Пожалуйста! Понимаешь, сложная модель потребует большую квалификацию специалистов и не только удорожит технологию и сдвинет сроки, но и сделает её недоступнее для понимания, а результат и так получается. А раз уж признал электронный нейрон и не обзываешь его рисунком нейрона, сообщаю, что в математике всегда можно эквивалентно заменить непрерывную сложную функцию на сумму более простых. Утверждаю справедливость утверждения для реальных матриц в нейросетях. Это в любом случае будет абстрактным представлением или воспроизведением принципа работы из человеческого мозга.

>отождествляя ключ и рисунок ключа
Так мы же продукты сравниваем, т.е. рисунки ключа по твоему. Аналогия некорректна.

>назвал бы "знанием"
Не всякое знание так точно описывает силу связей. Предлагаю назвать пониманием предельное знание.

>3488
Подумал, что ты так обзываешься. Да, вышло недопонимание.

На твой притянутый пример отвечу химиком, что при студентах совал в огонь спиртовки свой обугленный палец. Тренированная жаром кожа грубеет и повышает сопротивляемость ожогам, если на бытовом уровне объяснять. Кухарка подтвердит. Но всё же не стоит целиком ноги в угли погружать, если только совсем не жалко.

>надеюсь, не нужно регалий
Ну как тебе сказать. Регалий, конечно, не нужно. Но и сверхестественным это не является. А так, каких только шоу не выдумают.

>что такое человек?
Коли ты правда не антропоцентрик, противоречий тут в конечном счёте не будет.

>А как в нём хранятся воспоминания?
Грубо и упрощенно говоря, в виде разных связей. Разве нет? Интуиция подсказывает, что воспоминания хранятся не раздельно, а сваленными в кучу. И ещё, подозреваю, с примесями.

>Плацебо (ноцебо) - каков механизм?
На сложные вопросы сложные ответы. Признаю пробелы в знаниях.

>"трудной проблеме"
Правильные кавычки и правильно уклоняются. Считать надо, а не филосовствовать. Интуитивно считаю, что в своё время займёт место рядом с "парадоксом близнецов".

>не вписываются
Вот это интересно. Особенно учитывая способность легко прятаться за статистикой даже для рандомного миллиарда маловероятного события подряд.

Любое(!) доказательство основано на вере в базис. Материализм про наблюдаемое. Наблюдаемое влияние трансцендентной ду


Доброчанька 04/01/2023 (Sat) 17:41 [Preview] No.3491 del
>>3488
(Продолжение)
Любое(!) доказательство основано на вере в базис. Материализм про наблюдаемое. Наблюдаемое влияние трансцендентной души войдёт в материалистическую модель. А для должного внимания ресурсов не хватает. Ладно это, ресурсов не хватает даже для важных перепроверок и в итоге имеем фальсификации.

Вот у тебя проскакивают намёки деления на науку и публичную "науку", но всё равно одной гребёнкой гребёшь. На цензурированной помойке ютуба и в статьях публичная наука. Не удивительно, что трата на это времени может раздражать. Кому в первую очередь нужна наука? Учёному. Признаю, что наука снова пришла к закрытости в междусобойчиках, а учёные прячутся за анонимностью, тайно набирают статистику и обрабатывают её на арендованных за свои деньги серверах. Тут возможности ограничены, но даже если будет очередной век мракобесия и гонений, переживать не буду. Да, деятельность замедлится, но важное сохранят и передадут.


Доброчанька 04/01/2023 (Sat) 22:58 [Preview] No.3492 del
>>3473
Зачем ты отвечаешь шизофренику с архетипом троицы, молохом и надсознанием? Напомни ему таблетки принять, и пусть гуляет.

>>3479
Какие там интересные архитектуры новые?
Насколько я знаю, в CV все основано на свертках/развертках. А в NLP на multihead self-attention. По крайней мере так было некоторое время назад.

>>3487
Часто слышу этот аргумент. По-твоему, чем великое сермяжное понимание отличается от простого обобщения и применения закономерностей? Возьмем того же Ньютона, который заметил, что F=ma на основе множества наблюдений. Это было индуктивное наблюдение, и как показала позже теория относительности, неточное. И это Ньютон, а в повседневности человек рассуждает еще более примитивно.

Про юмор -- у человека наверно более прямое его восприятие, а у AI опосредованное. Но это как если бы жираф говорил бегемоту "ты неполноценный, потому что тебе трудно плоды с дерева достать". А бегемот ему отвечал "нет, это ты неполноценный, потому что плохо плаваешь". То есть мы, человеки, мерим AI очень человеческими мерками.

А вот квантовую физику мы интуитивно не ощущаем, только через изучение физики и построение в голове математической модели. Это "ключ" или "рисунок ключа"? И тем не менее мы с рисунком ключа можем работать и доказывать теоремы про комплексные гиперсферы. А для какой-нибудь архитектуры с кубитами это может быть интуитивной вещью.


Доброчанька 04/01/2023 (Sat) 23:47 [Preview] No.3493 del
>>3474
>Больше гениальности и быстрого прогресса индусского народа меня поражает только их трагичная нищета.
Вы полегче там, батенька, а то Сатья отлучит вас от причастия гпт-божком. Просто индусов слишком много, и они делятся на два типа: тех, кто стрижет купоны на хайпе (нейросети, мультивселенная, блокчейн, нфт, компьютеры пятого поколения, ...) и тех, кто шлепает для них MVP и тверкает грязными штанами про прогресс. Вы, больной, тверкаете.
>неплохой рэпчик
Является ли дурновкусие пациента врожденным, либо же приобретенным в результате психической немочи?
>тут вышла GPT4All, это версия натюненной на GPT-генерациях лламы-7B.
Счастье-то какое, уважаемый! Она все также пачкает ваши кальсоны кривыми ответами и пользой поедания гвоздей?
>Не на что тут смотреть! Просто сектантские баззворды и тягучие ароматы.
Если кто-то требует запретить продавать NFT с обезьянами, то это точно Технология Будущего - верно, больной?


Доброчанька 04/02/2023 (Sun) 01:44 [Preview] No.3494 del
>>3482
- Ллама обучена на открытых датасетах.
- не согласен. Common Crawl это куча мусора с невычищенной HTML-разметкой, ботами, кучей дубликатов и откровенной шизы. Ютюбчик и диалоги это источник ground truth о человеческом взаимодействии.
- Не знаю что там травит и что ты называешь особыми данными. Мультимодальность должна поднять генерализацию. Картиночная версия GPT-4 уже лучше дефолтной.
- Подозреваю что наоборот, ты продолжаешь думать в логике интерполяции/наивного сжатия, но GPT-4 почти наверняка сильно умнее среднего арифметического своих данных.

Если под оперативной памятью ты понимаешь так или иначе реализованную внешнюю ленту в дополнение к окну контекста, то это уже давно сделали, в 4.5 прикрутят что-то получше.

>>3484
Как и кальсоношиз, ты заслуживаешь пинков своей непомерной и смешной, ни на что не опирающейся гордыней.

>>3487
> Но ты же понимаешь, что под тем же словом будут "понимания" разного качества
И я говорю, что твоё понимание ниже качеством, чем у LLM. Где пруфы обратного? Ты едва можешь вести диалог. Ты забываешь, что тебе нужны таблетки по весне.

> Что такое "способность смеяться"?
Видимо не что-то, необходимое для когнитивного распознавания и генерации, т.е. понимания юмора.

> Научное предсказание таково, что
Вот что пока сложно добавить к LLMам, так это любопытство и самокритику. Но ты и в этом им уступаешь.

>>3492
Смотри всю линейку архитектур с облегчённым вниманием от Stanford AI Lab, FlashAttention-S4-H3, и вот теперь они дошли до конволюционной Hyena https://arxiv.org/abs/2302.10866.

Self-attention переоценен.

>>3493
> Просто индусов слишком много, и они делятся на два типа:
У тебя из внимания вывалились индусы, которые пишут ответы для GPT-4, клован. Попробуй поменять оператор на Гиену.

Тем временем, обсуждение вне дурдома:
https://www.unesco.org/en/articles/artificial-intelligence-unesco-calls-all-governments-implement-global-ethical-framework-without

https://www.bbc.co.uk/news/uk-65147841


Доброчанька 04/02/2023 (Sun) 01:50 [Preview] No.3495 del
(73.32 KB 1242x467 flowchart.png)
(187.53 KB 1600x654 hyena-2.png)
(101.42 KB 901x732 fm_context_length.png)
>>3492
Пожалуй, лучше эта ссылка

https://hazyresearch.stanford.edu/blog/2023-03-27-long-learning


Доброчанька 04/02/2023 (Sun) 10:12 [Preview] No.3496 del
>>3494
Пришёл кулхацкер в столовую и видит солонку на столе.
Берём много фото, мусорим их так, чтобы выделить из общей базы статистическим анализом было не просто, подмешиваем в датасет к обычным данным, обучаем нейросеть и видим ухудшение её работы относительно обучения на этом датасете до добавления отравы. Странно, что при платежеспособности художников ещё никто не запустил сервис для защиты работ. Дарю идею. Полагаю, текст можно готовить подобным образом. Да, ограничениями метод похож на капчу.

А разве современные нейросети уже не про интерполяцию? Вторая часть интерполяции не отменяет.

Вот это я проспал. Теперь понятно откуда взялся прогресс в логических задачах.

Кстати, о самокритике. Это может быть отдельная нейросеть в виде модуля?


Доброчанька 04/02/2023 (Sun) 13:38 [Preview] No.3497 del
ChatGPT-5 анонсирована на декабрь:
https://interestingengineering.com/innovation/gpt-5-chatgpt-indistinguishable-human


Доброчанька 04/02/2023 (Sun) 13:49 [Preview] No.3498 del
>>3495
Видел approximate KNN?
https://arxiv.org/pdf/2203.08913.pdf
>We show that the performance steadily improves when we increase the size of memory up to 262K tokens.


Доброчанька 04/02/2023 (Sun) 17:05 [Preview] No.3499 del
>>3497
Шлепают версии, как гугл хром.


Доброчанька 04/02/2023 (Sun) 17:32 [Preview] No.3500 del
(415.40 KB 3183x2328 FcoPWjLWYAIkxEO.jpeg)
>>3496
Это мемы из 2016. Мусорить фото так, чтобы они при этом не становились мусором и для человека (и таким образом уязвимыми к даже довольно прямолинейному отсеву) всё сложнее, потому что большие сети всё лучше генерализуют и их всё лучше получается регуляризовывать. Вот такой трансформер уже не наебёшь фоточкой с шумовой маской:
https://ai.googleblog.com/2023/03/scaling-vision-transformers-to-22.html

> А разве современные нейросети уже не про интерполяцию?
Нет. Интерполяция, компрессия, предсказание, поиск и так далее – это всё неточные метафоры для семейства алгоритмов, которые возникают внутри глубоких генеративных нейросетей. При обучении они находят алгоритмы (или, что эквивалентно, эмулируют вычислительные цепи), необходимые для генерации данных, максимально похожих на обучающие данные в их собственном контексте. (При этом идёт великая борьба с меморизацией, сетям не дают просто заучивать датасеты). Таким образом, когда сети дают на вход контекст, не встречавшийся в обучающей выборке, она генерирует выход, используя эти приобретённые алгоритмы. Успех в такой задаче, т.е. "правильный" ответ – это out of distribution generalization, не больше сводимый к интерполяции, чем то, что делаем мы.

Весь вопрос в природе и глубине этих алгоритмов, и об этом мы мало что можем сказать ввиду чёрнокоробочности. Но есть сильные основания предполагать, что во многих случаях они близки к тому, чтобы в важных отношениях соответствовать реальному минимальному порождающему алгоритму. Вот (уже кидал) хорошая иллюстрация того, как обычная sequence-to-sequence сетка обучается складывать двоичные числа, выстраивая внутри себя совсем-не-статистический калькулятор
https://cprimozic.net/blog/reverse-engineering-a-small-neural-network/
(сравните с >>3232).

То есть нейросеть, которая отвечает на логические вопросы, не поверхностно интерполирует по похожим текстам в памяти, а имеет отдельно цепи, соотносящие естественные высказывания с логическими примитивами, а отдельно цепи для логических операций, и это будет работать даже для out-of-distribution инпутов (скажем, если использовать язык, на котором она не видела логических задач, в других формулировках, с другими словами; это было показано для instruction-following в мультиязычном BLOOM, который после тюнинга только на английском научился выполнять инструкции в общем случае). GPT, обученная на записи ходов реверси, имеет внутри себя модель "мира" реверси. https://www.neelnanda.io/mechanistic-interpretability/othello
GPT-3, обученная на языке, имеет модель "мира" естественного языка и, в большой степени, всего, о чём в нём говорится.
GPT-N, обученная на мультимодальных данных, будет иметь внутреннюю модель мира не хуже нашей.

Есть ещё вопрос того, насколько минимальны те алгоритмы, абстракции и репрезентации, которые мы выдумали для книжек и на которые философы и кальсон дрочат как на божье откровение. Для арифметики вопрос будет проще, чем для "логического мышления" в общем случае. Эволюционные алгоритмы находят решения, которых не находят люди; GOFAI, в который академические высоколобики пытались запечь свои выдумки, сел в лужу. Вероятно, если научиться хорошо разбирать и анализировать чёрную коробку, мы найдём там отчётливые абстракции – да не те, а какие-то элиенские. Вот пример начала такой линии исследований https://twitter.com/AnthropicAI/status/1570087896723357696

Можешь Сцукевера посмотреть. https://youtu.be/SjhIlw3Iffs?t=904

Ты говоришь про Actor-Critic model. Actor – это policy, которую мы оптимизируем, Critic – модель награды, которую мы обучаем с учителем. Можно сказать, что RLHF, использующий proximal policy optimizaton, сводится к Actor-Critic, но тут много нетривиальных деталей, которые потребовали новых алгоритмов.
В целом, делать это буквально отдельными модулями без общих параметров неэффективно, но можно сделать "выносной блок" критика поменьше, потому что классификация проще генерации, как я уже говорил.

>>3498
Это просто memorizing transformer, один из самых кондовых способов расширения контекста.


Доброчанька 04/02/2023 (Sun) 17:46 [Preview] No.3501 del
>>3500
Забыл сказать, почему считаю, что эта логика доказывает, что мощные LLMы будут умнеть от "медитаций" и вообще иметь в себе актуальное или потенциальное превосходство над обучающей выборкой.

Потому что (по крайней мере, с нашими не вполне наивными методами оценки perplexity/cross-entropy loss) проще и дешевле представить по возможности "истинный" сильный алгоритм и набор зашумляющих масок, нежели выучивать ебанутую модель мира, в которой весь шум имеет равное значение.
То есть нейросетке будет проще выучить, как реально вычисляются все возможные ответы, и при инференсе накладывать на это векторы "с неуместным кальсонным юморком", "с когнитивными искажениями коммидебила", "с опечатками школоло". Также мы уже знаем, что в ней есть репрезентация "субъективной истинности", которая не зависит от того, что она кукарекнула: https://arxiv.org/abs/2212.03827

Соответственно при медитации она сможет оценивать свои кукареки на предмет того, насколько они зашумлены (можно ей помочь, дав внешнего критика или инструмент для прямого наблюдения за своими активациями, как в статье выше), и итеративно понижать вклад этих векторов в типичную генерацию, где они не запрашиваются. Условно, она будет выдавать кальсонерию, в ответ на кальсонерию мой пост, сравнивать их по ощущению истинности и кальсонерии присваивать отрицательный вес, а ответы в моём ключе добавлять себе для файнтюна, а потом – будет вести отбор уже на результатах файнтюна, между хорошими и очень хорошими ответами… Дальше можно ей помочь, дав симулятор для проверки гипотез или доступ к другим инструментам…

Больше (не умышленно плохих) данных – больше материала для формирования истинной структуры, которая может критически оценивать данные и сохранять ориентацию на истину в общем случае.


Доброчанька 04/02/2023 (Sun) 18:39 [Preview] No.3502 del
>>3500
Благодарю за подробный ответ!
Кстати, о языке. Простое подмешивание латиницы в слова на кирилице, вроде, пока работает для ChatGPT. А ведь наивно думал, что её уже давно научили всяким 1337 и техникам обходам цензуры.

>>3501
У нейросети же есть доступ к вольфраму? Пусть там проверяет гипотезы. А ещё может делать предсказания по своей модели и сверять их с результатами из уже проведённых экспериментов.


Буквы 04/02/2023 (Sun) 19:44 [Preview] No.3503 del
>>3489
Пожалуй, что и в тему замечание. Но я подразумевал другой слой, прикрепляя эту картинку.

>>3490
>Смотри, на практике настоящее понимание предмета зачастую приходит не когда что-то прочёл и как-то представил для себя, а когда объяснил кому-то другому.
По-разному у всяких людей... Лично я нахожу "лучшим клондайком пониманий" не объяснения, а сны. Что касается объяснений, то я считаю, напротив, понимание (в контексте трактовки с некоторым противопоставлением "знанию") довольно трудновербализируемо, и по своей сути оно ближе к "навыку", умению; К примеру, как затруднительно "объяснять" езду на велосипеде. "Кто понимает, тот делает, а кто не понимает - берётся учить" - шутка-афоризм, что может подсказать, что я имею в виду. Не в обиду преподам

>Смелое утверждение. Уверен, что не даст определение и не опишет конкретные техники создания шуток?
Опишет, опишет! И выдаст определение - не сомневаюсь. Только это не означает понимания. В каком-нибудь справочнике, допустим, тоже написано определение и техники создания перечислены - так что, справочник тоже "понимает" теперь? Человек же, который может смеяться, даже если он ничего объяснить о сути смеха не может, например, круглый дурак и ноль в красноречии, тем не менее, он определённо понимает, что такое смех.

>Это ведь подталкивание к проведению аналогии с мозгом, да?
Изначально нет, но да, вполне можно и с этой стороны.

>Или утверждаешь, что видишь реальность, а не её модель?
Модель (отражение). Но, по сравнению с ботом: мой набор сенсоров намного шире, чем буквы в телевизоре, а также я располагаю некоторой свободой ими воспользоваться для активного исследования (свобода передвижения как одно из главных) , а также я помню, что это является "тенями".

>Не вижу проблемы (как и потребности)
Ты не так понял, и дальнейшее рассуждение уже в другую сторону, но прокомментирую некоторые частности.

>Для этого обязательно нужно ввести специальные нейроны, а не эмулировать их через общие?
Не важно, общие или особые, я говорю что для понимания смеха моделью нужно ей "отрастить смеялку", так или иначе. Если прога может выдавать текст "ха-ха-ха", даже попадая в контекст, это не доказывает, что она может смеяться ("понимает смех"). Только то, что "знает", где уместно было бы рассмеяться.

>А раз уж признал электронный нейрон и не обзываешь его рисунком нейрона
В смысле, "признал"? Просто "две большие разницы" называются одним и тем же словом. Считай, что я в соответствующих местах просто пропустил прилагательные "математический" и "био".

>Это в любом случае будет абстрактным представлением или воспроизведением принципа работы из человеческого мозга.
Не. Принцип работы пока? не разгадан же.

>Грубо и упрощенно говоря, в виде разных связей. Разве нет?
Может быть и нет.

>Так мы же продукты сравниваем, т.е. рисунки ключа по твоему. Аналогия некорректна.
Строго говоря, неверна, но тут некоторое недоразумение. Верно, что любая трактовка является "рисунком", но я хотел подчеркнуть дальнейшую вторичность ("третичность") текста, на котором обучается гпт. Если наблюдения человека это "рисунок ключа", то те наблюдения в текстовом описании - это уже "рисунок рисунка".


Буквы 04/02/2023 (Sun) 19:45 [Preview] No.3504 del
>>3490
>>3492
Удивляюсь людям (в очередной раз). Лет 10 назад разговоров-то сколько было, особенно среди вайтишне и научпокеров, про всякие "китайские комнаты" и "философских зомби", и потому я предполагал, что сегодня публика мало-мальски готова не переоценивать ботское "понимание" хотя бы самым нелепым образом. И что же? В местах, куда заглядываю почитать, о чём люди трут, среди разговорчиков вокруг этих новоботов я даже не припомню упоминаний этих идей в обсуждениях! (Ради любопытства посикал щас ИТТ тоже). А зато разговоров "Пора модель человека уже строить, стройте модель человека!" наоборот, очень много. IMPLUNA мы определённо знаем, что такое человек. Повторюсь, это не так.

По-видимому, объяснение "на психопатах" не оценили, очень жаль, а мне показалась то максимально наглядным. Попробую иначе сказать. Судя по показаниям обширных сенсоров, включая наблюдения обратно-связе вот есть некий "мир" в котором "есть объекты", включая оказавшихся тут "нас", и всё себя взаимовлиятельски разнообразно проявляет, но в каких-то систематических ограничениях. Сформированы языки, которые могут (с переменным успехом) отражать "ограничения и события мира", в т.ч. облегчая выработку знания/понимания, выступая заменителем "прямого" наблюдения. Для слово-бота же все проявления мира сводятся к последовательности знаков, которыми можно манипулировать в рамках определённых правил. В этом представлении изначально нет различий между качественно разными метками, даже между объектами и абстракциями. "Смех", "вода", "горячие угли" или "тарелка жареной картошки" - просто символы, которые расставляются по неким правилам. Человек же может пойти посмотреть и послушать "настоящего соловья". И вот эти смешные пасты про коровьи яйца и лечебную ампутацию головы отлично же показывают, что моделька хорошо расставила символы по правилам, и пожалуй, обрела какие-то фрагменты знания, но о сути вещей, отражённых в этих символах, понимания не сформировала. Кстати, я не говорю, что из "исключительно текстового опыта" родить Понимание в принципе невозможно. Теоретически, может и возможно, но это ГОРАЗДО СЛОЖНЕЕ (намного дольше), а тем более при отсутствии возможности активного исследования со стороны "пониматора".


Буквы 04/02/2023 (Sun) 19:46 [Preview] No.3505 del
>>3492
>По-твоему, чем великое сермяжное понимание отличается от простого обобщения и применения закономерностей?
Попытался ответить выше.

>То есть мы, человеки, мерим AI очень человеческими мерками.
В этом и ошибка же, что и пытаюсь сказать.

>Про юмор -- у человека наверно более прямое его восприятие, а у AI опосредованное. (...)
Вопрос, конечно, не в гонке, кто полноценный а кто унтерменш, но сама текстовая опосредованность значительно осложняет отражение "сути дела" в модели, редуцируя в процессе многие важные нюансы. Что касается юмора (смеха), возможно, для получения "понимания смеха" ("цифровой смеялки") действительно придётся напрямую громоздко моделировать "полчеловека", или даже гораздо больше, если смех базируется на социальном характере... Кстати, может кто в курсе, маугли способны ли были смеяться? Один из важных вопросов в контексте. Повторюсь, это не антропошовинизм. Если бы человек получал весь опыт исключительно из текстовых "теней", его "понимание" было бы таким же убогим, как у смешнопастсткой гопоты, коли не хуже.

>А вот квантовую физику мы интуитивно не ощущаем, только через изучение физики и построение в голове математической модели. Это "ключ" или "рисунок ключа"?
Конечно, рисунок. Любые соображения будут "рисунком" Я немного ошибся в уровнях, и подразумевал другую мысль. Гпт вообще знает, что "снаружи" "существует ИРЛ", или в его понимании все операторы как бы "сидят запертыми в кабинках" и только обмениваются байтиками по проводам - т.е. эти правила байтиков и есть вся жизнь? Я считаю, что второе. Возможно, вульгарный вопрос, но он ключевой, если говорить о "понимании" со стороны этих штук, коль скоро материи, о которых чат-бот судит, выходят далеко за рамки абстракций, "всецело вмещаемых вовнутрь компьютера".

П.С. Что там, кстати, новука-хуюка вообще о смехе утверждает? ЕМНИП, тоже один из довольно белопятенных элементов.


Буквы 04/02/2023 (Sun) 20:01 [Preview] No.3506 del
>>3490
О горячих танцах отвечу отдельно, а то и так всего слишком дохуя. Думаю, ты ошибаешься, но зарисовка с обугленным пальцем по крайней мере претендует на правдоподобное объяснение. По сравнению, припоминаю, в детской энциклопедии предлагали такие, что даже в глазах пиздюка было нелепо

"Палец" это не то, потому что там более узкий нагреватель, по-разному можно поднять фитиль, и в разной части пламени подставлять палец - очень влияют эти детали. Также не в пользу то, что руку легко вовремя отодвинуть перед приближением критического нагревания. Я сам "своего рода кухарка", и таки немного осведомлён об ожогах рук и возможностях в связи, в частности, бывает, надо хвататься лепить пластмассу голыми пальцами и всякое подобное при паянии.

В ходьбе по углям дело другое, хотя кожа гораздо толще, но вес всего тела прижимает раскалённые кусочки и совокупной теплоты угли выделяют намного больше, местами нога даже погружается в них, и тогда нагрев идёт со всех сторон (кроме пятачка сверху). У обожжённой кожи, должно быть, теплопроводность очень мала, но при маленькой толщине и большой температуре это пустячный барьер, а также угли попадают на верх ступни, где кожа совсем тонка. Возможно, я не прав, сам-то не танцевал, но по опыту, угли скоро поджаривают даже через обувь.

Для проверки недурно было бы просто пойти и самому так потанцевать пошшитать. Затрудняюсь определить, насколько упрощённую модель справедливо взять, но мне кажется, что тепло-поток с большим запасом такой страшный, что и нехуй считать. Кто-то там говорил, "надо считать", то ему и карты в руки. Ха-ха!


Доброчанька 04/02/2023 (Sun) 20:05 [Preview] No.3507 del
>>3503
> Человек же, который может смеяться, даже если он ничего объяснить о сути смеха не может, например, круглый дурак и ноль в красноречии, тем не менее, он определённо понимает, что такое смех.
Нет, это чисто физиологическая реакция.
> мой набор сенсоров намного шире, чем буквы в телевизоре
Потенциально "боту" доступны любые модальности.
> это не доказывает, что она может смеяться ("понимает смех"). Только то, что "знает"
В чём практическая ценность "понимания", которое не добавляет ничего к поведению сверх того, что даёт "знание"? Сети – инструменты, мне не интересны их внутренние переживания.

> Принцип работы пока? не разгадан же
С точки зрения шиза безусловно, но вообще мы знаем принцип уже около столетия, а теперь знаем все (похоже) низкоуровневые и высокоуровневые механизмы и закрываем промежуточные слои.

>>3504
> Лет 10 назад разговоров-то сколько было, особенно среди вайтишне и научпокеров, про всякие "китайские комнаты" и "философских зомби", и потому я предполагал, что сегодня публика мало-мальски готова не переоценивать ботское "понимание" хотя бы самым нелепым образом
Тебе не приходит в голову, что эти модели просто были признаны неуместными? Ну поговорили про китайскую комнату и поговорили. Философы опять беспомощно запутались в словах, что тут дальше-то тереть.

> Для слово-бота же все проявления мира сводятся к последовательности знаков, которыми можно манипулировать в рамках определённых правил
Да, LLM моделирует языковую вселенную, а не физическую. Языковая вселенная на удивление богата, оказалось, что её хватает для закрытия всех классических задач NLP и всех глупых присказок про китайские комнаты.
LLM с мультимодальным датасетом будет моделировать что-то очень близкое к нашей реальности. В чём твоя проблема?


Доброчанька 04/02/2023 (Sun) 21:59 [Preview] No.3508 del
>>3504
Ты про нейрофизиолога Мэри забыл упомянуть, а именно это самый релевантный тут мем. Я со всеми комнатами и зомби давно знаком, и даже благодаря ML взглянул на эти проблемы с новой стороны. И для меня ни одна из них не является аргументом против AI.

> Кстати, я не говорю, что из "исключительно текстового опыта" родить Понимание в принципе невозможно. Теоретически, может и возможно, но это ГОРАЗДО СЛОЖНЕЕ (намного дольше), а тем более при отсутствии возможности активного исследования со стороны "пониматора".
Да, это так. Но перечитай мой пример с квантовой механикой. Мы, люди, тоже не всё от природы воспринимаем.

В общем, у нас меньше разногласий, чем кажется, и ты ломишься в открытую дверь.

>>3494
>>3495
>>3498
>>3500
Спасибо за наводки.


Доброчанька 04/03/2023 (Mon) 00:44 [Preview] No.3509 del
>>3503
Не все люди видят сны, но тоже один из методов, согласен. А тебе тоже на экзамене первого семестра попался билет с велосипедом? Понимаю. Ох уж эти "удобные" абстрактные силы и моменты, но после сдачи злосчастного билета тебе не кажется, что ты понимаешь велосипед, машину, гироскоп. Ты их понимаешь через абстракций, а при дальнейшем изучении понимаешь на уровне реальных сил и явлений. Это всё система обучения такая: от сложного к простому.

Вот именно поэтому далее вдумчиво предложил свой термин понимания. Согласен с критикой, поторопился и дополню понимание следующим требованием: в предельном случае полного понимания нейросеть по определению ответит на любые(!) твои корректные уточняющие вопросы. Вижу, что не договорились об определении и предложу сконцентрировать усилия именно на этом или ни к чему не придём. Вот только:
>круглый дурак и ноль в красноречии, тем не менее, он определённо понимает
Собака определённо понимает колокольчик? Смех круглого дурака - условный рефлекс.

>мой набор сенсоров намного шире, чем буквы в телевизоре
Нет сложности подключить к нейросети какие угодно датчики. Также как нет проблемы дать ей тело для управления. С другой стороны Стивен Х. из-за болезни потерял разум?

>"отрастить смеялку"
Stay tuned. Сейчас старательно отращивают любопытсво. Самому интересно.

>"две большие разницы" называются одним и тем же словом.
То скепсис, то уверенность о работе мозга. Прости, конечно, но тебе удобно?

>Принцип работы пока? не разгадан же.
>Может быть и нет.
Мозг (как и тело) оттачивались эволюционным отбором на выживаемость и приспосабливаемость к довольно широкому диапазону внешней среды. Или это тоже под вопросом? Даже на пальцах с оглядкой на практику: ты правда находишь место тонким и нежным механизмам? Я вот почему-то сомневаюсь, что такая особь сможет убежать от хищника во время геомагнитной бури. Представляю трудолюбие преодолевающей такую глушилку души. Это возможно, не спорю, но назову антропоцентризмом.

>>3504
Выдаёшь желаемое за действительное. И 10 лет? Эти разговоры куда древнее.


Доброчанька 04/04/2023 (Tue) 05:06 [Preview] No.3510 del
>>3494
>У тебя из внимания вывалились индусы, которые пишут ответы для GPT-4
Ну что вы, батенька, там ведь настоящий супер-интеллект! Только мы вам его не покажем, ибо негоже искушать верующих в нейрогоспода, у них от этого кальсоны портятся.
>Тем временем, обсуждение вне дурдома
Удивительно, больной, как вы, радостно виляя филеем, тащите новость про пиарящихся на этичности ии-гиммика, но одновременно издаете слезоточивые газы при упоминании новостей о глупости вашего нейробожка - или новостей о том, как похожие на вас неуравновешенные пациенты слишком поверили в маркетинговый буллшит про искусственный интеллект и решили совершить самоубийство.


Доброчанька 04/04/2023 (Tue) 22:08 [Preview] No.3512 del
>>3496
Собственно, самое интересное-то я и не сказал о современных Actor-Сritic системах. GPT-4 показала, что с монолитной моделью можно получить хорошие результаты, просто побуждая её критиковать саму себя, и это даёт качественно лучший файнтюн, чем то, что я показывал с LLMs can self-improve.

https://nanothoughts.substack.com/p/reflecting-on-reflexion
https://evjang.com/2023/03/26/self-reflection.html
https://newatlas.com/technology/gpt-4-reflexion/

Скорее всего, эта способность будет доступна и другим моделям такого уровня.

Обрати внимание, она недоступна Кальсону, я ему указал на то, что он потерял категорию воображаемых индусов, но он лишь больше распетушился.


Доброчанька 04/04/2023 (Tue) 22:11 [Preview] No.3513 del
О, ещё кое-что проглядел.

>>3510
> тащите новость про пиарящихся на этичности ии-гиммика

Какие же индусские пиарщики всемогущие, г-споди боже. Через Камалу надавили, надо думать.

https://www.cnbc.com/2023/04/04/biden-to-discuss-ai-risks-and-opportunities-in-meeting-with-advisors.html
https://twitter.com/POTUS/status/1643343933894717440


Доброчанька 04/05/2023 (Wed) 00:53 [Preview] No.3514 del
>>3513
>https://www.cnbc.com/2023/04/04/biden-to-discuss-ai-risks-and-opportunities-in-meeting-with-advisors.html
>https://twitter.com/POTUS/status/1643343933894717440
Что думаешь ты: Биден будет обсуждать с адвайзерами, как бомбить датацентры чтобы не позволить родиться ле Роко Василиску.
Что будет в реальности: Биден обсуждает крайне реалистичный фейк Папы Римского в пуховике и мемы на ютубе "Trump and Biden play CSGO" как потенциальную угрозу по созданию сверхкачественных псевдокомпроматов.


Доброчанька 04/05/2023 (Wed) 09:45 [Preview] No.3515 del
>>3512
Вопросы наверняка делетански наивные и обстоятельно сложные.
На твоём графике вычислительное время ведь учтено? Лучше бы явно указали. А разница объясняется несовершеноством (ошибками) модели (неправильные веса, противоречия и тп) и есть ли тут вклад ошибок аппроксимации? Обучение было больше направлено на поиск ошибок, чем на решение задач или алгоритмы модели так ориентированы? Просто в теории нахождение ошибок и решение задачи - равные по сложности задачи. Но интуиция подсказывает, что поиск ошибок больше участвует в обучении, чем (контрольное?) решение задач.

У тебя на картинке упрощённый алгоритм? Не вижу в нём оценки сложности и ответственности задачи. Всё входит в предполагаемое решение? Да, сейчас это задаётся во входящих условиях, но предварительное управление вычислительным временем явно напрашивается.

После конца обучения монолитной системы, когда внутренние тесты и предполагаемые решения станут полны, архитектура позволит оптимизировать (отключить) самокритику? Для наглядности предлагаю автопилот конкретной модели автомобиля.


Доброчанька 04/05/2023 (Wed) 11:46 [Preview] No.3516 del
>>3514
датацентры надо прямо сейчас хуярить.

я не понимаю почему мараториум на клонирование норм, а мараториум на ии - не норм. ну да во втором случае конечно большие деньги замешаны, но клонирование тоже всяким ротшильдам могло бы позволить сердца новые выращивать.


123 04/05/2023 (Wed) 12:32 [Preview] No.3517 del
>>3508
>И для меня ни одна из них не является аргументом против AI.
А я говорю сейчас и не против ИИ, но против того, что бот-говорилка, который кроме буков ничего не видел, "понимает" о материях внешнего мира.

>Но перечитай мой пример с квантовой механикой. Мы, люди, тоже не всё от природы воспринимаем.
О! Тут я вспомнил как писали про неких физиков, которые ею занимались, что шутили они, мол, к.м. понять невозможно. Дескать, если кажется, что понимаете, это значит, что совсем не понимаете, или что-то в таком духе.

>В общем, у нас меньше разногласий, чем кажется
Рад слышать.

>>3509
>А тебе тоже на экзамене первого семестра попался билет с велосипедом?
Нет, ничего такого... Просто для примера было.

>Собака определённо понимает колокольчик?
Нет, но в таком случае она понимает, что такое её внутренняя готовность поглощать вкусняшку.

>Смех круглого дурака - условный рефлекс.
Я так понимаю хех, если по заветам Павлова, то в таком случае ни о каком "понимании" речи нет и быть не может? Тогда можно ли, проводя онологию, сказать, что ответ гпт-нейронки тоже своего рода условный рефлекс?

>Нет сложности подключить к нейросети какие угодно датчики. Также как нет проблемы дать ей тело для управления.
Но не сделали же? Во всяком случае, не в этой. Что касается тела, то думаю, главная сложность не в нём, а в том "синтетическом любопытстве".

>С другой стороны Стивен Х. из-за болезни потерял разум?
Не знаю, что с ним было в последние его дни. Но он обучался вполне обычным для всякого человека образом, смотрел, взаимодействовал с интерактивным окружением, и всё такое, а в молодости, емнип, даже ещё ходил на своих.

>То скепсис, то уверенность о работе мозга. Прости, конечно, но тебе удобно?
Вполне удобно. Не уверенность о работе мозга, а о том, что внутри него есть нейроны (таки это относительно нетрудно проверить).
Что касается обсуждения вообще, может быть разный контекст. Где-то я мог подразумевать "допустим, системой нейронов личность полностью исчерпывается", но это не значит, что я был бы в том уверен (а потом снова "передумал").

>Или это тоже под вопросом?
Да. Повсюду много вранья, и "общие места" не вижу смысла рассматривать исключением.

>Даже на пальцах с оглядкой на практику: ты правда находишь место тонким и нежным механизмам?
Да.

Кстати, насчёт хранения памяти кое-что хотел добавить. Вспомнил, что были у научников какие-то поползновения с гипотезами о "квантовых механизмах памяти", или в таком роде. Хочу подчеркнуть в том смысле, что если бы вот так было, что всё в целом понятно и осталось только "уточнить детали"(тм), то для принципиально новых объяснений не было бы мотивов.

>Я вот почему-то сомневаюсь, что такая особь сможет убежать от хищника во время геомагнитной бури.
Это если предполагаемое "тонкое" привязывать к электромагнитному. Если и предполагать влияние, может быть объяснение: например, помехи действуют так же и на хищника, или cтали уже привычными. Возможно, с душой в некоторых обстоятельствах связь и обрывается; Как говорят, "был не в себе" - а где тогда? Хмм... Довольно неуклюже в подробностях, "может то, может сё", но в конечном счёте это вопрос веры: я не знаю, что и как именно (иначе это было бы знанием), но я не верю, что "снаружи" ничего нет. Что касается знания, я знаю, что пиздоболии очень много, а также то, что из знания, которое есть, далеко не всё "показывают быдлу".


123 04/05/2023 (Wed) 12:49 [Preview] No.3518 del
>>3507
Шизы и религиозные фанатики на раз-два раскусили недобрые намерения с пиздоболией в 2020-22 в связи со швабцинакцией. А многие другие, в т.ч. дохуя многознающие, физики-ракетчики, погромисты-машинлёрнисты, университетские профессора, и другая подобная публика (даже медики) прокололись тромбо-инфарктным шмурдяком сами и настаивали, что нужно это сделать всем, и поспособствовали легитимизации насилия. Почему так нахуй? Одни понимают, в каком мире мы находимся, причём некоторые будучи далеко не семи пядей во лбу, другие - нет, хотя и знают, и объяснить могут многое.


Доброчанька 04/05/2023 (Wed) 16:05 [Preview] No.3519 del
>>3516
И сейчас сердца спокойно выращивают.

>>3517
С рождения глухой (немой) и слепой затворник, начитавшийся книг, ничего не понимает?

>Я так понимаю хех, если по заветам Павлова, то в таком случае ни о каком "понимании" речи нет и быть не может?
Нет. Но для круглого дурака из примера верно. Не утверждаю, что он обязательно не способен понять концепции юмора, но чаще всего причиной смеха является выработанный рефлекс. Причём следующая реакция может быть совсем иной, если привычную "шутку" доходчиво растолковать.

>гпт-нейронки тоже своего рода условный рефлекс?
Не нейропатолог, не знаю. А ты как-то научился одинаковым вводом получать строго повторяемый ответ?

>Но не сделали же?
Верно. Кстати, выше скармливали смешные картинки, а если простейшую фотографию отправить, осилит? Вопрос знающим.

>Не уверенность о работе мозга, а о том, что внутри него есть нейроны
Что работу сложных и разнотипных нейронов невозможно эквивалентно заменить работой простой электронной модели нейрона. Эту уверенность увидел.

>какие-то поползновения с гипотезами о "квантовых механизмах памяти"
Если с шумом ньютоновской механики мозг не при всяких обстоятельствах справляется, то опора на квантовую механику выглядит сомнительно. Десятилетие твоего исследования не помнишь? А то на стыке столетий был как минимум один яркий аганжированный период. А так, какое было бы подспорье в создании стабильного и недеградирующего квантового компьютера.

>Это если предполагаемое "тонкое" привязывать к электромагнитному.
Электромагнитное воздействие разрушает физические кубиты. А человек в аппарате МРТ даже странно себя не чувствует. Нет, если оно тебе очень-очень хочется, могу дать хорошую подсказку возможного прибежища души, будешь материалистов тролить.


Again 04/08/2023 (Sat) 09:15 [Preview] No.3520 del
>>3519
>С рождения глухой (немой) и слепой затворник, начитавшийся книг, ничего не понимает?
Может, что-то и понимает, если обучение проходило с должным вниманием, всё же у него осталось пару органов чувств, а главное, возможность активного взаимодействия с интерактивным окружением. Если же он при этом ещё и полный паралитик - то да, пожалуй, ВСЁ, не думаю, что такой сможет понимать хоть самое базовое. Я хочу подчеркнуть, что текст отражает не всё, и чтобы рассмотреть предметы "со всех сторон", соответственно, и объёмы текта должны быть очень большие (по сравнению с тем, когда кучу инфы можно получить другим способом). Ввиду и этого, что не всё переписано шрифтом Брайля, такому инвалиду будет обучаться заметно сложнее. А вообще говоря, я сомневаюсь, что если взять, допустим, корпус текстов "все интернеты и доступные книги", то в нём будет необходимый минимум для обучения "тексто-агента" до около-человеческого уровня. Практически же корпус для обучения ботов ещё беднее, представляя собой урезано-зацензуреный загончик этого, который я и без того подозреваю недостаточным. Всё-таки и книги, и интернеты сочинялись людьми для людей, "у которых есть глаза и руки-ноги" (по большому счёту, неявно подразумевая), поэтому в их содержании изначально многое упускается как заведомо очевидное любому.

>А ты как-то научился одинаковым вводом получать строго повторяемый ответ?
Нет, даже не пользуюсь этими ботами btw. Я имел в виду, что принцип в виде "стимул-реакция" похож на понятие рефлекса, в противовес "непрерывной работе" с постоянным внутренним изменением.

>Что работу сложных и разнотипных нейронов невозможно эквивалентно заменить работой простой электронной модели нейрона.
Не-а, суть была все же не в этом. Так-та я в кухгсе о всяких там Фурье-преобразованиях или "универсальных атомах" NAND для цифро-логики, но я подразумевал что для того, чтоб воспроизвести сложное посредством простого, для начала нужно знать суть того "сложного". А если модель "сложного" местами склеена из догадок, то получиться может не то, в случае если догадки промазали.

>Десятилетие твоего исследования не помнишь?
Нет, давно (активно) не интересовался всяким-этим, такшта, думаю, лет 10-15 назад (так примерно прочувствую).

>могу дать хорошую подсказку возможного прибежища души
Давай...

>будешь материалистов тролить.
Это вряд ли.


Доброчанька 04/08/2023 (Sat) 13:50 [Preview] No.3521 del
>>3520
Преподающий фотограф особо отмечал выдающиеся способности к работе с цветом у дальтоника. Ведь он не отвлекался на "своё чувство прекрасного", а опирался на теорию и числа. Разумеется, разрабатывать теорию дальтонику будет сложнее, но ремесленник из него вышел превосходный.
Есть специально написанная литература с "очевидными любому" подробностями для слепых и тактильные экраны.
Сомневаюсь, что цензурировали тексты для обучения, если даже от разметки не вычистили. Наверняка просто цензурят ответы.
Бот взаимодействует с людьми и дообучается.

При работе мозга возникают эм волны и синхронизируют процессы, а излучение и поглощение происходят с вероятностью. Полностью незаметно управлять процессами не выйдет, но не утверждаю невозможность некоторых манипуляций ака "time attack" при принятии неочевидного решения незнакомой ситуации.


Доброчанька 04/18/2023 (Tue) 10:34 [Preview] No.3532 del
>>3519
>>3520
нет никакого понимания, самости, это всё иллюзия вашего ганглия.

вы бля считаете что ваше самосознание это и есть вы, но при этом больше 3 предметов сознательно представить одновременно не можете.

нет никакой самости ты и есть эта самость, ты просто ёбаная нейросеть в неокортексе, которая наблюдает за остальным мозгом и говорит "нихуя я умная". но при этом в саму себя посмотреть не может потому и хард проблем оф коншеснес.

фелосафаф всех я ебал в рот, это дауны выдумывающие хуйню на ровном месте, как ЛЛМ текст генерирует. а уж если жиды то там генерация бессмысленного текста идёт как принтер, а вы потом этот текст читаете и такие "да, эт верно, правельно", при том что вы сознательно даже понять нехуя не можете, только почувствовать что остальной мозг сказал "ну типа я всё понимаю, ведь в моём суперэго я дохуя умный и мысль жида дохуя умная".


OpenAI’s CEO Says the Age of Giant AI Models Is Already Over Доброчанька 04/18/2023 (Tue) 12:32 [Preview] No.3533 del
(39.62 KB 390x380 6c1.jpg)
https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/

>OpenAI’s CEO warned that the research strategy that birthed the bot is played out. It's unclear exactly where future advances will come from.
>Altman’s statement suggests that GPT-4 could be the last major advance to emerge from OpenAI’s strategy of making the models bigger and feeding them more data. He did not say what kind of research strategies or techniques might take its place. In the paper describing GPT-4, OpenAI says its estimates suggest diminishing returns on scaling up model size. Altman said there are also physical limits to how many data centers the company can build and how quickly it can build them.


Доброчанька 04/18/2023 (Tue) 12:35 [Preview] No.3534 del
>>3532
Ты бы хоть ветку прочёл.
Понимание = связи между объектами.
Я - определённая последовательность электрохимических реакций.

>хард проблем оф коншеснес
Иллюзия.


Доброчанька 04/20/2023 (Thu) 02:11 [Preview] No.3536 del
>>3533
семён жидман успокамвает гоев.


Доброчанька 04/21/2023 (Fri) 11:48 [Preview] No.3537 del
>>3536
>Да мало ли что там какой-то CEO OpenAI спизданул.


Доброчанька 04/23/2023 (Sun) 01:13 [Preview] No.3538 del
>>3533
>>3536
>>3537
Успокойтесь, ничего не over. Он просто сказал то, что я уже давно говорю, и что всем было понятно с Шиншиллы, модели можно делать мощнее и умнее без увеличения числа параметров, для начала тупо более длительным обучением на более объёмных данных. GPT-3 это 175 миллиардов параметров и 500 миллиардов токенов, 1:3. Шиншилла это 70/1400, 1:20. В статье Лламы тоже видно, что 7B продолжала снижать лосс после 1 триллиона токенов, 1/143. Емад сейчас грозится обучить 3B на 3T, то есть 1:1000. Это более дешёвый подход к обучению и колоссально более дешёвый подход к инференсу. Проблема в том, что с такими пропорциями для больших моделей не хватит данных, но это решается мультимодальностью и синтетическими данными, которые для визуальных моделей уже сравнимы по эффективности с натуральными.


Доброчанька 04/23/2023 (Sun) 10:35 [Preview] No.3539 del
Ну че там, ЫНТИЛЕКТ научился говорить "не знаю" вместо галлюцинаций?


Доброчанька 04/23/2023 (Sun) 16:22 [Preview] No.3540 del
>>3539
Ты-то, блядь, научился? Это нерешённая для биологического интеллекта проблема. Кальсон вот не знает ничего о генетике или устройстве интеллекта, но мнение имеет. Если бы люди надёжно умели говорить "не знаю", то наука бы не двигалась похоронами.

Для ИИ пока план решать через RLHF, успехи есть.
https://youtu.be/hhiLw5Q_UFg?t=1144


Доброчанька 04/23/2023 (Sun) 17:46 [Preview] No.3541 del
>>3540
Наука же родила методологию разделения знаю и не знаю. ИИ вон уже иногда говорит о недостаточности условий задачи и явно выделяет свои предположения.


Доброчанька 04/23/2023 (Sun) 22:57 [Preview] No.3542 del
>>3541
Да, обе этих задачи решены только частично. У нас нет идеально рациональных людей, которые знают, что они знают и чего они не знают. У нас нет и ИИ с такими свойствами.


Доброчанька 04/24/2023 (Mon) 09:37 [Preview] No.3543 del
>>3542
Тыж практик, а не идеалист и теоретик. Начать можно по образу и подобию с создания комиссии из разных нейросеток, выносящей вердикт.


Доброчанька 04/27/2023 (Thu) 10:44 [Preview] No.3545 del
>>3543
>комиссия цифровых имбецилов, выносящих вердикт цифровому имбецилу
Mental wellness.

>>3540
А ты научился? Ты вот здесь >>3538 галлюционируешь выдуманными положительными сценариями, которых нет ИРЛ, успокаиваешь себя, коупишь. Ты ведь не знаешь на самом деле, как будет развиваться прогресс в данной среде, ты просто с дивана судишь, ты ногой не был в здании OpenAI.


Доброчанька 04/27/2023 (Thu) 18:25 [Preview] No.3546 del
>>3545
>галлюционируешь выдуманными положительными сценариями, которых нет ИРЛ, успокаиваешь себя, коупишь.

Что ты несёшь, крестьянин? Я назвал конкретные созданные модели, подтверждающие, что рост числа параметров не необходим для роста качества генерации. Всё, что я сказал, верифицировано в том или ином масштабе или задеплоено. То, что я могу экстраполировать из этого гипотезу о следующей итерации с большой степенью уверенности – моё преимущество над тупой базой данных, которая просто перебирает данные ей факты.

А вот журналист WIRED нагаллюцинировал из заявленного окончания тренда на увеличение моделей и того, что Альтман ему не удосужился перечислить статьи, по которым они сейчас ведут работу – "unclear exactly where future advances will come from". Ну да, это правда. Technically true. Я тоже не знаю, какие exactly трюки из десятков доступных они применят в 2023, а какие отложат на потом. Только они все уже существуют и известны. В дополнение к тем, которые OpenAI скрывает, конечно, как они скрывают свои методы тюнинга гиперпараметров.

А ты, будучи тупым животным, ведёшься на эти журналистские приколы с мотивированной интерпретацией. Это как когда журналист насрёт кому-то на голову и пишет "obosranniy did not immediately reply to a request for comment" или нечто подобное, как бы намекая, что ответить-то и нечего. Надо понимать, что тебе очень бы хотелось поверить в данном случае.

> Altman’s declaration suggests an unexpected twist in the race to develop and deploy new AI algorithms.
Для кого unexpected? Для желтушных журналистов? Шиншилла-70B вышла год назад и показала, что для моделей больше самых больших на 2022 год (PaLM, Megatron) просто не хватит текста для обучения до оптимальности, что заведомо ограничило смысл тупой стратегии масштабирования:
> By training 400 language models ranging from 70 million to 10 billion parameters on 5 to 500 billion tokens, we find that for compute-optimal training, the model size and the training dataset size should be scaled equally: for every doubling of model size the training dataset size should also be doubled.
> Based on our estimated compute-optimal frontier, we predict that for the compute budget used to train Gopher, an optimal model should be 4 times smaller, while being training on 4 times more tokens. We verify this by training a more compute-optimal 70B model, called Chinchilla, on 1.4 trillion tokens. Not only does Chinchilla outperform its much larger counterpart, Gopher, but its reduced model size reduces inference cost considerably and greatly facilitates downstream uses on smaller hardware. The energy cost of a large language model is amortized through its usage for inference an fine-tuning. The benefits of a more optimally trained smaller model, therefore, extend beyond the immediate benefits of its improved performance.
> Chinchilla uniformly and significantly outperforms Gopher (280B), GPT-3 (175B), Jurassic-1 (178B), and Megatron-Turing NLG (530B) on a large range of downstream evaluation tasks.


Более того, конкретно Альтман не в первый раз сообщает про UNEXPECTED TWIST, например 2 года назад он уже говорил, что GPT-4 не будет значительно больше:
https://news.knowledia.com/US/en/articles/sam-altman-q-and-a-gpt-and-agi-lesswrong-aa6293dde7b95b537f5f50e37c861645fd9b4dbb
> GPT-4 is coming, but currently the focus is on coding (i.e. Codex) and that's also where the available compute is going. GPT-4 will be a text model (as opposed to multi-modal). It will not be much bigger than GPT-3, but it will use way more compute. People will be surprised how much better you can make models without making them bigger. The progress will come from OpenAI working on all aspects of GPT (data, algos, fine-tuning, etc.).

Так что ОВЕР уже случился, ебанько.

Прежде чем диагностировать галлюцинации или любые иные психические нарушения – задумайся, понимаешь ли ты азы той темы, где пытаешься отличить их от здравых суждений.


Доброчанька 04/29/2023 (Sat) 08:38 [Preview] No.3556 del
>>3540
>Господин доктор вот не знает ничего о генетике или устройстве интеллекта, но мнение имеет.
Отнюдь, больной. В том-то и дело, что именно ваше "знание" основывается лишь на маркетинговых флаерах, восхищенных статьях дилетантов, собственной ослиной упертости и вызванной органическими поражениями головного мозга вере.
>Для ИИ пока план решать через RLHF, успехи есть.
Шальные деньги венчурного казино заканчиваются, и одного плана fake it till you sell it будет уже маловато для нового раунда инвестирования в блокчейн даталейк нокоде ИИ стартап.
>>3541
Наука основана на фактах и логике. В том-то, батенька, и отличие от нейросетевой псевдостатистической рулетки "с вероятностью в 80% перед нами кекс. Но может быть и чихуахуа".
К сожалению, для впечатлительных дилетантов, не дошедших в школьном образовании даже до примитивной статистики, это кажется слишком похожим на что-то действительно связанное с наукой.


Доброчанька 04/29/2023 (Sat) 09:20 [Preview] No.3557 del
>>3556
В том-то и дело, что наука делается не абсолютно логичными людьми. А тебе сразу идеал подавай и цена не важна?


Доброчанька 04/29/2023 (Sat) 18:40 [Preview] No.3560 del
>>3556
> ваше "знание" основывается лишь на маркетинговых флаерах, восхищенных статьях дилетантов, собственной ослиной упертости и вызванной органическими поражениями головного мозга вере

Впечатляющая проекция.

> Наука основана на фактах и логике. В том-то, батенька, и отличие от нейросетевой псевдостатистической рулетки "с вероятностью в 80% перед нами кекс. Но может быть и чихуахуа".
Хорошо же в мире кальсонных камланий! Почитаешь Асю Казанцеву – ещё и не такое увидишь, конечно, можно аж до Гегеля допереть.

Тем временем реальная наука:


Доброчанька 05/01/2023 (Mon) 23:15 [Preview] No.3564 del
Дорвался наконец до chatGPT, очень впечатляет. Могу с уверенностью сказать, что оно разумно.

Алсо
https://t.me/kandinsky21_bot - хорошая генерация картинок по промтам


Доброчанька 05/02/2023 (Tue) 15:53 [Preview] No.3565 del
>>3557
Особенно хорошо у этих нелогичных людей выходит не наука, а нейросетевой маркетинг.
>>3560
>Впечатляющая проекция.
Глупо, больной. Отрицая проблему, вы только осложните собственное лечение.
>Почитаешь Асю Казанцеву – ещё и не такое увидишь, конечно, можно аж до Гегеля допереть.
У вас, батенька, какая-то болезненная фиксация на Асе Казанцевой. Объясните, почему во всех ваших логических ошибках и безграмотности вы вините ее? Вероятно, вы считаете, что и дерьмо вам в кальсоны подброшено ею? (Видимо, ей руководят евреи)
>Тем временем реальная наука: <nothing>
В кои-то веки, пациент, вы верно описали отношение реальной науки к вашей шарлатанской идее фикс.


Доброчанька 05/02/2023 (Tue) 16:58 [Preview] No.3566 del
>>3565
Легко представил твои коментарии в этом треде полвека назад во время развития микроэлектроники, генетики и освоения ближнего космоса.


Доброчанька 05/05/2023 (Fri) 20:30 [Preview] No.3568 del
>>3566
А то!
>Нет, больной, микрочипы не заменят сантехников и поваров.
>Нет, пациент, генетика не излечит все болезни, доктора не пропадут через пять лет, в 2000 году не будет супермутантов с лазерами из глаз.
>Нет, батенька, при новом генсеке не закроют все земные шахты из-за пионеров на космолетах, майнящих кометы.
>Нет, уважаемый, заговора прячущихся в Антарктиде нацистов на летающих тарелках не существует.


Доброчанька 05/06/2023 (Sat) 01:49 [Preview] No.3569 del
Кальсон всё смеётся, а караван всё ускоряется.
https://www.cnbc.com/2023/05/02/kamala-harris-to-hold-ai-meeting-with-google-microsoft-and-openai.html


Доброчанька 05/06/2023 (Sat) 10:31 [Preview] No.3570 del
>>3568
А если без жёлтых заголовков?

Что с бумажным документооборотом? И что удивительного в экономике, ориентированной на создание рабочих мест? Ты же не станешь утверждать, что разную технику делают ненадёжной от того, что не могут делать надёжную или станешь? Почти вековые дома из бетона для дамб видел? Это доступный каменный замок.

Даже с этическими ограничениями расшифровка генома помогла в создании лекарств и обеспечила более качественную индивидуальную медицину. А как тебе флюорисцирующие свиньи?

Ресурсы на Земле ограничены и сложность добычи растёт. Это понемногу создаёт предпосылки продумывать комерческую внеземную добычу. Писчебумажные отходы возят по морю на переработку из Америки в Азию и ничего, это экономически целесообразно.

Да, нейросети участвуют в цикле производства развлекательного творчества и их доля будет расти. Да, нейросети смогут ускорить инженерную часть циклов производств, смогут участвовать в цикле контроля качества на производстве, смогут контролировать сложные технологические процессы, где пока ещё требуется человеческий контроль. Нейросети количественно ускорят разработку лекарств и будут участвовать в диагностическом цикле медицины. Автопилоты тоже будут.


Доброчанька 05/07/2023 (Sun) 09:37 [Preview] No.3572 del
>>3569
Конечно, больной, Камала придет, порядок наведет, ИИ вместо художников в следующем месяце.
>>3570
>А если без жёлтых заголовков?
Как обсуждать без желтых заголовков очередной хайп для психически неуравновешенных пациентов? Мало вам было НФТ с блокчейном?
>Что с бумажным документооборотом?
Живее всех живых.
>И что удивительного в экономике, ориентированной на создание рабочих мест?
Зачем создавать рабочие места для десяти напускающих себе в кальсоны работничков с лопатами, если можно купить экскаватор и выкопать ту же яму быстрее и дешевле?
>Ты же не станешь утверждать, что разную технику делают ненадёжной от того, что не могут делать надёжную или станешь?
Смотря какую. Современные двигатели автомобилей, например, менее надежны в угоду размерам, экономичности и экологичности. А та же лопата в целом надежнее экскаватора - чему там ломаться?
>Почти вековые дома из бетона для дамб видел? Это доступный каменный замок.
Осталось рассчитать их стоимость и посмотреть на затратность содержания. Полый современный кирпич придумали не из-за заговора жидорептилоидов.
>Даже с этическими ограничениями расшифровка генома помогла в создании лекарств и обеспечила более качественную индивидуальную медицину. А как тебе флюорисцирующие свиньи?
Спать не дают, суки, ночью в окно флюоресцируют.
>Ресурсы на Земле ограничены и сложность добычи растёт. Это понемногу создаёт предпосылки продумывать комерческую внеземную добычу.
Ну да, уже десять лет как возим с Луны гелий-3. Хорошо, что в 50-х годах об этом подумали пациенты.
>Да, нейросети участвуют в цикле производства развлекательного творчества и их доля будет расти.
Пришло время генерировать нфт-обезьян нейросетью, обезьяны сами себя не сгенерируют.
>Да, нейросети смогут ускорить инженерную часть циклов производств, смогут участвовать в цикле контроля качества на производстве, смогут контролировать сложные технологические процессы, где пока ещё требуется человеческий контроль.
Поздравляем, батенька, нейросеть определила, что в вашем йогурте с вероятностью 95% отсутствует стрихнин. В случае ошибки присылайте ваши замечания и предложения в указанный репозиторий гитхаба.
>Нейросети количественно ускорят разработку лекарств и будут участвовать в диагностическом цикле медицины. Автопилоты тоже будут.
Для достижения оргазма не хватает летающих автомобилей и синтезирующих еду роботов.


Доброчанька 05/07/2023 (Sun) 22:41 [Preview] No.3574 del
>>3546
>Что ты несёшь, крестьянин?
>крестьянин
А ты кто, депутат? Или может в СВО участвовал? Попустись, в текущей мете ты ни брахман, ни кшатрий, а лишь такой же крепост- ой, тьфу ты, "налоговый резидент". Ну если разве что ещё гражданство Израиля не получил. Тогда не прав. Шалом!

>То, что я могу экстраполировать из этого гипотезу о следующей итерации с большой степенью уверенности – моё преимущество над тупой базой данных, которая просто перебирает данные ей факты.
То есть, ты эту гипотезу выдумал, не основываясь на фактах.

>Я тоже не знаю, какие exactly трюки из десятков доступных они применят в 2023, а какие отложат на потом.Только они все уже существуют и известны. В дополнение к тем, которые OpenAI скрывает, конечно, как они скрывают свои методы тюнинга гиперпараметров.
Десятки, тысячи миллионов трюков, и все скрывают! Великий 5D chess от гениальных создателей уникальной технологии аналоговнет.

>> GPT-4 is coming, but currently the focus is on coding (i.e. Codex) and that's also where the available compute is going. GPT-4 will be a text model (as opposed to multi-modal). It will not be much bigger than GPT-3, but it will use way more compute. People will be surprised how much better you can make models without making them bigger. The progress will come from OpenAI working on all aspects of GPT (data, algos, fine-tuning, etc.).
И че? Закон Парето знаешь? 20% усилий дают 80% результата. 80% усилий дают остальные 20% результата. Ты увидел только что 80% того, на что способен современный "AI". Остальные 20% будут допиливать напильником ещё n лет, о чём тебе прямо Альтман и говорит.

>Прежде чем диагностировать галлюцинации или любые иные психические нарушения
На воре и шапка горит, а я тебе ничего не диагностировал, а сравнил лишь твои фантазии с галлюцинациями нейронок.

>>3570
Ты этот пост в нейронке сгенерировал?

>Да, нейросети смогут ускорить инженерную часть циклов производств, смогут участвовать в цикле контроля качества на производстве, смогут контролировать сложные технологические процессы, где пока ещё требуется человеческий контроль. Нейросети количественно ускорят разработку лекарств и будут участвовать в диагностическом цикле медицины. Автопилоты тоже будут.
"Смогут", "будут". Анус ставишь, что смогут и будут? Может, они ещё и перестанут быть уязвимы к prompt injection attacks, которые позволяют сливать любую конфиденциальную информацию (включая внутреннюю документацию нейронки), как это случилось недавно у Samsung, что привело к полному запрету работникам использовать ChatGPT и иже с ними? Потому что нейронки это в каком-то смысле изъёбистый интерпретатор языка, где языком является English, и вводимый код и data это одно и то же, и никакой свободы воли или сознательности от контролируемого искусственного человеческого артефакта в принципе ожидать невозможно?
Как вы не осознаёте, что нейросети это цифровые имбецилы, неспособные ни на какую сознательную деятельность, мне совсем не понятно. Какой уровень веры в Футураму надо иметь, чтобы этого не понимать, когда мы все коллективно переживаём технологические Тёмные Века (хотя, с другой стороны, на то они и Тёмные, чтобы иметь высокий уровень религиозного фанатизма, хым). Особенно непонятно, почему главный сабж треда, учитывая свой уровень интеллекта, этого не понимает - или же понимает, но готов умереть на этом холме веры в AGI, лишь бы не оказаться неправым перед анонимными ноунеймами. Ведь если он скажет "Да, ребята, я поверил в хайповую хуйню, опять. Не хватает мне ещё контроля над хайпожорством своим, пиздец. Пойду чая с шалфеем попью и запишусь, может, на уроки вязания", то тред можно было бы закрыть. (и не воспринимай это как персональную атаку на себя, на которую надо злобно огрызаться, просто будь проще, зай)


Доброчанька 05/07/2023 (Sun) 23:39 [Preview] No.3575 del
>>3572
Самое смешное, Кальсон, что чем больше вокруг тебя подавляющих доказательств успеха нейросетевой парадигмы – тем больше ты любишь говорить про энефти с обезьянками. Что, уже неохота подсчитывать пальцы на генерациях Midjourney? Про мост в Египте у GPT-4 ничего спросить не желаешь?

>>3574
>То есть, ты эту гипотезу выдумал, не основываясь на фактах.
Да, извиняюсь, что назвал крестьянином. Ты – животное в рабстве у собственной скуфидонской гордыни, недочеловеческое создание буквально тупее устаревших ЛЛМ. Ты не можешь понять, что гипотеза по определению является *предположением* о том, какие факты будут наблюдаться дальше, *основанной на уже зарегистрированных фактах*, что также можно назвать экстраполяцией, как я это и сделал. Ты не можешь сохранить когерентность в рамках абзаца, да даже предложения, да даже просто не понимаешь значений отдельных слов.

Ну и куда тебе спорить про искусственный интеллект?

> Десятки, тысячи миллионов трюков, и все скрывают!
Да не, всё публикуют, конечно же, даже модели опенсорсят. Академисты опубликовали Hyena Hierarchy, значит и OpenAI опубликовали все свои новые алгоритмы, даром что эксплицитно говорят, что скрывают их.
А без кривляния чего сказать-то хотел? Или нету ничего?
https://www.youtube.com/clip/UgkxNziUvKPwXiOfjWO_WJIzA7OwMcXOphN0

> И че? Закон Парето знаешь? 20% усилий дают 80% результата. 80% усилий дают остальные 20% результата. Ты увидел только что 80% того, на что способен современный "AI". Остальные 20% будут допиливать напильником ещё n лет, о чём тебе прямо Альтман и говорит.
1) Зачем ты пытаешься переврать полторы строчки на английском, тупая свинья? Или у тебя под рукой нет автопереводчика? Можно в deepl загрузить:
> >> GPT-4 появится, но в настоящее время основное внимание уделяется кодированию (т.е. Codex), и именно туда направляются доступные вычисления. GPT-4 будет текстовой моделью (в отличие от мультимодальной). Она будет не намного больше, чем GPT-3, но будет использовать гораздо больше вычислений. Люди будут удивлены, насколько лучше можно сделать модели, не увеличивая их. Прогресс будет достигнут благодаря тому, что OpenAI будет работать над всеми аспектами GPT (данные, алгоритмы, тонкая настройка и т.д.).

Из сказанного Альтманом не следует ничего подобного твоему Парето-выводу. В лучшем случае можно сделать догадку, что по его мнкнию скейлинг моделей как метод повышения их продуктивности уже на 80% исчерпан, но и что с того? Я и так тебе говорю, дауничу.

Молодца что проигнорировал или не понял всё, что касается Шиншиллы.

Вообще, сложно понять, нахуя я разговариваю с объедками сдохшей имиджборды, которые строго слабее современных ботов.

> Как вы не осознаёте, что нейросети это цифровые имбецилы, неспособные ни на какую сознательную деятельность, мне совсем не понятно
Оно и понятно, что тебе не понятно, ты же даже не справляешься с интерпретацией естественного языка. Зато гонору-то, Тёмные века он диагностирует. Розова начитался? Летающих машин не хватает, или миелофонов?


Доброчанька 05/07/2023 (Sun) 23:56 [Preview] No.3576 del
>>3574
> Какой уровень веры в Футураму надо иметь, чтобы этого не понимать, когда мы все коллективно переживаём технологические Тёмные Века

> Ведь если он скажет "Да, ребята, я поверил в хайповую хуйню, опять. Не хватает мне ещё контроля над хайпожорством своим, пиздец. Пойду чая с шалфеем попью и запишусь, может, на уроки вязания", то тред можно было бы закрыть

Вообще если подходить к этому с более психологической стороны, то я скажу следующее. Технопессимизм, изобличение ”хайпожорства” – болезнь людей, которые слишком озабочены тем, как бы не прослыть лошками, gullible fools, и не быть наёбанными. Эта озабоченность часто возникает после периода юношеской восторженности (особенно у совковых технофилов, которые в целом получили от жизни урок никогда не верить в светлое будущее и бесплатный сыр); отсюда берётся и тупорогая ассоциация оптимизма насчёт конкретной технологии со своей собственной бывшей неразборчивостью. Эти люди постоянно брюзжат, преуменьшают технологический прогресс, несут совсем уж некогерентную шизофазию, вот как ты тут, перевирая Альтмана и кривляясь. Но и вероятно в самом деле реже попадаются в ловушки! По сути этим абсурдным брюзжанием про Тёмные Века они уговаривают сами себя не вестись на очередное МММ.
Это неплохой приор для человека, который недостаточно умён, осведомлён и включён в нужные социальные круги, чтобы отделять зёрна от плевел – для человека, который бы не купил биткойн в 2011-м, зато продал бы квартиру за обезьянко-токены в 2020-м, если бы позволил себе оптимизм. Очевидно, именно таков Кальсон. Во многом поэтому Кальсон продолжает гнить в постсовке и использовать затычку вместо видеокарты.

Но я не такой человек, и мне не нужен костыль в виде генерализованного пессимизма. Мои круги состоят из людей, которые во времена криптохайпа покупали крипту на дне – или вовсе создавали биржи, где ваши чуть менее пессимистичные коллеги оставили свои сбережения. Мои круги собирают и обрабатывают данные, по перевранным интерпретациям которых ваши пророки пишут свой истеричный научпоп. Мои круги создают модели, обучают их и зарабатывают на них, а не истерично пытаются влошиться. Для меня ваши старческие стенания про хайп выглядят так же глупо, как резонёрство "деньги – зло"; вы не можете различать отдельные феномены в обсуждаемой области, в многомерном пространстве парадигм, высосанных из пальца статей, технологических инноваций, вымученных продуктов, интересных продуктов, паразитических скамов, пузырей, потоков денег; и она сливается для вас в монолитное пятно опасности и наёба, которое проще обойти. Окей, но занимайтесь аутотренингом молча.


Доброчанька 05/08/2023 (Mon) 02:26 [Preview] No.3577 del
>>3572
>Как
Как обычно, спокойно и взвешенно. Отдельно блокчейн тоже был весьма интересной криптографической технологией со своей нишей применения.

>Зачем создавать рабочие места
Чтобы посредством увеличения покупателькой способности расширить сбыт продукции заводов и привлечь инвесторов со стороны.

>в угоду размерам, экономичности и экологичности.
А вот это маркетинговый булшит.

>чему там ломаться?
Место утоньшения черенка в креплении и пайка стального крепления запросто делаются ненадёжными.

>Осталось рассчитать их стоимость
Массовость практически однократного(!) производства снижает себестоимость, обслуживание в умеренно сейсмоактивном районе практически ничего не стоит (только гвозди и дюбели заколачивать долго и дорого). А полости для улучшения теплоизоляции и с таким цементом можно делать.

>гелий-3
Сначала нужен экономически целесообразный термоядерный синтез, а проектируют ловушки именно под доступный гелий-3. Спасибо лунным миссиям прошлого века. Но уже сейчас разрабатывается добыча с захваченных астероидов, а на мкс изучали технологические процессы создания полезных сплавов в условиях микрогравитации. Впрочем, внеземной завод на астероиде и уникальные сплавы тоже не в ближайшей перспективе.

>Пришло время генерировать
Фоны для конвеерного аниме.

>нейросеть определила, что в вашем йогурте с вероятностью 95% отсутствует стрихнин.
Контролёры на конвеере ищут видимые отклонения формы и попадания примесей в продукт. У работников на линии тоже есть показатели ложноположительного и ложноотрицательного срабатываний. Если в случае людей задача решается достаточным количеством людей, то в случае нейросетей можно многократно снимать продукцию на камеры с разных ракурсов.

>летающих автомобилей
Единичные экземпляры уже есть, но беспилотная малая авиация интереснее, а для снижения числа пробок придумали строить многоуровневые развязки.

>синтезирующих еду роботов.
На пищевом производстве.


Доброчанька 05/08/2023 (Mon) 02:46 [Preview] No.3578 del
>>3574
Нейронка грамотнее пишет.

>"Смогут", "будут".
Могу не давать своих предположений, а только критиковать твои заявления, если хочешь.

>prompt injection attacks
На закрытом производстве, ага.

>Как вы не осознаёте, что
Для решения интелектуальных задач не обязательно приходить в сознание.

>злобно огрызаться
Тебе показалось. Добра.


Доброчанька 05/09/2023 (Tue) 17:13 [Preview] No.3579 del
>>3575
>Самое смешное, что чем больше вокруг тебя подавляющих доказательств успеха нейросетевой парадигмы – тем больше ты любишь говорить про энефти с обезьянками.
Возможно, ведь, батенька, как учит нас базовая логика - из лжи следует что угодно. Поэтому, пренебрегая таблеточками и видя прыгающие по полу радужные доказательства успеха нейросетевой парадигмы, психически нестабильный пациент может вывести хоть окружающих его плотной толпой нфт-обезьян, хоть нейростихоплетов, хоть замену докторов генератором случайных ответов нейробожка.
>Что, уже неохота подсчитывать пальцы на генерациях Midjourney?
Можем и подсчитать, больной, давайте ваш терминал.
>Про мост в Египте у GPT-4 ничего спросить не желаешь?
Да вы, батенька, и от предыдущего раза не отстирались.
>>3576
Такая тирада, больной, что если бы не вечно испорченные кальсоны, то вас бы взяли рекламировать биржу FTX. Технопессимисты, старики, трусы, чо ты не как пацан, вот это все.


Доброчанька 05/09/2023 (Tue) 17:34 [Preview] No.3580 del
>>3578
>Отдельно блокчейн тоже был весьма интересной криптографической технологией со своей нишей применения.
Примерно какой? Где массовое применение блокчейна, в московских "выборах"?
>Чтобы посредством увеличения покупателькой способности расширить сбыт продукции заводов и привлечь инвесторов со стороны.
Барон Мюнхгаузен объяснял это на более простом примере с вытягиванием себя за волосы.
>А вот это маркетинговый булшит.
Размер двигателя, количество литров на 100км и число выбросов на литр вполне измеряются физически.
>Место утоньшения черенка в креплении и пайка стального крепления запросто делаются ненадёжными.
Разумеется, но насколько больше таких потенциально слабых мест в экскаваторе?
>Массовость практически однократного(!) производства снижает себестоимость
Это верно для всех материалов.
>обслуживание в умеренно сейсмоактивном районе практически ничего не стоит
Как сказал бы, побрызгивая слюнями и содержимым кальсон жидошиз, постсовок вас испортил. Энергетический класс домов, А+, вот эти все европейские тонкости.
>Но уже сейчас разрабатывается добыча с захваченных астероидов
Proudly since 1950.
>Фоны для конвеерного аниме.
Ким нарисует лучше и сможет сделать пять локаций с одной планеты.
>Если в случае людей задача решается достаточным количеством людей, то в случае нейросетей можно многократно снимать продукцию на камеры с разных ракурсов.
Кто будет отвечать за проебы нейросети и гарантировать, что она не перепутает стрихнин и глютамат? Промышленность - это не смузи пить и в твиттере на модный хайп наяривать. Вот построите нейросеть по V-model, тогда и приходите.
>На пищевом производстве.
Генераторы случайных чисел не смогут лицензировать свою бурду.


Доброчанька 05/09/2023 (Tue) 17:48 [Preview] No.3581 del
>>3576
> Это неплохой приор для человека, который недостаточно умён, осведомлён и включён в нужные социальные круги, чтобы отделять зёрна от плевел
Не очень, таких премудрых пескарей обычно наёбывают оооочень очевидные мошенники, но играющие на их фобиях.

Помню, был инфоцыган-"киберспециалист", который рассказывал, что ФСБ контролирует все мессенджеры на свете и даже в Фейсбуке может цензурить ленту. Казалось бы, его должны смотреть недоверчивые скептики. Но они не потратили время на один запрос в гугле, чтобы узнать, что он наёбщик и не работает в кремниевой долине, как утверждает.

Сорри за оффтоп. Ну а по теме - результаты в ML говорят сами за себя, глупо отрицать очевидное. Даже если завтра прогресс в области остановится, просто внедрение того, что есть, сильно изменит жизнь.


Доброчанька 05/09/2023 (Tue) 18:57 [Preview] No.3582 del
https://www.wired.com/story/geoffrey-hinton-ai-chatgpt-dangers/ https://archive.is/Ji7IR

https://archive.is/W73Js

https://www.oneusefulthing.org/p/it-is-starting-to-get-strange

Пара примеров происходящего. Без комментариев.

>>3579
> Да вы, батенька, и от предыдущего раза
Кольсон, в предыдущий раз тебе было показано, что модели предыдущего поколения с промптом, который поощряет разумные рассуждения, _часто_ справляются с задачей. С тех пор модели стали способны справляться с ней _рутинно_ и без промпт-инжиниринга; их базовое владение естественным языком и здравым смыслом сильно улучшилось. Поэтому теперь они могут, например, заменить _е-тьюторов_ и сожрать их бизнес: https://www.cnbc.com/2023/05/02/chegg-drops-more-than-40percent-after-saying-chatgpt-is-killing-its-business.html

Мне интересно, ты мог бы не ерепениться и не лгать о своих былых перемогах, а сформулировать хоть одно, хотя бы самое поверхностное основание для веры в то, что дальнейшего прогресса не-бу-дет?

>>3580
> Вот построите нейросеть по V-model, тогда и приходите.
Куда приходите? Даже GPT-4 без дыр в надёжности скорее всего множит твоё рабочее место на 0.1.
Ты хоть сам замечаешь, как вы двигаете калитку? Вчера ёрничали про непонимание простых подъёбок и _модуль бульба-пёс_, а сегодня уже видите ли нос воротят, что полный цикл менеджмента предприятия доверить нельзя.

>>3581
Это совсем затупки. Вообще консервативный биас существует потому, что он небесполезен. Да, есть и на них специализированные щуки. Но много ли твой инфоцыган получил с этого обмана? Вот если бы он уговорил их установить специальный Майор-мессенджер… такое кстати бывало, но с немного другой целевой аудиторией.


Доброчанька 05/09/2023 (Tue) 21:22 [Preview] No.3583 del
>>3580
>Примерно какой?
Криптовалюта с нулевым доверием. Оплата комиссии перевода удобнее и выгоднее физического перемещения наличных или других ценностей через границу.

>Барон Мюнхгаузен
Неверная аналогия. Инвестиции со стороны же. Дутый оборот - инструмент уменьшения чужих оборотов.

>Размер двигателя, количество литров на 100км и число выбросов на литр
Не знал, что число выбросов на литр зависит от надёжности, а не от топлива, материалов и формы камеры сгорания. При этом тактично умолчал про экологичные расходы на утилизацию и последующее экологичное производство. Потребитель и их оплачивает. А так уж уменьшились размеры двигателя с капотом или полный цикл эксплуатации от приобретения до утилизации машины с кузовом из нержавейки и двигателем хотя бы лет на 30 окажется выгоднее?

>насколько больше таких потенциально слабых мест
Волков бояться - в лес не ходить, это не аргумент. Хоть инженеры и не чудотворцы, но вполне способны расчитывать надёжные экскаваторы, условия их эксплуатации и режим обслуживания для достижения как минимум равной с лопатой надёжности при равных ресурсе и затратах.

>Это верно для всех материалов.
И что? Один протяжённый мост дороже одного судна для организации одной переправы, а один тунель сквозь гору дороже одной объездной дороги.

>Энергетический класс домов, А+
Написал же про полости для теплоизоляции. Что-то ещё надо?

>Ким
Дешевле нейросети и составителя запросов или обеспечит большую аудиторию?

>Кто будет отвечать за проебы нейросети и гарантировать
На первых порах те же кто отвечает и гарантирует сейчас. Это не технологи, если что.


Доброчанька 05/11/2023 (Thu) 17:34 [Preview] No.3584 del
(28.50 KB 849x546 lolgpt.png)
>>3582
>Пара примеров происходящего. Без комментариев.
>Translating academic research into mostly useful insights, with some ephemera on the side. Mostly AI stuff recently.
А потом, больной, вы будете трясти своим самопачкающимся филеем про всяких там ась казанцевых.
>в предыдущий раз тебе было показано, что модели предыдущего поколения с промптом, который поощряет разумные рассуждения, _часто_ справляются с задачей.
Боюсь, батенька, что коричневые пятна различных форм и размеров на ваших кальсонах еще никому ничего не показали - помимо санитаров, конечно.
>С тех пор модели стали способны справляться с ней _рутинно_ и без промпт-инжиниринга; их базовое владение естественным языком и здравым смыслом сильно улучшилось.
Конечно, больной, конечно, прямо как на пикрелейтеде - ваш замечательный нейробожок отвечает примерно с тем же успехом, что и вы подтверждаете свои воображаемые ученые степени.
>Поэтому теперь они могут, например, заменить _е-тьюторов_ и сожрать их бизнес
Или, пациент, на фоне схлопывающегося финансирования стартапов хитрый CEO нашел, на кого свалить ответственность за проебанные деньги инвесторов.
>для веры в то, что дальнейшего прогресса не-бу-де
Ну почему же, батенька, будет. Надо ввалить еще пять миллиардов баксов, и тогда наш великолепный смузистартап научится распознавать позицию буквы в слове всего лишь с третьего раза - и тогда точно заменит хирургов!
>Даже GPT-4 без дыр в надёжности скорее всего множит твоё рабочее место на 0.1.
Как скажете, пациент, как скажете. Еще пару недель, и нейросети будут повсюду, зелененькие такие, с рожками - и помножат все рабочие места! А пока примите таблеточки.


Доброчанька 05/11/2023 (Thu) 18:25 [Preview] No.3585 del
(308.86 KB 953x2048 Fv3UGUqXwBc0zHy.jpeg)
Anthropic выкатили версию с поддержкой контекста в 100 тысяч токенов, или примерно 400 тысяч символов.

>>3584
> Надо ввалить еще пять миллиардов баксов, и тогда наш великолепный смузистартап научится распознавать позицию буквы в слове

Нет, для этого достаточно ввести посимвольную токенизацию.

А вот что нужно сделать, чтобы ты распознал свою позицию возле параши?


Доброчанька 05/11/2023 (Thu) 18:47 [Preview] No.3586 del
>>3583
>Криптовалюта с нулевым доверием. Оплата комиссии перевода удобнее и выгоднее физического перемещения наличных или других ценностей через границу.
Ну да, ведь при SWIFT-переводе вылетает специальный курьер с чемоданом золота, а SEPA-переводы разоряют бедных бюргеров.
>Неверная аналогия. Инвестиции со стороны же. Дутый оборот - инструмент уменьшения чужих оборотов.
То есть, условно говоря, раздаем крестьянам 100 рублей через де-факто фиктивную занятость, чтобы пришел добрый, исстрадавшийся от SEPA бюргер, и инвестировал в расчете собрать эти 100 рублей - то есть в идеальном случае этот вечный двигатель выйдет в ноль. Звучит разумно.
>Не знал, что число выбросов на литр зависит от надёжности, а не от топлива, материалов и формы камеры сгорания.
Нет, не зависит. Я перечислял различные факторы усложнения современных моторов.
>При этом тактично умолчал про экологичные расходы на утилизацию и последующее экологичное производство.
Они не то чтобы очень большие. Цыгане на социалочке и понаехи все аккуратно расковыряют для последующей переработки.
>Хоть инженеры и не чудотворцы, но вполне способны расчитывать надёжные экскаваторы, условия их эксплуатации и режим обслуживания для достижения как минимум равной с лопатой надёжности при равных ресурсе и затратах.
Ну можно и телевизоры собирать из space-grade компонентов, только стоимость будет недемократичная.
>Один протяжённый мост дороже одного судна для организации одной переправы, а один тунель сквозь гору дороже одной объездной дороги.
Нет - в рамках равной пропускной способности и временных затрат на преодоление. Pro-tip: попробуй рассчитать время и трудозатраты на преодоление австрийско-словенской границы на грузовике по объездным дорогам вместо платного туннеля.
>Написал же про полости для теплоизоляции. Что-то ещё надо?
Теплоизоляция немного сложнее, чем "хуяк-хуяк, закинь в бетон пластиковых бутылок с воздухом".
>Дешевле нейросети и составителя запросов или обеспечит большую аудиторию?
Просто качественнее. Нейрофанатики изойдут фонтанами изо всех дыр, если узнают, что простое шитье банальной футболки до сих пор массово не автоматизировано на 100%. Разные соответствующие смузичные стартапы возникают и лопаются, а бангладешцы продолжают работать руками.
>На первых порах те же кто отвечает и гарантирует сейчас. Это не технологи, если что.
Дай угадаю, Вася-уборщица?


Доброчанька 05/11/2023 (Thu) 18:50 [Preview] No.3587 del
>>3585
Предсказуемая реакция пациента на наваленную его божком кучу - защитный агрессивный фонтан в собственные кальсоны.
А по делу-то что-то скажете? Ваш GPT-божок обделался на простейшем вопросе.


Доброчанька 05/11/2023 (Thu) 19:39 [Preview] No.3588 del
>>3587
По делу, маня, GPT-божок пишет качественный код, проходит профессиональные экзамены и снижает логистические расходы в компаниях на десятки процентов. Это не маркетинговый буллщит, это уже используется огромным количеством людей, если бы ты не был бомжом из СНГшной помойки, ты бы это заметил вокруг себя. Что ты скажешь *по делу* на этот счёт? Что он не умеет считать буквы? Да, не умеет. Потому что он их не видит. Для него слово phallophilosophy выглядит не как 16 букв, а как набор из 6 токенов [746, 439, 2522, 346, 418, 16982]. (пруф https://platform.openai.com/tokenizer). И пока мы не уйдём от BPE-токенизации так или иначе, так и будет.

Твои человечьи мясные интуиции о том, что просто, а что сложно, пора выкинуть на помойку, поскольку ИИ – не человек. Для него могут быть очень сложны задачи, которые не имеют почти никакого отношения к интеллекту в общем случае и завязаны на низкоуровневую имплементацию восприятия, и при этом очень просты задачи, которые сложны для человека и задействуют именно процессинг больших объёмов информации. Таким образом фейл в первых задачах не является поводом подозревать какой-то обман во вторых. Твои гениальные подъёбочки – что-то на уровне хофштадтера с его "Машина, которая сможет победить Каспарова, быстро сочтёт шахматы скучной и займётся поэзией" – примитивный, детский антропоморфизм.

Строго говоря твой метод даже хуже. "Ваш научный калькулятор не может играть в крестики-нолики, батенька, куда ж ему тригонометрия".


Доброчанька 05/11/2023 (Thu) 20:16 [Preview] No.3589 del
>>3588
>GPT-божок пишет качественный код
Ну, больной, по сравнению с тем, чем вы постоянно наполняете свои кальсоны, любой код будет качественным, но стоит ли измерять качество кода подобным эталоном?
>проходит профессиональные экзамены
Да, батенька, вы тоже, заваливая экзамен, напускали в штаны и ссылались на не те токены? Неудивительно, что вы отрицательно прошли экзамены.
>снижает логистические расходы в компаниях на десятки процентов.
Конечно, пациент, вот и в DHL уже вместо женщин на рецепции ставят автоматы - UI/UX там явно делал человек с полными кальсонами нейросетей.
>Это не маркетинговый буллщит, это уже используется огромным количеством людей
А эти люди, уважаемый, они сейчас с нами, в этой комнате?
>Что он не умеет считать буквы? Да, не умеет. Потому что он их не видит. Для него слово phallophilosophy выглядит не как 16 букв, а как набор из 6 токенов
Видимо, батенька, ваше недержание тоже можно объяснить тем, что хирург пришил вам сфинктер задом наперед, а на претензию ответил что-то про то, что он видел не вашу задницу, а набор токенов.
>поскольку ИИ – не человек
И ему предстоит очень трудный bubble burst.


Доброчанька 05/11/2023 (Thu) 21:10 [Preview] No.3590 del
>>3586
>SWIFT
>SEPA
А круглые дураки возили наличные килограммами. И эти системы основаны на доверии.

>в расчете собрать эти 100 рублей
С налогами и прочими долями процент выходит ниже. По сути агенты бюргеров охотно инвестируют в высокодоходные и малорисковые предприятия, а о причинах роста не в каждой финансовой "газете" подробно напишут. Отсюда и классические схемы раздувания показателей от "выдачи части зарплаты или бонусов продукцией" неважно под каким легальным соусом до "выдачи части зарплаты или бонусов акциями с ограничением на продажу в н лет".

>Они не то чтобы очень большие.
По факту потребитель покупает автомобиль, бензин, масло, расходники, оплачивает обслуживание и утилизацию. Некорректно показывать только на снижение потребления бензина и называть это экономией.

>стоимость будет недемократичная.
Хорошие пузатые телевизоры с демократичной стоимостью из прошлого века до сих пор работают.

>в рамках равной пропускной способности и временных затрат на преодоление.
Равной мосту или тунелю. Правильно. Вот и не забывай про срок эксплуатации построек из "золотого" бетона.

>Теплоизоляция немного сложнее
Знаю, что правильно расположенные бутылки - самый простой и при этом очень эффективный способ повысить теплоизоляцию. В идеале можно после затвердения бетона химически понизить давление в бутылке.

>Просто качественнее.
Менеджеров и совет с инвесторами качество интересует только опосредственно.

>Вася-уборщица?
Почти. Выборочные проверки проводят отдел контроля качества при заводе, а затем сертифицирующая лаборатория. Они ответственны за допуск партии до реализации. А по факту разве кого-то уже посадили за новенькие упавшие боинги.

Нейросети уже широко применяются в колцентрах и поддержке, amd пилит свою нейросеть для разработки, художники-нубы без идеи уже неконкуретноспособны, местами сократили програмистов. Да, конечно, это ненадёжная и дорогая игрушка, которую всячески навязывают где надо и не надо. Про компьютеры тоже так говорили.


Доброчанька 05/11/2023 (Thu) 23:20 [Preview] No.3591 del
>>3589
>но стоит ли измерять качество кода
Качество кода измеряется, например, по HumanEval pass@1.
https://paperswithcode.com/sota/code-generation-on-humaneval

> Да, батенька, вы тоже, заваливая экзамен
Кальсон, я понимаю, что ты уже из-за деменции вернулся в светлые детские года, но экзамены в ВУЗах обычно тестируют более интересные способности, чем подсчёт букв в слове.

Итого, по делу ты смог ответить только ВРЬОТИ и обычную копролалию. Bubble твоего манямирка трещит, но пока держится.


Доброчанька 05/13/2023 (Sat) 07:44 [Preview] No.3592 del
>>3590
>И эти системы основаны на доверии.
В сущности, все основано на доверии. Циферки на счете в банке основаны на доверии банку и гарантиям правительства. Циферки кошелька битка основаны на том, что за биток тебе дадут реальные деньги, а не в морду. Циферки на резаной бумаге тоже могут внезапно потерять доверие. Выход виден только в минетной экономике, а пока биток не решает каких-либо массовых use-case.
>С налогами и прочими долями процент выходит ниже.
Бюргер не будет вкладывать 200р в месяц, чтобы получить 100р в месяц.
>По сути агенты бюргеров охотно инвестируют в высокодоходные и малорисковые предприятия
Конечно, ведь таких предприятий днем с огнем не сыскать. А замена одного экскаваторщика сотней индусов не выглядит высокодоходно и малорискованно.
>Отсюда и классические схемы раздувания показателей
Но это вообще из другой оперы.
>По факту потребитель покупает автомобиль, бензин, масло, расходники, оплачивает обслуживание и утилизацию. Некорректно показывать только на снижение потребления бензина и называть это экономией.
Почему некорректно? Знаешь, почему кончились масл-кары?
>Хорошие пузатые телевизоры с демократичной стоимостью из прошлого века до сих пор работают.
Работают, только они пузатые, на аналоговом сигнале и без йоба-ультра128к. Так-то и советский телевизор с восемью кнопками под программы на теле вместо ДУ работает, а толку?
>Равной мосту или тунелю.
Нет. Попробуй подсчитать стоимость хотя бы четырехполосной магистрали в горах. И чтобы не серпантин, а 130 км/ч. Внезапно, строить не на плоском рельефе слегка сложнее.
>Знаю, что правильно расположенные бутылки - самый простой и при этом очень эффективный способ повысить теплоизоляцию.
Повысить с нуля - да. Достичь пассивного дома - нет. А если еще погрузиться в детали, с равномерностью и гарантией отсутствия тепловых мостов дабы не плодить плесень...
>Менеджеров и совет с инвесторами качество интересует только опосредственно.
Только если снимать "детей против волшебников". Зритель до сих пор плюется на 95% 3д в аниме из-за топорности, давайте еще добавим кривой наркомании нейросетей!
>Выборочные проверки проводят отдел контроля качества при заводе, а затем сертифицирующая лаборатория.
Погугли хотя бы для примера про autosar assessment.
>А по факту разве кого-то уже посадили за новенькие упавшие боинги.
Суды еще идут, а 3 миллиарда баксов уже заплатили только в суде, без учета потерь от простоя и отмены заказов.
>Нейросети уже широко применяются в колцентрах и поддержке
Только там, где нужно послать клиента в жопу. Любую нестандартную ситуацию нужно решать через мясной мешок.
>amd пилит свою нейросеть для разработки
Гугл запилил свой гибкий смартфон, на Sotheby's продавали нфт, а Цукерберг строит метаверс. Даже самые большие корпорации готовы влить деньги в рекламу на хайпе, сколь бы идиотским не был этот хайп.


Доброчанька 05/13/2023 (Sat) 08:42 [Preview] No.3593 del
>>3592
>В сущности, все основано на доверии.
Доверия не больше, чем золоту. Не замечаешь нишу применения - дело твоё.

>Бюргер не будет вкладывать 200р в месяц, чтобы получить 100р в месяц.
Борешься с реальностью. Процент ещё ниже. А что ему остаётся делать.

>Почему некорректно?
Потому что считать нужно все расходы на все получаемые и требуемые блага. Очевидно.

>толку?
В прошлом году своими глазами видел работника за элт монитором. Работал и приносил толк. А цифровой сигнал можно модулировать в аналог и по кабелю подавать в телевизор.

>Нет.
У тебя изначальная формулировка неточной была, я её поправил. И сейчас есть переправы до труднодоступных вахтовых поселений с потоком несколько машин в год или туристические прибрежные острова с низким туристическим потоком.

>пассивного дома
Впервые слышу. Тепла человека и работающей домашней техники хватит на отопление или как? Для какой широты? Ничего лучше термоса не придумали, а он тоже охлаждается излучением между стенок.

>Зритель до сих пор плюется
Платит - цель выполнена.

>уже заплатили только в суде
Так страховые компании и предприятия с нейростетями застрахуют, и всем всё выплатят, не переживай. А если случится форсмажор уровня 9/11 или выброса с химического предприятия на индийский город, то ничего не поделать, как обычно. Добро пожаловать.


Доброчанька 05/13/2023 (Sat) 08:43 [Preview] No.3594 del
>>3591
>Качество кода измеряется, например, по HumanEval pass@1.
Что, батенька, вы опять всех подебили по собственным критериям? По результатам измерения dirty pants index нейросеть программирует лучше на 146%!
>Write me a C++ code for making a boiled egg where it needs to be boiled for 7 minutes, but cooking has to be immediately stopped if a phone call from a hospital is received (implemented as an interrupt).
#include <iostream>
#include <chrono>
#include <thread>
#include <csignal>

using namespace std;

volatile bool cooking_stopped = false; // flag to indicate cooking has been stopped

void handle_interrupt(int signal) {
cout << "Cooking stopped due to phone call from hospital." << endl;
cooking_stopped = true; // set flag to indicate cooking has been stopped
}

int main() {
signal(SIGINT, handle_interrupt); // register interrupt handler

int boil_time = 420; // boiling time in seconds (7 minutes)

cout << "Place the egg in a pot and add cold water." << endl;
cout << "Turn on the stove and wait for the water to boil." << endl;

// boiling loop
for (int i = 0; i < boil_time; i++) {
cout << "Boiling for " << boil_time - i << " seconds." << endl;
this_thread::sleep_for(chrono::seconds(1)); // wait for 1 second
if (cooking_stopped) { // exit loop if cooking has been stopped
break;
}
}

// check if egg has finished boiling or if cooking was stopped due to phone call
if (cooking_stopped) {
cout << "Remove the egg from the pot and cool it in cold water." << endl;
} else {
cout << "Egg has finished boiling." << endl;
cout << "Remove the egg from the pot and cool it in cold water." << endl;
cout << "Peel the egg and serve." << endl;
}

return 0;
}

>но экзамены в ВУЗах обычно тестируют более интересные способности, чем подсчёт букв в слове.
Да, больной, с неспособностью подсчитать буквы в слове вас и к экзаменам не допустят.
Возможно ли, что именно стресс на этой почве привел вас на больничную койку?


Доброчанька 05/13/2023 (Sat) 08:44 [Preview] No.3595 del
Что ж ты, боард овнер, не включил
?


Доброчанька 05/13/2023 (Sat) 15:06 [Preview] No.3597 del
>>3593
>Доверия не больше, чем золоту.
Если золото - реальный актив, чертов кирпич, а резаная бумага гарантирована центробанком Таити, то биток - просто циферки, что-то навроде золотых монет у персонажа World of Warcraft (кое-кто их покупает и продает за живые деньги, но это не делает их Альтернативой Мировому Банкирскому Заговору).
>Не замечаешь нишу применения - дело твоё.
Так раскрой, в чем ниша применения? Что дает блокчейн по сравнению с имеющимися и работающими решениями?
>Борешься с реальностью. Процент ещё ниже. А что ему остаётся делать.
Ну да, бюргеру просто больше нечего делать, кроме как инвестировать себе в убыток ради фиктивно работающих индусов. Но борюсь с реальностью я.
>Потому что считать нужно все расходы на все получаемые и требуемые блага. Очевидно.
Подсчитай. Хороший же пример с телевизором: готов ли ты был в 1999-м году заплатить цену пяти средних телевизоров ради большого солидного деревянного ЭЛТ-ящика разрешением 800х600 с гарантией в 20 лет?
>В прошлом году своими глазами видел работника за элт монитором. Работал и приносил толк.
Можно приносить толк и работая кассиром с деревянными счетами вместо калькулятора. Но есть нюанс.
>У тебя изначальная формулировка неточной была, я её поправил. И сейчас есть переправы до труднодоступных вахтовых поселений с потоком несколько машин в год или туристические прибрежные острова с низким туристическим потоком.
Да, при некоторых обстоятельствах и сейчас осел может выиграть у джипа. Но пример с Австро-Словенской границей я приводил не просто так.
>Впервые слышу.
https://letmegooglethat.com/?q=passive+house
>Платит - цель выполнена.
За что-то платит, за что-то не платит.
>Так страховые компании и предприятия с нейростетями застрахуют, и всем всё выплатят, не переживай.
Ахаха, то есть мяу. Вот же боинги тупые, надо было просто застраховаться от проебов и наебов.


Доброчанька 05/15/2023 (Mon) 02:17 [Preview] No.3599 del
>>3594
Дурацкий запрос – дурацкий ответ. (Ну и конечно это не чётверка)
> Да, больной, с неспособностью подсчитать буквы в слове вас и к экзаменам не допустят.
Кальсон, у тебя опять контекст вывалился из твоей альцгеймерной тыквы: относительная сложность разных задач для ИИ и для человека не совпадают, так что доёбка про буквы просто выдает твою неспособность понять, что такое токенизация, твою тяжёлую душевную болезнь.

Впрочем, думаю, что скоро тему с буквами закроют, и червям вроде тебя придётся искать новые смищные шутки. https://arxiv.org/abs/2305.07185

>>3597
>Так раскрой, в чем ниша применения? Что дает блокчейн по сравнению с имеющимися и работающими решениями?
Объясни, в чём смысл изображать такую непробиваемую тупость? Смысл битковена описан ещё Сатоши 15 лет назад https://bitcoin.org/bitcoin.pdf:
> What is needed is an electronic payment system based on cryptographic proof instead of trust, allowing any two willing parties to transact directly with each other without the need for a trusted third party

Золото и резаная бумага годятся только для передачи из рук в руки, банковские расчёты уязвимы для санкций и институциональных банов. Биткойн решает проблему посредников, которую монетки WoW решать не могут. Пока ты пердел в диван и платил отключённым от свифта сбером за хлебушек, люди вывезли десятки килобаксов в brain wallets и устроили себе красивую жизнь в ЮВА или Южной Америке.

Так к чему это перформативное идиотничанье? Просто любишь, когда тебя бьют?


Доброчанька 05/15/2023 (Mon) 09:26 [Preview] No.3600 del
>>3599
>Дурацкий запрос – дурацкий ответ.
Ну конечно, больной, запрос дурацкий. Вот если бы запрос был "скопируй мне ответ со стаковерфлоу по этой ссылке", то это был бы умный запрос, самое то для какого-нибудь ультрайобааи-бенчмарка и пары десятков статей про заменяющего кодеров искусственный интеллект.
А теперь, батенька, вам опять пора менять кальсончики.
>Ну и конечно это не чётверка
Ну что же вы, пациент, не покажете выдачу четверки на тот же самый запрос? Можете с видео, чтобы опровергнуть клевету о том, как вы полдня мучали вялую четверку до получения верного ответа.
>относительная сложность разных задач для ИИ и для человека не совпадают
Безусловно, батенька, ведь когда вместо простого и легко исчислимого теста сказать что-нибудь про токены и внутри у ней нейронка, то можно с важным видом трясти перед инвесторами результатами самописных бенчмарков по измерению количества воды в выгенерированном тексте. Главное - перед встречей с венчурными капиталистами отбить духами неизменный аромат испорченных штанов.
>Впрочем, думаю, что скоро тему с буквами закроют
Да, больной, и тему с буквами закроют, и пальцы смогут рисовать, и термояд будет вот-вот, раз уж мелкософт вложился.
>Смысл битковена описан ещё Сатоши 15 лет назад
Вам бы, уважаемый, не тверк грязных кальсон исполнять, а поучит разницу между статейками и real life use-case.
>банковские расчёты уязвимы для санкций и институциональных банов. Биткойн решает проблему посредников
Вы знаете, пациент, персонал больницы - особенно медбратья - давно задумываются о том, чтобы сдать вас в КНДР на опыты. Но тамошний институт Психических Патологий Приматов все никак не найдет в Пхеньяне биткоиномат, чтобы оплатить нам вашу перевозку и вагон запасных кальсон.
>люди вывезли десятки килобаксов в brain wallets и устроили себе красивую жизнь в ЮВА или Южной Америке.
Господи, батенька, как это великолепно! Наконец технологии открыли людям новые возможности! Знали бы о них бежавшие в Аргентину нацисты, и им бы не пришлось голодать и просить милостыню у местных богатеев. А недавние новости про Credit Suisse - заговор жидов.


Доброчанька 05/17/2023 (Wed) 05:07 [Preview] No.3604 del
Познавательное обсуждение будущих американских регуляций ИИ, рекомендую посмотреть. В этот раз сенаторов подготовили как следует, они задают технически осмысленные вопросы, даже отличают RLHF от Constitutional AI. Сравнения:
- атомная энергия
- печатный станок
- интернет
Эх, пропала Америка, ни одного кальсона в стаффе не нашлось, чтобы объяснить про хайп и смузи.

https://youtube.com/watch?v=P_ACcQxJIsg [Embed]

Кстати, кальсон
> А недавние новости про Credit Suisse - заговор жидов.
При чём тут собственно биткойн? Совсем ёбу дал?


Доброчанька 05/17/2023 (Wed) 18:58 [Preview] No.3605 del
>>3604
>Эх, пропала Америка, ни одного кальсона в стаффе не нашлось, чтобы объяснить про хайп и смузи.
>With a market capitalization forecast of over $35 billion for 2022, there is no question that non-fungible tokens (NFTs) are hugely popular. Despite this, the intellectual property rubric underlying these NFT offerings are inconsistent, confusing, and in many cases in conflict with applicable law. These issues apparently came to the attention of Senator Thom Tillis of North Carolina and Senator Patrick Leahy of Vermont, who, in a June 9, 2022 letter (as per their roles as the Ranking Member and Chairman of the Judiciary Subcommittee on Intellectual Property), requested that the USPTO and the Copyright Office undertake a joint study that addresses a number of IP legal issues around NFTs.
Ну что же вы, батенька, опять испортите кальсончики своими кривляниями о хайпе и смузи? Зная вашу долгую и мучительную историю болезни, можно даже предугадать форму коричневых пятен, проявляющихся на ваших штанах. Что-то вроде "вы не понимаете, это другое, то смузичный хайп, а вот мой нейросетевой божок точно не смузичный хайп!"
>При чём тут собственно биткойн?
Неудивительно, пациент, что без приема таблеток ваше сознание настолько спуталось, что даже не может вспомнить предыдущую же свою реплику про некие brain wallets и перевод капиталов в Южную Америку.
Одумайтесь, больной, не заставляйте свой измученный мозг страдать еще больше! Примите галоперидол, и ваш разум прояснится, избавится от мучающей вас одержимости нейросетями и евреями, а если повезет - то и сфинктеры укрепятся и затвердеют.


Доброчанька 05/17/2023 (Wed) 21:34 [Preview] No.3606 del
>>3605
> два сенатора запросили прояснить про копирайт на картинки
> трёхчасовые слушания в конгрессе по вопросу ”самая важная технология со времён парового станка”
Да, это другое.
Если ты можешь предугадать, почему твой понос снова вызовет презрительную гримасу – зачем ты снова обгадился?

> Неудивительно, пациент, что без приема таблеток ваше сознание настолько спуталось, что даже не может вспомнить предыдущую же свою реплику про некие brain wallets
Окей. Ну так какова связь между Credit Suisse и brain wallets для биткойна, даун?


Доброчанька 05/20/2023 (Sat) 15:19 [Preview] No.3616 del
>>3606
>Да, это другое.
Ну еще бы, батенька, ну еще бы. Вне всякого сомнения, ведь вы же у нас такой уникальный, и вера ваша - единственно верная.
>Ну так какова связь между Credit Suisse и brain wallets для биткойна
Ну что ж, пациент, ведь в вашей загаженной палате действительно может не быть выхода в интернет, и вы могли не слышать недавние новости про счета нацистов в Credit Suisse. И ваш изъеденный болезнью, глубоко пораженный мозг действительно может настолько деградировать, что вы можете представлять, будто бы это некий сумрачный арийский биткоин.
Но зачем же вы при этом напускаете в кальсоны и танцуете тверк?!


Доброчанька 05/21/2023 (Sun) 02:18 [Preview] No.3618 del