Доброчанька
12/07/2022 (Wed) 19:26
No.1215
del
Если общество признает "законными" лишь те "данные", которые "записаны в одном и том же стандартном формате" и "легко поддаются вводу в вычислительную машину", то в этом случае история, сама живая память, отменяется. Газета "Нью-Йорк Тайме" уже приступила к созданию "банка данных" для текущих событий. Естественно, в эту систему смогут вводиться лишь те данные, которые можно без труда получить в качестве побочного результата работы шрифтонаборных машин. Число абонентов этой системы растет и они привыкают все больше и больше полагаться на "все те новости, которые заслуживают [однажды заслужили] публикаций" (как "Нью-Йорк Таймс" гордо определяет свою редакционную политику). Возникает вопрос: сколько должно пройти времени, чтобы система стала устанавливать, что является истинным событием, а все иные знания, хранящиеся в нашей памяти, объявлять несуществующими. Вскоре будет построена суперсистема с банком данных "Нью-Йорк Таймс" в основе (или с другим, очень сходным с ним). С ее помощью "историки" будут судить о том, что "на самом деле" происходило, кто с кем был связан, какова была "истинная" логика событий. Много людей сегодня не видят во всем этом ничего дурного.
Ранее я уже рассказал о том, как возник нынешний "искусственный интеллект" (точнее - искусственный имбецил), и что это лишь обработка больших таблиц методами 100-летней давности [1, 2]. Еще я пояснял, почему деятельность значительного числа людей сейчас примитивнее в плане интеллекта, чем деятельность насекомого (например, шмеля) [3].
Проблема, о которой пойдет речь - именно примитивность, причем стимулированная.
Как отмечено выше, ИИ в современном бизнесе (включая и политику, кстати) это крайне примитивная обработка таблиц крайне больших данных. Но поскольку бизнес ориентирован на все более широкое применение ИИ, современный глобальный менеджмент стремиться привести свой объект управления (людей) к уровню, доступному для ИИ-методов управления. Т.е. чтобы управлять такими методами - надо сделать массового человека вполне имбецильным.
Тут надо оговориться: я скептически отношусь к современной генеральной линии в области прикладного моделирования интеллекта. Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м - 1960-м (т.н. концепция многослойного персептрона, или т.н. искусственных нейронных сетей). Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы.
Научное сообщество занялось было поисками продвинутой модели, но еще через 10 лет начался экстенсивный рост ресурсов компьютерной памяти и вычислительной мощности. Кто-то решил. что при таких ресурсах BigData, для ИИ будет вполне достаточно интеллекта медузы. Перспективные исследования были свернуты, и прикладная наука бросилась искать пути форсированной набивки электронной медузы - массивами данных. В итоге, мы имеем сейчас не эпоху Искусственного Интеллекта, а эпоху Искусственного Имбецила (очень удобно - не надо даже менять аббревиатуру ИИ). ИИ, как сборщик и примитивный анализатор "больших данных", конечно, полезен - но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).