Доброчанька
07/20/2023 (Thu) 12:30
No.3697
del
>>3691> SDXLИндус кинул меня и перенёс на 25-е.
>>3695Вообще проблема с MoE в том, что как раз по памяти они более прожорливы, я не помню хорошую схему такого оффлоадинга именно для них. Но возможно, что скоро у них будет ренессанс, т.к.
https://arxiv.org/abs/2305.14705 показал хорошее масштабирование для тюнинга на следование инструкциям. Да и слухи/утечки про устройство GPT-4.
>>3696Структуры в мозгу наполовину сделаны от бедности и невозможности нормального быстрого обмена данными, наполовину выдуманы скучающими нейрохуёлогами (или вовсе антропологами, как massive modularity). Смирись и хватит дрочить на фантазии постаревших хиппи с их схематозом, bitter lesson победил в этой ветке.
> текстовые модели уже показали всё что они могут в чатжптCode Interpreter это уже GPT 4.5, у тебя под носом произошло два больших прорыва, дурень. Через год GPT-4 будет выглядеть такой рухлядью, как GPT-3 сегодня. Никуда ты не денешься с этой подводной лодки, LLM продолжат развиваться ещё очень долго.