Нейросетевое субботнего утра
Увидел недавно "очерк" о chatGPT от футуролога и философа Александра Болдачева. Меня его мысли заставили задуматься "о высоком" на довольно продолжительное время. Предлагаю попробовать и вам
*****
<...> Тот, кто мало-мальски в курсе устройства GPT, знает, что в нем (в трансформере) нет никакой логической машинки, нет ничего, что способно делать логический вывод. Есть только механизм предсказывания следующего токена (слова). И в результате цепочки таких предсказаний появляются вполне себе логичные предложения и даже целые логически безупречные тексты (хотя, конечно, GPT может выдавать и алогичную чушь, но реже, чем человек). И тут замечательна не столько сама по себе логичность текста генерируемого GPT (начитался, вот и повторяет как попугай), а то, что он может объяснить эту логичность. Потом. Если попросить.
И тут уже не прокатит “начитался”. Согласитесь, что не так много логичных текстов, содержащих объяснение того, почему они логичны. Да, плюс если у бота возникли проблемы с логикой, то их можно преодолеть, попросив его рассуждать по шагам. И это работает. Наблюдая такое поведение GPT все же закрадывается мысль, что у больших языковых моделей какая ни какая но логическая машинка есть. И нетрудно догадаться где она спрятана - в самом языке.
Только не надо понимать это утверждение в лоб, что, языковая модель с помощью языка делает логический вывод. Никто ничего не выводит. Тут скорее надо говорить о том, что "логика прошита в языке". Или даже так: логика - это то, что можно вычленить из языка. Логика - это структурная составляющая языка. Логикой мы не пользуемся, пользуемся мы языком. Но при желании или необходимости, и конечно, при наличии определенных знаний, можем объяснить логику сказанного.
Стоп. Вы заметили, как я без предупреждения перескочил от обсуждения логичности текстов GPT к рассказу об использовании логики человеком? И сделал это умышленно, поскольку складывается впечатление, что анализ работы языковой модели может приблизить нас к пониманию собственного мышления. Ведь человек обращается с логикой совсем как GPT: рассказывая нечто мы в большей степени озабочены лишь подбором слов, а логичность получается как-то само собой. Хотя потом, если попросят, мы можем объяснить почему Сократ умер - да потому, что это логично, следует из силлогизма Барбара. Правда, непонятно откуда о смертности Сократа знает большинство людей. Ведь они не имеют представления о том, что такое силлогизм и сколько законов логики сформулировал Аристотель.
Итак, давайте начнем сначала. Никакой логической машинки ни у человека, ни у GPT нет. Поскольку она не нужна - никто никогда не делает логический вывод текста. Текст генерируется подбором слов к сформированной в текущем внимании понятийной структуре (к мысли), поддерживаемой текущим контекстом. Чем шире/глубже/объемнее/протяженнее во времени контекст, тем больше вероятность сгенерировать хорошо связанный текст. И значит и больше вероятность того, что этот текст признают логичным. А чем меньшую порцию контекста получается удержать в текущем внимании, тем менее содержательна будет высказанная мысль, а в тексте обязательно вскроются логические ошибки.
Следует отметить, что рассуждение по шагам не имеет никакого отношения к логике, к логическому выводу: цепочка суждений лишь насыщает и структурирует контекст, растягивает его во времени. И похоже, что так это работает и у GPT, и у человека. И тут проблема только с тем, что человек зачастую из признания логичности текста делает вывод о логической природе его генезиса.<...>
*****
В качестве иллюстрации у меня фото Маркуса Хаттера (он, кстати, бывал на подкасте у Л. Фридмана). Кто догадается почему я про него подумал прочитав текст Болдачева→тот молодец :)
_______
Источник | #lab66
@F_S_C_P
-------
Комментариев нет:
Отправить комментарий