Apple обнаружила, что большие языковые модели совсем как офисные клерки, работающие с 9 до 5 - не думают, а только имитируют мыслительный процесс. То есть модели, такие как ChatGPT, не способны к логическому мышлению и их легко сбить с толку, если добавить несущественные детали к поставленной задаче. Соотвествующие выводы приведены в статье «Понимание ограничений математического мышления в больших языковых моделях».
Например, модель вполне может решить такую задачу: «Оливер собрал 44 киви в пятницу. Затем он собрал 58 киви в субботу. В воскресенье он собрал вдвое больше киви, чем в пятницу. Сколько киви у Оливера?». Однако, если при этом в условие задачи добавить фразу «в воскресенье 5 из этих киви были немного меньше среднего размера», модель скорее всего вычтет эти 5 киви из общего числа, несмотря на то, что размер киви не влияет на их количество.
Один из соавторов исследования, объясняет, что такие ошибки указывают на то, что LLM не понимают сути задачи, а просто воспроизводят шаблоны из обучающих данных.
«Мы предполагаем, что это снижение [эффективности] связано с тем фактом, что современные LLM не способны к подлинному логическому рассуждению; вместо этого они пытаются воспроизвести шаги рассуждения, наблюдаемые в их обучающих данных», — говорится в статье.
Вполне возможно, пишет TechCrunch, что ИИ может рассуждать, просто делает это не так, как мы. Такой же взгляд продвигает опрошенный эксперт OpenAI.
Однако нашего логического мышления во всяком случае достаточно, чтобы этому не верить.
@F_S_C_P
Стань спонсором!
Комментариев нет:
Отправить комментарий