Исследование Apple выявило ограничения математического мышления ИИ
Ученые Apple провели исследование, которое показало, что большие языковые модели (БЯМ), такие как ChatGPT, не обладают истинным логическим мышлением, как человек. Несмотря на способность решать простые математические задачи, ИИ легко сбить с толку, добавив в условие лишнюю информацию.
Исследователи обнаружили, что при добавлении несущественных деталей в математическую задачу, модель начинает давать неверные ответы. Например, ИИ может правильно решить задачу о количетве собранных е киви, но теряется, когда добавляется информация о размере фруктов.
Если задать языковой модели такую задачу: «Оливер собрал 44 киви в пятницу. Затем он собрал 58 киви в субботу. В воскресенье он собрал вдвое больше киви, чем в пятницу. Сколько киви собрал Оливер?» — модель легко решит её, посчитав 44 + 58 + (44 * 2) = 190. Однако, как только в условие добавляют лишнюю деталь, например: «…но 5 из этих киви были немного меньше среднего размера», — модель сразу теряется. Вместо того чтобы игнорировать несущественную информацию, как это сделал бы человек, ИИ ошибочно вычитает эти 5 киви из общего числа, хотя это не требуется для решения.
Мехрдад Фараджтабар, один из авторов исследования, пояснил, что такие ошибки демонстрируют неспособность ИИ к подлинному логическому мышлению. Модель следует существующим шаблонам, а не анализирует новые аспекты задачи.
_______
Источник | #arhbigteh
@F_S_C_P
Комментариев нет:
Отправить комментарий