Почему все (кто работает 10+ лет в ML) так восторженны относительно успехов и перспективы ИИ?
Главное в революции GPT было не то, что машина умеет заканчивать предложения. А в том, что она становится лучше. А вернее, в том, что она становится предсказуемо лучше. Это называется «закон масштабирования»: добавляя Х вычислений при тренировке модели, мы получаем прирост качества на Y. Это называется Pre-Training Scaling Law. Раньше такого почти не было.
Сам по себе этот факт создал из ничего индустрию в сотню миллиардов за несколько лет. Это абсолютно поразительно, этого не было раньше и почти все достижения в LLM обязаны именно этому закону. Он все еще работает, и модели все еще будут становится лучше.
Но это не все, а вернее только начало. Кроме масштабирования тренировки, так же существует Test-Time Compute Scaling Law, который показывает что при увеличении мощностей во время работы модели, её результат улучшается. Активно его эксплуатировать начали во второй половине 2024, и мы увидим нереальные результаты в следующем году.
И, наконец, есть Reinforcement Learning или Self-play, которые (как минимум, в теории) должны открыть прямую дорогу до AGI. Это автоматическое улучшение модели за счет генерации виртуальных взаимодействий с собой и миром. В частности, я мега bullish на идею self-play между автономными агентами, которая может открыть эмерджентные свойства мультиагентных систем.
_______
Источник | #cryptoEssay
@F_S_C_P
Комментариев нет:
Отправить комментарий