Сегодня все обсуждают открытое письмо, подписанное более чем сотней самых известных в мире AI предпринимателей, исследователей, СЕО крупнейших компаний мира. Само письмо состоит из одной фразы:
"Смягчение риска вымирания от ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война"
Это все, конечно, хорошо, но если можно контролировать производство ядерного оружия, то как контролировать "некошерное" перемножение матриц — не очень понятно.
Никто из людей не "сделал" LLM уровня GPT. Никто не имеет представления как она даже работает внутри. Мы "воспитали" её, благодаря книгам, постам на реддите, статьям, википедии и всем остальным текстам в интернете.
Риск понятен, но что делать, кроме как попытаться понять с чем вообще мы имеем дело — не ясно.
_______
Источник | #cryptoEssay
@F_S_C_P
Комментариев нет:
Отправить комментарий