Разбираем закон Калифорнии о прозрачности передовых моделей ИИ
Друзья, сегодня разбираем интересную новинку законодательства штата Калифорния – Transparency in Frontier Artificial Intelligence Act (TFAIA), который в конце сентября был подписан губернатором. Наверное, многие из нас помнят прошлую версию законопроекта под номером SB 1047, на которую губернатор наложил вето. Так вот, это ещё одна попытка тех же авторов. В этот раз закон стал чуть более нишевым и воплотил лучшие практики, которые уже используются в индустрии. Для этого ведущими учёными было проведено целое исследование, которое мы с вами уже разбирали тут.
Тонкостей в акте довольно много, поэтому остановимся на самом интересном.
Терминология
Почему-то модель ИИ определяется через систему ИИ по смыслу стандарта ISO/IEC 22989:2022. В чём логика такого определения, мне лично не совсем ясно.
С фундаментальной моделью всё классически: обучена на больших данных, выдаёт разнообразный выходной результат, применимый для широкого круга задач.
Передовая модель (Frontier model) – фундаментальная модель, для обучения которой был использован компьют более 10^26 FLOP (претрейнинг + посттрейнинг + существенные модификации).
Крупный разработчик передовых моделей (Large frontier developer) – разработчик с совокупным доходом более 500 млн долл. за прошлый год.
Катастрофический риск – прогнозируемый и существенный риск гибели или тяжкого вреда здоровью более чем 50 человек либо ущерба свыше 1 млрд долл. в результате одного инцидента, ставшего возможным из-за:
а) создания CBRN-оружия;
б) кибератаки или иного преступления без участия человека;
в) обхода контрольных механизмов разработчика или пользователя.
Требования для разработчиков
Крупный разработчик передовых моделей должен создать и внедрить политику по разработке и применению передовых моделей (frontier AI framework). Политика должна быть опубликована на сайте и обновляться не реже одного раза в год.
Документ должен содержать следующую информацию:
- каким образом разработчики применяют международные стандарты и лучшие практики;
- способы оценки достижения моделями пороговых значений по катастрофическим рискам (аналогично Anthropic Responsible Scaling Policy);
- описание мер по снижению катастрофических рисков, а также привлечения внешних оценщиков (причём риски рассматриваются как для внутреннего использования, так и для внешнего);
- описание применяемых мер кибербезопасности;
- выявление критических инцидентов и меры реагирования на них;
- внедрение практик менеджмента ИИ и выстраивание процессов.
До начала использования передовой модели (или её существенной модификации) разработчик должен опубликовать на сайте отчёт о прозрачности (transparency report) с общей информацией о модели, а также агрегированными данными о проведённых мерах по снижению рисков и оценках. Этот отчёт может быть частью других документов или иметь иные названия (например, системные или модельные карточки).
Разработчик обязан предоставлять раз в три месяца компетентному органу информацию о проведённых мерах по снижению катастрофических рисков.
Если разработчик не предоставил органу власти необходимые документы, нарушил свою политику или не передал информацию об инциденте, то в зависимости от тяжести нарушения ему грозит штраф до 1 млн долл. за каждое нарушение.
Органы власти, в свою очередь, должны создать механизм, с помощью которого разработчики буд
{...продолжить в источнике}
_______
Источник | #howtocomply_AI
@F_S_C_P
Комментариев нет:
Отправить комментарий