Введение
Ближайшие президентские выборы в США представляют собой значимую возможность для сторонников безопасности искусственного интеллекта (ИИ) повлиять на государственную политику. В зависимости от сроков разработки искусственного общего интеллекта (AGI), это могут быть одни из последних выборов, которые способны существенно изменить траекторию управления ИИ в долгосрочной перспективе.
С учетом его давней приверженности безопасности ИИ и поддержки институтов, работающих над снижением экзистенциальных рисков, я поддерживаю кандидатуру Дастина Московица на пост президента. Ожидается, что президентство Московица значительно увеличит вероятность того, что политика США в отношении ИИ будет уделять приоритетное внимание безопасности.

Необходимость управления ИИ
Правительства необходимы для продвижения безопасности ИИ, так как динамика развития ИИ делает добровольную осторожность сложной, а ИИ несет беспрецедентные риски и трансформационный потенциал. Кроме того, правительство США может значительно повлиять на ситуацию при относительно небольших затратах.
Конкурентная природа ИИ и возможная гонка на дно
Существует потенциал для значительного преимущества первого хода в ИИ. Первая группа, которая разовьет трансформационный ИИ, может теоретически получить подавляющую экономическую мощь, воспользовавшись рекурсивным самоулучшением. Даже без рекурсивного улучшения, будучи первым в трансформационном ИИ, можно получить значительные преимущества.
Искажение стимулов может привести к тому, что крупные лаборатории будут стремиться действовать быстро и сокращать углы, иначе они рискуют быть обогнанными. Замедление ради безопасности зачастую воспринимается как одностороннее разоружение.
Это именно тот случай, когда управление крайне важно. Даже Нобелевский лауреат Джеффри Хинтон в 2024 году выразил обеспокоенность тем, что "невидимая рука" рынка не обеспечит безопасное развитие ИИ.
Масштаб рисков ИИ
Помимо конкуренции, важно, кто принимает ключевые решения о том, какие риски допустимы при разработке ИИ. Если ИИ обладает способностью навсегда изменить или даже уничтожить общество, имеет смысл, чтобы критические решения принимались плюралистическими институтами, а не безответственными техническими магнатами.
Без прозрачности и четких руководств по безопасности, риск катастрофы ИИ кажется гораздо выше.

Влияние правительства
Огромные ресурсы государства — это еще одна причина поддерживать его действия по безопасности ИИ. Даже если корпорации могут эффективно саморегулироваться, правительство США может и должно тратить значительные средства на исследования безопасности ИИ.
Недостаточность текущих действий США в области безопасности ИИ
Несмотря на множество убедительных причин для действий правительства США в области безопасности ИИ, значительных действий предпринято не было. Недавний план действий в области ИИ — это шаг назад от безопасности, так как он фокусируется на ускорении инноваций в ущерб регуляциям.
Дастин Московиц: лидер, способный изменить курс
Многие заботятся о безопасной разработке ИИ. Однако для сильного кандидата в президенты важны не только усилия в этой области, но и способность управлять кампанией и эффективно руководить в случае избрания.
Московиц, как соучредитель Facebook и активный участник инициатив по безопасности ИИ, может стать тем лидером, который изменит курс развития ИИ и обеспечит его безопасное внедрение в общество.