Введение: Почему сенатор Сандерс предложил мораторий?
На фоне стремительного роста технологий и их влияния на общество, сенатор Берни Сандерс предложил ввести мораторий на строительство новых дата-центров. Основные опасения связаны с возможными негативными последствиями развития суперинтеллектуального ИИ, такими как массовое сокращение рабочих мест, угрозы демократии и изменения в природе войн. Однако насколько эффективен этот шаг и как он может повлиять на индустрию?
Почему мораторий может не сработать?
Даже если предположить, что мораторий будет принят, он является временной мерой. В условиях нынешней политической обстановки, где национальная безопасность и экономический рост зависят от ИИ, противодействие будет значительным. Крупные игроки индустрии, такие как ведущие лаборатории ИИ и венчурные фирмы, будут активно лоббировать против этого решения, имея значительно большее политическое влияние, чем Сандерс.
Кроме того, даже при наличии моратория, существующие дата-центры продолжат работать, а капитал будет перенаправлен на улучшение исследования с использованием уже доступных вычислительных ресурсов. Это означает, что замедление развития ИИ будет минимальным.
Экономические последствия
Экономические проблемы, связанные с автоматизацией и потерей рабочих мест, не решатся лишь благодаря замедлению темпов строительства дата-центров. Необходимы конкретные политические решения для адаптации к новой экономической реальности.
Риски политической реакции
Оппозиция к дата-центрам часто связана с экологическими вопросами, такими как потребление воды и энергии. Однако, связывание вопросов безопасности ИИ с экологическими проблемами может вызвать негативную реакцию и затруднить принятие более важных регулятивных мер в будущем.
Исторически сложилось так, что чрезмерные популистские меры приводили к обратной реакции, что наглядно показано на примере технологической реакции на прогрессивные меры в 2024 году.
Возможные положительные сценарии
Существует вероятность, что обсуждение моратория повысит осведомленность о рисках ИИ, без необходимости его фактического принятия. Это может подтолкнуть политиков к более ответственному подходу к вопросам регулирования ИИ и его влияния на общество.
К чему нужно стремиться?
Вместо временных мер, таких как мораторий, необходимо строить коалиции для продвижения международных договоров, направленных на запрет разработки суперинтеллекта. Важно образовывать общество о рисках ИИ и разрабатывать безопасные нормативные акты.