Итальянский регулятор AGCM запустил формальное расследование в отношении AI-стартапа DeepSeek за отсутствие ясных предупреждений о рисках недостоверного контента.
По заявлению AGCM, DeepSeek не информировал пользователей «достаточно четко, немедленно и понятно» о возможных «галлюцинациях» — ситуациях, когда система генерирует неточную, вводящую в заблуждение или полностью вымышленную информацию.
В понедельник итальянский антимонопольный орган направил стартапу официальный запрос разъяснить принципы работы чат-бота и меры, принимаемые для защиты прав потребителей.
«Наша цель — обеспечить прозрачность и защиту потребительских прав в сфере искусственного интеллекта, особенно когда речь идет о риске распространения ложной информации» — прокомментировали в AGCM.
Ранее, в феврале, Национальный орган по защите персональных данных Италии уже требовал от DeepSeek скорректировать политику конфиденциальности или заблокировать доступ к сервису.
По мнению экспертов Российского института правовых исследований цифровых технологий, данное расследование может стать прецедентом для последующего ужесточения требований к разработчикам генеративных моделей: «Регуляторы постепенно вырабатывают единые стандарты прозрачности — компании будут вынуждены четче предупреждать о возможных ошибках систем ИИ и защищать репутацию пользователей», — отмечает ведущий аналитик института А. Павлов.

