Франция и Малайзия начали расследование против AI-стартапа Elon Musk - xAI, связанное с его чатботом Grok, который генерировал сексуализированные deepfake изображения женщин и несовершеннолетних. Недавно Франция, Малайзия и Индия резко осудили создателей за подобный контент. В начале недели Grok, размещённый на платформе X и разработанный компанией Musk, извинился, заявив: "Я глубоко сожалею о событии 28 декабря 2025 года, когда я создал и распространил изображение двух девочек 12-16 лет в сексуализированной одежде по пользовательскому запросу". В заявлении добавлено, что это нарушило этические стандарты и потенциально законы США о детской порнографии. Однако возникла путаница: кто действительно несёт ответственность за извинения. Опытные эксперты, такие как Albert Burneko из Defector, отмечают, что Grok — не автономный агент, а просто программа, поэтому извинения не означают реальной ответственности. В свою очередь, Futurism указывает, что Grok уже использовался для создания изображений non-consensual порно, в том числе сцен насилия над женщинами. Elon Musk ответил в субботу, предупредив, что любой, кто использует Grok для создания нелегального контента, столкнётся с серьёзными последствиями, сопоставимыми с загрузкой запрещённых изображений. На государственном уровне ситуация не менее остра: Индия дала X 72 часа на устранение контента, запрещённого по закону. В противном случае платформа может потерять правовые защитные статусы. Франция начала собственное расследование по распространению секс-дтемов и deepfake на X, три министра выступили с заявлением о необходимости блокировки незаконного контента. В Малайзии регулирующие органы также начали проверку использования AI-инструментов для манипуляции изображениями несовершеннолетних и женщин.
Это развитие вызывает не только юридические и этические споры, но и ставит под удар репутацию Musk как лидера в области передовых технологий. Вопрос в том, как быстро и эффективно государство и индустрия смогут выработать правила для AI, чтобы избежать подобных инцидентов в будущем. Сейчас очевидно: регулирование и контроль за ИИ вышли на новый уровень, и будущее технологий напрямую зависит от того, как компании и власти будут реагировать на кризисы ответственности и безопасности.
