Новое исследование выявило, что искусственный интеллект, несмотря на свой потенциал, не может заменить человеческую интуицию в распознавании фейковых новостей.
Специалисты провели эксперимент, в ходе которого ИИ-модели, включая ChatGPT, Bard и LLaMA, получили задачи по оценке правдивости различных новостных сообщений. Результаты показали, что многие системы склонны допускать ошибки, в том числе классифицировать ложную информацию как правдивую и наоборот.
«Хотя ИИ демонстрирует впечатляющие способности в генерации текста, его понимание контекста и нюансов ограничено», — отмечают исследователи. В отличие от людей, у ИИ отсутствует «человеческое чутьё», которое помогает быстро распознавать подозрительные детали и проверять источники.
Эксперты предупреждают, что чрезмерное доверие к искусственному интеллекту в вопросах новостной достоверности может привести к распространению дезинформации. Они подчеркивают необходимость совместной работы человека и ИИ для более надежной проверки фактов.
В будущем ученые планируют улучшать алгоритмы ИИ, интегрируя механизмы, учитывающие человеческий опыт и критическое мышление, что позволит повысить качество анализа новостей и сократить риски распространения фейковой информации.

