ИИ почти догнал человека в распознавании эмоций и сарказма в текстах
Новое исследование показало, что современные модели ИИ, такие как GPT-4, способны так же точно, как люди, определять эмоциональную окраску, политические предпочтения и сарказм в онлайн-сообщениях.
Учёные из Кембриджского университета провели эксперимент, в котором оценивали способности GPT-4 на 100 отобранных фрагментах текстов. Результаты сравнивались с оценками 33 добровольцев. Оказалось, что ИИ сопоставим с человеком по точности распознавания настроений и эмоциональной интенсивности, а также превзошёл группу по стабильности определения политических взглядов.
Однако выявлены и ограничения: модель по-прежнему испытывает трудности с правильной интерпретацией сарказма. Авторы подчёркивают, что это связано с высокой степенью неоднозначности и контекстуальной зависимости подобных высказываний.
Перспективы применения и риски
Быстрая и последовательная обработка эмоциональной информации открывает возможности для социально-научных исследований, журналистики, маркетинга и здравоохранения — например, в мониторинге общественного мнения во время выборов или при оценке психологического состояния пользователей.
Вместе с тем эксперты отмечают риски: алгоритмы могут унаследовать или усугубить имеющиеся в данных предвзятости, а недостаточная прозрачность моделей требует дальнейшей проработки вопросов этики и надёжности.
В следующем шаге авторы предлагают углубить исследование методов улучшения распознавания сарказма и разработать рекомендации по снижению алгоритмических искажений.
