Новое исследование показало, что современные модели искусственного интеллекта могут с той же точностью, что и люди, распознавать эмоции, политические взгляды и сарказм в онлайн-общении.
Учёные сравнили семь популярных языковых моделей — среди которых GPT-4, Gemini, Llama 3.1-70B и Mixtral 8×7B — с оценками 33 добровольцев, проанализировавших 100 текстовых фрагментов на предмет эмоциональной окраски, политической направленности и сарказма.
Выяснилось, что ИИ не уступает людям в определении позитивных и негативных эмоций, а также политических предпочтений, при этом GPT-4 продемонстрировал более стабильные результаты при выявлении политической ориентации.
Моделям всё же свойственно занижать степень эмоциональной интенсивности и испытывать трудности с распознаванием тонкого сарказма, что указывает на необходимость сохранения человеческой верификации полученных данных.
Мнение экспертов и перспективы
По мнению специалистов, достижения в области латентного анализа открывают новые возможности для мониторинга социальных сетей, улучшения обслуживания клиентов и поддержки психического здоровья, однако требуют дальнейших разработок для учёта контекстуальных нюансов языка.
Ожидается, что дальнейшее совершенствование языковых моделей повысит точность их работы, однако экспертная проверка останется ключевым элементом обеспечения надёжности и корректности выводов.
