В эпоху стремительного развития искусственного интеллекта все более очевидной становится угроза, которую представляют собой нейросети в онлайн-коммуникациях. Они становятся все более убедительными, способными подражать человеческому общению, что вызывает серьезные опасения. Психологи рассказали, возможно ли отличить человека от нейросети в онлайн-общении, сообщает ИА Nakhodka.Media.
Исследователи из университета Нотр-Дам провели эксперимент, в котором реальные люди и боты с искусственным интеллектом обсуждали политические темы. Участникам было предложено определить, с кем они общаются в каждом диалоге, и результаты оказались неожиданными: в 58% случаев они ошибались.
"Боты с искусственным интеллектом с большой вероятностью добьются успеха в распространении дезинформации, потому что их сложно отличить", — поделился старший автор исследования.
В работе использовались различные модели ИИ, которые были настроены на десять уникальных персонажей с разнообразными взглядами на глобальную политику. Эти боты комментировали актуальные мировые события, связывая их с "личным опытом" своих персонажей.
Наиболее успешными персонажами оказались организованные и стратегически мыслящие женщины, активно делившиеся своими взглядами в сети. Исследование подчеркивает, что создавать фейковые профили для распространения дезинформации значительно проще и дешевле, чем нанимать людей для продвижения определенных идей.