ВТБ и Фонд защитников природы запускают проект "Земля медведя"
15 апреля, 16:35
Жители Находки решили сделать шаг навстречу здоровью
15 апреля, 16:32
Иностранные слова на вывесках: что изменилось для бизнеса с 1 марта 2026 года — разбор юриста
15 апреля, 15:00
Клиенты Почта Банка могут перевести соцвыплаты в ВТБ
15 апреля, 14:00
Ушлые бизнесмены хотят заставить весь Дальний Восток ездить по платным дорогам
15 апреля, 13:45
ВТБ и Фонд защитников природы предоставят фотоловушки заповедным территориям страны
15 апреля, 13:30
Дальневосточный МедиаСаммит в ЕАО: события и смыслы одного из ведущих отраслевых форумов Дальнего Востока
15 апреля, 13:30
"Значимы для Приморья": читатели ИА PrimaMedia - о медиасфере и медиапрофессиях
15 апреля, 13:25
Заявочная кампания конкурса "Золотое перо Приморье - Открытие" завершается сегодня, 15 апреля
15 апреля, 13:05
Светлана Городник: "Золотое перо — Открытие" помогает молодым авторам обрести веру в себя
15 апреля, 12:50
Дачники и туристы Приморья встречают весну с улучшенным 4G
15 апреля, 11:55
Порт "Остерра" выполняет задачу губернатора: отгрузка хабаровского угля выросла в 2,6 раза
15 апреля, 11:35
В прокуратуре бьют тревогу из-за загрязнения озера в Партизанске
15 апреля, 11:16
В Находке перевозили опасные грузы без требуемых документов
15 апреля, 10:27
Кадровый голод и сезонная текучка: почему туристы жалуются на сервис в Находке
15 апреля, 10:00

Как нейросети обманывают человека в онлайн-общении - леденящий ужас

Психологи раскрыли, можно ли отличить ИИ от живого человека
Нашли опечатку?
Ctrl+Enter

В эпоху стремительного развития искусственного интеллекта все более очевидной становится угроза, которую представляют собой нейросети в онлайн-коммуникациях. Они становятся все более убедительными, способными подражать человеческому общению, что вызывает серьезные опасения. Психологи рассказали, возможно ли отличить человека от нейросети в онлайн-общении, сообщает ИА Nakhodka.Media. 

Исследователи из университета Нотр-Дам провели эксперимент, в котором реальные люди и боты с искусственным интеллектом обсуждали политические темы. Участникам было предложено определить, с кем они общаются в каждом диалоге, и результаты оказались неожиданными: в 58% случаев они ошибались. 

"Боты с искусственным интеллектом с большой вероятностью добьются успеха в распространении дезинформации, потому что их сложно отличить", — поделился старший автор исследования.

В работе использовались различные модели ИИ, которые были настроены на десять уникальных персонажей с разнообразными взглядами на глобальную политику. Эти боты комментировали актуальные мировые события, связывая их с "личным опытом" своих персонажей.

Наиболее успешными персонажами оказались организованные и стратегически мыслящие женщины, активно делившиеся своими взглядами в сети. Исследование подчеркивает, что создавать фейковые профили для распространения дезинформации значительно проще и дешевле, чем нанимать людей для продвижения определенных идей.

231572
118
157