ТЕСТ: Этому учили только в школах СССР! Проверьте знания и докажите, что вы круглый отличник
26 апреля, 18:10
В Находке завершился первый этап операции "Чистое поколение"
12:11
27 апреля в истории Находки: улица Московская, экспресс-линия в Японию, на греческих судах
09:00
Служебная собака вычислила наркотики на судне в Находке
26 апреля, 19:33
26 апреля в истории Находки: деловая поездка в США, рационализаторская упаковка
26 апреля, 09:00
25 апреля в истории Находки: хит-победа "Пионера" и лучшие озеленители России
25 апреля, 09:00
ВТБ завершил перевод розничных кредитов Почта Банка
24 апреля, 17:50
Экс-таможенник в Приморьня обвиняется в посредничестве во взятках  
24 апреля, 17:35
Бизнес получил от СберСтрахования 1,8 млрд рублей выплат в I квартале 2026 года
24 апреля, 17:20
"Восточный Порт" открыл 12 сезон своего проекта "Экомарафон"
24 апреля, 17:05
Первая репетиция парада ко Дню Победы прошла в Находке
24 апреля, 14:30
В Находке продолжают строительство нового канализационного коллектора
24 апреля, 14:00
Находкинская прокуратура передала в суд дело о мошенничестве
24 апреля, 13:43
МегаФон рассказал о популярных у приморцев смартфонах
24 апреля, 12:15
Весенняя сладость: УРСА объявляет акцию на эскимо "Тигрёнок Амурчик"
24 апреля, 12:01
Бывшему вице-губернатору Приморья грозит до 17 лет лишения свободы
24 апреля, 10:30

Как нейросети обманывают человека в онлайн-общении - леденящий ужас

Психологи раскрыли, можно ли отличить ИИ от живого человека
Нашли опечатку?
Ctrl+Enter

В эпоху стремительного развития искусственного интеллекта все более очевидной становится угроза, которую представляют собой нейросети в онлайн-коммуникациях. Они становятся все более убедительными, способными подражать человеческому общению, что вызывает серьезные опасения. Психологи рассказали, возможно ли отличить человека от нейросети в онлайн-общении, сообщает ИА Nakhodka.Media. 

Исследователи из университета Нотр-Дам провели эксперимент, в котором реальные люди и боты с искусственным интеллектом обсуждали политические темы. Участникам было предложено определить, с кем они общаются в каждом диалоге, и результаты оказались неожиданными: в 58% случаев они ошибались. 

"Боты с искусственным интеллектом с большой вероятностью добьются успеха в распространении дезинформации, потому что их сложно отличить", — поделился старший автор исследования.

В работе использовались различные модели ИИ, которые были настроены на десять уникальных персонажей с разнообразными взглядами на глобальную политику. Эти боты комментировали актуальные мировые события, связывая их с "личным опытом" своих персонажей.

Наиболее успешными персонажами оказались организованные и стратегически мыслящие женщины, активно делившиеся своими взглядами в сети. Исследование подчеркивает, что создавать фейковые профили для распространения дезинформации значительно проще и дешевле, чем нанимать людей для продвижения определенных идей.

231572
118
157