8 апреля в истории Находки: рождения АТП-1, дебют "Океана", реорганизация школы №2
09:00
Дискуссия о медиадипломатии продолжит международный трек программы Дальневосточного МедиаСаммита в ЕАО
08:20
Лимаренко: На Сахалине расширили программу ЭКО для женщин с бесплодием
7 апреля, 21:05
Миллиметровая точность: находкинские хирурги извлекли из пальца пациентки стеклянную иглу
7 апреля, 17:42
Определены победители Чемпионата "АртМастерс Регионы"
7 апреля, 17:20
Забота о материнстве и рождаемости: как в Находке прошел День беременных
7 апреля, 17:20
ВТБ запускает в онлайн-банке сервисы для жизни
7 апреля, 17:00
У медицины в Находке есть будущее: школьники стали чемпионами по диагностике
7 апреля, 16:36
"УРСА" запускает космическую акцию в фирменных магазинах
7 апреля, 16:25
От Станиславского до наших дней: "Театральная олимпиада" приглашает приморцев к участию
7 апреля, 15:20
ВТБ: более 3,9 тысячи спортсменов закрыли сезон на Югорском лыжном марафоне
7 апреля, 14:30
Сорняк под надзором: за какие растения с 1 марта 2026 года оштрафуют на 700 тысяч
7 апреля, 14:25
"Гордость за Дальний Восток – это то, что делает Премию им. Арсеньева такой значимой"
7 апреля, 14:25
Школьники ЕАО станут полноправными участниками Дальневосточного МедиаСаммита
7 апреля, 14:00
Ульяна Жиулло: Конкурс "Золотое перо Приморья – Открытие" докажет молодежи, что социально важные проекты можно создавать уже сейчас
7 апреля, 13:45

Как нейросети обманывают человека в онлайн-общении - леденящий ужас

Психологи раскрыли, можно ли отличить ИИ от живого человека
Нашли опечатку?
Ctrl+Enter

В эпоху стремительного развития искусственного интеллекта все более очевидной становится угроза, которую представляют собой нейросети в онлайн-коммуникациях. Они становятся все более убедительными, способными подражать человеческому общению, что вызывает серьезные опасения. Психологи рассказали, возможно ли отличить человека от нейросети в онлайн-общении, сообщает ИА Nakhodka.Media. 

Исследователи из университета Нотр-Дам провели эксперимент, в котором реальные люди и боты с искусственным интеллектом обсуждали политические темы. Участникам было предложено определить, с кем они общаются в каждом диалоге, и результаты оказались неожиданными: в 58% случаев они ошибались. 

"Боты с искусственным интеллектом с большой вероятностью добьются успеха в распространении дезинформации, потому что их сложно отличить", — поделился старший автор исследования.

В работе использовались различные модели ИИ, которые были настроены на десять уникальных персонажей с разнообразными взглядами на глобальную политику. Эти боты комментировали актуальные мировые события, связывая их с "личным опытом" своих персонажей.

Наиболее успешными персонажами оказались организованные и стратегически мыслящие женщины, активно делившиеся своими взглядами в сети. Исследование подчеркивает, что создавать фейковые профили для распространения дезинформации значительно проще и дешевле, чем нанимать людей для продвижения определенных идей.

231572
118
157