Жительницу Партизанска приговорили к 13 годам за убийство из ревности  
18:05
Театр кукол в Находке представит спектакль о подростковом одиночестве
16:37
Первый замгендиректора агентства "Минск-Новости" выступит экспертом МедиаСаммита в ЕАО
16:10
Виктор Пинский: Россия должна защищать свой рынок производства
15:10
Приморская спортсменка вошла в тройку сильнейших в популярном телешоу
15:00
Политические последствия кадровых решений главы Бурятии Цыденова
14:00
Свыше четырех десятков заявок уже поступили в оргкомитет Премии им. Арсеньева
13:35
МТС расширила систему мониторинга природных пожаров в Приморье
11:30
31 марта в истории Находки: "Судоремонтник" для судоремонтников и справочник для находчан
09:00
Девушку из Москвы задержали в Находке за попытку вскрыть чужой сейф
08:50
В Улан-Удэ выросла доступность спорта для горожан
30 марта, 20:55
Виктор Пинский: Среди кандидатов от "Единой России" значительную часть составят участники СВО
30 марта, 20:05
Инструменты на базе ИИ помогают приморцам в учебе и дизайне
30 марта, 18:55
Дальневосточный бизнес под прицелом: растет число кибератак на стратегические отрасли
30 марта, 17:10
Школьница из Находки представила стратегически важное исследование и стала лучшей в России
30 марта, 17:10

Есть камни, смотреть на солнце: какие опасные ошибки несет в себе контент от нейросетей

Контент, сгенерированный нейросетями, может представлять серьезную угрозу для здоровья
Тематическое фото Kandinsky (18+)
Тематическое фото
Фото: Kandinsky (18+)
Нашли опечатку?
Ctrl+Enter

Контент, сгенерированный нейросетями, может представлять серьезную угрозу для здоровья, предупреждают эксперты. Некоторые ошибки, допущенные искусственным интеллектом, например, в кулинарных рецептах, способны вызвать отравления, представляющие опасность для жизни. В ряде случаев рекомендации ИИ доходят до абсурда: пользователям предлагают съедать по камню в день, смотреть на солнце в течение долгого времени или даже курить во время беременности, пишут "Известия" (18+).

Опасные рецепты

Хотя нейросети демонстрируют впечатляющие способности, они подвержены феномену так называемых "галлюцинаций". Это происходит, когда программы придумывают факты и уверенно их излагают. Руководитель группы исследований в "Лаборатории Касперского" Владислав Тушканов отметил, что подобные ошибки встречаются нередко.

Так, нейросеть выдала рецепт чеснока в оливковом масле, соблюдение которого могло привести к отравлению ботулотоксином. Также одна из нейросетей ошибочно предложила добавить клей в рецепт пиццы. Это лишь несколько примеров того, как ошибки могут стать угрозой для здоровья людей.

Книги от ИИ: мифы и реальность

Ошибки ИИ встречаются не только в рецептах. К примеру, адвокат из США был оштрафован за использование фальшивых прецедентов, сгенерированных нейросетью, в подготовке судебного иска. В Великобритании семья отравилась ядовитыми грибами, следуя рекомендациям книги, созданной неросетью. В издании содержались опасные советы по определению ядовитых грибов, что привело к трагедии.

Как поясняет основатель издательства "Прондо" Елена Косма, проблема кроется в том, что нейросети анализируют огромные объемы информации из интернета, случайно смешивая данные из разных источников. 

Сферы риска

Эксперты предупреждают, что во многих сферах деятельность ИИ без человеческого контроля небезопасна. Студенты, например, могут использовать ИИ для прохождения тестов, что снижает качество образования. В здравоохранении и юриспруденции ошибки ИИ могут привести к серьезным последствиям.

Как минимизировать риски?

Чтобы снизить риски, связанные с использованием ИИ, необходимо следовать базовым правилам: всегда перепроверять информацию и не принимать важные решения, основываясь на ответах нейросетей. Владислав Тушканов считает, что важно развивать критическое мышление и повышать цифровую грамотность, чтобы избежать проблем при взаимодействии с ИИ.

Также предлагаются меры по введению законодательного регулирования в критически важных сферах, таких как медицина и юриспруденция, а также создание систем верификации контента, сгенерированного нейросетями.

231572
118
157