Контент, сгенерированный нейросетями, может представлять серьезную угрозу для здоровья, предупреждают эксперты. Некоторые ошибки, допущенные искусственным интеллектом, например, в кулинарных рецептах, способны вызвать отравления, представляющие опасность для жизни. В ряде случаев рекомендации ИИ доходят до абсурда: пользователям предлагают съедать по камню в день, смотреть на солнце в течение долгого времени или даже курить во время беременности, пишут "Известия" (18+).
Опасные рецепты
Хотя нейросети демонстрируют впечатляющие способности, они подвержены феномену так называемых "галлюцинаций". Это происходит, когда программы придумывают факты и уверенно их излагают. Руководитель группы исследований в "Лаборатории Касперского" Владислав Тушканов отметил, что подобные ошибки встречаются нередко.
Так, нейросеть выдала рецепт чеснока в оливковом масле, соблюдение которого могло привести к отравлению ботулотоксином. Также одна из нейросетей ошибочно предложила добавить клей в рецепт пиццы. Это лишь несколько примеров того, как ошибки могут стать угрозой для здоровья людей.
Книги от ИИ: мифы и реальность
Ошибки ИИ встречаются не только в рецептах. К примеру, адвокат из США был оштрафован за использование фальшивых прецедентов, сгенерированных нейросетью, в подготовке судебного иска. В Великобритании семья отравилась ядовитыми грибами, следуя рекомендациям книги, созданной неросетью. В издании содержались опасные советы по определению ядовитых грибов, что привело к трагедии.
Как поясняет основатель издательства "Прондо" Елена Косма, проблема кроется в том, что нейросети анализируют огромные объемы информации из интернета, случайно смешивая данные из разных источников.
Сферы риска
Эксперты предупреждают, что во многих сферах деятельность ИИ без человеческого контроля небезопасна. Студенты, например, могут использовать ИИ для прохождения тестов, что снижает качество образования. В здравоохранении и юриспруденции ошибки ИИ могут привести к серьезным последствиям.
Как минимизировать риски
Чтобы снизить риски, связанные с использованием ИИ, необходимо следовать базовым правилам: всегда перепроверять информацию и не принимать важные решения, основываясь на ответах нейросетей. Владислав Тушканов считает, что важно развивать критическое мышление и повышать цифровую грамотность, чтобы избежать проблем при взаимодействии с ИИ.
Также предлагаются меры по введению законодательного регулирования в критически важных сферах, таких как медицина и юриспруденция, а также создание систем верификации контента, сгенерированного нейросетями.