29 марта в истории Находки: коллективный договор и сокращение в больнице
09:00
Выставка портретов участников СВО открылась в Находке   
28 марта, 16:30
В Находке раскрыта подпольная игорная зона
28 марта, 14:05
Арест ТОП-менеджера, деньги за детей, мошенники распоясались - неделя Находки
28 марта, 11:15
28 марта в истории Находки: хозрасчетный спорт и "холодный" асфальт
28 марта, 09:00
"Бесплатный спортзал и анализы": находкинцы могут получить карты для здоровья
27 марта, 18:00
Елизавета Новикова: Конкурс доказал, что нужно больше писать о сильных и искренних людях
27 марта, 17:45
Россияне стали чаще оставлять чаевые в кафе и барах
27 марта, 17:15
В СахГУ запустят уникальную магистратуру по подводной добыче газа
27 марта, 17:05
Генпрокурор Александр Гуцан представил в Хабаровске нового заместителя по ДФО
27 марта, 15:25
Аэрофлот традиционно увеличивает частоту рейсов в города Дальнего Востока
27 марта, 14:05
Находкинские школьники доказывают, что наука спасает экологию и строит карьеру
27 марта, 12:40
В Находке финансово выгодно рожать третьего ребенка
27 марта, 10:10
27 марта в истории Находки: рога и копыта ЖБФ, акция протеста и Китай в лидерах
27 марта, 09:00
В Улан-Удэ бренд города поможет развитию туризма
26 марта, 20:45

Есть камни, смотреть на солнце: какие опасные ошибки несет в себе контент от нейросетей

Контент, сгенерированный нейросетями, может представлять серьезную угрозу для здоровья
Тематическое фото Kandinsky (18+)
Тематическое фото
Фото: Kandinsky (18+)
Нашли опечатку?
Ctrl+Enter

Контент, сгенерированный нейросетями, может представлять серьезную угрозу для здоровья, предупреждают эксперты. Некоторые ошибки, допущенные искусственным интеллектом, например, в кулинарных рецептах, способны вызвать отравления, представляющие опасность для жизни. В ряде случаев рекомендации ИИ доходят до абсурда: пользователям предлагают съедать по камню в день, смотреть на солнце в течение долгого времени или даже курить во время беременности, пишут "Известия" (18+).

Опасные рецепты

Хотя нейросети демонстрируют впечатляющие способности, они подвержены феномену так называемых "галлюцинаций". Это происходит, когда программы придумывают факты и уверенно их излагают. Руководитель группы исследований в "Лаборатории Касперского" Владислав Тушканов отметил, что подобные ошибки встречаются нередко.

Так, нейросеть выдала рецепт чеснока в оливковом масле, соблюдение которого могло привести к отравлению ботулотоксином. Также одна из нейросетей ошибочно предложила добавить клей в рецепт пиццы. Это лишь несколько примеров того, как ошибки могут стать угрозой для здоровья людей.

Книги от ИИ: мифы и реальность

Ошибки ИИ встречаются не только в рецептах. К примеру, адвокат из США был оштрафован за использование фальшивых прецедентов, сгенерированных нейросетью, в подготовке судебного иска. В Великобритании семья отравилась ядовитыми грибами, следуя рекомендациям книги, созданной неросетью. В издании содержались опасные советы по определению ядовитых грибов, что привело к трагедии.

Как поясняет основатель издательства "Прондо" Елена Косма, проблема кроется в том, что нейросети анализируют огромные объемы информации из интернета, случайно смешивая данные из разных источников. 

Сферы риска

Эксперты предупреждают, что во многих сферах деятельность ИИ без человеческого контроля небезопасна. Студенты, например, могут использовать ИИ для прохождения тестов, что снижает качество образования. В здравоохранении и юриспруденции ошибки ИИ могут привести к серьезным последствиям.

Как минимизировать риски?

Чтобы снизить риски, связанные с использованием ИИ, необходимо следовать базовым правилам: всегда перепроверять информацию и не принимать важные решения, основываясь на ответах нейросетей. Владислав Тушканов считает, что важно развивать критическое мышление и повышать цифровую грамотность, чтобы избежать проблем при взаимодействии с ИИ.

Также предлагаются меры по введению законодательного регулирования в критически важных сферах, таких как медицина и юриспруденция, а также создание систем верификации контента, сгенерированного нейросетями.

231572
118
157