Ядовитая пилюля – угроза искусственному интеллекту

137

Ведущий исследователь в области кибербезопасности предупреждает о риске компрометации данных наборов искусственного интеллекта “загрязнением данных”. Генеральный директор Кооперативного исследовательского центра кибербезопасности, Рэйчел Фолк, пояснила программе “AM” ABC сегодня утром, что загрязнение данных происходит, когда “вы можете атаковать набор данных ИИ и либо внедрить в него ложную информацию или dezinformatsiyu”, чтобы он “уже больше не был правильным”. Центр предупредил, что ИИ нуждается в “надзоре, прозрачности и механизмах контроля”, чтобы защитить пользователей от атак загрязнением данных. Он выразил свою озабоченность об этом в представленном сегодня отчете. Отчет отмечает, что хотя некоторые риски хорошо известны – например, угрозы смещения на рынке труда и приватности, загрязнение данных и атаки человека на маркировку данных неизвестны. Оба вида атак связаны с вмешательством в данные для обучения. Загрязнение данных предполагает “внедрение злонамеренных, предвзятых или неправильных данных” в набор обучения. Отчет отмечает, что неверные результаты “могут позволить злоумышленнику влиять на принятие решений в пользу определенного результата, что может повлечь за собой реальный вред”. В отчете были выявлены типы отравления, включая отравление доступности (искажение всей модели машинного обучения (ML), делая ИИ неиспользуемым), целевое отравление (атака на небольшое количество образцов, что делает его сложным для обнаружения), отравление задними воротами (обучающие выборки дают злоумышленнику заднюю дверь в модель) и отравление модели (атака на обученную модель для внедрения вредоносного кода).

Читать полную новость на сайте