Риск для ИИ: выпьем все ядовитые таблетки?

190

Ведущий исследователь по кибербезопасности предупреждает о риске компрометации наборов данных искусственного интеллекта с помощью “загрязнения данных”. Генеральный директор Австралийского исследовательского центра по кибербезопасности Рейчел Фолк объяснила в программе утренних новостей “AM” ABC, что загрязнение данных происходит, когда “можно атаковать набор данных искусственного интеллекта и либо внести в него ложную информацию, либо дезинформацию”, из-за чего “он уже не будет правильным”. Центр заявил, что искусственный интеллект нуждается в “контроле, прозрачности и механизмах управления”, чтобы защитить пользователей от атаки “загрязнением данных”. Он предупреждает об этом в сегодняшнем докладе. Доклад отмечает, что некоторые риски хорошо известны, например, угроза устранения рабочих мест и угрозы конфиденциальности, однако загрязнение данных и атаки людей на маркировку данных – нет. Обе атаки включают воздействие на данные обучения. Загрязнение данных заключается в интеграции “зловредных, предвзятых или неправильных данных” в набор обучения. Такие неправильные результаты “могут позволить злоумышленнику сместить принятие решений в пользу определенного исхода, что может иметь реальные последствия”. Загрязнение данных включает в себя различные типы атак, такие как загрязнение доступности (испорченная модель машинного обучения, что делает искусственный интеллект неработоспособным), целевое загрязнение (атака на небольшое количество образцов, что затрудняет обнаружение), скрытое загрязнение (обучающие образцы дают злоумышленнику скрытый доступ к модели) и загрязнение модели (атака на обученную модель для введения вредоносного кода). Другой риск, выявленный в докладе, заключается в том, что люди, занятые разметкой данных для обучения искусственного интеллекта, могут быть переведены на сторону и неправильно пометить зловредные данные в наборе обучения. Доклад отмечает, что обучение искусственного интеллекта обычно поручается странам с дешевой рабочей силой (включая Кению, Уганду, Филиппины и Венесуэлу), что создает опасность, что должностные лица могут быть подкуплены для загрязнения данных обучения. Если это произойдет в масштабе вредных сценариев, даже 0,01% загрязненных данных, согласно исследованию, могут оказаться серьезными и иметь негативные последствия для обширных языковых моделей и для общества в целом. Искаженные данные также открывают дверь для иностранного вмешательства. Доклад отмечает, что это проблема, которой необходимо немедленное рассмотрение на глобальном уровне, поскольку дискуссии о регулировании и глобальных нормах систем искусственного интеллекта продолжаются.

Читать полную новость на сайте