США, Сингапур и другие страны согласны сделать искусственный интеллект ‘безопасным по дизайну’ – читайте детали!

25

США, Сингапур и более чем дюжина других стран в воскресенье представили, как описал это высокопоставленный чиновник США, первое подробное международное соглашение о том, как обезопасить искусственный интеллект от злоумышленников, настаивая на создании компаниями таких систем ИИ, которые “будут безопасными по умолчанию”.

В 20-страничном документе, представленном в воскресенье, 18 стран согласились к тому, что компании, разрабатывающие и использующие искусственный интеллект, должны разрабатывать и внедрять его таким образом, чтобы клиенты и общественность в целом были защищены от злоупотребления.

Соглашение является непринудительным и содержит в основном общие рекомендации, такие как контроль за злоупотреблением систем ИИ, защита данных от вмешательства и проверка поставщиков программного обеспечения.

Однако директор Агентства кибербезопасности и инфраструктуры США (CISA) Дженн Йестерли заявила, что важно, что так множество стран выступили за идею того, что системы искусственного интеллекта должны ставить безопасность на первый план.

“Это первый раз, когда мы видим подтверждение того, что эти возможности не должны быть только о крутых функциях и о том, насколько быстро мы можем их выпустить на рынок или о том, как мы можем конкурировать для снижения затрат”, – сказала Йестерли агентству Reuters, отметив, что рекомендации представляют “соглашение о том, что самое важное, что нужно сделать на этапе разработки, это обеспечить безопасность”.

Соглашение является последней в серии инициатив, мало из которых имеют силу, государств по всему миру по формированию развития искусственного интеллекта, вес которого все чаще ощущается в промышленности и обществе в целом.

Помимо США и Сингапура, 18 стран, подписавших новые рекомендации, включают Великобританию, Германию, Италию, Чешскую Республику, Эстонию, Польшу, Австралию, Чили, Израиль и Нигерию.

Фреймворк затрагивает вопросы того, как предотвратить захват ИИ технологии хакерами и включает рекомендации, такие как выпуск моделей только после соответствующего тестирования безопасности.

Он не рассматривает острые вопросы о целесообразном использовании ИИ или о том, как собираются данные, питающие эти модели.
Оригинальная новость на сайте