Исследование предупреждает о необходимости более глубокого понимания и управления искусственным интеллектом

167

Профессор международной безопасности в Ланкастерском университете Джо Бертон утверждает, что искусственный интеллект (ИИ) и алгоритмы не только являются инструментами, используемыми национальными спецслужбами для предотвращения вредоносной деятельности в сети, но также могут способствовать поляризации, радикализации и политическому насилию, представляя угрозу для национальной безопасности.

Кроме того, он говорит, что процессы милитаризации (представление технологии как существенной угрозы) сыграли решающую роль в том, как ИИ разрабатывался, использовался и привел к негативным последствиям.

Статья профессора Бертона “Алгоритмический экстремизм? Милитаризация искусственного интеллекта и его влияние на радикализацию, поляризацию и политическое насилие” опубликована в журнале Elsevier высокой репутации “Технологии в обществе”.

“АИ часто представляется как инструмент для борьбы с насильственным экстремизмом”, – говорит профессор Бертон. “Вот другая сторона дебатов”.

В статье исследуется, как ИИ милитаризировался на протяжении своей истории, в СМИ и в популярной культуре, и путем изучения современных примеров того, как ИИ оказывает поляризующее и радикализующее влияние, способствуя политическому насилию.

В статье упоминается фильмовая серия “Терминатор”, которая изображала голокост, совершенный “сложным и злобным” искусственным интеллектом, как то, что сделало больше всего для формирования широкой осведомленности об искусственном интеллекте и страхе, что машинное сознание может привести к разрушительным последствиям для человечества – в данном случае к ядерной войне и преднамеренной попытке искоренить вид.

“Этот недостаток доверия к машинам, связанные с ними страхи и их связь с биологическими, ядерными и генетическими угрозами для человечества способствовали желанию правительств и спецслужб налести на развитие этой технологии, с целью снизить риски и (в некоторых случаях) использовать ее положительный потенциал “, – пишет професср Бертон.

Профессор Бертон говорит, что роль современных дронов, таких как те, которые используются в войне на Украине, сейчас включает полную автономию, включая задачи, такие как идентификация и распознавание целей.

И, в то время как были проведены широкие и влиятельные обсуждения, в том числе в ООН, о запрещении “убийственных роботов” и о сохранении роли человека при принятии решений о жизни и смерти, ускорение и интеграция автономных дронов, как утверждает Бертон, продолжаются.

В кибербезопасности – обеспечении безопасности компьютеров и компьютерных сетей – ИИ широко используется с наиболее распространенной областью – (дез)информационной и онлайн-психологической войной.

Действия правительства Путина против процессов выборов в США в 2016 году и последующий скандал с Cambridge Analytica показали потенциал сочетания ИИ с большими данными (включая социальные сети) для создания политических эффектов, связанных с поляризацией, поощрением радикальных убеждений и манипуляцией группами идентичности. Это продемонстрировало силу и потенциал ИИ для разделения обществ.

И во время пандемии ИИ рассматривался как положительный аспект для отслеживания и выявления вируса, но вызывал опасения в отношении конфиденциальности и прав человека.

Статья исследует саму технологию ИИ, утверждая, что проблемы существуют в его конструкции, данных, на которых он основан, способе его использования и его результате и последствиях.

Работа заключается с сильным посланием исследователям, работающим в области кибербезопасности и международных отношений.

“Искусственный интеллект, безусловно, способен преобразовывать общество в положительном аспекте, но также представляет риски, которые нужно лучше понимать и контролировать”, – пишет профессор Бертон, эксперт по киберконфликту и новым технологиям и часть инициативы по безопасности и защите университета.

“Понимание разделительного эффекта технологии на всех этапах ее разработки и использования, очевидно, является основополагающим.

“Ученые, работающие в области кибербезопасности и международных отношений, имеют возможность включить эти факторы в развивающуюся исследовательскую программу по искусственному интеллекту и избегать рассмотрения его как политически нейтральной технологии.

“Другими словами, безопасность систем искусственного интеллекта и их использование в международных геополитических борьбах не должны замещать обеспокоенность их социальными последствиями”.

Как один из немногих университетов, чье образование, исследования и обучение признаны Национальным центром кибербезопасности Великобритании (NCSC), частью GCHQ, Ланкастер инвестирует значительные средства в подготовку следующего поколения лидеров в области кибербезопасности. Помимо расширения кадров и талантового потенциала в регионе за счет создания новой программы бакалаврского образования в области кибербезопасности на основе программы магистратуры, сертифицированной NCSC, был запущен инновационный программы магистратуры по кибербезопасности с учетом бизнес-образования.
Оригинальная новость на сайте