Страны призывают к «ответственному» использованию военного ИИ

249

В четверг более 60 стран, включая США и Китай, подписали скромный «призыв к действию», одобрив ответственное использование искусственного интеллекта (ИИ) в вооруженных силах.

Эксперты по правам человека и ученые отметили, что это заявление не имеет обязательной юридической силы и не решает таких проблем, как управляемые ИИ дроны, «роботы-убийцы», которые могут убивать без вмешательства человека, или риск того, что ИИ может привести к эскалации военного конфликта.

Однако это заявление стало ощутимым итогом первого международного саммита по военному ИИ, организованного Нидерландами и Южной Кореей на этой неделе в Гааге.

Подписанты заявили, что они привержены разработке и использованию военного ИИ в соответствии с «международно-правовыми обязательствами и таким образом, чтобы не подрывать международную безопасность, стабильность и подотчетность».

Конференция проводится в связи с тем, что интерес к ИИ находится на рекордно высоком уровне благодаря запуску программы OpenAI ChatGPT.

Израиль участвовал в конференции, но не подписал заявление.

Заместитель госсекретаря США по контролю над вооружениями Бонни Дженкинс выдвинула американскую концепцию ответственного использования ИИ в военных целях.

США и другие могущественные страны неохотно соглашаются на какие-либо юридические ограничения на использование ИИ, опасаясь, что это может поставить их в невыгодное положение по сравнению с конкурентами.

«Мы хотим подчеркнуть, что открыты для взаимодействия с любой страной, которая заинтересована в присоединении к нам», — сказал Дженкинс.

В предложении США говорится, что системы ИИ-оружия должны включать «соответствующие уровни человеческого суждения» в соответствии с обновленными рекомендациями по смертоносному автономному оружию, выпущенными Министерством обороны в прошлом месяце.

Хьюман Райтс Вотч призвала США дать определение «соответствующему», а не «возиться с политическими декларациями», а начать переговоры об обязательном международном праве.

Представитель Китая Цзянь Тан заявил на саммите, что страны должны «выступать против стремления к абсолютному военному преимуществу и гегемонии с помощью ИИ» и работать через ООН.

Джессика Дорси, доцент кафедры международного права Утрехтского университета, сказала, что предложение США было «упущенной возможностью» для лидерства, а заявление саммита было слишком слабым.

«Это открывает государствам путь к разработке ИИ для военных целей любым способом, который они считают нужным, пока они могут сказать, что это «ответственно», — сказала она. «Где механизм принуждения?»

Читать полную новость на сайте