В Нидерландах проходит первый саммит по «ответственному» использованию ИИ в армии

269

Делегации как из США, так и из Китая примут участие в саммите по «ответственному» использованию искусственного интеллекта (ИИ) в вооруженных силах на этой неделе в Нидерландах, первом в своем роде.

Хотя неясно, согласятся ли присутствующие 50 стран одобрить даже слабое заявление о принципах, разработанное Нидерландами и соорганизатором Южной Кореей, конференция проходит на фоне того, что интерес к ИИ в более широком смысле находится на рекордно высоком уровне благодаря запуску программы OpenAI ChatGPT два месяца назад.

Саммит пройдет 15 и 16 февраля в Гааге.

«Это идея, время для которой пришло», — заявил министр иностранных дел Нидерландов Вопке Хекстра представителям иностранной прессы в преддверии мероприятия.

«Мы делаем первый шаг в формулировании и работе над тем, каким будет ответственное использование ИИ в вооруженных силах».

Это событие может стать ранним шагом на пути к разработке когда-нибудь международного договора об оружии в отношении ИИ, хотя до этого еще далеко.

Ведущие страны до сих пор неохотно согласовывали какие-либо ограничения на его использование, опасаясь, что это может поставить их в невыгодное положение.

Около 2000 человек, включая экспертов и ученых, посещают конференцию параллельно с саммитом, где обсуждаются такие темы, как дроны-убийцы и роботы-убийцы.

Министерство обороны США обсудит на презентации, в чем оно видит потенциал для международного сотрудничества.

Представитель посольства Китая в Нидерландах сослался на документ с изложением позиции, в котором Китай подчеркнул необходимость избегать «стратегических просчетов» с ИИ и не допускать случайной эскалации конфликта.

Страны ООН, входящие в Конвенцию о конкретных видах обычного оружия (КОО) 1983 года, обсуждают возможные ограничения на смертоносные автономные системы оружия, которые могут убивать без вмешательства человека, с 2014 года.

Хукстра сказал, что саммит не заменит эти дебаты, но рассмотрит другие аспекты военного ИИ.

Примеры включают определение терминов, как можно безопасно использовать ИИ для ускорения принятия решений в военном контексте и как его можно использовать для определения законных целей.

«Мы движемся в область, которую мы не знаем, для которой у нас нет руководств, правил, рамок или соглашений. Но они нам понадобятся раньше, чем позже», — сказал Хоекстра.

Читать полную новость на сайте