Комитет заявляет, что рассмотрит определение «автономных систем вооружения» и рассмотрит опасения по поводу этичности этих систем.
Он также рассмотрит, «как такие системы можно использовать безопасно и надежно, их преимущества, их влияние на характер вооруженного конфликта и их соответствие международному гуманитарному праву».
Например, комитет рассмотрит такие вопросы, как: Как вы определяете автономные системы вооружения (АВС)? Каковы проблемы, риски, преимущества и этические проблемы AWS? и Достаточно ли существующего международного гуманитарного права для регулирования AWS? И, самое главное, достаточна ли нынешняя политика правительства?
«Искусственный интеллект используется во многих сферах жизни, включая вооруженные конфликты, — сказал лорд Лисвейн, председатель комитета. «Одним из наиболее спорных вариантов использования ИИ в обороне является создание автономных систем вооружения, которые могут выбирать цель и поражать ее без прямого контроля или наблюдения со стороны человека-оператора».
«В ходе нашего расследования мы планируем изучить возникшие опасения по поводу этичности этих систем, каковы практические аспекты их использования, рискуют ли они более быстрой эскалацией войн и их соответствие международному гуманитарному праву».
Лорды приглашая все, у кого есть мнение по этому вопросу, включая как экспертов, так и неспециалистов, должны ответить до 10 апреля 2023 года».
????Призыв к доказательствам для #AIОружие запрос в прямом эфире. Если вы хотите предоставить доказательства, перейдите по этой ссылке: https://t.co/CaDIxB45Cw
— ИИ Палаты лордов в комитете по системам вооружения (@HlAIWeapons) 6 марта 2023 г.
Обратите внимание, что вы сможете следить за работой Комитета на его Веб-сайт или в твиттере(@HlAIWeapons). Вы можете просмотреть его участников здесь.
Смотрите также: Лорды требуют доказательств влияния цифровых технологий
Читать полную новость на сайте