США начинают изучать возможные правила регулирования ИИ

220

Администрация Байдена ищет публичные комментарии о возможных мерах ответственности за системы искусственного интеллекта (ИИ), поскольку возникают вопросы о его влиянии на национальную безопасность и образование.

ChatGPT, программа искусственного интеллекта, которая недавно привлекла внимание общественности своей способностью быстро писать ответы на широкий круг запросов, в частности, привлекла внимание законодателей США, поскольку она стала самым быстрорастущим потребительским приложением в истории с более чем 100 миллионов активных пользователей в месяц.

Национальное управление по телекоммуникациям и информации США, агентство Министерства торговли, которое консультирует Белый дом по телекоммуникационной и информационной политике, хочет внести свой вклад, поскольку существует «растущий интерес регулирующих органов» к «механизму подотчетности» ИИ.

Агентство хочет знать, есть ли меры, которые можно было бы принять, чтобы гарантировать, что «системы ИИ законны, эффективны, этичны, безопасны и в остальном заслуживают доверия».

«Ответственные системы искусственного интеллекта могут принести огромную пользу, но только если мы устраним их потенциальные последствия и вред. Чтобы эти системы полностью реализовали свой потенциал, компании и потребители должны иметь возможность доверять им», — сказал администратор NTIA Алан Дэвидсон.

Президент Джо Байден на прошлой неделе сказал, что еще неизвестно, опасен ли ИИ. «С моей точки зрения, технологические компании обязаны убедиться, что их продукты безопасны, прежде чем публиковать их», — сказал он.

ChatGPT, который поразил некоторых пользователей быстрыми ответами на вопросы и вызвал беспокойство у других неточностями, разработан калифорнийской компанией OpenAI при поддержке Microsoft.

NTIA планирует подготовить отчет, поскольку в нем рассматриваются «усилия по обеспечению того, чтобы системы ИИ работали, как заявлено, и без причинения вреда», и говорится, что эти усилия будут информировать администрацию Байдена о текущей работе по «обеспечению согласованного и всестороннего подхода федерального правительства к вопросам, связанным с ИИ». риски и возможности».

Группа технической этики, Центр искусственного интеллекта и цифровой политики, обратилась в Федеральную торговую комиссию США с просьбой запретить OpenAI выпускать новые коммерческие версии GPT-4, заявив, что это «предвзято, обманчиво и представляет угрозу для конфиденциальности и общественной безопасности».

Читать полную новость на сайте