Чтобы повысить доверие к ИИ, необходимо более эффективное регулирование: КПМГ

162

Согласно новому отчету KPMG и Университета Квинсленда (UQ), у австралийской общественности низкий уровень доверия к искусственному интеллекту (ИИ), в основном из-за предполагаемого отсутствия надлежащих институциональных гарантий.

KPMG и UQ уже три года исследуют глобальный уровень доверия к ИИ. Это третье издание отчета Trust in AI призывает к большему регулированию, в частности к необходимости создания независимого регулирующего органа в Австралии.

Партнер, отвечающий за KPMG Futures, Джеймс Мабботт сказал iTnews, что многие австралийцы хотели бы, чтобы такой регулирующий орган был создан для ИИ.

«На самом деле ожидается, что в Австралии будет создан независимый регулятор или регулирующий орган по ИИ. И я думаю, что именно в этом заключается большая разница: в целом люди ожидают, что у нас будет такая структура», — сказал Мабботт.

Отчет KPMG и UQ показывает, что институциональные гарантии и нормативно-правовая база оказывают наибольшее влияние на отношение широкой общественности к ИИ.

Согласно отчету, «Учитывая, что наши результаты показывают, что большинство людей не убеждены в том, что существующее управление и нормативные акты адекватны для защиты людей от проблем, связанных с ИИ, критически важным первым шагом на пути к укреплению доверия и надежности ИИ является обеспечение того, чтобы он регулировался соответствующей нормативно-правовой базой».

Мабботт также указал, что т.здесь нет конкретных австралийских законов, регулирующих ИИ, большие данные или алгоритмическое принятие решений. Однако существует ряд законов, влияющих на эти системы и технологии.

«Некоторые из законов, которые имеют большое значение в этой области, касаются таких вещей, как конфиденциальность и безопасность данных. Корпоративное право важно, как и корпоративное управление и управление рисками», — сказал он.

«Такие вещи, как законы об интеллектуальной собственности, законы о конкуренции и антидискриминационные законы, также могут применяться в контексте ИИ».

Уровни доверия в зависимости от приложения

Согласно отчету, приложения для ИИ являются еще одним фактором, влияющим на уровень доверия.

Низкий уровень доверия связан с вариантами использования отдела кадров, такими как принятие решений о найме или продвижении по службе, в то время как более высокий уровень доверия связан с ИИ в здравоохранении.

«Доверие к ИИ на рабочем месте, как правило, выше там, где это приложение ИИ используется для нашей выгоды. Так что, если оно дополняет мою работу, если оно делает меня более продуктивным, если оно облегчает мой день, если оно обеспечивает лучший результат для клиентов, то я, как правило, больше доверяю этому приложению», — сказал Мабботт.

«Вы получаете более высокую степень доверия к приложению, потому что выгода, которую вы хотите получить, очевидна».

Различия в уровнях доверия также существуют между менеджерами и не-менеджерами.

В отчете показано, что большинство менеджеров больше поддерживают ИИ и считают, что он создаст больше рабочих мест, чем сократит.

«Это отражает более широкую тенденцию к тому, что менеджеры чувствуют себя более комфортно, доверяют и поддерживают использование ИИ на работе, чем другие сотрудники, а работники физического труда менее комфортно и доверяют ИИ на работе. Учитывая, что менеджеры, как правило, являются движущей силой внедрения ИИ в организациях, эти разные взгляды могут вызвать напряженность при внедрении ИИ на работе», — говорится в отчете.

Молодое поколение и люди с высшим образованием также демонстрируют более высокий уровень доверия к ИИ, чем старшее поколение и люди без университетского образования. Это может привести к лучшему пониманию технологии.

Согласно отчету: «Они с большей вероятностью верят, что ИИ создаст рабочие места, но также лучше осведомлены о том, что ИИ может выполнять ключевые аспекты их работы. Они более уверены в организациях, которые разрабатывают, используют и управляют ИИ, и с большей вероятностью полагают, что существующих мер безопасности достаточно для обеспечения безопасности использования ИИ. Примечательно, что мы видим очень мало значимых гендерных различий в доверии и отношении к ИИ».

Оригинальная новость на сайте