По словам уполномоченного по электронной безопасности, платформы «делают поразительно мало» для обнаружения материалов о злоупотреблениях

239

Отклонив проекты кодексов отраслевых ассоциаций для фильтрации вредоносного контента, уполномоченный по электронной безопасности заявил, что платформам необходимы более широкие обязательства по обнаружению материалов о жестоком обращении с детьми.

Наблюдательный орган по модерации контента «сильно ожидает, что индустрия с помощью кодексов займет твердую позицию в отношении упреждающего обнаружения такого рода материалов», — заявил на этой неделе исполняющий обязанности главного операционного директора комиссара по электронной безопасности Тоби Дагг.

18 ноября прошлого года eSafety получила проекты отраслевых кодексов от таких ассоциаций, как Digital Industry Group, которая представляет такие платформы, как Meta, Twitter и Google.

Затем, в декабре, eSafety выпустила изобличающий отчет. [pdf] о технических ограничениях платформ в отношении обнаружения и реагирования на жестокое обращение с детьми.

«Некоторые из крупнейших облачных сервисов, таких как iCloud и OneDrive, не сканировались на наличие изображений сексуального насилия над детьми», — заявила комитету комиссар по электронной безопасности Джули Инман Грант.

«И поэтому, когда вы думаете обо всех устройствах и телефонах, которые существуют, и обо всех потенциальных хранилищах, нам действительно кажется, что мы даже не знаем масштабов и размаха сексуального насилия над детьми. [material] это существует на этих основных услугах.

«Крупные компании, у которых есть доступ к передовым технологиям — искусственному интеллекту, технологиям сопоставления видео, кластерам обработки изображений и другим технологиям, — должны инвестировать в эти инструменты, чтобы сделать их более эффективными», — сказала она.

Исполнительный менеджер eSafety по юридическим исследованиям, маркетингу и коммуникациям Мораг Бонд добавила: «Мы ясно дали понять представителям отрасли, что хотим, чтобы обязательство по развертыванию технологий для идентификации тех изображений, которые уже были проверены как материалы о сексуальном насилии над детьми, было более широким».

В понедельник, Комиссар попросил ассоциации повторно представить свои проекты кодексов для фильтрации «вредного контента» классов 1A и 1B. и для решения «проблемных областей».

Полный текст проектов кодексов не публиковался.

Класс 1 — это контент, который не может быть классифицирован Национальной схемой классификации, например, материалы о жестоком обращении с детьми и терроризме.

Комиссар намерена зарегистрировать отраслевые кодексы в марте и заявила, что, если повторно представленные коды не будут включать «улучшенные средства защиты», она сможет определить коды самостоятельно.

«Я дал конкретные отзывы каждой отраслевой ассоциации, занимающейся каждым кодексом, о том, где, по моему мнению, существуют некоторые ограничения или отсутствие надлежащих гарантий сообщества», — сказал Грант сенаторам.

Недостаточные инвестиции в технологию обнаружения

Грант сказала, что расследование ее офиса в отношении технологий, используемых семью платформами для обнаружения материалов о жестоком обращении с детьми, выявило «некоторые довольно поразительные результаты».

«Ни в коем случае ни одна из этих крупных компаний не делала достаточно», — сказала она.

«Некоторые делали поразительно мало.

«Мы выпустили семь уведомлений о правовой прозрачности для Microsoft, Skype, Apple, Meta, WhatsApp, Snap и Omegle», — сказал комиссар в ответ на запрос об обновлении инициатив Big Tech по прекращению прямой трансляции материалов о жестоком обращении с детьми.

«В отрасли было довольно много различий… время ответа на сообщения о сексуальном насилии над детьми варьировалось от четырех минут для Snap до 19 дней для Microsoft, когда Skype или Teams требовали проверки», — сказал Грант.

eSafety «Основные ожидания безопасности в Интернете: сводка ответов отрасли на первые обязательные уведомления о прозрачности» В отчете описаны технологии, доступные поставщикам онлайн-услуг для обнаружения различных форм материалов о жестоком обращении с детьми, и указано, какие платформы их развертывали, а какие нет.

В отчете оценивалась степень, в которой платформы обнаруживали ранее подтвержденные изображения и видео о насилии над детьми, новые материалы, содержащие изображения и видео о насилии над детьми, онлайн-груминг и ответы платформ на отчеты пользователей.

В отчете говорится, что технология идентификации подтвержденных изображений, такая как Photo DNA, является точной и общедоступной.

«Инструмент сопоставления хэшей создает уникальную цифровую подпись изображения, которая затем сравнивается с подписями других фотографий, чтобы найти копии того же изображения. Сообщается, что частота ошибок PhotoDNA составляет один к 50 миллиардам», — говорится в отчете.

Службы, использующие технологию сопоставления хэшей для подтвержденных изображений, включают: OneDrive (для общего контента), Xbox Live, Teams (если не сквозное шифрование или E2EE), обмен сообщениями Skype (если не E2EE), Snapchat’s Spotlight и функции прямого чата, Электронная почта iCloud от Apple, новостная лента Meta и сервисы мессенджеров (если не E2EE).

WhatsApp по умолчанию использует E2EE, но PhotoDNA применяется к изображениям в профилях пользователей и пользовательских отчетах.

Включены сервисы, не использующие технологию сопоставления хэшей для изображений: OneDrive (для сохраненного контента, который не является общим), снимки Snapchat, iMessage от Apple (по умолчанию E2EE)

Разбивка сервисов, обнаруживающих подтвержденные видео с помощью технологии сопоставления хэшей, была в основном такой же, за исключением того, что она не использовалась электронной почтой iCloud.

Обнаружение новых, неподтвержденных изображений, видео и прямых трансляций сексуального насилия над детьми является гораздо более сложной задачей, но технология доступна, говорится в отчете.

«Это может происходить за счет использования искусственного интеллекта («классификаторов») для идентификации материал, который может изображать жестокое обращение с ребенком, и, как правило, отдавать приоритет этим случаям для человеческий обзор и проверка.

«Эти инструменты обучаются на различных наборах данных, включая проверенные материалы о сексуальной эксплуатации детей… Примером этой технологии является Google Content Safety API13 или классификатор Thorn, точность которого, по данным Thorn, составляет 99 процентов».

Единственными сервисами, использующими технологию для обнаружения новых изображений, были Meta Facebook, Instagram messenger, Instagram direct (если не E2EE) и WhatsApp.

В отчете eSafety говорится, что ни один из проверенных сервисов не развернул технологию для обнаружения прямых трансляций материалов о сексуальном насилии над детьми, за исключением Omegle, который использовал Hive AI.

Инструмент SafeToWatch компании SafetoNet, занимающийся технологиями безопасности, был приведен в качестве примера решения, которое можно было бы внедрить, чтобы остановить прямую трансляцию материала.

Он предоставляет «инструмент обнаружения видеоугроз в режиме реального времени… для автоматического обнаружения и блокировки съемок и просмотра материалов о сексуальном насилии над детьми», — говорится в отчете.

Читать полную новость на сайте