eSafety защищает Twitter, Google, TikTok, Discord и Twitch

299

Ведущий австралийский модератор контента дал Twitter, Google, TikTok, Twitch и Discord 35 дней, чтобы рассказать, как они обнаруживают материалы о жестоком обращении с детьми и не дают их алгоритмам усиливать их.

Платформы вчера были законно отправлены с уведомлениями “требует от них ответов на сложные вопросы.

Комиссар по электронной безопасности Джули Инман Грант сказала, что вопросы, которые она задавала, варьируются в зависимости от соответствующих секторов и конкретных технологических гигантов в них.

Грант хочет знать, какие сопоставления хэшей, классификаторы и другие ИИ используются для обнаружения вредоносного контента в социальных сетях и провайдерах обмена сообщениями.

Она также стремилась разрушить давнюю традицию поисковых систем скрывать свои «подход к индексации веб-страниц», и спросил Twitter, как он может обеспечить более жесткие меры соблюдения, когда он уволил свою австралийскую рабочую силу.

Компаниям грозит штраф в размере 687 500 долларов в день, если они «не выполнят эти уведомления от уполномоченного по электронной безопасности» до 30 марта, согласно данным. министр связи Мишель Роуленд.

Быстрый поворот наступил после того, как наблюдательный орган заявил, что намерен зарегистрировать отраслевые коды для цензуры контента, демонстрирующего жестокое обращение с детьми, террористические материалы и крайнее насилие в марте, и что ему не нужны отраслевые ассоциации, чтобы в первую очередь принять их.

Предупреждение сопровождало ее отклонение восьми проектов кодексов цензуры незаконного контента, которые были предложены такими ассоциациями, как Digital Industry Group Inc (DIGI) в ноябре.

Кодексы будут определять, как будут соблюдаться и обеспечиваться основные ожидания безопасности в Интернете.

Взлом алгоритмов открытого контента

Грант сказала, что вопросы, которые она задала пяти провайдерам, включали «роль, которую их алгоритмы могут играть в распространении серьезно опасного контента».

Это шаг вперед по сравнению с уведомлениями о прозрачности, которые она отправила в августе прошлого года: тогда Apple, Meta (включая ее операцию WhatsApp), Microsoft (включая Skype), Snap и Omegle спрашивали только о технологиях обнаружения и ответах на вредоносный контент. отчеты.

Грант более подробно рассказала о своих ожиданиях в отношении прозрачности алгоритмов в письме, отправленном в начале февраля в ассоциацию таких компаний, как Google, TikTok и Twitter: DIGI.

Письмо сказал DIGI, что «неясно», как предлагаемые проекты кодексов «обеспечит постоянные инвестиции для поддержки алгоритмической оптимизации».

Он призвал к более жестким обязательствам «по улучшению алгоритмов ранжирования после предусмотренного обзора или тестирования и / или расходов на исследования и разработки в области технологий, чтобы уменьшить доступность или обнаруживаемость класса 1A. [child abuse] материал».

«Провайдеры должны, как минимум, предоставлять информацию о своем подходе к индексации веб-страниц и проводить регулярное тестирование производительности своих алгоритмов», — говорится в письме.

Общественность находится в неведении относительно степени каких-либо обязательств, которые DIGI взяла на себя в отношении предотвращения того, чтобы алгоритмы участников усиливали материалы о жестоком обращении с детьми.

Это связано с тем, что, хотя члены DIGI, такие как Meta, призвали к публичному обнародованию проектов кодексов, eSafety заявила, что технологические гиганты больше сотрудничают за закрытыми дверями, чем в публичных дебатах.

Получение от Twitter, Google, TikTok, Twitch и Discord подробностей о том, как их алгоритмы ранжируют контент, может оказаться самым амбициозным шагом в смене режима Гранта.

Это интеллектуальная собственность, которую те же платформы изо всех сил старались сохранить в секрете с тех пор, как Австралийская комиссия по конкуренции и защите прав потребителей начала расследование цифровых платформ в 2019 году.

Более того, учитывая уровень детализации, который Грант требовала от последней группы компаний, которые она выпустила уведомления о прозрачности, она, скорее всего, не примет поверхностных ответов о том, как работают алгоритмы ранжирования контента Twitter, Google, TikTok, Twitch и Discord.

Обнаружение оскорбительного содержания

Грант сказал, что вопросы определят, будут ли Twitter, Google, TikTok, Twitch и Discord «использовать широко доступные технологии, такие как PhotoDNA, для обнаружения и удаления этого материала».

PhotoDNA — один из многих инструментов сопоставления хэшей для идентификации подтвержденных изображений жестокого обращения с детьми. Он создает уникальную цифровую подпись для сравнения с подписями других фотографий, находя копии того же изображения.

«Из нашего первого раунда уведомлений, разосланных компаниям в августе прошлого года, мы обнаружили, что многие из них не предпринимают относительно простых шагов для защиты детей», — сказал Грант.

На прошлой неделе Грант сообщил сенату, что «различия в отрасли» в использовании технологий обнаружения и тот факт, что компании, владеющие несколькими платформами, развернули эффективные решения для одних сервисов, но не для других, «поразительны».

Хотя Microsoft разработала PhotoDNA, она не была развернута в OneDrive, Skype и Hotmail.

В отчете также были обнаружены значительные различия в использовании платформами технологий для обнаружения подтвержденных видео, новых изображений и прямых трансляций.

Ключевым доводом в аргументе eSafety является сильная положительная корреляция между тем, сколько из этих форм контента с жестоким обращением с детьми платформа установила для обнаружения, и количеством отчетов, которые платформа отправила органам по борьбе с эксплуатацией детей.

Например, WhatsApp, который применил технологию для обнаружения подтвержденных изображений, а также подтвержденных и новых видео, в 2021 году сделал 1,37 миллиона ссылок на контент в Национальный центр пропавших без вести и эксплуатируемых детей США (NCME).

iMessage, с другой стороны, не может идентифицировать ни одну из этих форм контента и сделал только 160 обращений к NCME за тот же период времени.

Маск сокращает штат в Австралии

Грант также выделил Twitter, заявив, что «те самые люди, чья работа заключается в защите детей», были уволены, когда компания закончила сокращать свою австралийскую рабочую силу в январе.

«Илон Маск твитнул что борьба с эксплуатацией детей была «приоритетом № 1», но мы не видели подробностей о том, как Twitter выполняет это обязательство», — заявила Грант, которая до 2016 года сама была директором по общественной политике Twitter в Австралии и Юго-Восточной Азии.

В понедельник наблюдательный орган сообщил парламентскому расследованию, что первые ответчики Twitter на обнаружение вредоносного контента в Австралии — сотрудники, которые разрабатывают и обеспечивают соблюдение Twitter основных требований к безопасности в Интернете, — были недавно уволены.

«Одним из основных элементов основных ожиданий безопасности в Интернете является широкий компонент безопасности пользователей», — сказал исполняющий обязанности главного операционного директора eSafety Тоби Дагг в ходе расследования возможностей правоохранительных органов в отношении эксплуатации детей.

«Мы бы сказали, что адекватное укомплектование и обеспечение ресурсами персонала доверия и безопасности является очевидным компонентом этого конкретного элемента основных ожиданий безопасности в Интернете», — добавил он.


Читать полную новость на сайте