Великобритания обвиняет Apple о сокрытии изображений с педофилией
Национальное общество Великобритании по предотвращению жестокого обращения с детьми (NSPCC) обвиняет Apple в том, что она значительно занижает количество материалов о сексуальном насилии над детьми (CSAM), появляющихся в ее продуктах.
Apple не в состоянии эффективно отслеживать свои платформы или сканировать изображения и видеозаписи сексуального насилия над детьми, утверждают эксперты по безопасности детей. Это вызывает опасения по поводу того, как компания справится с ростом объема подобных материалов, связанных с искусственным интеллектом, выяснила The Guardian со ссылкой на NSPCC.
В общественной организации считают, что Apple причастной к большему количеству случаев распространения изображений жестокого обращения с детьми только в Англии и Уэльсе, чем компания сообщила во всем мире за год.
Согласно полицейским данным, полученным NSPCC, за год изображения детей использовали iCloud, iMessage и Facetime от Apple для хранения и обмена CSAM в большем количестве случаев только в Англии и Уэльсе, чем компания сообщила во всех других странах вместе взятых.
Благодаря данным, собранным в рамках запросов о свободе информации и предоставленным исключительно The Guardian, благотворительная организация по защите детей установила, что Apple причастна к 337 зарегистрированным случаям использования изображений жестокого обращения с детьми в период с апреля 2022 по март 2023 года в Англии и Уэльсе. В 2023 году Apple направила всего 267 сообщений о подозрениях в CSAM на своих платформах по всему миру в Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC).
Это резко контрастирует с ее крупными технологическими коллегами: согласно годовому отчету NCMEC, Google сообщила о более чем 1,47 млн, а Meta – о более чем 30,6 млн.
Все технологические компании, базирующиеся в США, обязаны сообщать NCMEC о всех случаях CSAM, которые они обнаруживают на своих платформах. Организация со штаб-квартирой в Вирджинии выполняет функции центра обмена информацией по сообщениям о жестоком обращении с детьми со всего мира, просматривает их и отправляет в соответствующие правоохранительные органы. iMessage – это зашифрованный сервис обмена сообщениями, что означает, что Apple не может видеть содержимое сообщений пользователей, как и WhatsApp от Meta, который в 2023 году направил в NCMEC около 1,4 млн сообщений о подозрениях в CSAM.
«Существует тревожное несоответствие между количеством преступлений, связанных с изображениями жестокого обращения с детьми в сервисах Apple в Великобритании, и почти незначительным количеством глобальных сообщений о содержании с оскорблениями, которые они направляют властям», – сказал руководитель онлайн-политики NSPCC по безопасности детей Ричард Коллард.
По его мнению, Apple явно отстает от многих своих коллег в борьбе с сексуальным насилием над детьми, в то время как все технологические компании должны инвестировать в безопасность и готовиться к введению в действие Закона о безопасности в интернете в Великобритании.
Apple отказалась предоставить комментарий. Вместо этого компания обратилась к Guardian с заявлениями, сделанными в августе прошлого года, в которых говорилось, что она решила не запускать программу, сканирующую фотографии iCloud на предмет CSAM, поскольку вместо этого выбрала путь, который “ставит во главу угла безопасность и конфиденциальность [своих] пользователей”.
В конце 2022 года Apple отказалась от планов по внедрению инструмента сканирования фотографий iCloud. Инструмент Apple под названием neuralMatch сканировал изображения перед их загрузкой в онлайн-хранилище фотографий iCloud, сравнивая их с базой данных известных изображений жестокого обращения с детьми с помощью математических отпечатков пальцев, известных как хэш-значения.
Однако группы по защите цифровых прав отозвали программное обеспечение, которые выразили опасения, что оно неизбежно будет использовано для нарушения конфиденциальности и безопасности всех пользователей iCloud. Защитники безопасности детей осудили отмену этой функции.
«Apple вообще не обнаруживает CSAM в большинстве своих сред в больших масштабах», – сказала Сара Гарднер, главный исполнительный директор Heat Initiative, некоммерческой организации в Лос-Анджелесе, специализирующейся на защите детей. Он считает, что они явно занижают отчетность и не инвестировали в службы доверия и безопасности, чтобы справиться с этим.
Июньское заявление Apple о том, что она запустит систему искусственного интеллекта Apple Intelligence, было встречено экспертами по безопасности детей с тревогой.
«Гонка за внедрением искусственного интеллекта Apple вызывает беспокойство, поскольку созданные ИИ материалы о жестоком обращении с детьми, подвергают детей риску и снижают способность полиции защищать юных жертв, особенно после того, как Apple отказалась от внедрения технологий для защиты детей», – сказал Ричард Коллард.
Apple заявляет, что система искусственного интеллекта, созданная в партнерстве с OpenAI, настроит пользовательский опыт, автоматизирует задачи и повысит конфиденциальность пользователей.
В 2023 году NCMEC получила более 4700 сообщений о CSAM, сгенерированных искусственным интеллектом, и заявила, что ожидает увеличения числа таких сообщений в будущем. Поскольку модели искусственного интеллекта, способные создавать CSAM, были обучены на изображениях жестокого обращения с детьми из “реальной жизни”, изображения, созданные искусственным интеллектом, также причастны к виктимизации детей.
В июне The Guardian сообщила, что похитители детей используют искусственный интеллект для создания новых изображений своих любимых жертв, что еще больше усугубляет травму выживших или изображения жестокого обращения с детьми.
“Компания продвигается вперед по территории, которая, как мы знаем, может быть невероятно вредной и опасной для детей, не имея опыта работы с этим”, – считает Гарднер. Он назвал Apple «черной дырой».
Ирина Миляева
Фото: Adobe Stock