главноеперсональные данныеэкономика данных

Минцифры Индии использует персональные данные для развития искусственного интеллекта

Индийские власти планируют брать персональные данные граждан из соцсетей и обезличивать для обучения ИИ в рамках нацпроекта IndiaAI. К каким рискам может привести деанонимизация персданных и почему игнорируются интересы граждан Правительством Индии, порталу PRO Шеринг рассказали эксперты.
Опубликовал персданные – лишился прав

Министр электроники и информационных технологий Индии Раджив Чандрасекар на брифинге с журналистами объявил о запуске национального проекта IndiaAI (Индийский искусственный интеллект). Он сообщил, что государство создаст «платформу по сбору обезличенных данных» для обучения моделей ИИ. Источником станут персональные данные (ПД), включая фото граждан, которые они сами размещают на публичных платформах (соцсети, паблики, мессенджеры). Согласно индийскому закону о защите цифровых персональных данных (DPDP) от 2023 года, опубликованные персданные выходят из-под контроля DPDP и становятся общедоступными для использования другими лицами согласно пункту 3 (с) закона. Об этом напомнил министр в ходе встречи.

Платформа данных с ИИ будет доступна только для индийских стартапов и компаний, работающих с данными. Согласно закону о данных, Правительство Индии может освобождать конкретные стартапы от требований по обороту данных.

Министр сказал, что данные, используемые для обучения, будут обезличены, однако не пояснил, по каким критериям будет проходить анонимизация. Обезличенные данные должны формироваться из персданных в соцсетях, которые могут включать имя, фотографии граждан, гендерный признак, семейный статус, возраст, локацию, интересы, материальный статус и многое другое. 

Опрошенные PRO Шеринг российские эксперты и законодатели отметили спорные моменты и риски в новом решении Минцифры Индии.

Процесс анонимизации должен быть необратим, а значит, такие данные не должны содержать в себе потенциал обратного сопоставления с владельцем этих данных, рассказал соучредитель сообщества профессионалов в области приватности (Russian Privacy Professionals Association, RPPA) Алексей Мунтян.

Обезличенные персональные данные по-прежнему могут охарактеризовать человека, а с использованием дополнительной информации и прямо на него указать, отметил риски депутат Комитета Госдумы по информполитике Антон Немкин.

Риски зависят от технических способов обезличивания данных и глубины обезличивания, считает директор стратегических проектов Ассоциации больших данных (АБД) Ирина Левова.

Ирина Левова отметила, что сам процесс обезличивания должен сопровождаться оценкой риска повторной идентификации в процессе подбора таких методов. Поскольку при последовательном применении сложных методов риск деанонимизации стремится к нулю.

Несмотря на то что собранные данные в открытом доступе будут классифицироваться как обезличенные, есть вероятность, что ИИ сможет использовать информацию для таргетированной рекламы среди конкретных целевых групп потребителей, отмечают эксперты.

«Когда персданные, размещенные владельцем в соцсети в определенном контексте, «выдергиваются» для использования с иной целью, то это создает высокие риски для граждан. Ведь они могут быть использованы в ином контексте, искажая образ цифровой личности, который формировал ее владелец в публичном поле. Поэтому законодательство в России и в Евросоюзе жестко регламентирует передачу и обработку ПД, допуская только при наличии оправданной цели и согласия владельца персданных», – пояснил Алексей Мунтян.

Депутат Антон Немкин также считает такой подход некорректным – разрешение должно запрашиваться у пользователя в любом случае.

Деградация или эволюция правил

Разработка закона о данных началась в Индии в 2018 году после решения Верховного суда от 2017 года о том, что конфиденциальность информации или защита данных также считается правом на неприкосновенность частной жизни. Суд поручил Правительству Индии разработать соответствующий закон о защите данных. Версия от 2018 года охватывала все ключевые моменты – описаниt обработки данных, защиту обезличенных данных, наказание за недостаточную защиту, а также предписывала создать доверенных операторов данных. Законопроект сгруппировал персональные данные по различным категориям и требовал повышенных уровней защиты «конфиденциальных» и «критических» персональных данных. 

Документ основывался на европейском Общем регламенте по защите данных (GDPR) и предлагал создание независимого надзорного Управления за оборотом данных. После долгих правок в 2022 году содержание закона радикально изменилось.

«По сравнению c ранней версией законопроект DPDP от 2023 года вышел более скромным — в нем снижены обязательства для бизнеса и защита потребителей. С одной стороны, структура регулирования проще, но с другой, в некоторых случаях, он наделяет Правительство неограниченными полномочиями», – рассказал заместитель директора по исследованиям и научный сотрудник «Карнеги Индия» Анируд Берман.

Ключевым отличием от законопроекта 2019 года является отсутствие у надзорного органа возможности устанавливать подробные правила и требования в отношении действий операторов. Нынешний «Роскомнадзор» Индии – Совет по защите данных (Data Protection Board, DPB), имеет ограниченный мандат по надзору за предотвращением утечек данных и принятию мер по исправлению положения, а также по проведению расследований и наложению штрафов за несоблюдение закона. 

DPB не имеет никаких полномочий устанавливать правила или кодексы поведения, или запрашивать информацию для надзора за работой предприятий. Он может делать это только в процессе проведения расследований. Если законопроект 2018 года предусматривал ряд уголовных наказаний, то проект 2022 года и закон от 2023 года оставил только штрафы.

Ничего персонального, только бизнес

Эксперты говорят и о возможных юридических противоречиях анонимизации с законом DPDP.

Обезличивание общедоступных персональных данных в совокупности с возможностями искусственного интеллекта по их обработке, дискредитирует защиту ПД граждан, заявил в ходе конференции PrivacyNama 2023 главный специалист по защите конфиденциальности LTIMindtree Джаганнатх П.В.

Специфика и спорность закона DPDP состоит в том, что он позволяет правительству Индии освободить любую из своих госструктур от действия закона по таким основаниям, как безопасность государства, поддержание общественного порядка и так далее, пояснил эксперт. Любое госучреждение сможет собирать и обрабатывать персданные граждан без соблюдения каких-либо мер предосторожности, предписанных в законопроекте DPDP, и для любых целей, которые они захотят. 

Эксперты считают, что в Индии появятся крупные компании по ИИ, аналогично американской Clearview AI, которая использует наборы общедоступных фотографий людей для создания своей технологии распознавания лиц. Это вызвало много опасений по поводу конфиденциальности, поскольку эти данные были использованы без согласия пользователей.

В 2023 году Уполномоченный по информации офис (ICO – аналог Роскомнадзора) Великобритании постановил оштрафовать американскую компанию Clearview AI на 7,6 млн фунтов стерлингов за использование изображений людей в Великобритании и других странах. Фото были собраны из интернета для создания глобальной онлайн-базы данных, которую можно было бы использовать для распознавания лиц. Но осенью апелляционный суд встал на сторону Clearview AI, заявив, что «обрабатываемые данные граждан Соединенного Королевства, не противоречили процедуре GDPR Евросоюза».

Алексей Мунтян полагает, что решение индийского Правительства о доступе к массивам персданных лежит не в правовом аспекте, а в экономическом интересе.

«Индия сейчас самая густонаселенная страна в мире. Учитывая высокую доступность интернета, сбор огромных массивов данных позволяет государству и привлекаемому им бизнесу, получать крайне ценную информацию как для увеличения прибыли, так и для стратегического планирования экономической политики в разных отраслях. В том числе и для прогнозирования социального поведения граждан в различных ситуациях», – сказал глава RPPA.



Этот прецедент показывает, что некоторые государства, которые чувствуют отставание, либо стратегические вызовы, будут использовать любые доступные способы. Даже если методы не соответствуют европейским стандартам в области обеспечения информационной приватностью людей на публичных платформах, резюмировал Алексей Мунтян.

С экспертом согласен руководитель юридической службы провайдера услуг удостоверения личности, верификации персональных данных IDX Михаил Тевс. «Прогнозирую, что права, сформулированные в защиту интересов личности, будут уступать общественным интересам. Так было и есть», – рассказал он изданию.

Кому доверят защиту данных

В 2023 году 12 членов рабочей группы по международному сотрудничеству в области правоприменения при Всемирной ассамблее конфиденциальности (IEWG) опубликовали совместное заявление. В нем они сообщили о рисках, связанных с «забором» данных из разных открытых источников.

«Собранная личная информация может быть использована в различных целях. Таких, как монетизация путем повторного использования на веб-сайтах сторонних производителей, продажа злоумышленникам, коммерческий анализ или сбор разведданных. Это приведет к серьезным рискам для отдельных лиц», – сказано в документе.

Эксперты считают, что люди теряют контроль над своими персональными данными, когда они собираются без их ведома. Например, взятые для ИИ фотографии с именем, но без фамилии, могут быть затем обогащены более подробными данными самим ИИ за счет агрегации или комбинирования в тех же соцсетях или иных платформах.

Нет ясности в отношении того, какие меры предосторожности должны применять компании для защиты от утечки данных. DPDP требует от организаций принимать «разумные меры безопасности» для предотвращения утечки ПД.

Ирина Левова считает, что при формулировке подобных инициатив по передаче ПД для ИИ, регуляторам стран важно сперва установить требования к необходимому уровню безопасности данных на основе риск-ориентированной модели обезличивания, в том числе для коммерческого сектора. И только затем проектировать поправки в законодательство – такой подход позволит минимизировать риски для граждан и определить механизмы разграничения ответственности.

Данные стали новой нефтью в наше время, охота за ними идет нешуточная, говорит Антон Немкин. Совершенствуются и технологии, которые используют мошенники, чтобы до них добраться, а потом использовать в коммерческих и противоправных целях. Именно поэтому даже обезличенные данные должны охраняться крайне надежно, их утечки могут быть не менее вредоносными, считает депутат.

Член ИТ-комитета Госдумы полагает, что пришло время всерьез подумать о создании сети крупных, надежных операторов данных, которые могли бы взять на себя ответственность по обработке и хранению ПД более мелких компаний, которые не могут вкладывать миллионы в развитие контура собственной информбезопасности.

По прогнозу Антона Немкина, это может стать действительно рабочим инструментом в борьбе с утечками любых категорий данных.

Ирина Левова напомнила, что сейчас проводится работа по подготовке требований к обезличиванию, однако она требует тестирования в рамках экспериментального правового режима (ЭПР). Заявка на ЭПР «Доверенный посредник» сейчас рассматривается Правительством РФ, и мы в ассоциации надеемся на то, что она будет одобрена, пояснила она.

С одной стороны, законодательство должно контролировать и охранять такие данные, гарантировать их защиту гражданам. С другой, в ИТ-сообществе давно сформировался запрос на доступ к ним для разработчиков информационных технологий. Оба вопроса должны быть сбалансированы в законодательстве, считает Антон Немкин.

Парламентарий напомнил, что в России сейчас идет работа над соответствующими поправками в законодательство, закон об обезличивании персональных данных может быть принят уже до конца текущего года.

Павел Паршков, Денис Кунгуров

Фото: Zee Business, АБД, RPPA, ГД, IDX