Многие развивающиеся страны сталкиваются с давлением на внедрение цифровых технологий, таких как искусственный интеллект, для увеличения эффективности государственного управления.
Краткосрочные выгоды реальны: оптимизированные услуги, более быстрое принятие решений, разблокировка данных, сэкономленные затраты. Но эти выгоды приносят большие издержки. Они углубляют зависимость от инфраструктуры зарубежных крупных технологических компаний. Результатом становится новая форма колониализма, когда слабые или плохо регулируемые государства превращаются в полигоны для тестирования инструментов, созданных в конечном итоге для подавления.
Как это проявляется на практике?
Возьмем Кению в качестве примера. В ноябре 2023 года Кения ввела Maisha Namba - цифровую ID-карту, заменив предыдущее поколение физических ID-карт. Запуск вызвал общественное и судебное внимание в связи с обвинениями в том, что это создаст центральное хранилище данных, подверженное политическому злоупотреблению.
Критики утверждают, что программа была завышена и излишняя. Приблизительно 90% кенийцев уже имеют удостоверение личности. Оставшиеся 10% исторически испытывали трудности с получением национальных ID и свидетельств о рождении или живут в районах с низким покрытием интернета.
Таким образом, Maisha Namba дискриминирует тех, у кого нет доступа в интернет, предлагая при этом немногое тем, кто имеет такой доступ. Отсутствие осязаемых выгод на индивидуальном уровне свидетельствует о том, что программы, такие как Maisha Namba, служат более широким интересам.
Действительно, предыдущая версия цифровой идентификации Кении - Huduma Namba - потерпела неудачу, потому что чиновники не объяснили необходимость системы широкой публике. Было ли это из-за неумения? Или чиновники были настолько очарованы возможностями системы наблюдения, что забыли, что это должно использоваться гражданами?
Хотя инструменты, подобные Maisha Namba, могут казаться признаками прогресса и развития, экспортеры и регуляторы страны-получателя часто рассматривают эти сделки как чисто коммерческие; тем временем, отрицательные последствия - социальное исключение, целевое наблюдение и разрушение местного суверенитета - сохраняются гораздо дольше.
Алгоритмический запад искусственного интеллекта
Некоторые наблюдатели теперь называют эти динамики цифровым колониализмом: передачу зарубежной технологической инфраструктуры в развивающиеся страны таким образом, что это углубляет, а не уменьшает неравенство.
Maisha Namba, как и многие проекты цифровой идентификации в Африке, поддерживается глобальными организациями, такими как Программа развития ООН и Фонд Гейтса, которые предоставляют легитимность, консультации и финансирование. Это вызывает неприятные параллели с прошлой добычей ресурсов западными державами, за исключением того, что на этот раз ресурсом являются данные.
В обмен на поддержку цифровой трансформации развивающихся стран технологические гиганты, глобальные организации и внешние доноры получают возможность тестировать и улучшать свои модели.
Цифровой колониализм имеет много общих механизмов с классическими колониальными паттернами. Например, эти модели искусственного интеллекта обучаются на данных, собранных из глобального интернета, который доминируется западными языками, нормами и точками зрения. Когда эти модели развертываются в не-западных контекстах, они переносят эти предвзятости с собой.
Чат-бот по здравоохранению, обученный на западных медицинских данных, может не учитывать местные практики. Или модель распознавания лиц может иметь более высокие показатели ошибок для людей цвета кожи и женщин, так как они обучаются на наборах данных, в основном составленных из светлокожих мужчин, как показали различные исследования.
Последующие неправомерные аресты и дискриминация приводят к разрушению доверия, что используется для оправдания дальнейшего наблюдения и преследования. Поскольку многие из этих систем являются непрозрачными черными ящиками, затронутые лица сталкиваются с серьезными препятствиями для оспаривания автоматизированных решений - будь то отказ в услугах или маркировка как диссиденты.
Поскольку модели искусственного интеллекта масштабируются, они склонны сглаживать нюансы, объединяя местные культуры и данные в однородные результаты, формируемые западными ценностями. Распространение цифровых систем идентификации и искусственного интеллекта, управляемого наблюдением, является одним из векторов, посредством которого западные ценности кодируются в слабые государства. Здесь также существует двойной стандарт: западные демократии часто критикуют использование Китаем технологий наблюдения, в то время как их собственные компании продают подобные инструменты недемократическим режимам.
Передача ответственности и следующие шаги
Когда правительства полагаются на зарубежные платформы, неясно, кто несет ответственность за ущерб или выбор политики. Поставщики могут ссылаться на техническую нейтральность или призывать к ограничениям в контрактах, тогда как государства-хозяева могут просто сваливать вину на внешние проблемы или самого поставщика. Это позволяет заинтересованным сторонам переложить ответственность.
Это размытие ответственности способствует расширению миссии, когда технологии, проданные для пограничного контроля или общественной безопасности, переориентируются на политическое наблюдение. Опыт фирм, таких как Clearview AI, которая тихо расширила использование систем распознавания лиц в Латинскую Америку и позже сообщалось, что они использовались в конфликтных ситуациях в Украине, показывает, как эти инструменты быстро распространяются за пределы задуманных случаев применения.
В конечном итоге проблема заключается в том, что эти системы могут быть слишком эффективными на своё благо. Когда частные компании расширяются в регионы с более слабыми защитами конфиденциальности или испытывают нестабильность, немедленные операционные преимущества, которые обеспечивают их системы, быстро переносят их в другие правительственные системы и проекты.
В своем следе они оставляют след вопросов о конфиденциальности, идентификации, профилировании и долгосрочном массовом наблюдении. Что же можно сделать? Прежде всего, следует ужесточить контроль за экспортом технологий наблюдения, такой как постоянный аудит трансграничных технологических переводов.
Кроме того, эти сделки должны обязывать придерживаться прав граждан на конфиденциальность, с ясными обязательствами поставщика и гарантийной ответственностью. Контракты должны включать обеспечиваемые защиты конфиденциальности граждан, четкие обязательства поставщика и пункты ответственности, возможно, обеспеченные через глобальную систему соблюдения. Правительства также должны придавать приоритет инвестированию в местные, открытые, общинно-владеемые технологии, способные развивать внутренние возможности вместо прибегания к мультинациональным поставщикам. Но прежде всего, необходимо больше прозрачности: публичное раскрытие контрактов, доступные механизмы жалоб для граждан и независимый надзор.
"Как технологические компании поставляют системы искусственного интеллекта для слабых государств" был изначально создан и опубликован Verdict, брендом, принадлежащим GlobalData.
Информация на этом сайте была включена добросовестно исключительно в общие информационные цели. Она не предназначена для того, чтобы служить основанием для принятия вами каких-либо решений, и мы не даем никаких гарантий, явных или подразумеваемых, относительно ее точности или полноты. Перед принятием каких-либо действий на основе содержания нашего сайта вы должны получить профессиональную или специализированную консультацию.
