Джек Куин
26 марта (Рейтер) - Судья США временно заблокировала военное внедрение Anthropic, последний поворот в крупном споре производителя Клода с военными вопросами безопасности искусственного интеллекта на поле боя.
В иске Anthropic в федеральный суд Калифорнии утверждается, что министр обороны Пит Хегсет перешел свои полномочия, когда назвал Anthropic риском для национальной безопасности в снабженческой цепочке, метка, которую правительство может применять к компаниям, которые подвергают военные системы потенциальной инфильтрации или саботажу со стороны противников.
Anthropic утверждал, что правительство нарушило его право на свободу слова в соответствии с Первой поправкой к Конституции, отметив, что ему не была предоставлена возможность опротестовать назначение, что нарушает его право на должный процесс согласно Пятой поправке.
Судья окружного суда Рита Лин, назначенная бывшим демократическим президентом Джо Байденом, согласилась с компанией в 43-страничном решении, но сказала, что оно вступит в силу через семь дней, чтобы дать администрации возможность подать апелляцию.
Необычный шаг Хегсета, который последовал за отказом Anthropic разрешить военным использовать чат-бота Клода для наблюдения США или автономного оружия, лишил Anthropic определенных военных контрактов. Руководители Anthropic заявили, что это может обернуться для компании потерей миллиардов долларов в бизнесе и репутационным ущербом.
Anthropic утверждает, что модели искусственного интеллекта недостаточно надежны для безопасного использования в автономном оружии и выступает против внутреннего наблюдения как нарушения прав, но Пентагон заявляет, что частные компании не должны иметь возможности ограничивать военное действие.
В решении четверга Лин отметила, что действия администрации, казалось бы, не направлены на национальные интересы безопасности правительства, а скорее на наказание Anthropic.
"Данные подтверждают предположение, что Anthropic наказывается за критику позиции правительства в области контрактов в прессе," - пишет Лин.
"Наказание Anthropic за привлечение общественного внимания к позиции правительства в области контрактов - это типичное незаконное преследование в рамках Первой поправки," - добавила судья.
Представитель Anthropic Даниэль Коэн заявил, что компания довольна решением.
"Хотя этот случай был необходим для защиты Anthropic, наших клиентов и партнеров, наша цель - продуктивное сотрудничество с правительством для обеспечения благополучия всех американцев благодаря безопасному и надежному искусственному интеллекту," - сказала Коэн в заявлении.
Назначение Anthropic было первым случаем, когда американская компания была публично названа риском для снабженческой цепочки в соответствии с малоизвестным законодательством о закупках правительства, направленным на защиту военных систем от иностранного саботажа.
В иске Anthropic от 9 марта говорится, что решение было незаконным, не подкреплено фактами и противоречит похвалам Пентагона в адрес Клода.
Минюст возразил, что отказ Anthropic от снятия ограничений может вызвать неопределенность в Пентагоне относительно того, как можно использовать Клода, и риск выключения военных систем во время операций, согласно судебному документу.
Правительство заявило, что назначение было обусловлено отказом Anthropic от принятия контрактных условий, а не его взглядами на безопасность искусственного интеллекта.
У Anthropic также есть второй иск, ожидающий рассмотрения в Вашингтоне, округ Колумбия, по другому назначению Anthropic в снабженческой цепочке Пентагона, что может привести к его исключению из контрактов с гражданским правительством.
(Репортаж Джека Куина из Нью-Йорка и Канишки Сингх из Вашингтона; дополнительный репортаж Андрю Чунг; редактирование Ноулин Уолдер, Мэттью Льюис и Стивен Коутс)



