ВАШИНГТОН (AP) - На этой неделе в общественном доступе вспыхнул крупномасштабный спор о военном использовании искусственного интеллекта, когда министр обороны Пит Хегсет резко прекратил работу Пентагона с Anthropic и другими правительственными агентствами, используя закон, предназначенный для противодействия угрозам внешним поставщикам, чтобы наклеить американской компании позорную метку.
Президент Дональд Трамп и Хегсет обвинили восходящую звезду искусственного интеллекта Anthropic в угрозе национальной безопасности после того, как генеральный директор компании Дарио Амодеи отказался отступить от опасений, что продукция компании может быть использована для массового наблюдения или автономных вооруженных дронов.
Компания с штаб-квартирой в Сан-Франциско заявила, что намерена подать в суд на Хегсета из-за его призыва признать Anthropic риском для цепочки поставок, что является беспрецедентным шагом по применению закона, предназначенного для противодействия угрозам со стороны иностранных компаний.
Anthropic заявила, что будет оспаривать то, что она назвала юридически необоснованным действием, которое никогда ранее не применялось публично к американской компании.
Надвигающийся судебный процесс может иметь огромные последствия для баланса сил в области крупных технологических компаний в критический момент, а также для правил, регулирующих военное использование искусственного интеллекта и другие механизмы, установленные для предотвращения угроз технологий для человеческой жизни.
Этот конфликт уже привел к победе производителя ChatGPT, компании OpenAI, которая воспользовалась возможностью вступить на пустое место и предоставить свои технологии Пентагону после того, как Anthropic возразила некоторым условиям администрации Трампа. Это развитие событий, скорее всего, углубит вражду между генеральным директором OpenAI Сэмом Альтманом, который временно был отстранен от своего собственного совета директоров в конце 2023 года из-за вопросов о его надежности, и Амодеи, который покинул OpenAI в 2021 году, чтобы запустить Anthropic частично из-за опасений относительно безопасности искусственного интеллекта.
Последствия статуса риска цепочки поставок
Шаг Министерства обороны по присвоению Anthropic статуса риска для оборонной цепочки поставок приведет к завершению контракта на сумму до 200 миллионов долларов с компанией по искусственному интеллекту. По словам Пентагона, это также запретит другим оборонным подрядчикам вести дела с Anthropic.
Трамп написал в Truth Social, что большинство правительственных агентств должны немедленно прекратить использование искусственного интеллекта Anthropic, но дал Пентагону шестимесячный период для поэтапного прекращения использования технологии, которая уже внедрена в военные платформы.
Anthropic утверждает, что у Хегсета нет правового полномочия прекращать деловые отношения с другими оборонными подрядчиками. Любая компания, которая все еще имеет коммерческий контракт с Anthropic, может продолжать использовать ее продукты для невоенных проектов, - говорится в заявлении компании.
Статус риска цепочки поставок был создан для предоставления американским военным лидерам возможности ограничить взаимодействие Пентагона с компаниями, представляющими потенциальную угрозу безопасности. В список обычно включены фирмы с связями с противниками, такие как телекоммуникационный гигант Huawei, имеющий связи с Китаем, или специалист по кибербезопасности Kaspersky, имеющий связи с Россией.
В случае Anthropic статус служит предупреждением для других компаний по искусственному интеллекту и обороне: не соответствуйте нашим требованиям, и вы будете внесены в черный список.
Нам это не нужно, мы этого не хотим и больше не будем вести с ними дела! - сказал Трамп в социальных сетях.
Шестимесячный карантин, установленный Трампом для Пентагона, фактически открывает возможность другим компаниям получить классифицированные разрешения безопасности, необходимые для работы с агентством.
Как конфликт влияет на бизнес Anthropic
Anthropic говорит, что ей до сих пор не было официально сообщено о статусе, присвоенном Хегсетом.
Когда мы получим какое-либо официальное действие, мы рассмотрим его, поймем и оспорим в суде, - пообещал Амодеи во время интервью с CBS News, которое будет показано в воскресное утро.
Пока Anthropic пытается убедить бизнес и правительственные агентства в том, что статус риска цепочки поставок, присвоенный администрацией Трампа, затрагивает только использование Клода, ее чат-бота на базе искусственного интеллекта и агента по компьютерному кодированию, для военных подрядчиков, когда они используют инструмент на работе для министерства обороны.
\"Использование для любых других целей не затрагивается\", - написала Anthropic в своем заявлении.
Сделать эту разницу ясной крайне важно для Anthropic, поскольку большая часть ее прогнозируемых 14 миллиардов долларов выручки в этом году приходится на бизнес и правительственные агентства, использующие Клода для компьютерного кодирования и других задач. Более 500 клиентов платят Anthropic по крайней мере 1 миллион долларов ежегодно за Клода, согласно объявлению о инвестициях, которое оценило компанию в 380 миллиардов долларов.
Технология Клода Anthropic набирает такую популярность, что она становится жизнеспособной заменой широкого спектра программного обеспечения для бизнеса, которое в настоящее время продают крупные технологические компании, такие как Salesforce и Workday. Этот потенциал вызвал падение акций компаний, продающих программное обеспечение для бизнеса как услугу, в этом году.
Но теперь, когда Anthropic была названа риском для цепочки поставок, возникли некоторые неопределенности относительно того, будут ли ее клиенты по-прежнему комфортно использовать Клода для невоенной работы и рисковать привлечь гнев Трампа. Любое широкое нежелание использовать Клода, несмотря на все достижения, сделанные за последний год, может замедлить прогресс искусственного интеллекта в США в период, когда страна гонится за опережением Китая в технологии, которая ожидается, что изменит экономику и общество.
В то же время Anthropic и Амодеи теперь могут иметь возможность активно выступать за установление более прочных механизмов безопасности вокруг функционирования искусственного интеллекта.
\"Никакие угрозы или наказания от Министерства Войны не изменят нашего мнения относительно массового внутреннего наблюдения или полностью автономного оружия\", - заявила компания. Мы будем оспаривать любое назначение статуса риска цепочки поставок в суде.
В своем интервью с CBS Амодеи представил спор Anthropic с администрацией Трампа как защиту демократии.
Не соглашаться с правительством - самое американское в мире, - сказал Амодеи. И мы патриоты. Во всем, что мы здесь делали, мы отстаивали ценности этой страны.
OpenAI вступает в игру
Часы спустя после того, как его конкурент был наказан, Альтман из OpenAI объявил в пятницу вечером, что его компания заключила сделку с Пентагоном о предоставлении своих технологий искусственного интеллекта для секретных военных сетей. Но Альтман заявил, что те же ограничения искусственного интеллекта, которые стали причиной спора Anthropic с Пентагоном, теперь закреплены в новом партнерстве OpenAI.
В меморандуме, полученном Associated Press, Альтман сказал сотрудникам OpenAI: Мы всегда считали, что искусственный интеллект не должен использоваться для массового наблюдения или автономного убийственного оружия, и что люди должны оставаться в процессе принятия высокостейких автоматизированных решений. Это наши главные красные линии.
Неясно, почему Пентагон согласился с красными линиями OpenAI, но не с Anthropic. Но в своем меморандуме Альтман написал, что компания верит, что может снизить напряженность, работая с Пентагоном, сохраняя при этом надежные механизмы безопасности.
Сделка OpenAI с администрацией Трампа состоялась в тот же день, когда компания объявила о привлечении еще 110 миллиардов долларов в рамках внедрения, которое оценивает компанию, базирующуюся в Сан-Франциско, в 730 миллиардов долларов.
Но OpenAI также может столкнуться с потенциальным негативным откликом, если его сотрудничество с Пентагоном будет широко воспринято американскими потребителями, использующими ChatGPT, как пример того, что приоритет отдается стремлению к прибыли перед безопасностью искусственного интеллекта.
Разрыв с Anthropic также может открыть новые возможности для Маска, который совместно с Альтманом основал OpenAI в 2015 году, прежде чем у них возникли острые разногласия по вопросам безопасности и финансовых вопросов. Маск обвинил Альтмана в мошенничестве и других обманных действиях в деле, назначенном на суд в конце апреля.
Сейчас Маск контролирует чат-бот по искусственному интеллекту Grok, который Пентагон также планирует предоставить доступ к секретным военным сетям, несмотря на его безопасность и надежность, а также на расследования правительства в связи с созданием сексуально ориентированных deepfake изображений. Маск уже поддерживал администрацию Трампа в ее разногласиях с Амодеи,



