На искусственной траве в Беркли, Калифорния, в один из последних пятниц, создатели контента, обычно снимающие видео о романтических романах, изменении климата и советах по технологиям, получили советы о том, как распространить сообщение о том, что бунтарский искусственный интеллект может уничтожить человечество.
Собрание проходило в просторном месте для мероприятий, популярном среди сообщества залива Сан-Франциско, сосредоточенного на возможности того, что сверхинтеллектуальный искусственный интеллект может привести к исчезновению человечества - причину иногда называют безопасностью искусственного интеллекта.
Подпишитесь на новостную рассылку The Post Most для самых важных и интересных историй из The Washington Post.
Толпа орала, когда Джеффри Лэдиш, приветливый бывший инженер по безопасности в стартапе по искусственному интеллекту Anthropic, плавно подъехал на сцену на роликах, в спортивной майке и с длинными золотистыми волосами, чтобы присоединиться к панели экспертов в искусстве общения с обычными людьми о катастрофе искусственного интеллекта.
Лэдиш сказал, что он ушел из компании, стоящей за популярным чат-ботом Клодом в 2022 году, чтобы сосредоточиться на исследованиях, которые могли бы помочь политикам понять способы, которыми искусственный интеллект может избежать человеческого контроля. Через пару лет после запуска некоммерческой организации Palisade Research, он решил, что исследований на эту тему теперь достаточно, но отрасли нужны коммуникаторы, чтобы перевести эти результаты для публики.
Это требует нескольких людей, которые могут взять то, над чем здесь работают люди, и [объяснить] это остальному миру, - сказал он.
Сам Лэдиш взялся за это задание. В последние месяцы он появился в вирусном видео с сенатором Берни Сандерсом (Д-Вермонт) о угрозе сверхчеловеческого искусственного интеллекта и занимал видное место в трейлере фильма The AI Doc, документальном фильме об этой потенциальной угрозе, который был просмотрен 5,8 миллионов раз на YouTube.
Он является частью недавней инициативы некоторых в области безопасности искусственного интеллекта убедить массы в том, что сверхинтеллектуальный искусственный интеллект может означать конец человеческой цивилизации, усилия, включающие спонсирование постов в социальных сетях и партнерство с влиятельными личностями, такими как автор и звезда YouTube Хэнк Грин.
Мероприятие в Беркли стало завершением восьминедельного стажировочного периода для опытных создателей, включая бывших активистов по изменению климата и недавнего приверженца BookTok, с мандатом, что 60 процентов их контента восьми недель должно быть сосредоточено на общественном воздействии искусственного интеллекта.
Усилие по посеву контента о рисках искусственного интеллекта в интернете происходит на фоне растущего влияния технологии, вызывающего дебаты об искусственном интеллекте в политической среде. Волна вирусных видео, предупреждающих об этой технологии, может вызвать головную боль для спонсоров из Силиконовой долины, поддерживаемых супер PAC, поскольку они стремятся минимизировать ограничения в отрасли. Опросы уже показывают, что большинство американцев поддерживают правила правительства для искусственного интеллекта.
Большинство специалистов по искусственному интеллекту в академии и индустрии говорят, что нет научной поддержки для утверждений о неминуемой опасности для всего вида, утверждая, что прогнозы о конце света переоценивают существующие технологии и недооценивают сложность реального мира.
Но группы по безопасности искусственного интеллекта, переходя к подписанию контент-создателей, считают, что огненный темп развития искусственного интеллекта должен сделать публику более открытой для их прогнозов. Некоторые хотят немедленной приостановки любой работы по сверхинтеллектуальному искусственному интеллекту. Другие хотят, чтобы люди поняли, что время для действий может подходить к концу.
Влиятельные лица, обращающиеся к сторонникам безопасности искусственного интеллекта, обычно являются научными преподавателями или создателями, которые уже публикуют о искусственном интеллекте. Сюда входят ведущие канала YouTube Veritasium, у которого более 20 миллионов подписчиков, и Кэтрин Гетце, которая делает видео с советами по использованию искусственного интеллекта под именем TikTok @askcatgpt.
ControlAI, некоммерческая организация по безопасности искусственного интеллекта с базой в Британии, сказала, что сотрудничество с создателями для создания видео на YouTube с заголовками типа Этот трюк в 17 секунд может остановить искусственный интеллект от убийства, расширило свое влияние.
Организация получила немного более 8000 просмотров всех видео на своем канале YouTube в 2025 и 2026 годах. Одно платное сотрудничество на YouTube в прошлом году набрало 1,6 миллиона просмотров, и ControlAI также спонсировала эпизод популярного SciShow Грина, который набрал 1,8 миллиона просмотров.
Существует огромный разрыв в осведомленности среди публики, - сказал Андреа Миотти, основатель и генеральный директор ControlAI. И большая часть информации, которую потребляет публика, такая же, какую потребляю я - новые медиа от создателей.
Создание социальных видео - это смена стратегии для сторонников безопасности искусственного интеллекта. В последнее десятилетие состоятельные технологические спонсоры, поддерживающие это движение, потратили сотни миллионов долларов на некоммерческие организации и гранты, призывавшие элитные институты серьезно относиться к существенным рискам от искусственного интеллекта. Это создало пул талантов, которые нашли работу в лабораториях искусственного интеллекта, академии, аналитических центрах и федеральном правительстве.
Несмотря на эти усилия, фонд Seismic Foundation, группа маркетологов, которые теперь сосредоточены на безопасности искусственного интеллекта, сказала, что ее исследование показало, что публика ставит экзистенциальный риск наименьшим из потенциальных проблем с искусственным интеллектом, после потери рабочих мест и воздействия на человеческие отношения.
Но недавний всплеск популистской и двусторонней недовольства компаниями по искусственному интеллекту предоставил сторонникам безопасности искусственного интеллекта новую возможность.
Это единственная проблема, в которой Стив Бэннон и Ральф Нейдер, Гленн Бек и Берни Сандерс борются за одно и то же, - сказал Бен Камминг, руководитель коммуникаций в некоммерческой организации по безопасности искусственного интеллекта Future of Life Institute, перечислив некоторых общественных деятелей, недавно поддержавших общее заявление о приоритетах в области политики искусственного интеллекта. Среди них были Keeping Humans In Charge и Accountability for AI companies, а среди подписантов также были профсоюзы и консервативный аналитический центр.
Эти новые союзники не обязательно разделяют самые крайние опасения движения по безопасности искусственного интеллекта. И видео, поддерживаемые этими группами, не всегда обсуждают самые страшные прогнозы об искусственном интеллекте, некоторые сосредотачиваются на концепциях, таких как измерение скорости улучшения технологии или примеры поведения существующих систем, действующих неожиданно. Некоторые создатели, работавшие с движением по безопасности искусственного интеллекта, в основном публикуют о других темах.
FLI финансировало 30 проектов по созданию контента по безопасности искусственного интеллекта с момента запуска цифрового медиа-акселератора в прошлом году, сказал Камминг. Форма заявки на сайте некоммерческой организации гласит, что планируется тратить $100 000 в месяц.
Поток доступного контента о потенциальной катастрофе от искусственного интеллекта может разжечь политические дебаты, охватив Силиконовую долину.
Супер PAC с крупными капиталами, поддерживаемые Meta, OpenAI и технологическими фигурами, союзниками президента Дональда Трампа, назвали сообщество по безопасности искусственного интеллекта \"думерами\", которых они обвиняют в торможении американского прогресса и продвижении регулирования, которое будет выгодно Anthropic. Основатели компании обещали быть более озабоченными безопасностью, чем конкуренты, и получили раннее инвестиции от наиболее влиятельных спонсоров движения по безопасности искусственного интеллекта, включая сооснователя Facebook Дастина Московица и бывшего сотрудника Skype Яана Таллинна. Филантропия Московица Coefficient Giving отказалась комментировать; Таллинн не ответил на запрос комментария. Anthropic заявил, что эффективное управление искусственным интеллектом и его потенциальные последствия требуют более тщательного изучения всех компаний по искусственному интеллекту, включая саму себя.
Бывший \"белый дом\" по искусственному интеллекту и криптокнязь Дэвид Сакс, который недавно запустил собственный супер PAC по искусственному интеллекту, обвинил так называемый \"Думерский промыш
Ладиш, который вырос в седьмом дневном адвентизме, но сказал, что больше не религиозен, сказал толпе, что ему потребовалось некоторое время, чтобы научиться говорить о риске истребления человечества с людьми вне кругов безопасности искусственного интеллекта.
Они не говорят о рекурсивном самоусовершенствовании. Они не говорят о меза-оптимизаторах. Эти слова для них ничего не значат, - сказал Ладиш. Никто вас не поймет.
Прорыв произошел после того, как он начал знакомиться с людьми в барах, аэропортах и на Uber, объясняя, что он исследователь в области искусственного интеллекта и рассказывая им, над чем он думает.
Люди обычно довольно готовы поговорить, но я также стараюсь говорить о реальных вещах. Я пытаюсь сказать: Я думаю, что мы все можем умереть. И они говорят: Что за...? Что? Расскажи мне об этом!, - сказал он.
Большинство из дюжины участников, включая семь женщин, сами были новы в словаре безопасности искусственного интеллекта.
Быв в Сан-Франциско, вы осознаете, кто не находится в комнате, - сказала Джанет Огана, известная как JatGPT на TikTok и родившаяся в Кении, но большую часть взрослой жизни провела в Лондоне. Ее аудитор составляет около 70 процентов женщин, с представителями африканской диаспоры, США, Великобритании и Восточной Африки, сказала она, и возможно, они не услышат сообщения из этого уголка сообщества искусственного интеллекта. Она в основном публикует о искусственном интеллекте через призму работы и рабочих мест.
Существует гораздо больший мир людей, которые могут начать ощущать влияние искусственного интеллекта, но совершенно по-другому, - сказала Огана.
Грин, звезда YouTube, которая сделала оплаченный пост с ControlAI для своего научного канала, сказал в заявлении, что хочет дать своим зрителям лучшее понимание этой все более мощной технологии, представив им различные точки зрения на искусственный интеллект. Он указал на недавние неоплаченные интервью на своем личном канале YouTube, включая критиков шума вокруг компаний по искусственному интеллекту, сенатора Сандерса и одного из соавторов If Anyone Builds It, Everybody Dies.
Я серьезно отношусь ко всем этим точкам зрения. Я лично, я не знаю. Я склоняюсь к тому, что глупо думать, что искусственный интеллект убьет нас, но я очень оптимистичный человек! - написал Грин, добавив, Технология очень странная!
Связанный контент



