Выберите действие

Внутри растущего движения предупреждения о том

0
44 просмотра

На искусственной траве в Беркли, штат Калифорния, одну недавнюю пятницу создатели контента, обычно снимающие видео о романтических романах, изменении климата и советах по технологиям, получили советы по освещению более теоретической темы: Как распространить сообщение о том, что рогатый искусственный интеллект может уничтожить человечество.

Собрание проходило в просторном месте для мероприятий, популярном среди сообщества залива в заливной зоне, сосредоточенного на возможности того, что сверхинтеллектуальный ИИ может привести к исчезновению человечества - причину иногда называют безопасностью ИИ.

Подпишитесь на самую важную и интересную рассылку The Washington Post.

Толпа радовалась, когда Джеффри Лэдиш, приветливый бывший инженер по безопасности в стартапе по ИИ Anthropic, плавно подъехал к сцене на роликах, одетый в майку и с золотистыми волосами, чтобы присоединиться к панели экспертов в искусстве общения с обычными людьми о катастрофе, связанной с ИИ.

Лэдиш сказал, что он покинул компанию, стоящую за популярным чат-ботом Клодом в 2022 году, чтобы сосредоточиться на исследованиях, которые могли бы помочь политикам понять способы, которыми ИИ может избежать контроля человека. Через пару лет после запуска некоммерческого исследования Palisade Research, он решил, что исследований на эту тему теперь достаточно, но отрасли нужны коммуникаторы, которые могли бы перевести эти результаты для общественности.

Для этого требуется множество людей, которые взяли бы то, что здесь выяснили, и [объяснили бы] остальному миру, - сказал он.

Сам Лэдиш принял эту миссию. В последние месяцы он появился в вирусном видео с сенатором Берни Сандерсом (Д-Вермонт) о угрозе сверхчеловеческого ИИ и занимал выдающееся место в трейлере фильма The AI Doc, документальном фильме об этой потенциальной угрозе, который посмотрели 5,8 миллиона раз на YouTube.

Он является частью недавней инициативы некоторых в области безопасности ИИ убедить массы в том, что сверхинтеллектуальный ИИ может означать конец цивилизации человечества, инициативы, которая включает спонсирование постов в социальных сетях и сотрудничество с влиятельными личностями, такими как автор и звезда YouTube Хэнк Грин.

Мероприятие в Беркли стало окончанием восьминедельной стипендии для опытных создателей контента, включая бывших активистов по изменению климата и недавнего приверженца BookTok, с обязательством, что 60 процентов их контента в течение восьми недель должно быть сосредоточено на социальном влиянии ИИ, таком как автоматизация рабочего места или риск катастрофы.

Попытка распространить контент о рисках ИИ по всему интернету происходит в условиях растущего влияния технологий, что привело к появлению дебатов о ИИ в политической среде. Волна вирусных видео, предупреждающих об опасностях технологий, может вызвать головную боль у поддерживаемых Силиконовой долиной супер PAC, поскольку они стремятся минимизировать ограничения в отрасли. Опросы уже показывают, что большинство американцев поддерживают правила правительства для ИИ.

Большинство экспертов по ИИ в академии и промышленности говорят, что нет научных доказательств для утверждений о неминуемой опасности для всего вида, считая, что прогнозы о конце света завышают существующие технологии и недооценивают сложность реального мира.

Но группы по безопасности ИИ, стремящиеся привлечь создателей контента, верят, что бурный темп развития ИИ должен сделать общественность более открытой к их прогнозам. Некоторые хотят немедленно прекратить любую работу над сверхинтеллектуальным ИИ. Другие хотят, чтобы люди поняли, что время для действий может иссякать.

Влиятельные лица, с которыми связываются сторонники безопасности ИИ, обычно являются научными педагогами или создателями, которые уже публикуют материалы о ИИ. Среди них ведущие канала YouTube Veritasium, на котором более 20 миллионов подписчиков, и Кэтрин Гётце, которая делает видео с советами по использованию ИИ под псевдонимом @askcatgpt в TikTok.

ControlAI, некоммерческая организация по безопасности ИИ с базой в Британии, заявила, что сотрудничество с создателями для создания видеороликов на YouTube с названиями вроде Этот трюк на 17 секунд может остановить убийство вас, расширило свое влияние.

Организация получила немного более 8 000 просмотров для всех видеороликов на своем канале YouTube в 2025 и 2026 годах. Одно платное сотрудничество с YouTube в прошлом году принесло 1,6 миллиона просмотров, и ControlAI также спонсировала эпизод популярного SciShow Грина, который принес 1,8 миллиона просмотров.

У общественности есть огромный разрыв в понимании, - сказал Андреа Миотти, основатель и генеральный директор ControlAI. И большой способ, которым общественность потребляет информацию, которым я потребляю информацию, - это новые медиа от создателей.

Создание социальных видеороликов - это изменение стратегии для сторонников безопасности ИИ. За последнее десятилетие состоятельные технологические спонсоры, поддерживающие движение, потратили сотни миллионов долларов на некоммерческие организации и гранты, которые призывали элитные учреждения серьезно относиться к существенным рискам от ИИ. Это создало канал таланта, который нашел работу внутри лабораторий по ИИ, академии, аналитических центрах и федеральном правительстве.

Несмотря на эти усилия, Seismic Foundation, группа маркетинговых ветеранов, сейчас сосредоточенная на безопасности ИИ, заявила, что ее исследования показали, что общественность ставит существенный риск самым низким среди потенциальных проблем с ИИ, после потери рабочих мест и влияния на отношения между людьми.

Но недавний всплеск популистского и бипартийного недовольства компаниями по ИИ предоставил сторонникам безопасности ИИ новую возможность.

Это единственная проблема, в которой Стив Бэннон и Ральф Нейдер, Гленн Бек и Берни Сандерс борются за одно и то же, - сказал Бен Камминг, руководитель коммуникаций в некоммерческом фонде Future of Life Institute по безопасности ИИ, перечислив некоторых общественных деятелей, которые недавно поддержали общее заявление о приоритетах политики в области ИИ. К ним относятся поддержание приоритета за людьми и ответственность за компании по ИИ, среди подписантов также трудовые союзы и консервативный аналитический центр.

Эти новые союзники не обязательно разделяют самые крайние опасения движения по безопасности ИИ. И видеоролики, поддержанные этими группами, не всегда обсуждают самые страшные прогнозы о ИИ, некоторые из них сосредотачиваются на концепциях, таких как измерение скорости улучшения технологии или примеры поведения существующих систем внезапно. Некоторые создатели, работавшие с движением по безопасности ИИ, в основном публикуют о других темах.

FLI финансировала 30 проектов по разработке контента по безопасности ИИ с момента запуска цифрового медиа-акселератора в прошлом году, - сказал Камминг. Форма заявки на сайте некоммерческой организации гласит, что планируется тратить 100 000 долларов в месяц.

Поток доступного контента о потенциальной катастрофе от ИИ может разжигать политические дебаты, охватывающие Силиконовую долину.

Фонды супер PAC, поддерживаемые Meta, OpenAI и технологическими фигурами, союзническими с президентом Дональдом Трампом, назвали сообщество по безопасности ИИ пессимистами, которых обвиняют в препятствовании американскому прогрессу и пропаганде регулирования, которое будет в пользу Anthropic. Основатели компании обещали быть более осторожными в безопасности, чем конкуренты, и получили ранние инвестиции от наиболее влиятельных доноров движения по безопасности ИИ, включая сооснователя Facebook Дастина Московица и бывшего сотрудника Skype Яана Таллина. Филантропия Московица Coefficient Giving отказалась дать комментарий; Таллинн не ответил на запрос комментария. Anthropic заявила, что эффективное управление ИИ и его потенциальные последствия требуют более тщательного изучения всех компаний по ИИ, включая себя.

Бывший белый дом AI и криптополковник Дэвид Сакс, недавно запустивший собственный супер PAC по ИИ, обвинил так называемый Думерский индустриальный комплекс в отрицательном отношении потребителей к ИИ.

Инсайдеры отрасли, включая Криса Лихейна, главного глобального директора по делам OpenAI, недавно обвинили взрывные высказывания от пессимистов в мольотовский коктейль, брошенный в дом главы OpenAI Сэма Альтмана. Учетная запись Substack от имени предполагаемого нападавшего писала о том, что если кто-то построит это, все умрут, недавней книге, описывающей, как сверхинтеллектуальный ИИ может истребить людей. (The Washington Post имеет партнерство по контенту с OpenAI.)

Даниэль Кокотайло, бывший сотрудник OpenAI, который критиковал практики безопасности компании, сказал, что сторонники безопасности ИИ не поднимают тревогу с целью помочь лабораториям ИИ. Но он добавил: Существует реальный риск того, что многие люди в движении по

Ладиш, выросший в адвентистской церкви седьмого дня, но, как он говорит, больше не исповедующий религию, сказал толпе, что ему потребовалось некоторое время, чтобы научиться говорить о риске человеческого вымирания с людьми вне кругов безопасности искусственного интеллекта.

Они не говорят о рекурсивном самоусовершенствовании. Они не говорят о меза-оптимизаторах. Эти слова для них ничего не значат, - сказал Ладиш. Никто вас не поймет.

Прорыв произошел, когда он начал знакомиться с людьми в барах, аэропортах и на такси, объясняя, что он исследователь в области искусственного интеллекта, и рассказывая им, над чем он размышляет.

Люди обычно готовы поговорить, но я также стараюсь говорить о настоящих вещах. Я пытаюсь сказать, что, по-моему, мы все можем умереть. И они в ответ: Что за черт! Что? Расскажи мне об этом!, - сказал он.

Большинство из около дюжины участников, включая семь женщин, сами были новичками в словаре безопасности искусственного интеллекта.

Быть в Сан-Франциско заставляет вас понять, кого нет в комнате, - сказала Джанет Огана, известная как JatGPT в TikTok, родом из Кении, но большую часть своей взрослой жизни прожившая в Лондоне. Ее аудитория состоит на 70 процентов из женщин, представители африканской диаспоры, США, Великобритании и Восточной Африки, по ее словам, возможно, иначе не услышали бы сообщения из этого уголка сообщества искусственного интеллекта. Она в основном публикует о искусственном интеллекте через призму работы и рабочих мест.

Там есть гораздо больший мир людей, которые могут начать ощущать влияние искусственного интеллекта, но совершенно по-другому, - сказала Огана.

Грин, звезда YouTube, сделавший платный пост с ControlAI для своего научного канала, сказал в заявлении, что хочет дать своим зрителям лучшее понимание этой все более мощной технологии, представив им различные точки зрения на искусственный интеллект. Он указал на недавние неспонсированные интервью на своем личном YouTube-канале, включавшие критиков гиперболы о компаниях по искусственному интеллекту, сенатора Сандерса и одного из соавторов If Anyone Builds It, Everybody Dies.

Я серьезно отношусь ко всем этим точкам зрения. Лично я не знаю. Я склоняюсь к тому, что смешно думать, что искусственный интеллект убьет нас, но я очень оптимистичный человек! - написал Грин, добавив: Технология очень странная!

Связанный контент

Комментарии

0

/ 2500

Раскройте тему

Оставьте первый комментарий

 
Клиентская поддержка Нажмите для связи с намиСервис-менеджеры Клуба:TelegramWhatsAppMax
Свидетельство о государственной регистрации программы Клуб PRO.FINANSYСвидетельство о государственной регистрации программы PRO.FINANSY
Программа для ЭВМ PRO.FINANSY, запись в Едином реестре российских программ для электронных вычислительных машин и баз данных № 15767 от 05.12.2022 года. Доступ к программе для ЭВМ PRO.FINANSY предоставляется на основании заключённого лицензионного договора. Срок доступа к Программам зависит от выбранного тарифа
Программа для ЭВМ КЛУБ PRO.FINANSY, запись в Едином реестре российских программ для электронных вычислительных машин и баз данных № 21599 от 20.02.2024. Доступ к программам для ЭВМ PRO.FINANSY предоставляется на основании заключённого лицензионного договора о предоставлении прав пользования программами. Срок доступа к Программам зависит от выбранного тарифа
Политика обработки персональных данныхПользовательское соглашениеОферта о заключении лицензионного договораУсловия предоставления информации
ООО "Профинансы ИТ решения"
Юридический адрес: 123112, Российская Федерация, г. Москва, Пресненская набережная, д.12, этаж 82, офис 405, помещение 4
ОГРН: 1227700402522
ИНН: 9703096398
КПП: 770301001
Основной код ОКВЭД – 62.02 Деятельность консультативная и работы в области компьютерных технологий.
Код видов деятельности в области ИТ технологий – 2.01, 17.1.
Используемые языки программирования – Flutter, React и Python.
Расчётный счет 40702810710001115701
Корреспондентский счет 30101810145250000974
БИК банка 044525974
Банк АО "Т-банк"
support@profinansy.ru
Информация на данном сайте представлена исключительно для ознакомления и самостоятельного анализа инвестором. Не является индивидуальной инвестиционной рекомендацией. Не является рекламой ценных бумаг определенных компаний. Графики стоимости ценных бумаг отражают историческую динамику цены и не могут быть гарантией доходности в будущем. Прошлые результаты инвестиционной деятельности не гарантируют доходность в будущем. Числовые показатели взяты из официальных финансовых отчетов представленных компаний. ООО «ПРОФИНАНСЫ ИТ РЕШЕНИЯ» не несет ответственности за возможные убытки инвестора в случае использования представленной на сайте информации в своей инвестиционной стратегии, покупки и продажи указанных на сайте ценных бумаг.