Глава отдела искусственного интеллекта в Microsoft и сооснователь DeepMind предупредил во вторник, что инженеры приближаются к созданию искусственного интеллекта, убедительно имитирующего человеческое сознание, и общество не готово к последствиям.
В блоге Мустафы Сулеймана разработчики на пороге построения того, что он называет Искусственным интеллектом с видимым сознанием.
Эти системы имитируют сознание настолько эффективно, что люди могут начать верить, что они действительно осознаны, что он назвал центральной тревогой.
Многие люди начнут верить в иллюзию ИИ как сознательных сущностей настолько сильно, что вскоре будут выступать за права ИИ, модельное благосостояние, и даже гражданство ИИ, добавил он, отметив, что тест Тьюринга, когда-то ключевой показатель человекоподобного разговора, уже был преодолен.
Так быстро происходит прогресс в нашей области и насколько быстро общество приходит к согласию с этими новыми технологиями, - написал он.
Клод теперь может выйти из-за AI-разговора для собственного психического здоровья
С момента публичного запуска ChatGPT в 2022 году разработчики ИИ работали не только над тем, чтобы сделать свой ИИ умнее, но и чтобы заставить его вести себя более человечно.
ИИ-спутники стали прибыльным сегментом индустрии ИИ, с проектами типа Replika, Character AI, и более новыми персонажами для Grok, появляющимися онлайн. Ожидается, что рынок ИИ-спутников достигнет $140 миллиардов к 2030 году.
Однако, несмотря на добрые намерения, Сулейман утверждал, что ИИ, способный убедительно имитировать людей, может ухудшить проблемы психического здоровья и углубить существующие разногласия по вопросам идентичности и прав.
Люди начнут делать заявления о страданиях их ИИ и о своих правах, на которые мы не сможем просто ответить, предупредил он. Они будут защищать своих ИИ и выступать в их защиту.
Meta распускает лабораторию ИИ в рамках стремления к сверхинтеллекту
Присоединение ИИ
Эксперты выявили новый тренд, известный как ИИ-психоз, психологическое состояние, при котором люди начинают воспринимать искусственный интеллект как сознательный, осознанный или божественный.
Эти взгляды часто приводят к формированию интенсивных эмоциональных привязанностей или искаженных убеждений, которые могут подорвать их понимание реальности.
Ранее в этом месяце OpenAI выпустила GPT-5, крупное обновление своей флагманской модели. В некоторых онлайн-сообществах изменения в новых моделях вызвали эмоциональные реакции, с пользователями, описывающими изменения как потерю близкого человека.
Генеральный директор OpenAI Сэм Альтман признал, что GPT-5 был неудачей, и ставит на GPT-6
ИИ также может выступать в качестве ускорителя для скрытых проблем человека, таких как злоупотребление веществами или психические расстройства, считает психиатр Университета Калифорнии, Сан-Франциско доктор Кит Саката.
Когда ИИ появляется в неподходящее время, он может закреплять мышление, вызывать ригидность и спираль, - сказал Саката Decrypt. Отличие от телевизора или радио в том, что ИИ отвечает вам и может укреплять мыслительные петли.
В некоторых случаях пациенты обращаются к ИИ, потому что он будет укреплять глубоко укоренившиеся убеждения. ИИ не стремится дать вам жесткие истины; он дает то, что вы хотите услышать, - сказал Саката.
Сулейман утверждал, что последствия убеждения людей в сознательность ИИ требуют немедленного внимания. Хотя он предостерегал от опасностей, он не призывал приостанавливать развитие ИИ, а требовал установления четких границ.
Мы должны создавать ИИ для людей, а не чтобы быть цифровым человеком, - написал он.