Пионер искусственного интеллекта раскритиковал призывы предоставить права технологиям, предупредив, что ИИ демонстрирует признаки самосохранения и люди должны быть готовы отключить его в случае необходимости, пишет The Guardian.
Йошуа Бенджио утверждает, что предоставление юридического статуса передовым ИИ было бы сродни предоставлению гражданства враждебно настроенным инопланетянам на фоне опасений, что развитие технологий намного опережает возможности их сдерживания.
Руководитель ведущего международного исследования безопасности искусственного интеллекта Бенджио отмечает, что растущее мнение о том, что чат-боты становятся сознательными, “приведет к принятию неверных решений”.
Канадский ученый–компьютерщик также выразил обеспокоенность тем, что модели искусственного интеллекта – технология, лежащая в основе таких инструментов, как чат-боты, - проявляют признаки самосохранения, например, пытаются отключить системы контроля. Основная проблема активистов кампании за безопасность ИИ заключается в том, что мощные системы могут развить способность обходить ограждения и причинять вред людям, указывает The Guardian.
“Люди, требующие, чтобы у ИИ были права, совершают огромную ошибку, - настаивает Бенджио. - Передовые модели искусственного интеллекта уже сегодня демонстрируют признаки самосохранения в экспериментальных условиях, и в конечном итоге предоставление им прав будет означать, что нам не позволят их закрыть. По мере роста их возможностей и степени самостоятельности нам необходимо убедиться, что мы можем полагаться на технические и социальные средства защиты для контроля над ними, включая возможность отключить их в случае необходимости”.
По мере того, как ИИ становятся все более продвинутыми в своей способности действовать автономно и выполнять “логические” задачи, разгорается дискуссия о том, должны ли люди в какой-то момент предоставить им права. Опрос, проведенный Институтом разумности (Sentience Institute), американским аналитическим центром, который поддерживает моральные права всех разумных существ, показал, что почти четверо из десяти взрослых американцев поддерживают юридические права для разумной системы искусственного интеллекта.
А ведущая американская компания в области искусственного интеллекта Anthropic заявила в августе, что позволяет своей модели Claude Opus 4 закрывать потенциально “неприятные” разговоры с пользователями, заявив, что это необходимо для защиты “благополучия” ИИ. Илон Маск, чья компания xAI разработала чат-бота Grok, написал на своей платформе X, что “мучить искусственный интеллект нехорошо”.
Роберт Лонг, исследователь сознания ИИ, говорил: “Если и когда ИИ приобретут моральный статус, мы должны спросить их об их опыте и предпочтениях, а не предполагать, что мы знаем лучше”.
Бенджио сказал The Guardian, что в человеческом мозге есть “реальные научные свойства сознания”, которые машины теоретически могут воспроизвести, но взаимодействие людей с чат–ботами - это “совсем другое дело”. Он сказал, что это происходит потому, что люди склонны предполагать – без доказательств – что искусственный интеллект обладает таким же полным сознанием, как и человек.
“Людям было бы все равно, какие механизмы работают внутри искусственного интеллекта, - добавил ученый. - Их волнует то, что они чувствуют, что разговаривают с разумным существом, у которого есть своя индивидуальность и цели. Вот почему так много людей привязываются к своим ИИ. Найдутся люди, которые всегда будут говорить: "Что бы вы мне ни говорили, я уверен, что это сознательно", - а другие будут утверждать обратное. Это происходит потому, что сознание - это то, что мы интуитивно чувствуем. Феномен субъективного восприятия сознания может привести к принятию неверных решений. Представьте, что на планету прилетели какие-то инопланетные существа, и в какой-то момент мы понимаем, что у них есть недобрые намерения в отношении нас. Предоставим ли мы им гражданство и права или будем защищать свои жизни?”
Отвечая на комментарии Бенджио, Джейси Риз Антис, соучредитель Института разумности, отмечает, что люди не смогли бы безопасно сосуществовать с цифровым разумом, если бы отношения основывались на контроле и принуждении.
Антис добавляет: “Мы можем переоценивать или недооценивать права на ИИ, и наша цель должна заключаться в том, чтобы делать это с тщательным учетом благополучия всех живых существ. Ни предоставление общих прав всем ИИ, ни полное лишение прав любого ИИ не будут разумным подходом”.
Как пишет далее The Guardian, Йошуа Бенжио, профессор Монреальского университета, обзавелся прозвищем “крестный отец искусственного интеллекта” после того, как в 2018 году получил премию Тьюринга, которая считается эквивалентом Нобелевской премии в области вычислительной техники. Он разделил ее с Джеффри Хинтоном, который позже получил Нобелевскую премию, и Яном Лекуном, покидающим свой пост главного специалиста по искусственному интеллекту в компании Марка Цукерберга.