Специалисты предупредили об опасности уничтожения человечества искусственным интеллектом

Названы связанные с ИИ «катастрофические» риски

Специалисты призывают к регулированию, чтобы предотвратить уничтожение человечества искусственным интеллектом. Команда OpenAI , стоящая за чат-ботом с искусственным интеллектом ChatGPT, утверждает, что эквивалент надзорного органа за ядерной энергией необходим для защиты от рисков, связанных со “сверхразумным” ИИ.

Названы связанные с ИИ «катастрофические» риски

Руководители OpenAI, разработчика ChatGPT, призвали к регулированию “сверхразумного” искусственного интеллекта (ИИ), утверждая, что необходим аналог Международного агентства по атомной энергии, чтобы защитить человечество от риска случайного создания чего-либо, способного его уничтожить.

Как пишет The Guardian, в короткой заметке, опубликованной на веб-сайте компании, соучредители Грег Брокман и Илья Суцкевер, а также исполнительный директор Сэм Альтман призывают международный регулирующий орган начать работу над тем, как “инспектировать системы, требовать аудитов, проверять на соответствие стандартам безопасности и устанавливать ограничения на степень защиты” с целью снижения “экзистенциального риска”, который могут представлять такие системы.

“Вполне возможно, что в течение следующих 10 лет системы искусственного интеллекта превзойдут уровень квалификации экспертов в большинстве областей и будут выполнять такую же продуктивную деятельность, как и одна из крупнейших корпораций современности”, - пишут они.

“С точки зрения как потенциальных преимуществ, так и недостатков, сверхразум будет более мощным, чем другие технологии, с которыми человечеству приходилось сталкиваться в прошлом, – утверждают авторы. – У нас может быть значительно более благополучное будущее, но мы должны управлять рисками, чтобы достичь этого. Учитывая возможность экзистенциального риска, мы не можем просто реагировать”.

В краткосрочной перспективе авторы призывают к “некоторой степени координации” между компаниями, работающими над передовыми исследованиями в области искусственного интеллекта, чтобы обеспечить плавную интеграцию разработки все более мощных моделей с обществом, уделяя при этом приоритетное внимание безопасности. Такая координация могла бы осуществляться, например, через правительственный проект или через коллективное соглашение, направленное на ограничение роста возможностей искусственного интеллекта.

Исследователи десятилетиями предупреждали о потенциальных рисках, связанных со сверхразумом, но по мере того, как развитие искусственного интеллекта набирало обороты, эти риски становились все более конкретными.

Базирующийся в США Центр безопасности искусственного интеллекта (CAIS), который работает над “снижением рисков, связанных с искусственным интеллектом в масштабах общества”, описывает восемь категорий “катастрофических” и “экзистенциальных” рисков, которые может представлять разработка искусственного интеллекта.

В то время как некоторые беспокоятся о том, что мощный искусственный интеллект полностью уничтожит человечество, случайно или намеренно, CAIS описывает другие, более пагубные последствия.

Мир, в котором системам ИИ добровольно передается все больше труда, может привести к тому, что человечество «потеряет способность к самоуправлению и станет полностью зависимым от машин», что описывается как «ослабление». И небольшая группа людей, контролирующих мощные системы, могла бы «сделать ИИ централизующей силой», что привело бы к «привязке ценностей», вечной кастовой системе между управляемыми и правителями.

Руководители OpenAI говорят, что эти риски означают, что “люди во всем мире должны демократическим путем определять границы и значения по умолчанию для систем искусственного интеллекта”, но признают, что “мы пока не знаем, как разработать такой механизм”. Однако они говорят, что продолжение разработки мощных систем стоит того, чтобы рискнуть.

“Мы верим, что это приведет к гораздо лучшему миру, чем мы можем себе представить сегодня (мы уже видим первые примеры этого в таких областях, как образование, творческая работа и личная продуктивность)”, - пишут специалисты.

Они предупреждают, что приостановка разработки также может быть опасной. “Поскольку преимущества настолько огромны, стоимость его создания снижается с каждым годом, число участников, создающих его, быстро растет, и это неотъемлемая часть технологического пути, по которому мы идем. Чтобы остановить это, потребовалось бы что-то вроде глобального режима наблюдения, и даже это не гарантирует, что сработает. Так что мы должны сделать это правильно”.

Читайте далее: Искусственный интеллект научится читать мысли: ученые испугались

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Популярно в соцсетях

Автовзгляд

Womanhit

Охотники.ру