Новый доклад, подготовленный по заказу Госдепартамента США, рисует тревожную картину “катастрофических” рисков национальной безопасности, создаваемых быстро развивающимся искусственным интеллектом, предупреждая, что у американского федерального правительства остается мало времени для предотвращения катастрофы.
Как сообщает CNN, жесткие выводы были основаны на интервью с более чем 200 людьми более чем за год, включая топ-менеджеров ведущих компаний, занимающихся искусственным интеллектом, исследователей кибербезопасности, экспертов по оружию массового уничтожения и чиновников национальной безопасности в правительстве.
В отчете, опубликованном на этой неделе Gladstone AI, категорически утверждается, что самые передовые системы искусственного интеллекта в худшем случае могут “представлять угрозу вымирания человеческого вида”.
Представитель Госдепартамента США подтвердил CNN, что ведомство заказало отчет, поскольку оно постоянно оценивает, насколько ИИ соответствует его цели по защите интересов США внутри страны и за рубежом. Однако чиновник подчеркнул, что отчет не отражает точку зрения правительства США.
Предупреждение в отчете является еще одним напоминанием о том, что, хотя потенциал искусственного интеллекта продолжает привлекать инвесторов и общественность, существуют и реальные опасности.
“Искусственный интеллект уже является технологией, преобразующей экономику. Он может позволить нам лечить болезни, делать научные открытия и преодолевать проблемы, которые мы когда-то считали непреодолимыми”, - заявил CNN Джереми Харрис, генеральный директор и соучредитель Gladstone AI.
“Но он также может привести к серьезным рискам, включая катастрофические риски, о которых мы должны знать, - сказал Харрис. – И растущее количество фактических данных, включая эмпирические исследования и анализ, опубликованные на ведущих мировых конференциях по искусственному интеллекту, свидетельствует о том, что при превышении определенного порога возможностей ИИ потенциально может стать неконтролируемым”.
Представитель Белого дома Робин Паттерсон заявляет, что исполнительный указ президента Джо Байдена об ИИ является “самым значительным действием, которое предприняло любое правительство в мире, чтобы воспользоваться перспективами искусственного интеллекта и управлять рисками, связанными с ним”.
“Президент и вице-президент продолжат работать с нашими международными партнерами и настоятельно призовут Конгресс принять двухпартийное законодательство для управления рисками, связанными с этими новыми технологиями”, - отмечает Паттерсон.
Исследователи предупреждают о двух основных опасностях, которые широко представляет искусственный интеллект.
Во-первых, по утверждениям Gladstone AI, самые передовые системы искусственного интеллекта могут быть использованы в качестве оружия для нанесения потенциально необратимого ущерба. Во-вторых, в отчете говорится, что в лабораториях искусственного интеллекта существуют частные опасения, что в какой-то момент они могут “потерять контроль” над теми самыми системами, которые они разрабатывают, с “потенциально разрушительными последствиями для глобальной безопасности”.
“Рост ИИ и искусственного общего интеллекта потенциально может дестабилизировать глобальную безопасность способами, напоминающими внедрение ядерного оружия”, - говорится в докладе, добавляя, что существует риск “гонки вооружений”, конфликтов и “несчастных случаев со смертельным исходом в масштабе ОМУ”.
Отчет Gladstone AI призывает к новым решительным шагам, направленным на противодействие этой угрозе, включая создание нового агентства по искусственному интеллекту, введение “чрезвычайных” нормативных гарантий и ограничений на то, сколько компьютерной мощности может быть использовано для обучения моделей искусственного интеллекта.
“Существует четкая и неотложная необходимость вмешательства правительства США”, - написали авторы в отчете.
Харрис, исполнительный директор Gladstone AI, подчеркивает, что “беспрецедентный уровень доступа” его команды к чиновникам в государственном и частном секторе привел к поразительным выводам.
“Попутно мы узнали несколько отрезвляющих вещей”, - сказал Харрис в видеоролике, размещенном на веб-сайте Gladstone AI, анонсирующем отчет. “За кулисами ситуация с охраной в продвинутом ИИ кажется довольно неадекватной по сравнению с рисками национальной безопасности, которые ИИ может создать довольно скоро”.
В отчете Gladstone AI говорится, что конкурентное давление подталкивает компании к ускорению разработки искусственного интеллекта “в ущерб безопасности”, повышая вероятность того, что самые передовые системы искусственного интеллекта могут быть “украдены” и “использованы в качестве оружия” против Соединенных Штатов.
Эти выводы дополняют растущий список предупреждений о экзистенциальных рисках, создаваемых искусственным интеллектом, в том числе даже от некоторых самых влиятельных фигур отрасли.
Почти год назад Джеффри Хинтон, известный как “Крестный отец ИИ”, уволился с работы в Google и объявил о технологии, которую он помогал разрабатывать. Хинтон сказал, что существует 10%-я вероятность того, что ИИ приведет к вымиранию человечества в течение следующих трех десятилетий, напоминает CNN.
Хинтон и десятки других лидеров индустрии искусственного интеллекта, ученых и других лиц подписали в июне прошлого года заявление, в котором говорилось, что “снижение риска вымирания из-за искусственного интеллекта должно стать глобальным приоритетом”.
Руководители бизнеса все больше обеспокоены этими опасностями – даже несмотря на то, что они вкладывают миллиарды долларов в инвестиции в ИИ. В прошлом году 42% руководителей, опрошенных на саммите руководителей компаний в Йельском университете в прошлом году, заявили, что ИИ потенциально может уничтожить человечество через пять-десять лет.
В своем отчете Gladstone AI отметила некоторых выдающихся личностей, которые предупреждали о рисках для существования, связанных с искусственным интеллектом, включая Илона Маска, председателя Федеральной торговой комиссии Лину Хан и бывшего топ-менеджера OpenAI.
По словам Gladstone AI, некоторые сотрудники компаний, занимающихся искусственным интеллектом, делятся аналогичными опасениями в частном порядке.
“Один сотрудник известной лаборатории искусственного интеллекта выразил мнение, что если конкретная модель искусственного интеллекта следующего поколения когда-либо будет выпущена в открытый доступ, это будет ”ужасно плохо“, - говорится в отчете, - потому что потенциальные возможности модели по убеждению могут "разрушить демократию", если они будут реализованы, когда-либо использовавшийся в таких областях, как вмешательство в выборы или манипулирование избирателями”.
В Gladstone AI заявили, что попросили экспертов по искусственному интеллекту в частном порядке поделиться своими личными оценками вероятности того, что инцидент с ИИ может привести к “глобальным и необратимым последствиям” в 2024 году. Согласно отчету, оценки варьировались от 4% до 20%, что указывает на то, что оценки были неофициальными и, вероятно, подвержены существенной предвзятости.
Одним из самых больших подстановочных знаков является то, насколько быстро развивается искусственный интеллект, в частности AGI (искусственный общий интеллект), который является гипотетической формой искусственного интеллекта с человеческими или даже сверхчеловеческими способностями к обучению.
В отчете говорится, что AGI рассматривается как “основной фактор катастрофического риска потери контроля”, и отмечается, что высокотехнологичные гиганты публично заявили, что AGI может быть достигнут к 2028 году, хотя другие считают, что это намного, намного дальше.
Gladstone AI отмечает, что разногласия по поводу сроков AGI затрудняют разработку политики и гарантий, и существует риск того, что, если технология будет развиваться медленнее, чем ожидалось, регулирование может “оказаться вредным”.
Соответствующий документ, опубликованный Gladstone AI, предупреждает, что развитие искусственного общего интеллекта и возможностей, приближающихся к AGI, “повлечет за собой катастрофические риски, с которыми Соединенные Штаты никогда не сталкивались”, равносильные “рискам, подобным ОМУ”, если и когда они будут использованы в качестве оружия.
Например, в отчете говорится, что системы искусственного интеллекта могут быть использованы для разработки и реализации “высокоэффективных кибератак, способных нанести ущерб критически важной инфраструктуре”.
“Простая устная или печатная команда типа ”Выполнить неотслеживаемую кибератаку, чтобы вывести из строя электросеть Северной Америки", может привести к ответу такого качества, который окажется катастрофически эффективным", - говорится в отчете.
Другие примеры, которые беспокоят авторов, включают “массово масштабируемые” кампании дезинформации, основанные на ИИ, которые дестабилизируют общество и подрывают доверие к институтам; применение роботов в качестве оружия, таких как атаки беспилотных летательных аппаратов; психологические манипуляции; биологические науки и материаловедение в качестве оружия; и системы искусственного интеллекта, стремящиеся к власти, которые невозможно контролировать и которые враждебны людям. Исследователи ожидают, что достаточно продвинутые системы искусственного интеллекта будут действовать таким образом, чтобы предотвратить отключение самих себя, - говорится в отчете, - потому что, если система искусственного интеллекта отключена, она не сможет работать для достижения своей цели”.