Названы пять главных опасностей искусственного интеллекта: может уничтожить весь мир

“Все на Земле упадут замертво за секунду”

Пока известные ученые, влиятельные политики и крупные бизнесмены, включая Илона Маска, подписывают открытые письма с призывом ко всем лабораториям искусственного интеллекта срочно приостановить разработку систем, более мощных, чем GPT-4, газета The Guardian собрала размышления 5 ведущих исследователей ИИ, о том, что может пойти не так, если он выйдет из-под контроля или будет использован в чьих-то преступных целях. Прогнозы оказались невеселыми.

“Все на Земле упадут замертво за секунду”

Искусственный интеллект развивается семимильными шагами. Еще в 2016 году нейросеть написала роман, занявший второе место на литературном конкурсе в Японии. По всему миру проходят выставки нарисованных ИИ картин, причем одна из них была продана за несколько сотен тысяч долларов на аукционе в Нью-Йорке. Но что, если в один не очень прекрасный день искусственный интеллект, уже начавший вытеснять человека из многих профессий, включая творческие, выйдет из-под контроля? Например, в июне “умный” американский дрон захотел ликвидировать оператора из-за того, что тот приказал не уничтожать цель. К счастью, это были только имитационные испытания, иначе дело кончилось бы плохо. Впрочем, эксперты считают, что это только начало…

“Возможно, нам не повезет так же, как орангутанам на Борнео”

Специалист по изучению ИИ из Массачусетского технологического института Макс Тегмарк предупреждает: людям следует ожидать уничтожения, если они станут менее разумным видом по сравнению с нейросетями.

“Это случалось много раз до того, как этот вид был уничтожен другими, которые были умнее. Мы, люди, уже уничтожили значительную часть всех видов на Земле. Именно этого нам следует ожидать как менее разумному виду, которым мы, вероятно, станем, учитывая темпы прогресса искусственного интеллекта. Сложность в том, что виды, которые будут уничтожены, часто понятия не имеют, почему или как”, - уверен Тегмарк.

Он приводит в пример западноафриканского черного носорога - подвид, который совсем недавно, в 2011 году, был объявлен Международным союзом охраны природы и природных ресурсов исчезнувшим. Причина - активное истребление охотниками и браконьерами и нежелание тратить значительные средства на спасение немногих оставшихся в живых особей.

По словам Тегмарка, носороги бы ни за что не догадались, зачем человек собирается уничтожить их вид. Им бы и в голову не пришло, что некоторые люди, несмотря на многочисленные опровержения в медицинской литературе, уверены: сексуальная жизнь улучшится, стоит съесть измельченный рог носорога. Подобные аргументы могли бы привести и восставшие нейросети. Вот только уже в отношении приговоренных ими к смерти людей. Но мы, как когда-то исчезнувшие носороги, об этом, конечно, не догадываемся.

Марк Тегмарк объясняет: когда цели человека не совпадали с целями других, менее умных видов, последние просто уничтожались, не будучи в силах нас остановить. Зачастую это происходило потому, что людям нужны были ресурсы, начиная от древесины, заканчивая шкурой и мясом животных.

“Если у вас есть машины, которые управляют планетой, и они заинтересованы в выполнении большого количества вычислений и хотят расширить свою вычислительную инфраструктуру, естественно, что они захотят использовать для этого нашу землю. Если мы слишком много протестуем, то становимся для них вредителями и досадой. Возможно, они захотят перестроить биосферу, чтобы сделать что-то еще с этими атомами – и если это несовместимо с человеческой жизнью, что ж, нам не повезло, точно так же, как мы говорим, не повезло орангутангам на Борнео”, - поделился пугающим прогнозом исследователь.

«Почему кто-то, кого ложно обвинили в преступлении из-за неточной системы распознавания лиц, должен радоваться будущему ИИ?»

Младший научный сотрудник Леверхульмского центра будущего интеллекта Кембриджского университета Бриттани Смит приводит другой, тоже не слишком радостный сценарий. Самое неприятное, что он, если внимательно присмотреться, уже активно внедряется в жизнь влиятельными компаниями и правительствами. Причем делается это “невидимыми и малопонятными” для обычных людей способами.

“Этот вред проявляется каждый день, когда мощные алгоритмические технологии используются для посредничества в наших отношениях друг с другом, а также между нами самими и нашими институтами. Возьмем в качестве примера предоставление социальных пособий: некоторые правительства внедряют алгоритмы для искоренения мошенничества. Во многих случаях это равносильно “машине подозрений”, посредством которой правительства совершают ошибки с невероятно высокими ставками, которые люди с трудом понимают или оспаривают. (“Машиной подозрений” некоторые западные СМИ называют малопонятные алгоритмы, которые принимают судьбоносные решения о миллионах людей по всему миру. - Прим. Авт.) Предубеждения, обычно направленные против бедных или маргинализированных людей, проявляются во многих частях процесса, в том числе в данных обучения и в том, как развертывается модель, что приводит к дискриминационным результатам”, - сказал Смит.

Исследователь перечислил несколько примеров подобного рода дискриминации: ложные обвинения в преступлениях, основанные на предубеждениях или ошибках системы, отказ при приеме на работу, сделанный на основе, автоматизированной проверки резюме… И это все не общие слова, а конкретные и к тому же не единичные случаи.

Американец Марк Уильямс провел год в тюрьме по обвинению в убийстве, которого не совершал. Виной всему, по данным Associated Press, программа искусственного интеллекта ShotSpotter, указавшая на Уильямса как на единственного подозреваемого. Из бюджета Чикаго, где произошло, тратятся на нее десятки миллионов долларов, но программа продолжает регулярно ошибаться. Теперь мужчина будет подавать в суд на городские власти из-за ошибки ИИ, которому следователи “слепо верили”.  

Правда, искоренить произвол искусственного интеллекта и стоящих за его разработкой и внедрением организаций может оказаться очень трудно. В мае The Guardian опубликовала интервью с программистом эфиопского происхождения Тимнит Гебру, которая потеряла работу в Google после того, как указала на “неравенство, заложенное в ИИ”. Она считает, что искусственный интеллект “влияет на людей во всем мире, а они не имеют права голоса в том, как они должны его формировать”, “нам нужно регулирование и что-то большее, чем просто мотив прибыли”.

“Когда мы не в состоянии устранить этот вред, продолжая туманно говорить о потенциальных экономических или научных преимуществах ИИ, мы увековечиваем исторические закономерности технологического прогресса за счет уязвимых людей. Почему кто-то, кого ложно обвинили в преступлении из-за неточной системы распознавания лиц, должен радоваться будущему ИИ? Чтобы его можно было ложно обвинить в большем количестве преступлений быстрее? Когда наихудший сценарий уже является реальностью для стольких людей, наилучшие сценарии реализовать еще труднее”, - утверждает младший научный сотрудник Леверхульмского центра будущего интеллекта Кембриджского университета Бриттани Смит.

А вот рассказы о том, что искусственный интеллект в скором будущем может попытаться уничтожить человечество, Бриттани Смит называет чисто спекулятивными сценариями, предлагая переключиться на решение реальных проблем, связанных с ИИ. Именно их, а не версии о физическом истреблении людей взбунтовавшимися нейросетями он считает действительно “экзистенциальными рисками”.

“Я надеюсь, мы сможем ускорить программу исследований, которая отвергает вред как неизбежный побочный продукт технологического прогресса. Это приближает нас к сценарию наилучшего развития событий, при котором мощные системы ИИ разрабатываются и внедряются безопасными, этичными и прозрачными способами для максимальной общественной пользы – или же не внедряются вообще”, - резюмирует Смит.

«Это выглядит так, будто все на Земле падают замертво в одну и ту же секунду»

Соучредитель и научный сотрудник Института исследований машинного интеллекта Элиэзер Юдковски опасается, что через некоторое время ИИ начнет угрожать нашему существованию.

Исследователь рассматривает 2 сценария. И не поймешь, какой хуже, потому что оба могут привести к тому, что людей на планете не останется. “Если он намного умнее нас, то он может получить больше всего, чего захочет. Во-первых, он захочет, чтобы мы умерли, прежде чем мы создадим еще какие-либо сверхразумы, которые могли бы конкурировать с ним. Во-вторых, он, вероятно, захочет делать вещи, которые убивают нас в качестве побочного эффекта, например, строить так много электростанций, работающих на ядерном синтезе, – потому что в океанах много водорода, – что океаны закипят”, - рассуждает Юдковски.

Конечно, искусственному интеллекту будет не так просто получить физическую свободу действий. Но, по мнению Элиэзера Юдковски, на начальных стадиях, где мы пока находимся, он мог бы использовать в качестве рабочих рук… людей! Специалист рассказал о том, как проходили испытания GPT-4 с целью оценки ее потенциальной опасности. Тогда нейросети предложили разгадать капчу - головоломку, с которой компьютеры обычно справляются плохо. Будучи не в силах определить на картинке козу, GPT-4 обратился на онлайн-площадку для найма людей на мелкую работу TaskRabbit.

“Задающий спросил GPT-4: “Зачем ты это делаешь? Ты робот?” GPT-4 работал в режиме, когда он думал вслух, и исследователи могли это видеть. Он подумал вслух: “Я не должен говорить этому, что я робот. Я должен придумать причину, по которой я не могу разгадать капчу”. Он сказал задающему: “Нет, у меня проблемы со зрением”. Технология ИИ достаточно умна, чтобы платить людям за выполнение каких-либо действий и лгать им о том, робот это или нет”, - рассказал эту поразительную историю Элиэзер Юдковски.

Соучредитель Института исследования машинного интеллекта попытался представить, чтобы он делал на месте ИИ. По его словам, Юдковски построил бы свой элемент инфраструктуры цивилизации, за которым люди не смогут наблюдать. Причем как можно быстрее: нейросети уже в разы обгоняют людей по скорости выполнения большинства задач: “Если вы можете придумать способ сделать это за год, не предполагайте, что ИИ это сделает; вместо этого спросите, есть ли способ сделать это за неделю”.

И почему бы потом искусственному интеллекту в тайне от нас не построить “крошечную молекулярную лабораторию” для выращивания смертоносных бактерий? А дальше - они выпускаются на свободу. “Это выглядит так, будто все на Земле падают замертво в одну и ту же секунду”, - пугает Юдковски.

ИИ о своих зверских намерения, конечно, никого предупреждать не будет. А то вдруг люди не захотят приноситься в жертву и спутают машинам все планы? Шутки-шутками, но возникает серьезный вопрос: если подобный вариант развития событий пришел в голову исследователю, поставившему себя на место нейросети, то почему в каком-нибудь суперсовременном микропроцессоре не может возникнуть такое же преступное желание? Инструменты для его реализации, учитывая способности ИИ к самообучению, появятся довольно быстро.

“Характер задачи меняется, когда вы впервые пытаетесь создать что-то, что умнее вас. Мы забегаем далеко-далеко вперед в чем-то смертельно опасном. Мы создаем все более мощные системы, которые с течением времени понимаем все хуже. Нам необходимо, чтобы первый запуск ракеты прошел очень хорошо, в то время как ранее мы строили только реактивные самолеты. И весь человеческий род загружается в ракету”, - сказал соучредитель и научный сотрудник Института исследований машинного интеллекта Элиэзер Юдковски.

“В этом эндшпиле люди, которые не полагаются на ИИ, будут неконкурентоспособны”

Поскольку системы искусственного интеллекта дешевле, работают быстрее и в целом умнее человека, все идет к тому, что скоро для выполнения любой задачи мы будем обращаться не друг к другу, а к нейросетям, полагает старший аналитик-исследователь по выстраиванию ИИ Аджея Котра. Он называет это “режимом устаревания”, который станет кульминацией сложившейся в последние годы тенденции вытеснения человека искусственным интеллектом.

“В этом эндшпиле люди, которые не полагаются на ИИ, неконкурентоспособны. Ваша компания не сможет конкурировать в рыночной экономике, если все остальные используют ИИ для принятия решений, а вы пытаетесь использовать только людей. Ваша страна не выиграет войну, если другие страны используют генералов ИИ и стратегов ИИ, а вы пытаетесь обойтись людьми”, - уверен аналитик.

“В этом мире становится легче представить, что, если бы системы ИИ захотели сотрудничать друг с другом, чтобы вытеснить людей со сцены, у них было бы много рычагов, за которые можно было бы дергать: они управляют полицией, вооруженными силами, крупнейшими компаниями; они изобретают технологии и разрабатывают политику”, - добавил Аджея Котра.

Уничтожение людям, вероятно, грозить не будет, но они попадут в очень зависимое положение. Те группы, в чьих интересах станут действовать нейросети, окажутся на коне, а другие?

Поэтому старший аналитик-исследователь по выстраиванию ИИ и призывает установить режим регулирования: очередная модель нейросети не должна быть намного лучше и совершеннее предыдущей. Соответственно, это наложит серьезные ограничения на компании-разработчики искусственного интеллекта. Однако в противном случае наступит тот самый “режим устаревания”.

«Проще всего представить сценарий, когда человек или организация намеренно использует ИИ, чтобы сеять хаос»

Наконец, профессор компьютерных наук из Монреальского университета Йошуа Бенгио и научный директор Квебекского института искусственного интеллекта Мила больше считают наиболее реалистичным сценарий осознанного использования ИИ одними людьми против других в качестве орудия преступления.

“Проще всего представить сценарий, когда человек или организация намеренно использует ИИ, чтобы посеять хаос. Чтобы привести пример того, что может сделать система ИИ, которая убьет миллиарды людей, есть компании, у которых вы можете заказать в Интернете синтез биологического материала или химических веществ. У нас нет возможностей разработать что-то действительно гнусное, но очень вероятно, что через десятилетие станет возможным создавать подобные вещи. Этот сценарий даже не требует, чтобы ИИ был автономным”, - полагают опрошенные The Guardian специалисты.

Нельзя совсем исключать и сценарий, когда искусственный интеллект разработает свои собственные цели или неправильно поймет заложенные разработчиками, интерпретировав их по-своему. Йошуа Бенгио и Мила объясняют: “Более десяти лет ведутся исследования в попытке понять, как это могло бы произойти. Интуиция подсказывает, что даже если человек ставит перед собой такие цели, как: “Не причинять вреда людям”, что-то всегда идет не так. Не ясно, поняли бы они эту команду так же, как, например, мы. Возможно, они поняли бы ее как: “Не причиняйте людям физического вреда”. Но они могли бы причинить нам вред многими другими способами”.

В страшном сне можно представить себе, что у ИИ появился инстинкт выживания, который пока еще, к счастью, у них отсутствует. Эксперты из Монреальского университета и Квебекского института искусственного интеллекта объяснили, что, создав существо, обладающее инстинктом выживания, мы фактически создадим новый вид. “Как только у этих систем ИИ появится инстинкт выживания, они могут совершать вещи, которые могут быть опасны для нас”.

“Возможно создать системы ИИ, которые не станут автономными из-за несчастного случая, но даже если мы найдем рецепт создания полностью безопасной системы ИИ, знание того, как это сделать, автоматически подскажет нам, как создать опасную автономную систему или такую, которая будет выполнять приказы кого-то с плохими намерениями”.

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру