Стало известно, почему человечество должно быть умнее искусственного интеллекта

Давайте не будем спешить наслаждаться прогрессом

Я поймала себя на том, что вот уже несколько месяцев стараюсь проматывать фотографии в соцсетях, даже не глядя на них (если только они не сделаны хорошо знакомыми людьми). Мне неприятна мысль, что среди этих фотографий могут оказаться изображения, сгенерированные искусственным интеллектом. Причем это неприятно в любом случае. Если я распознаю работу ИИ, она не принесет радости: «Машина нарисовала, ну и что?» Если же не распознаю — это еще хуже. Восхищаться работой машины я все равно не могу, а вот попасться на обман, вероятно, могу. И все эти «увлекательные задания», которые так полюбили публиковать соцсети и некоторые СМИ («сможете ли вы отличить, где фотографировал человек, а где сгенерировал искусственный интеллект»), в действительности лишь собирают реакцию публики, чтобы сделать ИИ-изображения еще более убедительными.

Давайте не будем спешить наслаждаться прогрессом

Я проматывала потенциальное ИИ-творчество инстинктивно, едва начиная осознавать возможную опасность. Но после теракта в «Крокус Сити Холле» опасность видна в полный рост. Сперва появилось видео с секретарем Совета нацбезопасности и обороны Украины Алексеем Даниловым, где он косвенно одобрял теракт в Москве и обещал «ходить в гости чаще», — но выдвигалось предположение, что это дипфейк. Потом признаки фейка нашли на фото предполагаемых террористов, и эта информация «ставит под сомнение распространяемую версию о причастности к теракту запрещенной организации».

Хочу обратить особое внимание вот на что: фейки и дипфейки могут «ставить под сомнение», но они никогда и ничему не могут служить доказательствами. То есть даже если будет неопровержимо доказано, что видео с Даниловым дипфейк, это отнюдь не будет доказывать непричастность Украины к теракту. Фейки, сгенерированные искусственным интеллектом, изображения не доказывают никогда и ничего. Они и нужны совсем для другого — именно чтобы «ставить под сомнение». Я еще раз обращаю ваше внимание, уважаемые читатели, на то, что весь ажиотаж вокруг мощных способностей ИИ что-либо генерировать — это фактически энтузиазм по поводу того, что информационное пространство наполняется мертвой шелухой, за которой нет никакого смысла, которая, наоборот, предназначена для утраты смысла.

Да, люди тоже могут делать и иногда делают постановочные фотографии и видео, которые заключают в себе ложь. Разница с искусственным интеллектом вот в чем: он вообще в принципе не способен производить ничего, кроме лжи. Это его фундаментальное свойство, происходящее из того, что ИИ не человек, а нечто притворяющееся человеком. Не только постановочное, а вообще любое «творчески» сгенерированное ИИ изображение — это ложь (чем более правдоподобное, тем более лживое). И сейчас ее стало производить необычайно легко, так легко, как никогда раньше. В известном смысле искусственный интеллект отец лжи, и я не буду сейчас развивать эту отдающую библейской архаикой тему, но масштаб явления должен быть понятен.

Почему так важно об этом помнить? Потому что сейчас будет делаться все, чтобы этого стало больше. Информационное пространство будет наводнено фейками и дипфейками, тут же появятся их разоблачения, потом специалисты по разоблачению, и это разовьется в целую индустрию, занятую опровержением, которое все равно ничего не опровергает.

Возникают закономерные вопросы. Они не могут не возникать: зачем вообще было запускать все это? Зачем «Майкрософт» и OpenAI открыли доступ к ChatGPT самой широкой публике? Зачем они вообще его разработали? И если заглянуть в суть этих вопросов, мы увидим, что там нет ничего, кроме желания заработать под прикрытием намерения осчастливить человечество. Всего три года назад человечество это уже проходило, и ЕС до сих пор избавляется от сотен миллионов доз невостребованной вакцины. Закупленной на деньги налогоплательщиков.

Но тема искусственного интеллекта намного более долгоиграющая и серьезная. В отличие от ковидной вакцины, которая то ли работала, то ли нет, ИИ на самом деле работает. И нам про него расскажут массу многообещающего.

Нам расскажут, что он приведет нас «от экономики дефицита к экономике изобилия». Нам расскажут, что он «станет постоянным собеседником одиноких пожилых людей», поможет выучить иностранные языки, сгенерирует идеи, напишет тексты, объяснит сложные понятия, улучшит коммуникационные навыки и оценит наше психологическое состояние. Уже сейчас в США финансовые компании используют искусственный интеллект, чтобы он оценил, сообщает ли клиент (например, берущий ипотечный кредит) правдивые сведения о себе или ложные. Таким образом, благосостояние людей поставлено в зависимость от искусственного интеллекта.

Но кто оценит, лжет ли сам искусственный интеллект? Кто оценит, хорошо ли то, что он предлагает (уже даже больше чем предлагает — предписывает) людям? Ведь это должны оценивать люди, не так ли?

Это совсем не праздные вопросы, а целый комплекс этических проблем, наличие которого признают сами разработчики искусственного интеллекта, например компания OpenAI (да и «Гугл»). Они называют это «проблемой выравнивания». И хотя они гордятся тем, что к решению этой задачи привлекаются лучшие умы современности, правда в том, что она не решена. И даже неизвестно, может ли быть решена.

Почему-то раньше, в дикие времена, когда не существовало искусственного интеллекта и вообще компьютеров, считалось нормальным и правильным закладывать при проектировании огромный запас прочности. Именно поэтому по советским мостам, рассчитанным на шесть тонн, теперь ходят фуры весом по шестьдесят тонн, и хотя мостам это совсем не на пользу, до поры до времени они выдерживают.

Но почему же сейчас, усиленно пропагандируя и проталкивая искусственный интеллект — а в РФ этим занимается именно государство, — почему никто не думает о запасе прочности? О том, что может случиться не в лучшем (на который все надеются), а в худшем или просто плохом случае?

Существует представление, что в России правит русский «авось», а вот на Западе-то умные, а вот на Западе-то предусмотрительные, а вот они-то наверняка запасы прочности заложили! А нам надо только скопировать.

Нет. Не заложили. Хотя ООН формулирует какие-то декларации, а Евросоюз даже законы (которые вступят в силу не ранее 2026 года и которые неизвестно как выполнять), буквально все человечество сейчас подвешено на «авось». «Авось мы вкусим все плюсы искусственного интеллекта и нас обойдут его минусы». «Давайте наслаждаться прогрессом и надеяться на лучшее».

А давайте не спешить наслаждаться и не торопиться надеяться? Почему не признать для начала, что нет ни одной причины, по которой мы не можем жить без искусственного интеллекта? Ну нет таких причин. Пусть жизнь наша без него станет несколько скучнее, неудобнее, беднее, даже в чем-то опаснее, но мы можем без него жить. И без потока лжи мы станем спокойнее, без назойливых помощников мы станем ответственнее, без постоянных обещаний изобилия мы станем трезвее. И тогда мы сможем создать свой, человеческий запас прочности.

Опубликован в газете "Московский комсомолец" №29245 от 28 марта 2024

Заголовок в газете: Запас прочности

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру