"Стоит ожидать появления цифрового Навального": в Совфеде рассказали об опасностях ИИ

"Эйфория нуждается в законодательной корректировке"

Трудно сказать, насколько жестоко к нам будет далеко, но от ближайшего будущего, в котором сегодняшние "сказки" про возможности информационных технологий станут былью, милосердия, пожалуй, ждать не стоит. Об этом со всей ясностью было сказано на заседании Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ, посвященном "злоупотреблению с использованием искусственного интеллекта и возможности противодействия".

"Эйфория нуждается в законодательной корректировке"
Фото: council.gov.ru

"Тема актуальная, тема социальная, – заявил, предваряя обсуждение, председатель комиссии Алексей Пушков. – Та эйфория, которая сейчас существует по поводу искусственного интеллекта, нуждается в некоторой корректировке. В частности, в законодательной корректировке. Нам предстоит определить, какие сферы требуют вмешательства законодателей". В подтверждение тезиса о злободневности и социальности темы сенатор привел проблему телефонного мошенничества, приобретающую все большие масштабы и остроту.

Обман "ставится на продвинутую технологическую основу, – сообщил глава комиссии. – Как раз с использованием искусственного интеллекта, который может делать бесчисленное количество звонков. И, как меня заверяют специалисты, голос искусственного интеллекта уже почти невозможно отличить или вообще невозможно отличить от голоса человека, который занимается такого же рода деятельностью".

Пушков выделил несколько "параметров работы", а проще говоря, угроз, которые несет с собой распространение искусственного интеллекта. Во-первых, это искажения информации – "искажение истории, создание ложных информационных рядов и так далее". Второй важный момент – потенциальные нарушения прав человека, связанные, в частности, с повсеместным распространением камер наблюдения и технологией распознавания лиц.

"Никто не знает, каковы полномочия тех структур, которые занимаются отслеживанием действий человека, – пояснил Пушков. – Это структуры исполнительной власти – это понятно. Но они действуют в рамках закона или в рамках политической целесообразности? Тут есть разрыв, как мы с вами понимаем... Надо либо корректировать закон, расширять полномочия нашей исполнительной власти, правоохранительных органов и так далее. Либо четко определить – в каких пределах разрешена та или иная форма наблюдения за человеческой жизнью, за нашими действиями".

Третье направление – преступления, совершение которых облегчается использованием искусственного интеллекта.

Впрочем, как выяснилось из выступления следующего оратора, специалиста в области искусственного интеллекта, члена СПЧ Игоря Ашманова, российский аrtificial intelligence пока, слава богу, никаких напастей с собой несет. Однако к хорошим новостям это отнести трудно, потому что дело в не исключительности отечественного рукотворного разума, а в его фактическом отсутствии.

"Весь искусственный интеллект, вокруг которого сейчас наибольшая истерика медийная, у нас в нашей стране в основном заимствованный, – сообщил Ашманов. – Есть огромная проблема стоимости железа, которое нужно, чтобы создавать эти большие лингвистические модели. Столько железа и денег в нашей стране просто нет".

По словам эксперта, отечественные системы в области ИИ, создаются, как правило, обычно следующим нехитрым образом: за основу берется западная модель, которую "переупаковывают". В результате "там все время вылезают уши".

Ашманов поделился своим личным опытом. Одной "из самых раскрученных" российских систем им был задан вопрос: "Кто тебя сделал?". И та честно ответила "Меня сделала OpenAI (американская научно-исследовательская организация, занимающаяся разработками в области искусственного интеллекта. –​ "МК")". При том, что "числится это как российская разработка, – возмущается эксперт. – Они даже этот совершенно очевидный запрос поленились отдельно обработать".

Игорь Ашманов полностью подтвердил опасения главы комиссии по поводу использования ИИ телефонными мошенниками: "Конечно, они уже начали применять. Я сам слышал пару раз такие звонки. Голос там совершенно естественный. Он адекватно реагирует на диалог".

И дальше, считает эксперт, будет только хуже: "Через некоторое время этот искусственный интеллект будет совершать не 500 звонков в день, а 50 тысяч, 500 тысяч... И самое главное – он будет обладать абсолютно гипнотическим воздействием". Скоро, предупреждает Ашманов, мошенники заговорят голосами родственников.

И это еще далеко не все возможные бедствия. Перечисляя возможные негативные последствия расширения применения ИИ, руководитель юридической практики научно-технического центра Роскомнадзора Станислав Махортов особенно выделил "риск распространения технологии виртуальных политиков".

Свои слова представитель РКН дополнил демонстрацией слайда. "Стоит ожидать появления цифрового Навального или иных лидеров общественного мнения, использование образа, речи, манеры подачи информации которых вызывают доверие у граждан, – сообщила презентация. – Виртуального политика возможно использовать для тестирования политических гипотез, удобно для применения на чужой территории, невозможно "отменить"... можно запускать сразу несколько виртуальных политиков".

Заступиться за ИИ в ходе заседания попытался разве что Илья Емелин, директор департамента по развитию и взаимодействию с госорганами отечественного видеохостинга Rutube. "Очень важно соблюдать баланс, потому что если сильно зарегулировать сферу, мы придем к тому, что у нас остановится технологическое развитие и в целом это негативно скажется на всех отраслях бизнеса", – предупредил "рутьюбовец". Но понимания у хозяев мероприятия не нашел.

"Честно говоря, это все настолько незарегулированно, что угрозы перерегулирования я вообще не вижу, – ответил на это Алексей Пушков. – Я вижу угрозу того, что очень трудно вводить регулирующие меры".

Опубликован в газете "Московский комсомолец" №29282 от 24 мая 2024

Заголовок в газете: «Стоит ожидать цифрового Навального»

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру