Как будет строиться регулирование этой технологии и что за вызовы она несет в себе для россиян, «МК» рассказал независимый эксперт по информационной безопасности Антон Редозубов.
— Как государство планирует контролировать развитие ИИ-технологий, чтобы они служили обществу, а не усиливали цифровое неравенство или угрожали приватности граждан?
— В августе прошлого года в России Минцифры подготовило концепцию регулирования искусственного интеллекта до 2030 года — стратегический документ, определяющий приоритеты внедрения ИИ в различных отраслях экономики и другие параметры использования этой технологии. Совет по правам человека при президенте РФ (СПЧ) в свою очередь подготовил на неё свои замечания на 22 страницах. Член СПЧ, известный IT-предприниматель Игорь Ашманов настаивает на введении запретительного, а не стимулирующего механизма. Но запрещать легко, только малоэффективно,тем более что в текущих условиях, когда у нас есть другие игроки на мировом рынке, которые придерживаются иного подхода.
19 ноября 2025 года президент России Владимир Путин поручил правительству и главам регионов сформировать национальный план внедрения ИИ. Он подчеркнул важность развития отечественных моделей и обеспечения стабильности цифровой инфраструктуры для гарантии суверенитета данных.
Вектор, заданный поручением президента о национальном плане внедрения ИИ, — стимулирование суверенного развития при параллельном выстраивании «правил дорожного движения». Ключевой вызов — не зарегулировать процесс до смерти, но и не допустить цифрового неравенства и ущемления прав граждан из-за «чёрных ящиков» алгоритмов.
— Каковы главные риски в сфере развития ИИ, с которыми могут столкнуться россияне уже в 2026 году?
— Я могу выделить три главных вызова. Первый — рассогласование скорости между технологическим рывком и регуляторной или правовой базой. Главные недостатки я вижу в отсутствии риск-ориентированного подхода в этой сфере. Слишком полярные подходы отстаивают различные силы на этом рынке: от «запретить всё» до «пусть расцветают сто цветов». Мне, как специалисту по информационной безопасности, очень хочется трезвой и осознанной работы с рисками. Второй — когнитивный.
— Что это значит?
— Это риск деградации навыков критического мышления при тотальном доверии к ИИ. По моему мнению, очень сильной угрозой, которая может реализоваться через эту технологию, является человеческая лень. Это как в случае с автомобилями: есть мнение, что именно их широкое применение стало причиной проблем с излишним весом у граждан США. Людям проще и легче переложить свой труд на помощника, а текущее развитие технологий положило такого помощника в карман каждому человеку — он буквально в телефоне. Впрочем, 20 лет назад такое говорили про сами телефоны, а ещё раньше — про мультики и компьютерные игры.
— А какой тогда третий ИИ-вызов 2026 года?
— Это киберугрозы нового уровня, когда ИИ станет проводником масштабных и умных атак.
— Сурово. На какой главный вопрос, в таком случае, нужно ответить государству и простым россиянам в связи с ожидаемым бурным развитием ИИ-решений?
— Как не стать пассивными пользователями этой технологии, а остаться её осознанными хозяевами — вот что нужно понять. Для меня ИИ — это сложный инструмент, которым необходимо уметь пользоваться. Я активно применяю различные ИИ-технологии в своей повседневной работе, но я никогда не позволяю, чтобы ИИ «думал за меня». Он помогает мне проводить первичный аудит безопасности различных систем, триаж выявленных уязвимостей и инцидентов, формулировать тексты, распознавать аудиозаписи и многое другое, что сильно облегчает мне работу, ускоряя и упрощая рутинные операции.
При этом я всегда проверяю, а что же мне выдал этот ИИ, в отличие, как уже выяснилось, от крупных консалтинговых компаний. Напомню, что в октябре общественным достоянием стал скандал с консалтинговым гигантом Deloitte Australia, которому пришлось вернуть деньги в размере $440 тыс. правительству страны из-за отчета, созданного с помощью GPT-4o, который оказался напичкан ошибками: там были три несуществующие академические ссылки, выдуманная цитата из решения Федерального суда и неправильно написанное имя судьи.
— Но если возвращаться к российским реалиям, то за какой позицией по ИИ будущее?
— Я считаю, что главный итог 2025 года — это переход ИИ в России из стадии хайпа к стратегическому осмыслению. Основной вызов 2026 — найти баланс между стимулированием инноваций и контролем рисков, между делегированием задач алгоритмам и сохранением человеческого суждения. Таким образом, будущее не за тотальной заменой людей ИИ, а за грамотным симбиозом, где технология усиливает, а не подменяет человеческий интеллект и ответственность.