Названы три главных риска, которые может принести искусственный интеллект россиянам в 2026 году

Эксперт назвал три главных риска в развитии нейросетей и цифровизации, с которыми россияне могут столкнуться в 2026 году

Вице-премьер РФ Дмитрий Григоренко поручил Минцифры до 13 марта представить комплексные предложения по регулированию искусственного интеллекта (ИИ). Такое решение было принято по итогам межведомственного совещания в декабре с участием представителей ключевых министерств, спецслужб, администрации президента и ведущих ИТ-компаний. Минцифры собирает предложения до 20 января, а затем приступит к формированию документа, обозначив вектор национальной политики в сфере ИИ.

Эксперт назвал три главных риска в развитии нейросетей и цифровизации, с которыми россияне могут столкнуться в 2026 году
Фото: Carsten Koall/dpa/Global Look Press

тестовый баннер под заглавное изображение

Как будет строиться регулирование этой технологии и что за вызовы она несет в себе для россиян, «МК» рассказал независимый эксперт по информационной безопасности Антон Редозубов.

— Как государство планирует контролировать развитие ИИ-технологий, чтобы они служили обществу, а не усиливали цифровое неравенство или угрожали приватности граждан?

— В августе прошлого года в России Минцифры подготовило концепцию регулирования искусственного интеллекта до 2030 года — стратегический документ, определяющий приоритеты внедрения ИИ в различных отраслях экономики и другие параметры использования этой технологии. Совет по правам человека при президенте РФ (СПЧ) в свою очередь подготовил на неё свои замечания на 22 страницах. Член СПЧ, известный IT-предприниматель Игорь Ашманов настаивает на введении запретительного, а не стимулирующего механизма. Но запрещать легко, только малоэффективно,тем более что в текущих условиях, когда у нас есть другие игроки на мировом рынке, которые придерживаются иного подхода. 

19 ноября 2025 года президент России Владимир Путин поручил правительству и главам регионов сформировать национальный план внедрения ИИ. Он подчеркнул важность развития отечественных моделей и обеспечения стабильности цифровой инфраструктуры для гарантии суверенитета данных.

Вектор, заданный поручением президента о национальном плане внедрения ИИ, — стимулирование суверенного развития при параллельном выстраивании «правил дорожного движения». Ключевой вызов — не зарегулировать процесс до смерти, но и не допустить цифрового неравенства и ущемления прав граждан из-за «чёрных ящиков» алгоритмов.

— Каковы главные риски в сфере развития ИИ, с которыми могут столкнуться россияне уже в 2026 году?

— Я могу выделить три главных вызова. Первый — рассогласование скорости между технологическим рывком и регуляторной или правовой базой. Главные недостатки я вижу в отсутствии риск-ориентированного подхода в этой сфере. Слишком полярные подходы отстаивают различные силы на этом рынке: от «запретить всё» до «пусть расцветают сто цветов». Мне, как специалисту по информационной безопасности, очень хочется трезвой и осознанной работы с рисками. Второй — когнитивный. 

— Что это значит? 

— Это риск деградации навыков критического мышления при тотальном доверии к ИИ. По моему мнению, очень сильной угрозой, которая может реализоваться через эту технологию, является человеческая лень. Это как в случае с автомобилями: есть мнение, что именно их широкое применение стало причиной проблем с излишним весом у граждан США. Людям проще и легче переложить свой труд на помощника, а текущее развитие технологий положило такого помощника в карман каждому человеку — он буквально в телефоне. Впрочем, 20 лет назад такое говорили про сами телефоны, а ещё раньше — про мультики и компьютерные игры. 

— А какой тогда третий ИИ-вызов 2026 года?

— Это киберугрозы нового уровня, когда ИИ станет проводником масштабных и умных атак. 

— Сурово. На какой главный вопрос, в таком случае, нужно ответить государству и простым россиянам в связи с ожидаемым бурным развитием ИИ-решений?

— Как не стать пассивными пользователями этой технологии, а остаться её осознанными хозяевами — вот что нужно понять. Для меня ИИ — это сложный инструмент, которым необходимо уметь пользоваться. Я активно применяю различные ИИ-технологии в своей повседневной работе, но я никогда не позволяю, чтобы ИИ «думал за меня». Он помогает мне проводить первичный аудит безопасности различных систем, триаж выявленных уязвимостей и инцидентов, формулировать тексты, распознавать аудиозаписи и многое другое, что сильно облегчает мне работу, ускоряя и упрощая рутинные операции.

При этом я всегда проверяю, а что же мне выдал этот ИИ, в отличие, как уже выяснилось, от крупных консалтинговых компаний. Напомню, что в октябре общественным достоянием стал скандал с консалтинговым гигантом Deloitte Australia, которому пришлось вернуть деньги в размере $440 тыс. правительству страны из-за отчета, созданного с помощью GPT-4o, который оказался напичкан ошибками: там были три несуществующие академические ссылки, выдуманная цитата из решения Федерального суда и неправильно написанное имя судьи.

— Но если возвращаться к российским реалиям, то за какой позицией по ИИ будущее?

— Я считаю, что главный итог 2025 года — это переход ИИ в России из стадии хайпа к стратегическому осмыслению. Основной вызов 2026 — найти баланс между стимулированием инноваций и контролем рисков, между делегированием задач алгоритмам и сохранением человеческого суждения. Таким образом, будущее не за тотальной заменой людей ИИ, а за грамотным симбиозом, где технология усиливает, а не подменяет человеческий интеллект и ответственность.

Что еще почитать

В регионах

Новости

Самое читаемое

...
Сегодня
...
...
...
...
Ощущается как ...

Реклама

Автовзгляд

Womanhit

Охотники.ру