– Технологии сейчас могут скопировать голос как публичной персоны, так и простого человека, – говорит «МК» первый зампред комитета по информационной политике, технологиям и связи, член фракции «Новые люди» Антон Ткачев. – То есть пожилая женщина может быть уверена, что общается по телефону со своей внучкой, а не с машиной. В таких условиях она переведет все накопления, куда ей скажут. Пока подобные случаи единичны, но через год-другой они станут массовыми. Нейросети в руках мошенников – это бомба замедленного действия. Нам нужно быть готовыми, принять законы, которые не позволят обирать людей. Мы не можем противостоять прогрессу, но его нужно направить в правильное русло, а не делать оружием в руках мошенников. Сейчас много дипфейков также связано с СВО – как с созданием записей якобы от лица публичных персон, так и с атакой на семьи участников спецоперации извне.
Ткачев добавил, что молодая сфера экономики данных нуждается в новых законодательных инициативах. В Москве за последние несколько лет накопили положительный опыт регулирования искусственного интеллекта. Эту практику следует внедрить на федеральном уровне, чтобы защитить людей от дипфейков.
– Как технически вы предлагаете маркировать дипфейки: изображения и аудиодорожки, изготовленные искусственным интеллектом?
– Маркировка – также по аналогии с рекламой – текстом или в превью, «водяной» знак, согласованный с правительством и в виде QR-кода, в котором будет содержаться информация о софте, который произвел контент. С точки зрения аудио, это может быть дисклеймер, как на радио.