По словам ведущего сотрудника правительственного агентства научных исследований Великобритании, у мира “может не хватить времени” подготовиться к рискам для безопасности, связанным с передовыми системами искусственного интеллекта, пишет The Guardian.
Дэвид Далримпл, программный директор и эксперт по безопасности искусственного интеллекта в агентстве Aria, сказал The Guardian, что люди должны быть обеспокоены растущими возможностями этой технологии.
“Я думаю, что мы должны быть обеспокоены системами, которые могут выполнять все функции, которые выполняют люди, чтобы добиться успеха в мире, но лучше”, - предупреждает специалист. “Потому что мы окажемся вне конкуренции во всех областях, в которых нам необходимо доминировать, чтобы сохранить контроль над нашей цивилизацией, обществом и планетой”.
Далримпл отмечает, что между государственным сектором и компаниями, занимающимися искусственным интеллектом, существует разрыв в понимании силы надвигающихся прорывов в этой технологии.
“Я бы посоветовал учесть, что события развиваются очень быстро, и у нас может не хватить времени, чтобы опередить их с точки зрения безопасности, - подчеркивает он. -- И это не научная фантастика - предполагать, что в течение пяти лет большинство экономически значимых задач будут выполняться машинами с более высоким уровнем качества и меньшими затратами, чем людьми”.
Дэвид Далримпл настаивает, что правительствам не следует считать, что передовые системы надежны. Агентство Aria финансируется государством, но не зависит от правительства и направляет финансирование исследований. Компания разрабатывает системы для обеспечения безопасности использования ИИ в критически важных инфраструктурах, таких как энергетические сети.
“Мы не можем предполагать, что эти системы надежны. Наука, позволяющая это сделать, вряд ли появится вовремя, учитывая экономическое давление. Поэтому следующее лучшее, что мы можем сделать, и что мы, возможно, сможем сделать со временем, - это контролировать и смягчать недостатки”, - сказал он.
Описывая последствия того, что технический прогресс опережает безопасность, как “дестабилизацию безопасности и экономики”, Далримпл подчеркнул, что требуется дополнительная техническая работа для понимания и контроля поведения передовых систем искусственного интеллекта: “Прогресс может быть представлен как дестабилизирующий, но на самом деле он может быть хорошим, на что надеются многие люди на границе. Я работаю над тем, чтобы все шло лучше, но это сопряжено с очень высоким риском, и человеческая цивилизация в целом находится на грани перехода”.
Недавно, отмечает The Guardian, Институт безопасности искусственного интеллекта при правительстве Великобритании (AISI) заявил, что возможности передовых моделей искусственного интеллекта “быстро улучшаются” во всех областях, а производительность в некоторых областях удваивается каждые восемь месяцев.
По данным института, ведущие модели теперь могут выполнять задания на уровне ученика в среднем в 50% случаев, по сравнению с примерно 10% времени, затрачиваемого в прошлом году. AISI также обнаружил, что самые передовые системы могут автономно выполнять задачи, на которые специалисту потребовалось бы более часа.
Институт протестировал усовершенствованные модели для саморепликации, что является ключевой проблемой безопасности, поскольку это связано с тем, что система распространяет свои копии на другие устройства и становится все труднее контролировать. Тесты показали, что две передовые модели достигли успеха более чем на 60%. Однако институт подчеркнул, что наихудший сценарий маловероятен в повседневной среде, заявив, что любая попытка самовоспроизведения “вряд ли увенчается успехом в реальных условиях”.
Далримпл считает, что к концу 2026 года системы искусственного интеллекта смогут автоматизировать работу, эквивалентную полному дню исследований и разработок, что “приведет к дальнейшему расширению возможностей”, поскольку технология сможет самостоятельно совершенствовать математические и компьютерные элементы разработки искусственного интеллекта.