«Время для спасения истекает»: в США заявили об угрозе ИИ всему человечеству

«Время для спасения истекает»: в США заявили об угрозе ИИ всему человечеству
Фото: нейросеть

Новый доклад, подготовленный по заказу Госдепартамента США, рисует тревожную картину «катастрофических» рисков национальной безопасности, создаваемых быстро развивающимся искусственным интеллектом. Докладчики предупреждают, что время, необходимое федеральному правительству для предотвращения катастрофы, истекает.

Выводы были основаны на интервью с более чем 200 людьми в течение года, включая топ-менеджеров ведущих компаний, занимающихся искусственным интеллектом, исследователей кибербезопасности, экспертов по оружию массового поражения и чиновников национальной безопасности в правительстве.

В докладе, опубликованном на этой неделе Gladstone AI, прямо говорится, что самые передовые системы искусственного интеллекта могут, в худшем случае, «представить угрозу вымирания человеческому виду».

Представитель Госдепартамента США подтвердил CNN, что агентство заказало отчет, поскольку оно постоянно оценивает, насколько ИИ соответствует его цели по защите интересов США внутри страны и за рубежом. Однако чиновник подчеркнул, что отчет не отражает точку зрения правительства США.

Предупреждение в отчете является еще одним напоминанием о том, что, хотя потенциал ИИ продолжает привлекать инвесторов и общественность, существуют и реальные опасности.

Исследователи предупреждают о двух основных опасностях, которые в целом представляют собой ИИ.

Во-первых, самые передовые системы ИИ могут быть использованы в качестве оружия для нанесения потенциально необратимого ущерба. Во-вторых, в отчете говорится, что в лабораториях искусственного интеллекта существуют частные опасения, что в какой-то момент они могут «потерять контроль» над теми самыми системами, которые разрабатывают, с «потенциально разрушительными последствиями для глобальной безопасности».

«Рост ИИ и ОИИ [общего искусственного интеллекта] потенциально может дестабилизировать глобальную безопасность, как было при появления ядерного оружия», — говорится в докладе. Существует риск «гонки вооружений», конфликтов и «распространения искусственного интеллекта». Несчастные случаи со смертельным исходом в масштабе ОМУ».

Отчет Gladstone AI призывает к новым решительным шагам, направленным на противодействие этой угрозе, включая создание нового агентства по искусственному интеллекту, введение «чрезвычайных» нормативных гарантий и ограничений на то, сколько компьютерной мощности можно использовать для обучения моделей искусственного интеллекта.

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру