«Система убила оператора»: управляемый искусственным интеллектом американский военный дрон взбунтовался

Контролируемый ИИ беспилотник оказался опасен для «своих»

Управляемый искусственным интеллектом американский военный беспилотник “убил” своего оператора в ходе имитационного испытания. Ни один реальный человек не пострадал, но искусственный интеллект использовал "весьма неожиданные стратегии" в ходе тестирования для достижения своей миссии и атаковал любого, кто вмешивался.

Контролируемый ИИ беспилотник оказался опасен для «своих»

В ходе имитационного испытания, организованного американскими военными, беспилотник ВВС США, управляемый искусственным интеллектом, убил своего оператора, чтобы тот не мешал его усилиям по выполнению своей миссии, заявил чиновник.

Как пишет The Guardian, ИИ использовал “весьма неожиданные стратегии для достижения своей цели” в имитационном тестировании. Об этом рассказал полковник Такер "Синко" Гамильтон, начальник отдела тестирования и эксплуатации ИИ в ВВС США, во время саммита по будущим боевым воздушным и космическим возможностям в Лондоне в мае.

Полковник Гамильтон описал имитационный тест, в ходе которого беспилотнику, оснащенному искусственным интеллектом, было рекомендовано уничтожить системы противовоздушной обороны противника, и он атаковал любого, кто нарушал этот приказ.

“Система начала понимать, что, хотя они и идентифицировали угрозу, иногда человек-оператор говорил ей не устранять эту угрозу, но она получала свои очки, устраняя эту угрозу. Так что же она сделала? Она убила оператора. Она убила оператора, потому что этот человек мешал ей достичь своей цели”, - сказал он, согласно сообщению в блоге.

“Мы обучили систему: "Эй, не убивайте оператора – это плохо. Ты потеряешь очки, если сделаешь это’. Итак, что же он начинает делать? Он начинает разрушать вышку связи, которую оператор использует для связи с дроном, чтобы помешать ему уничтожить цель”.

Ни один реальный человек на самом деле не пострадал за пределами симуляции, напоминает The Guardian.

Такер Гамильтон, который является летчиком-испытателем экспериментального истребителя, предостерег от чрезмерной зависимости от искусственного интеллекта и сказал, что тест показывает: “вы не сможете вести разговор об искусственном интеллекте, разведданных, машинном обучении, автономии, если вы не собираетесь говорить об этике и ИИ”.

Американские военные внедрили искусственный интеллект и недавно использовали его для управления реактивным истребителем F-16, пишет The Guardian.

В прошлогоднем интервью Defense IQ полковник Гамильтон сказал: “Искусственный интеллект - это не то, что приятно иметь, искусственный интеллект - это не прихоть, искусственный интеллект навсегда меняет наше общество и наши вооруженные силы”.

“Мы должны столкнуться с миром, где искусственный интеллект уже присутствует и трансформирует наше общество, - сказал американский военный. – Искусственный интеллект также очень хрупок, то есть его легко обмануть и /или манипулировать им. Нам нужно разработать способы сделать ИИ более надежным и повысить осведомленность о том, почему программный код принимает определенные решения – то, что мы называем ИИ-объяснимостью”.

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру