В сети появилось видео, на котором высокопоставленный сотрудник израильского агентства киберразведки Unit 8200 в прошлом году рассказывает об использовании “волшебного порошка” машинного обучения для выявления целей ХАМАСА в Газе.
Эти кадры, пишет The Guardian, вызывают вопросы о точности недавнего заявления об использовании искусственного интеллекта (ИИ) израильскими силами обороны (ЦАХАЛ), в котором говорилось, что военные якобы “не используют систему искусственного интеллекта, которая идентифицирует боевиков-террористов или пытается предсказать, является ли человек террористом”.
Однако в видеоролике глава отдела обработки данных и искусственного интеллекта подразделения 8200, названный просто “полковник Йоав”, рассказал, что он покажет “пример одного из инструментов, которые мы используем”, прежде чем рассказать о том, как разведывательное подразделение использовало методы машинного обучения в ходе израильского наступления в Газе в мае 2021 года для “поиск новых террористов”.
“Допустим, у нас есть несколько террористов, которые образуют группу, и мы знаем только некоторых из них, - рассказал израильский офицер. – Используя наш волшебный порошок для обработки данных, мы сможем найти остальных”.
Приведенные в видеоролике описания технологий, используемых подразделением 8200, имеют сходство с недавними показаниями шести инсайдеров ЦАХАЛа об использовании ими инструмента искусственного интеллекта под названием “Лаванда” во время наступления на ХАМАС. Они заявили, что созданная с помощью искусственного интеллекта база данных использовалась для оказания помощи сотрудникам разведки, участвовавшим в кампании бомбардировок в Газе, помогая идентифицировать десятки тысяч потенциальных целей в виде людей.
В своем опровержении Армия обороны Израиля заявила, что некоторые сообщения были “необоснованными”. Однако эти сообщения согласуются с замечаниями Йоава во время конференции по искусственному интеллекту в Тель-Авивском университете в феврале прошлого года. Видео, в котором Йоава можно услышать, но не увидеть, было размещено на YouTube-канале университета, и до недавнего времени у него было менее 100 просмотров.
Когда он вышел на сцену в военной форме, зрителям было приказано не фотографировать Йоава и не записывать его выступление. “Это хорошо, потому что у меня сегодня плохая прическа”, - пошутил он.
В своей 10-минутной презентации под названием “Цифровая трансформация и искусственный интеллект в сфере разведки” полковник продемонстрировал редкое понимание того, как непрозрачные системы искусственного интеллекта используются секретными военными и разведывательными органами.
Офицер объяснил, что при использовании искусственного интеллекта для определения того, является ли кто-то террористом, подразделение 8200 собирает имеющуюся у него информацию о людях, которые, по его мнению, являются членами террористических групп, и стремится “найти остальных членов группы”.
Ссылаясь на конкретный пример, он рассказал, что в ходе военной операции ЦАХАЛА в Газе в мае 2021 года его ведомство применило этот принцип, чтобы “найти командиров ракетных подразделений ХАМАС и террористов, занимающихся противотанковыми ракетами, в Газе, чтобы действовать против них”.
Полковник объяснил, что, используя форму машинного обучения, известную как “позитивное немаркированное обучение”, “мы берем исходную подгруппу, вычисляем их близкие круги, затем вычисляем релевантные характеристики и, наконец, ранжируем результаты и определяем пороговое значение”.
По словам полковника, отзывы сотрудников разведки используются “для обогащения и улучшения нашего алгоритма”, и подчеркнул, что решения принимают “люди из плоти и крови”. “С этической точки зрения мы придаем этому большое значение”, - сказал он, добавив, что “эти инструменты призваны помочь преодолеть их барьеры”.
По словам Йоава, подразделение 8200 смогло преодолеть “человеческий барьер” во время наступления в мае 2021 года, когда ему удалось уничтожить более 200 новых целей. “Были времена, когда на это у нас уходил почти год”, - сказал он.
Представители ЦАХАЛА, к которым обратились за комментариями по поводу видеозаписи, сообщили, что участие полковника в конференции было одобрено военными. Однако представитель ЦАХАЛа опроверг, что его замечания противоречат недавним заявлениям ЦАХАЛа об использовании искусственного интеллекта. Слегка изменив формулировку, не использованную в первоначальном заявлении, Армия обороны Израиля сообщила The Guardian, что ее системы искусственного интеллекта не “выбирают цели” для атаки.
“Армия обороны Израиля никогда не отрицала существования базы данных об оперативниках террористических организаций, которая перепроверяет существующую информацию о таких оперативниках”, - говорится в сообщении. “В то же время Армия обороны Израиля полностью придерживается своего заявления о том, что она не использует системы искусственного интеллекта, которые выбирают цели для атаки, и что база данных, о которой идет речь, не является списком боевиков, имеющих право на атаку. Здесь нет противоречия”.
В своих показаниях шесть офицеров разведки, которые выступили на прошлой неделе, заявили, что инструмент Lavender использовался для выявления потенциальных целей в беспрецедентных масштабах и с беспрецедентной скоростью. ЦАХАЛ не обвинялся в использовании систем, которые автоматически выбирают цели для атаки.
Четыре источника сообщили, что на одном из этапов в начале войны инструмент с использованием ИИ перечислил до 37 000 человек в палестинском анклаве, которые были связаны системой искусственного интеллекта с ХАМАСОМ или другими исламистскими группировками. Ни один из источников не отрицал, что в процессе выдачи разрешений на нанесение ударов участвовали люди, хотя некоторые признались в минимальном контроле со стороны человека.
“На этом этапе я бы уделил каждой цели по 20 секунд и проводил бы десятки операций в день”, - сказал один офицер разведки. “У меня не было никакой дополнительной ценности как у человека, кроме того, что я был знаком одобрения. Это сэкономило много времени”.
Их свидетельства, пишет The Guardian, были опубликованы израильско-палестинским изданием +972 magazine, его изданием на иврите Local Call и The Guardian.
Описание полковником Йоавом партнерства между ИИ и сотрудниками разведки перекликается с моделью целенаправленных операций, предложенной его командиром, шефом подразделения 8200 Йосси Сариэлем, который, как выяснила Guardian, раскрыл свою личность в Интернете, когда тайно написал книгу "Человеко-машинная команда", опубликованную в 2021 году.
На одном из этапов полковник объяснил, что отдел искусственного интеллекта и обработки данных, которым он руководит в подразделении 8200, также известен как “центр интеграции человека и машины”.
Выступая за восемь месяцев до того, как Армия обороны Израиля начала операции в Газе после нападений, совершенных ХАМАСОМ 7 октября, полковник оптимистично говорил о том, что Армия обороны Израиля переходит “от эпохи почтовых открыток к цифровой эре”, когда “внезапно вы сможете реагировать во время боя с помощью прикладных решений, основанных на научных данных”.
Забегая вперед, он добавил: “Мне любопытно, как будет выглядеть следующая операция в цифровом виде”.