ЦАХАЛ применяет ИИ для выбора целей в секторе Газа

Для ЦАХАЛ допустимой считалась гибель 15−20 гражданских при устранении 1 рядового боевика.

Наргиз Мукатаева

Армия обороны Израиля может использовать технологию искусственного интеллекта (ИИ), чтобы выбирать цели для авиаударов среди жителей сектора Газа. Об этом сообщает газета The Guardian, ссылаясь на заявления шести сотрудников израильской разведки, с которыми на условиях анонимности беседовал иерусалимский журналист Ювал Авраам, передает Sarbaz.kz.

Как утверждается в статье британского издания, подразделение 8200 Управления военной разведки Израиля за последние годы создало две системы, позволяющие обрабатывать большие объемы информации и создавать базу целей для военных. Система Lavender якобы ведет учет жителей анклава, связанных с радикальной группировкой ХАМАС, а в систему Gospel заносятся здания и строения, которые могут использовать боевики. При тестировании алгоритмов Lavender она якобы продемонстрировала 90%-ную точность при определении членов вооруженного крыла ХАМАС.

«Пиковым показателем были указанные системой 37 тысяч человек, являющихся потенциальными целями. Однако цифры все время менялись, поскольку все зависит от установленных вами критериев того, кого считать боевиком ХАМАС», — заявил один из собеседников журналиста.

Некоторые разведчики, рассказывавшие о том, как работает система, упоминали о давлении со стороны военных, требовавших предоставить им больше целей для авиаударов. Упоминался также показатель, якобы определявший, сколько мирных жителей могут быть убиты при ликвидации члена ХАМАС израильскими военными. Утверждалось, что в начале военной кампании, проводимой ЦАХАЛ в секторе Газа, допустимой считалась гибель 15−20 гражданских при устранении 1 рядового боевика, однако затем это число было решено снизить.

«Существовали нормативы, но они были очень нестрогими. Мы убивали (командиров ХАМАС) при сопутствующем ущербе в десятки погибших (гражданских), иногда речь шла о небольших трехзначных числах», — добавил другой.

В опубликованном The Guardian комментарии ЦАХАЛ опровергаются утверждения, что цели для авиаударов отбираются с помощью ИИ.

«Та «система», о которой вы спрашиваете, системой не является. Это просто база данных, предназначенная для перекрестного сопоставления информации из разведывательных источников для получения актуальной информации о боевиках террористических организаций. Это не список лиц, которые достоверно являются боевиками и законными целями для ударов», — отметили в Армии обороны Израиля.

ЦАХАЛ заявил, что израильские военные соблюдают международное право: осуществляют удары по законным военным целям и следуют принципу пропорциональности. А при выборе целей используют набор разнообразных инструментов, в число которых не входит ИИ, якобы определяющий, является человек боевиком или нет. Было также подчеркнуто, что аналитики израильской разведки проводят дополнительные проверки, подтверждая, что тот или иной человек может быть ликвидирован как боевик в соответствии с внутренними правилами ЦАХАЛ и международными правовыми нормами.

При этом, согласно приводимым в статье утверждениям израильских разведчиков, использующих Lavender, в реальности такое подтверждение может быть формальностью, «на каждую цель уходит 20 секунд», а роль человека в принятии решений минимальна.

Пару дней назад ЦАХАЛ нанес удары по транспорту гуманитарной помощи в Палестине. Погибли 7 иностранных гуманитарных работников.

Последние новости

  • В центре внимания

Спецпосланник Трампа посетит Киев в январе

18/12/2024 - 08:10
  • В центре внимания

В России создадут войска беспилотных систем

17/12/2024 - 20:10
  • В центре внимания

С ДНЕМ НЕЗАВИСИМОСТИ РЕСПУБЛИКИ КАЗАХСТАН!

15/12/2024 - 19:00
  • В центре внимания

Россия начала вывод войск из Сирии

14/12/2024 - 17:09