Израиль опирается на систему искусственного интеллекта (ИИ) «Евангелие» для выбора целей ударов по сектору Газа пишут британская газета The Guardian, а также издания +972 и Local Call.
Расследование, проведенное +972 и Local Call, основано на беседах с семью действующими и бывшими сотрудниками израильской разведки, в том числе с сотрудниками военной разведки и ВВС, участвовавшими в израильских операциях в осажденном секторе, а также на свидетельствах палестинцев, данных и документах из сектора Газа, официальных заявлениях пресс-службы ЦАХАЛа и других государственных учреждений Израиля.
В базе данных ЦАХАЛ есть сведения о 30–40 тыс. человек, которых подозревают в членстве в ХАМАС или других группировках, автоматизированная система предлагает координаты жилых домов (в системе указано количество гражданских лиц, которые могут быть убиты в результате атаки на конкретную цель) таких палестинцев, рассказали источники Local Call.
«Ничего не происходит случайно. Когда в доме в Газе убивают трехлетнюю девочку, это происходит потому, что кто-то в армии решил, что в ее гибели нет ничего страшного, что это цена, которую стоит заплатить, чтобы поразить [другую] цель. Мы не ХАМАС. Это не случайные ракеты. Все делается намеренно. Мы точно знаем, сколько сопутствующего ущерба есть в каждом доме», — цитируют расследователи один из источников.
По данным расследования, еще одной причиной масштабного ущерба для жизни гражданского населения в Газе является широкое использование системы под названием «Хабсора» («Евангелие»), которая в значительной степени построена на искусственном интеллекте и может «генерировать» цели почти автоматически со скоростью, значительно превышающей ту, которая была возможна ранее. Эта система ИИ, по словам бывшего офицера разведки, по сути, способствует созданию «фабрики массовых убийств» , в которой упор делался на количество, а не качество.
По словам источников +972 и Local Call, цели в Газе, по которым наносила удары израильская авиация, можно условно разделить на четыре категории. Первая — «тактические цели». К ним относятся стандартные военные цели: ячейки вооруженных боевиков, склады оружия, ракетные установки, пусковые установки противотанковых ракет, минометные расчеты, военные штабы, наблюдательные пункты и так далее.
Вторая группа - это «подземные цели», в основном туннели, которые ХАМАС прорыл под кварталами Газы, в том числе под домами мирных жителей. Авиаудары по этим целям могут привести к обрушению домов, расположенных над туннелями или рядом с ними.
Третья - «силовые цели», к которым относятся высотки и жилые башни в центре городов, а также общественные здания, такие как университеты, банки и правительственные учреждения. По словам трех источников в разведке, участвовавших в планировании и проведении ударов по силовым объектам в прошлом, идея удара по таким целям заключается в том, что преднамеренная атака на палестинское общество окажет «гражданское давление» на ХАМАС.
Последняя категория - это «семейные дома» или «дома оперативников». Заявленная цель этих атак — разрушение частных домов с целью убийства одного жителя, подозреваемого в принадлежности к ХАМАС или «Исламскому джихаду». Однако в ходе нынешней войны, по свидетельствам палестинцев, в некоторых убитых семьях не было ни одного боевика этих организаций.
По сведениям источников The Guardian, высокопоставленные лидеры группировки скрывались в туннелях сразу после начала атак 7 октября, а система ИИ позволила обнаруживать группы боевиков младших по рангу. «Это очень много домов. Члены ХАМАС, которые на самом деле ничего не значат, живут в домах по всему сектору Газа. Поэтому они [войска Израиля] помечают дом, бомбят его, убивая всех, кто там находится», — рассказал собеседник Local Call.
Решение о нанесении удара принимает дежурный командир подразделения, некоторые из которых были «более склонны к насилию, чем остальные», рассказал The Guardian один из операторов, ушедший из израильской армии в 2021-м. Он сообщил о случаях, когда «были сомнения относительно цели» и «мы убили, по моему мнению, непропорционально большое количество мирных жителей».
«Это действительно похоже на фабрику. Мы работаем быстро, и нет времени глубоко вникать в цель. Считается, что нас оценивают по тому, сколько целей нам удалось достичь», — рассказал источник израильского издания, прежде работавший в таком подразделении. Другой собеседник заявил, что «Евангелие» позволило армии управлять «фабрикой массовых убийств», в которой упор делался на количество, а не качество.
Бывший главком израильской армии Авив Кохави еще до начала войны 7 октября говорил, что прежде ЦАХАЛ обнаруживала 50 целей в секторе Газа за год, а система ИИ позволила выявлять сто целей ежедневно.
«Искусственный интеллект представляет собой чрезвычайно серьезный риск, и в значительной степени джинн уже вырвался из бутылки благодаря появлению в сети многочисленных инструментов искусственного интеллекта. Миру необходимо решить эту проблему, дать ей определение, установить строгое регулирование, определить основные механизмы контроля, обеспечить наказание и вложить значительные средства в образование и разъяснение», - выразил мнение Кохави.
Опрошенные изданиями эксперты усомнились, что использование искусственного интеллекта позволяет сократить численность жертв среди гражданских.
По словам исследователя Марты Бо из SIPRI, операторы могут склоняться к автоматизации и чрезмерной зависимости от систем, сильно влияющих на сложные человеческие решения. Существует опасность потери способности к осмысленной оценке рисков причинения вреда гражданскому населению, когда люди полагаются на эти системы, предупреждает Ричард Мойес из Article 36.