Если вы задавались вопросом, когда вооруженные силы стран начнут использовать искусственный интеллект на поле боя, то ответ есть — уже сейчас. Пентагон использовал алгоритмы компьютерного зрения для помощи в определении целей для авиаударов, согласно последнему отчету Bloomberg. Недавно эти алгоритмы были использованы для нанесения более чем 85 авиаударов в рамках миссии на Ближнем Востоке.
Речь идет о бомбардировках 2 февраля в различных частях Ирака и Сирии, которые "уничтожили или повредили ракеты, беспилотники, склады оружия и оперативные центры ополченцев среди прочих целей", сообщает Bloomberg. Они были частью организованного ответа администрации Байдена на январскую атаку дронов в Иордании, в результате которой погибли трое американских военнослужащих. Правительство обвиняет в атаке противников, связанных с Ираном.
Bloomberg цитирует Шайлера Мура, главного технолога Центрального командования США, который сказал об использовании Пентагоном ИИ:
Мы применяли компьютерное зрение, чтобы определить, где могут быть угрозы.
Компьютерное зрение как область сосредоточено на обучении алгоритмов визуально опознавать конкретные объекты. Алгоритмы, помогавшие при последних бомбардировках правительства, были разработаны в рамках проекта Maven — программы, нацеленной на более широкое использование автоматизации в министерстве обороны.
Использование ИИ для определения целей представляется частью растущего и потенциально тревожного тренда. В конце прошлого года сообщалось, что Израиль использует ПО с ИИ для определения мест сброса бомб в секторе Газа. Программа Израиля под названием The Gospel предназначена для сбора огромных объемов данных, а затем выдачи рекомендаций человеку-аналитику. "Целью" может быть оружие, транспортное средство или человек. По словам израильских чиновников, программа может предложить до 200 целей за 10-12 дней. Израильтяне также говорят, что прицеливание — только первая часть более широкого процесса анализа, в который могут вовлекаться люди.
Использование ИИ по выявлению целей для бомбардировок кажется процессом, склонным к ужасным ошибкам, однако стоит учесть, что исторически военные США были не особо хороши в определении мест сброса бомб. С одной стороны, возможно, ИИ минимизирует человеческий фактор, а в случае проблем можно будет сбросить на него вину. С другой стороны, что будет, если такой ИИ окажется скомпрометирован?