full screen background image
Последнее обновление

США уже используют ИИ, чтобы решать, где сбрасывать бомбы

Если вы задавались вопросом, когда вооруженные силы стран начнут использовать искусственный интеллект на поле боя, то ответ есть — уже сейчас. Пентагон использовал алгоритмы компьютерного зрения для помощи в определении целей для авиаударов, согласно последнему отчету Bloomberg. Недавно эти алгоритмы были использованы для нанесения более чем 85 авиаударов в рамках миссии на Ближнем Востоке.

Речь идет о бомбардировках 2 февраля в различных частях Ирака и Сирии, которые "уничтожили или повредили ракеты, беспилотники, склады оружия и оперативные центры ополченцев среди прочих целей", сообщает Bloomberg. Они были частью организованного ответа администрации Байдена на январскую атаку дронов в Иордании, в результате которой погибли трое американских военнослужащих. Правительство обвиняет в атаке противников, связанных с Ираном.

Bloomberg цитирует Шайлера Мура, главного технолога Центрального командования США, который сказал об использовании Пентагоном ИИ:

Мы применяли компьютерное зрение, чтобы определить, где могут быть угрозы.

Компьютерное зрение как область сосредоточено на обучении алгоритмов визуально опознавать конкретные объекты. Алгоритмы, помогавшие при последних бомбардировках правительства, были разработаны в рамках проекта Maven — программы, нацеленной на более широкое использование автоматизации в министерстве обороны.

Использование ИИ для определения целей представляется частью растущего и потенциально тревожного тренда. В конце прошлого года сообщалось, что Израиль использует ПО с ИИ для определения мест сброса бомб в секторе Газа. Программа Израиля под названием The Gospel предназначена для сбора огромных объемов данных, а затем выдачи рекомендаций человеку-аналитику. "Целью" может быть оружие, транспортное средство или человек. По словам израильских чиновников, программа может предложить до 200 целей за 10-12 дней. Израильтяне также говорят, что прицеливание — только первая часть более широкого процесса анализа, в который могут вовлекаться люди.

Использование ИИ по выявлению целей для бомбардировок кажется процессом, склонным к ужасным ошибкам, однако стоит учесть, что исторически военные США были не особо хороши в определении мест сброса бомб. С одной стороны, возможно, ИИ минимизирует человеческий фактор, а в случае проблем можно будет сбросить на него вину. С другой стороны, что будет, если такой ИИ окажется скомпрометирован?




Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подпишитесь на рассылку новостей
обо всех интересующих вас событиях из мира
игр. С нами Вы не упустите ни одну новость,
мы Вам это гарантируем.