Электронный пилот встаёт на крыло: что ждёт беспилотную авиацию

Продвинутый автопилот или робот?

Как сообщает новостное агентство РИА «Новости», новейший истребитель Су-57 проходит испытания не только в пилотируемом, но и в беспилотном режиме. Правда, компьютеру не очень доверяют — в кабине сидит пилот, готовый в любую минуту принять управление. Да и автоматика, судя по всему, работает лишь на некоторых участках полёта.

Пока это напоминает больше продвинутый автопилот, чем полноценный робот-самолёт.

Такой режим очень полезен для одноместных многоцелевых машин, и на Западе его реализовали ещё на F-22. Пилот может пустить самолёт под контролем автоматики по маршруту, а сам, например, заняться поиском наземных целей или наведением на них управляемого вооружения. Но и это тоже первый шаг к полноценному беспилотному самолёту.

Air Combat Evolution

Американцы зашли чуть дальше. DARPA и ВВС США плотно занялись искусственным интеллектом для беспилотных истребителей ещё в 2018 году. В 2019-м было объявлено о старте программы Air Combat Evolution (ACE), в рамках которой предполагается создать и испытать в реальных условиях подобный ИИ. Программа должна уметь оценивать всю поступающую информацию в ходе манёвренного боя, быстро и адекватно реагировать на любые действия противника, взаимодействовать с пилотируемыми и беспилотными союзниками. Но главный вызов ACE не в этом. От получившегося ИИ требуется способность к обучению.

Именно это — ключевое требование программы. ИИ в изначальном варианте должен уметь не больше, чем средний лётчик-курсант. Но в дальнейшем он должен обучиться у своих живых противников и, в идеале, превзойти их. Зачем это нужно? Современный воздушный бой — дело сложное, и просто написать программу, отражающую все его аспекты, невозможно. Будущие дроны должны сами научиться этому, а после ещё и суметь адаптироваться под противника и союзников. Последнее особенно важно, ведь полученный по завершении ACE ИИ будет установлен на беспилотные самолёты, которые займут роль ведомых при пилотируемых машинах.

Как отмечают в ВВС, у каждого живого пилота есть свой почерк, и программа должна уметь подстраиваться под него — иначе особого смысла в ней не будет.

Написание ИИ заказали восьми независимым фирмам. В финале могут либо выбрать одного победителя, либо предложить нескольким фаворитам объединить усилия.

Уже в конце осени 2019 года первые варианты были готовы начать полёты — но пока только в виртуальной симуляции. Начальные испытания, получившие обозначение Alpha-Dogfight Trials, проводились против максимально простых целей, имитирующих поведение современных крылатых ракет. Все представленные ИИ быстро научились уничтожать их, показывая результаты не хуже, чем у обычных пилотов.

В январе 2020 года начался второй этап, где в качестве оппонента выступила программа, написанная Лабораторией прикладной физики университета Джонса Хопкинса. Правда, в этот раз она управляла лишь самолётами типа бомбардировщик, с ограниченной манёвренностью. И снова удалось достичь всех запланированных результатов.

Третий этап Alpha-Dogfight Trials прошёл в конце апреля 2020 года; в этот раз и ИИ, и противостоящая им программа имели одинаковые истребители. Кроме того, в ходе этих же испытаний проверили возможность адаптации под союзников, в роли которых тоже выступила программа университета Джонса Хопкинса. После, уже в июне, планировалось выставить искусственный интеллект фирмы-победителя (кто это — пока ещё не объявлено) против реальных пилотов на тренажёрах, а также проверить возможность её адаптации под живого ведущего. Но из-за коронавируса испытания перенесли на конец августа.

В случае их успеха (в котором DARPA уверено) стартует подготовка программы для управления настоящим истребителем. И уже в 2023 году могут начаться реальные учебные воздушные бои ИИ против человека. В идеальной ситуации к 2025 году ИИ уже могут начать адаптировать к будущей платформе, работы над которой идут в Boeing и Lockheed Martin.

(Источник фото)

Схожие работы идут и в старушке Европе. Ведь опциональная пилотируемость — главная фишка их перспективного истребителя шестого поколения FCAS (Future Combat Air System). Вот только пока весь мир, не особо стесняясь, работает на «воздушными терминаторами», европейцы решили устроить общественную дискуссию на тему того, как этически правильно запрограммировать будущий беспилотный боевой самолёт.

Обсуждают вопрос о том, что принять решение об атаке имеет право только человек и нельзя допускать ситуации, когда компьютер принимает решение об убийстве. Некоторые даже заявляют, что главной задачей пилотов будущего будет моральная и этическая оценка действий их бортового ИИ, и к этому надо начинать готовить их прямо сейчас.

Все эти рассуждения, конечно же, красивы, но абсолютно бессмысленны. Такие ограничения лишь снижают эффективность, а значит, те, кто их будет придерживаться, быстро проиграют гонку вооружений.

Концепт FCAS

Да и если говорить честно — сама постановка вопроса очень и очень спорная.

Почему человеку можно убить человека, а машине лучше не стоит?

Будем честными, нынешняя автоматика имеет куда меньший шанс на ошибку, чем даже хорошо подготовленный человек, а уж про солдата-срочника и речи нет. Но автоматику нельзя посадить, а значит, виноватыми будут те, кто отдал приказ задействовать роботов в бою. Почему-то такие перспективы политиков смущают, поэтому они задействуют рассуждения об этике и морали, а также глупые страхи человечества о восстании машин.

Кругом одни сложности

Кажется, появление беспилотных истребителей — дело уже совсем недалёкого будущего, и, как предсказал недавно Илон Маск, машина вот-вот заменит пилота. Но на самом деле сложностей ещё много и заранее радоваться успеху рано. Электроника пока плохо переносит большие перегрузки. Работы в этом направлении, конечно, идут, но когда всё будет готово — пока неясно.

Есть вопросы и к программной части. Машинное обучение и нейросети, которые должны стать основой для «воздушных терминаторов», не выдают настоящий интеллект. Это просто самостоятельно формирующийся набор алгоритмов. И с появлением новой угрозы или новой переменной (например, необычные погодные условия), первая реакция ИИ окажется малопредсказуемой и, вероятнее всего, неверной.

Можно ли преодолеть это ограничение и не станет ли оно критическим для всех попыток — неизвестно. Ну и конечно же, не обойдётся без багов и недоработок в коде столь сложной программы. А насколько они могут быть критичны, мы наблюдаем сейчас на примере F-35. Ну и не стоит забывать о реакции общества — страшилок о восстаниях машин много, и это вполне может повлиять на принятие решений.

Так что пока далеко не факт, что беспилотные истребители ожидает безоблачное будущее. Но следить за всей этой историей мы будем с огромным интересом.

Мнение редакции не всегда совпадает с мнением автора.

Комментарии 0
Оцените статью
WARHEAD.SU
Добавить комментарий