Цифровой лейтенант: война переходит в руки чат-ботов?


Пока в ЕС думают, как взять искусственный интеллект под контроль, а в Великобритании против чат-бота Grok проводят расследование из-за генерации порнографических изображений, американское Министерство войны переходит на ИИ. Глава Пентагона заявил, что Grok и Google Gemini внедрят в систему ведомства до конца января. Им предоставят «все необходимые данные» из военных IT-систем. Такая мера вызвала обеспокоенность многих наблюдателей, задавшихся вопросом: что именно бот будет делать?

Источник фото: Cfoto / Keystone Press Agency / Global Look Press

Сторонники интеграции указывают на значительные преимущества использования ИИ в военных целях. Среди них — повышение эффективности принятия решений, оптимизация логистических процессов и улучшение координации действий подразделений. Тем не менее важно подчеркнуть необходимость тщательной проработки протоколов безопасности и четкого определения границ полномочий ИИ-систем.

Представьте себе не генерала с искусственным интеллектом, а сверхэффективного, невероятно быстрого цифрового лейтенанта. Его задача не принимать стратегические решения, а обрабатывать, анализировать и структурировать гигантские массивы данных. О каких данных идет речь?

- Логистика, включая расчет оптимальных маршрутов снабжения, анализ износа техники, прогнозирование потребностей в ГСМ и боеприпасах.

- Кибербезопасность, мониторинг сетей на предмет аномалий, выявление потенциальных угроз и попыток проникновения в режиме, близком к реальному времени.

- Анализ открытых источников (OSINT-разведка), то есть автоматизированный сбор и первичная фильтрация информации из соцсетей, новостных лент, спутниковых снимков.

- Моделирование и тренировка, создание сложных сценариев для учений или прогнозирование возможных последствий тех или иных действий.

ИИ здесь рассматривается лишь как инструмент для подготовки решений, а не как субъект их принятия. Он отвечает на вопрос «Что будет, если…» или «Где слабое звено в этой цепи?», но не на вопрос «Что нам делать?». Ответственность и приказ остаются за человеком.

В этой связи решение Великобритании провести тщательную проверку ИИ-бота перед его возможным внедрением не признак отсталости, а демонстрация зрелого подхода к кибербезопасности.

ИИ должен быть понятен для регулятора, что предполагает освещение таких блоков в его функционировании, как объяснимость решений (Explainable AI):

1. Можем ли мы понять, как ИИ пришел к тому или иному выводу? Или это магия, в которую мы вынуждены слепо верить? В военном контексте слепая вера недопустима.

2. Зашитые предубеждения (Bias). На каких данных обучался алгоритм? Не содержит ли он скрытых культурных, исторических или операционных предубеждений, которые исказят анализ?

3. Уязвимости и бэкдоры. Возможны ли в его архитектуре уязвимости, которые могут стать вектором для кибератаки противника?

Опасен не сам бот, а то, во что он может превратиться в случае компрометации. Представьте себе централизованную систему, в которую стекается вся логистика, анализ уязвимостей, карты коммуникаций. Для злоумышленника (внешнего или внутреннего) взлом такого ИИ — джекпот, золотая жила для шпионажа или саботажа.

ИИ в обороне — это неизбежный и мощный инструмент. Страна, которая от него откажется, рискует оказаться в арьергарде. Но страна, которая внедрит его бездумно, рискует куда больше.

Европейский и британский подход — проверять, сомневаться, требовать прозрачности — правильный. Американский подход — активно экспериментировать в контролируемой среде — тоже имеет право на жизнь.

Главный урок для нас всех: любое мощное технологическое решение, особенно в сфере нацбезопасности, должно идти рука об руку с не менее мощной, продуманной системой киберзащиты и этического контроля. В конечном счете угрозой является не алгоритм, а человеческая беспечность.

Игорь Бедеров, RT

Сообщение Цифровой лейтенант: война переходит в руки чат-ботов? появились сначала на NEWS-FRONT.