Опасные игрушки: Пентагон начал усовершенствовать машины-убийцы на базе искусственного интеллекта

0

Американское военные хотят защитить роботов с ИИ от «враждебных атак»

Американское министерство обороны запускает технологию, которая позволит машинам-убийцам на базе искусственного интеллекта не выходить из-под контроля на поле боя из-за визуального «шума», вводящего в заблуждение роботов. Управление инноваций Пентагона хочет защитить системы искусственного интеллекта от «враждебных атак». В исследовании изучается, как визуальные «шумы» приводят к фатальным ошибкам в идентификации ИИ.

Опасные игрушки: Пентагон начал усовершенствовать машины-убийцы на базе искусственного интеллекта

Официальные лица Пентагона забили тревогу по поводу "уникальных классов уязвимостей для искусственного интеллекта или автономных систем", которые, как они надеются, смогут устранить новые исследования.

Как пишет Daily Mail, перед программой, получившей название Guaranteing AI Robustness against Deception (GARD), с 2022 года поставлена задача определить, как визуальные данные или другие электронные сигналы, поступающие в систему искусственного интеллекта, могут быть изменены с помощью рассчитанного введения шума.   

Ученые-компьютерщики из одного из оборонных подрядчиков GARD экспериментировали с калейдоскопическими патчами, предназначенными для того, чтобы обмануть системы на основе искусственного интеллекта и заставить их создавать фальшивые идентификаторы.

"По сути, вы можете, добавив шум к изображению или сенсору, нарушить работу алгоритма машинного обучения", — объяснил на днях один высокопоставленный чиновник Пентагона, руководивший исследованиями.

Эта новость, отмечает Daily Mail, появилась на фоне опасений, что Пентагон "создает роботов-убийц в подвале", что, как утверждается, привело к ужесточению правил в области искусственного интеллекта для вооруженных сил США, согласно которым все системы должны быть одобрены перед развертыванием.

"Зная этот алгоритм, вы также можете иногда создавать физически реализуемые атаки", — добавил Мэтт Турек, заместитель директора Отдела информационных инноваций Агентства перспективных исследовательских проектов Министерства обороны (DARPA).

Технически возможно "обмануть" алгоритм ИИ, заставив его совершать критически важные ошибки — заставлять ИИ неправильно идентифицировать различные узорчатые заплатки или наклейки для реального физического объекта, которого на самом деле нет.

Например, автобус, набитый гражданскими лицами, может быть ошибочно идентифицирован ИИ как танк, если он будет помечен правильным "визуальным шумом", как предложил в качестве примера один репортер по национальной безопасности, работающий на сайте ClearanceJobs.

Короче говоря, такая дешевая и легковесная тактика "создания шума" может привести к тому, что жизненно важный военный ИИ во время критической миссии ошибочно примет вражеских бойцов за союзников и наоборот.

Как показывают аудиты Пентагона, исследователи в рамках программы GARD со скромным бюджетом потратили 51 тысячу долларов на изучение тактики визуального контроля и подавления сигналов с 2022 года.

Результаты их работы опубликованы в исследовании 2019-2020 годов, иллюстрирующем, как визуальный шум, который может казаться человеческому глазу просто декоративным или несущественным, как, например, плакат "Волшебный глаз" 1990-х годов, может быть интерпретирован искусственным интеллектом как твердый объект.

Компьютерщикам из оборонного подрядчика MITRE Corporation удалось создать визуальный шум, который искусственный интеллект принял за яблоки на полке продуктового магазина, сумку, оставленную на улице, и даже людей.  

"Независимо от того, являются ли это физически реализуемыми атаками или шумовыми схемами, которые добавляются в системы искусственного интеллекта, — сказал Турек в среду, — программа GARD создала самые современные средства защиты от них".

"Некоторые из этих инструментов и возможностей были предоставлены CDAO [Офис искусственного интеллекта]", — сообщает Турек.

Пентагон создал CDAO в 2022 году; он служит центром, способствующим более быстрому внедрению искусственного интеллекта и связанных с ним технологий машинного обучения в вооруженных силах.

По словам заместителя помощника министра обороны США по развитию вооруженных сил и новым возможностям Майкла Горовица, Министерство обороны недавно обновило свои правила в отношении искусственного интеллекта, несмотря на "большую путаницу" в отношении того, как оно планирует использовать машины, самостоятельно принимающие решения на поле боя.

Горовиц объяснил на мероприятии в январе этого года, что "директива не запрещает разработку каких-либо систем искусственного интеллекта", но "разъяснит, что разрешено, а что нет", и поддержит "приверженность ответственному поведению" при разработке смертоносных автономных систем.

Хотя Пентагон считает, что изменения должны успокоить общественность, некоторые заявили, что их "не убедили" эти усилия, отмечает Daily Mail.

Марк Бракель, директор правозащитной организации Future of Life Institute (FLI), сказал DailyMail.com в январе этого года: "Это оружие несет в себе огромный риск непреднамеренной эскалации".

Он объяснил, что оружие на базе искусственного интеллекта может неправильно интерпретировать что-либо, например солнечный луч, и воспринимать это как угрозу, таким образом атакуя иностранные державы без причины и без преднамеренного враждебного "визуального шума".

Бракель рассказал, что результат может быть разрушительным, потому что "без реального контроля со стороны человека оружие на базе искусственного интеллекта похоже на инцидент с норвежской ракетой, близкий к ядерному армагеддону на стероидах, и оно может увеличить риск инцидентов в горячих точках, таких как Тайваньский пролив".

Министерство обороны США настойчиво добивается модернизации своего арсенала с помощью автономных беспилотных летательных аппаратов, танков и другого оружия, которое выбирает цель и атакует ее без вмешательства человека.

Источник: www.mk.ru

Комментарии закрыты.