В письме, опубликованном в интернете, 2400 исследователей из 36 стран присоединились к 160 организациям с призывом к глобальному запрету на смертоносное автономное оружие. Такие системы представляют серьезную угрозу для человечества – им нет места в мире, утверждают они.
«Мы действительно хотели бы быть абсолютно уверены, чтобы глобальное влияние этой технологии будет положительным и не приведет к страшной гонке вооружений или к будущему, в котором роботы будут убивать людей», - сказал Энтони Агирре, преподаватель физики в Университете города Санта-Крус, Калифорния, также подписавший письмо.
Летающие роботы-убийцы и оружие, которое самостоятельно принимает решения, остаются в значительной степени материалом для научной фантастики, но прогресс в развитии компьютерных технологий, обработке изображений и роботизированных процессах делает их разработку неизбежной. Недавно Пентагон выпустил национальную стратегию обороны, призывающую к увеличению инвестиций в искусственный интеллект, который Министерство обороны и аналитические центры, такие как Центр новой американской безопасности, рассматривают, как будущее ведения войны.
«Новые технологии, такие как ИИ, дают возможность улучшить нашу способность сдерживать противника и усилить защиту граждан с минимальным числом жертв среди личного состава и населения, и меньшими разрушениями», - заявила пресс-секретарь Пентагона Мишель Балданза.
«Эта инициатива подчеркивает необходимость активного диалога между [Министерством обороны], исследовательским сообществом в сфере ИИ, этиками, социологами, всеми заинтересованными сообществами и т. д., чтобы провести открытые дискуссии по этике и безопасности при разработке и использовании ИИ».
Хотя у США есть преимущество в этой области, Китай уже догоняет лидера в разработках данной технологии. Другие страны также ведут активные разработки. Например, Израиль уже активно продает полностью автономные беспилотные летательные аппараты, способные атаковать радиолокационные установки, в Китай, Чили, Индию и другие страны.
Разумеется, развитие автономного интеллектуального оружия будет продолжаться, несмотря на оппозицию ведущих исследователей, таких как Демис Хассавис и Йошуа Бенджио, а также лучших лабораторий, таких как DeepMind Technologies и Element AI. Их отказ «участвовать в [или] поддерживать развитие, производство, торговлю или использование» автономных машин для убийства вызывает широкий резонанс среди других разработчиков, но является в значительной степени символическим.
«Это может оказать определенное влияние на предстоящие встречи Организации Объединенных Наций по автономному оружию в конце августа», - сказал Пол Шарр в Центре «Новая американская безопасность» и автор книги «Армия без солдат», посвященной автономному оружию. «Но я не думаю, что это существенно изменит то, как крупные державы, такие как Соединенные Штаты, Китай и Россия, подходят к технологиям ИИ».
Исследователи объявили о своей оппозиции к разработкам автономного оружия во время международной совместной конференции по искусственному интеллекту в Стокгольме. Институт «Будущее жизни», организация, посвященная обеспечению гарантий того, что искусственный интеллект не уничтожит человечество, составила письмо и распространила его среди ученых, исследователей и других специалистов в этой области.
«Искусственный интеллект (ИИ) играет все возрастающую роль в военных системах», - говорится во вступительном слове к письму. «Существует неотложная необходимость для граждан, политиков и лидеров определить приемлемое и неприемлемое использование ИИ».
Военное использование, говорится в письме, явно неприемлемо, и «мы, нижеподписавшиеся, согласны с тем, что принятие решения о человеческой жизни или смерти никогда не должно быть передано машине».
Машины, которые думают и действуют самостоятельно, создают всевозможные сценарии, особенно в сочетании с распознаванием лиц, наблюдением и обширными базами данных, содержащих личную информацию. «Смертельное автономное оружие может стать мощным орудием насилия и угнетения», - говорится в письме.
Многие из ведущих американских технологических компаний борются с теми проблемами, которые в своем письме поднимает институт «Будущее жизни» (который частично финансируется Элоном Маском). В июне генеральный директор Google Сундар Пичаи изложил принципы программы развития ИИ, в которых четко указано, что компания не будет разрабатывать инструменты для оружия, предназначенного в первую очередь для нанесения вреда. Объявление последовало за обращением сотрудника к роли Google в исследовательском проекте ВВС США, который критики считали шагом к автономному оружию. Джефф Дин, глава отдела исследований ИИ, входит в число тех, кто подписал письмо.
Энтони Агирре сказал, что он надеется, что крупные компании также поддержат политику исключительно мирного использования искусственного интеллекта или, по крайней мере, последуют примеру Google, которая точно определила для себя, где и как можно использовать технологию ИИ, разработанную компанией.
«В настоящее время существует весьма ограниченное пространство применения ИИ, но скоро придет время, когда технология действительно начнет широко распространяться и производиться», - сказал Агирре. «Стоит обязательно помнить о, например, ядерном оружии – многие люди хотели бы, чтобы его вообще не существовало, но избавиться от него сейчас чрезвычайно сложно».
По материалам www.money.cnn.com