Искусственный интеллект прочно вошел в нашу жизнь, и уже достаточно давно. Тем не менее, миру еще предстоит увидеть искусственный суперинтеллект (ИСИ) – синтетическую систему, обладающую когнитивными способностями, которые превосходят наши собственные по всем параметрам. Но технология интенсивно развивается, и многие исследователи ИИ считают, что эпоха искусственного суперинтеллекта быстро приближается. И никто не может предугадать, что произойдет, когда этот момент наступит.
Целые группы исследователей уже работает над тем, чтобы рост искусственного суперинтеллекта не привел к гибели человечества.
Будущее под угрозой
Сет Баум является исполнительным директором Института риска глобальных катастроф, научного центра, занимающегося предотвращением гибели цивилизации.
Когда Баум рассказывает о своей работе, он поясняет, что деятельность института фокусируется на угрозах выживанию нашего вида, от изменения климата до ядерной войны, от вторжения внеземного разума до искусственного интеллекта.
Когда речь заходит об искусственном интеллекте, в разработке исследователей находится проект, сосредоточенный на рисках, связанных с искусственными суперинтеллектом. Или, как утверждает Баум, они проводят «анализ рисков возможности захвата мира и убийства людей компьютерами». В частности, Баум заявил, что их институт работает над «разработкой структурированных моделей, чтобы помочь людям понять, какими могут быть риски, а также, как максимально снизить возможность этих рисков».
Неудивительно, что задача не из легких. Основная проблема связана с тем фактом, что, в отличие от более распространенных угроз, таких как риск смерти в автомобильной аварии или риск заражения раком, исследователи, работающие над анализом риска, связанного с ИСИ, не имеют базовых тематических исследований для использования при создании своих моделей и прогнозов. Как утверждает Баум, «компьютеры никогда не захватывали мир и убивали всех раньше. Это означает, что мы не можем просто смотреть на ранее полученные данные, что мы делаем для многих других рисков. Это никогда не случалось раньше, сама технология еще не существует. И если ИСИ будет построен, мы не даже уверены, как он будет функционировать».
Итак, как исследователи могут определить риски, создаваемые искусственным суперинтеллектом, если они точно не знают, как будет выглядеть этот интеллект, и у них нет реальных данных для работы?
К счастью, когда дело доходит до искусственного суперинтеллекта, эксперты не полностью находятся в царстве неизвестного. Баум утверждает, что есть некоторые идеи и несколько важных доказательств, но эти факты несистематизированны. Чтобы решить эту проблему, Баум и его команда создают рабочие модели. Они берут доступную информацию, структурируют и систематизируют ее, чтобы исследователи могли лучше понять факторы, которые могут повлиять на исход проблемы, и в конечном итоге лучше понять различные риски, связанные с ИСИ.
Например, при попытке понять, насколько легко создать ИИ, чтобы он действовал безопасно, один из подэтапов, который нужно смоделировать, – это то, смогут ли люди контролировать ИИ. Другими словами, могут ли исследователи ИИ понять, что ИИ опасен и отключить его раньше, чем он выйдет из-под контроля. Чтобы смоделировать этот сценарий и определить, каковы риски и наиболее вероятные сценарии, Баум и его команда получают доступную информацию и мнения исследователей ИИ – все то, что уже известно об технологиях ИИ и о том, как он функционирует. Они моделируют ситуацию путем структурирования вышеупомянутой информации наряду со всеми неточностями в аргументах или наборах данных.
Моделирование не дает нам полной картины того, что произойдет, но это позволяет нам лучше понять риски, с которыми мы столкнемся, когда дело дойдет до роста ИСИ, какие события и результаты, вероятно, конкретные шаги, которые должны предпринять разработчики технологии и исследователи ИИ, чтобы гарантировать, что искусственный суперинтеллект принесет человечеству исключительно пользу.
Конечно, когда дело доходит до рисков, связанных с искусственным суперинтеллектом, это всего лишь небольшая часть гораздо более крупной модели.
Моделирование катастрофы
Чтобы понять, что может привести к глобальной катастрофе, и как мы могли бы это предотвратить, Баум и его команда создали модель, которая исследует возможность потери контроля над деятельностью искусственного суперинтеллекта.
Причем рассматривается не только вариант создания опасного для людей ИСИ, но и возможность того, что уже работающая модель самостоятельно примет решение подвергнуть человека опасности. Одним из важных этапов работы исследователей является изучение того, как предотвратить подобное развитие событий и не дать ИСИ выйти из-под контроля.
В конечном итоге, Баум надеется, что осознание проблемы, в сочетании с моделями, которые сейчас разрабатываются, позволят человечеству лучше подготовится к появлению нового типа искусственного интеллекта.
По материалам www.futureoflife.org