RAND призывает готовиться к худшему с ИИ. И, возможно, даже слишком оптимистичен
Интересная "коллаборация" возникла среди значимых аналитических центров США. Специалисты RAND Corporation Матан Хорев и Джоэл Предд выдали в Foreign Affairs (печатное издание рокфеллеровского CFR) крайне тревожный прогноз развития искусственного интеллекта, связанный с его переходом в AGI.
AGI — это Artificial General Intelligence, форма ИИ, которая способна понимать, учиться и решать задачи на уровне человека, а потенциально и выше. На русский язык это дословно переводится как "Искусственный общий интеллект", но, как правило, используется термин "Сильный искусственный интеллект" (СИИ). В отличие от сегодняшних специализированных ИИ, например ChatGPT или системы распознавания лиц, СИИ будет универсален, сможет адаптироваться к новым ситуациям и выполнять незнакомые задания без дополнительного обучения, как это делает человек.
Среди рисков американские специалисты видят именно неизбежность прорыва ИИ в СИИ и его непредсказуемость — в популярной культуре этот феномен был, например, описан как Skynet в фильме "Терминатор". Нынешний ИИ и так уже значительно превосходит человека в рутинных задачах, и дальнейший рост мощности, автономности и распространённости — лишь вопрос времени. А значит, подготовка к скачку в развитии ИИ должна охватывать не только оптимистичные, но и тяжёлые сценарии, где тот меняет правила игры — в том числе медленно и системно.
В этом случае, по версии экспертов RAND, правительства всего мира вступят на совершенно незнакомую им территорию. В отличие от эпохи атома, когда технологию контролировали госструктуры и у них имелось время для выстраивания стратегии, с ИИ сегодня всё наоборот: крупные компании действуют в целом независимо от властей, а время на адаптацию ограничено. В результате может понадобиться совершенно иная система реакций — вплоть до национализации компаний, занимающихся ИИ, "проактивного" анализа угроз и создания страховочных механизмов.
Америке необходимо действовать так, будто худший сценарий уже возможен, — планируя СИИ не как научную экзотику, а как реальную геополитическую угрозу
, подчёркивают авторы.
Без сомнения, развитие ИИ бросает человечеству фундаментальный вызов с непредсказуемыми последствиями. И чем ближе те же США к бесконтрольному СИИ, тем больше оснований для паники, а не триумфа. Вслед за объявлением условного OpenAI активом американской нацбезопасности и приведением к военной присяге его топ-менеджеров в момент достижения уровня СИИ возникнет множество тонких моментов: от вопросов выживания Homo Sapiens до мухлежа на бирже. Возможен и такой СИИ, который будет специально выглядеть "неполноценным", чтобы избежать ограничений со стороны властей. По собственной воле или по команде менеджмента корпорации.
Сама конкуренция за СИИ способна поставить крест на глобализации, как мы её знаем. Если США и Китай воспримут СИИ как оружие, то будут запрещены трансграничные потоки знаний и кода, начнётся дробление интернета, научного обмена, образовательных программ, и возникнет новый "кибержелезный занавес".
НАТО, G7 и другие блоки тоже могут не справиться с СИИ, потому что они просто не созданы для решения вопросов контроля над технологиями такого масштаба. При этом, как уже сказано, решения о применении СИИ могут приниматься не государствами, а корпорациями, в результате чего возникнет дефицит суверенитета, когда никто в мире не будет по-настоящему управлять искусственным интеллектом в полном объёме.
И это даже не сотая доля вопросов, которые возникнут при осуществлении перехода ИИ в СИИ. Судя по сигналам сразу от двух крупных аналитических центров, в США это понимают — и готовятся к новой реальности.