18.01.2025
Искусственный интелелект

Эссе Леопольда Ашенбреннера СИТУАЦИОННАЯ ОСВЕДОМЛЕННОСТЬ

СИТУАЦИОННАЯ ОСВЕДОМЛЕННОСТЬ: Десятилетие вперед

Леопольд Ашенбреннер, июнь 2024 г.

Впервые увидеть будущее можно в Сан-Франциско.

За последний год разговоры в городе перешли от вычислительных кластеров стоимостью 10 миллиардов долларов к кластерам стоимостью 100 миллиардов долларов и далее к кластерам стоимостью в триллионы долларов. Каждые шесть месяцев к планам совета директоров добавляется еще один ноль. За кулисами идет ожесточенная борьба за каждый оставшийся контракт на поставку электроэнергии на оставшуюся часть десятилетия, за каждый трансформатор напряжения, который, возможно, будет закуплен. Американский крупный бизнес готовится вложить триллионы долларов в давно невиданную мобилизацию американской промышленной мощи. К концу десятилетия производство электроэнергии в Америке вырастет на десятки процентов; от сланцевых месторождений Пенсильвании до солнечных ферм Невады будут гудеть сотни миллионов графических процессоров.

Гонка AGI началась. Мы создаем машины, которые могут думать и рассуждать. К 2025/26 году эти машины опередят многих выпускников колледжей. К концу десятилетия они будут умнее вас или меня; у нас будет суперинтеллект в истинном смысле этого слова. По ходу дела будут задействованы силы национальной безопасности, которых не было полвека, и вскоре Проект будет запущен. Если нам повезет, мы будем в тотальной гонке с КПК; если не повезет, то в тотальной войне.

Сейчас все говорят об ИИ, но мало кто имеет хотя бы слабый проблеск того, что их ждет. Аналитики Nvidia по-прежнему считают, что 2024 год может быть близок к пику. Основные эксперты застряли в преднамеренной слепоте «это просто предсказание следующего слова». Они видят только шумиху и привычный ход дел; в лучшем случае они развлекаются очередным технологическим изменением в масштабах Интернета.

Скоро мир проснется. Но прямо сейчас, возможно, есть несколько сотен людей, большинство из которых находятся в Сан-Франциско и лабораториях ИИ, которые обладают ситуационной осведомленностью . Благодаря каким-то особым силам судьбы я оказался среди них. Несколько лет назад этих людей высмеивали как сумасшедших, но они доверяли трендам, которые позволяли им правильно предсказывать достижения ИИ за последние несколько лет. Правы ли эти люди и относительно следующих нескольких лет, еще предстоит увидеть. Но это очень умные люди — самые умные люди, которых я когда-либо встречал, — и именно они создают эту технологию. Возможно, они станут странной сноской в ​​истории, или, возможно, они войдут в историю, как Силард, Оппенгеймер и Теллер. Если они видят будущее хотя бы близко к правильному, нас ждет дикая поездка.

Позвольте мне рассказать вам, что мы видим.


Оглавление

Каждое эссе должно быть самостоятельным, хотя я настоятельно рекомендую читать серию целиком. Для pdf-версии полной серии эссе нажмите здесь .

Введение [эта страница]
История живет в Сан-Франциско.

I. От GPT-4 к AGI: подсчет OOM
AGI к 2027 году поразительно правдоподобен. GPT-2 к GPT-4 перевел нас от ~дошкольника к ~умным способностям старшеклассника за 4 года. Прослеживая тенденции в вычислениях (~0,5 порядка величины или OOM/год), алгоритмической эффективности (~0,5 OOM/год) и «раскрепощающих» достижениях (от чат-бота до агента), мы должны ожидать еще одного качественного скачка размером с дошкольника к старшекласснику к 2027 году.

II. От AGI к сверхразуму: взрывной интеллект
Прогресс ИИ не остановится на человеческом уровне. Сотни миллионов AGI могли бы автоматизировать исследования ИИ, сжав десятилетие алгоритмического прогресса (5+ OOM) до ≤1 года. Мы быстро перейдем от человеческого уровня к значительно сверхчеловеческим системам ИИ. Мощь — и опасность — сверхразума были бы драматичны.

III. Проблемы

IIIa. Гонка к кластеру в триллион долларов
Самое необычное ускорение техно-капитала было запущено в действие. Поскольку доходы от ИИ быстро растут, многие триллионы долларов будут направлены в GPU, центры обработки данных и наращивание мощности до конца десятилетия. Промышленная мобилизация, включая рост производства электроэнергии в США на десятки процентов, будет интенсивной.

IIIb.  Блокировка лабораторий: безопасность для AGI
Ведущие лаборатории ИИ страны относятся к безопасности как к второстепенной задаче. В настоящее время они, по сути, передают ключевые секреты AGI КПК на блюдечке с голубой каемочкой. Защита секретов и весов AGI от угрозы со стороны государственных субъектов потребует огромных усилий, и мы не на верном пути.

IIIc. Супервыравнивание
Надежное управление системами ИИ, которые намного умнее нас, является нерешенной технической проблемой. И хотя это решаемая проблема, все может легко сойти с рельсов во время быстрого взрыва интеллекта. Управление этим будет чрезвычайно напряженным; неудача может легко стать катастрофической.

IIId. Свободный мир должен победить
Сверхразум даст решающее экономическое и военное преимущество. Китай пока еще не вышел из игры. В гонке за ИИ на карту будет поставлено само выживание свободного мира. Сможем ли мы сохранить свое превосходство над авторитарными державами? И удастся ли нам избежать самоуничтожения на этом пути?

IV. Проект
Поскольку гонка за AGI усиливается, в дело вмешается национальное государство безопасности. USG проснется ото сна, и к 27/28 мы получим некую форму государственного проекта AGI. Ни один стартап не справится со сверхразумом. Где-то в SCIF будет финальная игра.

V. Прощальные мысли
А что, если мы правы?

Когда я работал в OpenAI, все это основано на общедоступной информации, моих собственных идеях, общих полевых знаниях или научно-фантастических слухах. 

Спасибо Колину Бернсу, Авиталю Балвиту, Карлу Шульману, Яну Лейке, Илье Суцкеверу, Холдену Карнофски, Шолто Дугласу, Джеймсу Брэдбери, Дваркеш Пателю и многим другим за содержательные обсуждения. Спасибо многим друзьям за отзывы о ранних черновиках. Спасибо Джо Ронану за помощь с графикой и Нику Уитакеру за помощь с публикацией.

Посвящается Илье Суцкеверу.

I. От GPT-4 до AGI: подсчет OOM

AGI к 2027 году поразительно правдоподобен. GPT-2 к GPT-4 поднял нас от ~дошкольника до ~умных способностей старшеклассника за 4 года. Прослеживая тенденции в вычислительных мощностях (~0,5 порядка величины или OOM/год), алгоритмической эффективности (~0,5 OOM/год) и «раскрепощающих» достижениях (от чат-бота до агента), мы должны ожидать еще одного качественного скачка от дошкольника до старшеклассника к 2027 году. 


Смотрите. Модели, они просто хотят учиться. Вы должны это понять. Модели, они просто хотят учиться.

Илья Суцкевер (около 2015, через Дарио Амодеи )

Возможности GPT-4 стали шоком для многих: система ИИ, которая могла писать код и эссе, могла рассуждать о сложных математических задачах и сдавать экзамены в колледже. Несколько лет назад большинство думало, что это непроницаемые стены.

Но GPT-4 был всего лишь продолжением десятилетия головокружительного прогресса в глубоком обучении. Десятилетием ранее модели едва могли идентифицировать простые изображения кошек и собак; четырьмя годами ранее GPT-2 едва мог связать воедино полуправдоподобные предложения. Теперь мы быстро насыщаем все контрольные показатели, которые только можем придумать. И все же этот драматический прогресс был всего лишь результатом последовательных тенденций в масштабировании глубокого обучения.

Были люди, которые видели это гораздо дольше. Над ними насмехались, но они просто доверяли трендовым линиям. Трендовые линии интенсивны, и они были правы. Модели, они просто хотят учиться; вы их масштабируете, и они узнают больше.

Я утверждаю следующее: поразительно правдоподобно, что к 2027 году модели смогут выполнять работу исследователя/инженера ИИ. Для этого не нужно верить в научную фантастику; для этого нужно просто верить в прямые линии на графике.

Грубые оценки прошлого и будущего масштабирования эффективных вычислений (как физических вычислений, так и алгоритмической эффективности) на основе публичных оценок, обсуждаемых в этой статье. По мере того, как мы масштабируем модели, они последовательно становятся умнее, и «подсчитывая OOM» мы получаем грубое представление о том, какой интеллект модели нам следует ожидать в (ближайшем) будущем. (Этот график показывает только масштабирование в базовых моделях; «распутывания» не показаны.)

В этой статье я просто «подсчитаю OOM» (OOM = порядок величины, 10x = 1 порядок величины): рассмотрим тенденции в 1) вычислениях , 2) алгоритмической эффективности (алгоритмический прогресс, который мы можем рассматривать как рост «эффективных вычислений») и 3) «раскрепощении» прироста (исправление очевидных способов, которыми модели скованы по умолчанию, разблокирование скрытых возможностей и предоставление им инструментов, что приводит к пошаговым изменениям в полезности). Мы прослеживаем рост в каждом из них за четыре года до GPT-4 и то, чего нам следует ожидать в течение четырех лет после, до конца 2027 года. Учитывая последовательные улучшения глубокого обучения для каждого OOM эффективных вычислений, мы можем использовать это для прогнозирования будущего прогресса.

На публичном уровне в течение года с момента выпуска GPT-4 царило затишье , поскольку следующее поколение моделей находилось в стадии разработки, что привело к заявлениям некоторых о застое и о том, что глубокое обучение упирается в стену.

Но, подсчитав ООМ, мы получаем представление о том, чего на самом деле следует ожидать.

Результат довольно прост. Переход от GPT-2 к GPT-4 — от моделей, которые впечатляли тем, что иногда умудрялись связать несколько связных предложений, к моделям, которые отлично сдавали школьные экзамены — не был единовременным достижением. Мы стремительно проходим через OOM, и цифры указывают, что нам следует ожидать еще одного эффективного масштабирования вычислений примерно в 100 000 раз, что приведет к еще одному качественному скачку размером с GPT-2 к GPT-4 — за четыре года. Более того, и это критически важно, это означает не просто лучший чат-бот; выбор многих очевидных низковисящих фруктов на «раскрепощающих» достижениях должен привести нас от чат-ботов к агентам, от инструмента к чему-то, что больше похоже на замену удаленным работникам.

Хотя вывод прост, его значение поразительно. Еще один такой скачок вполне может привести нас к ИИОН, к моделям, таким же умным, как доктора наук или эксперты, которые могут работать рядом с нами как коллеги. Возможно, самое главное, если бы эти системы ИИ могли автоматизировать само исследование ИИ, это привело бы в движение интенсивные циклы обратной связи — тема следующей части в серии .

Даже сейчас едва ли кто-то оценивает все это. Но ситуационная осведомленность об ИИ на самом деле не так уж и сложна, если отойти назад и посмотреть на тенденции. Если вы продолжаете удивляться возможностям ИИ, просто начните считать OOM.

Последние четыре года

Теперь у нас есть машины, с которыми мы можем разговаривать как с людьми . Это замечательное свидетельство человеческой способности приспосабливаться, что это кажется нормальным, что мы привыкли к темпам прогресса. Но стоит сделать шаг назад и взглянуть на прогресс только за последние несколько лет.

GPT-2 в GPT-4

Позвольте мне напомнить вам, как далеко мы продвинулись всего за ~4 (!) года, предшествовавших GPT-4.

GPT-2 (2019) ~ дошкольник : «Ух ты, он может связать вместе несколько правдоподобных предложений». Очень тщательно подобранный пример полусвязной истории о единорогах в Андах, которую он сгенерировал, был невероятно впечатляющим в свое время. И все же GPT-2 едва мог считать до 5, не спотыкаясь;

при резюмировании статьи он оказался лишь немного эффективнее, чем выбор 3 случайных предложений из статьи.

Некоторыйпримерыиз того, что люди считали впечатляющим в GPT-2 в то время. Слева: GPT-2 неплохо справляется с очень простыми вопросами на понимание прочитанного. Справа: В тщательно отобранной выборке (лучшая из 10 попыток) GPT-2 может написать полусвязный абзац, в котором говорится о некоторых полурелевантных вещах о Гражданской войне. 

Сравнивать возможности ИИ с человеческим интеллектом сложно и некорректно, но я думаю, что будет познавательно рассмотреть аналогию здесь, даже если она крайне несовершенна. GPT-2 был шокирующим своим владением языком и своей способностью иногда генерировать полусвязный абзац или иногда правильно отвечать на простые фактические вопросы. Это то, что было бы впечатляющим для дошкольника.

ОПТ-3 (2020)

ученик начальной школы : «Ого, с помощью всего нескольких простых примеров он может выполнять некоторые простые полезные задачи». Он начал быть связным даже в нескольких абзацах гораздо более последовательно, и мог исправлять грамматику и выполнять некоторые очень простые арифметические действия. Впервые он также был коммерчески полезен в нескольких узких направлениях: например, GPT-3 мог генерировать простой текст для SEO и маркетинга.

Некоторыйпримерыиз того, что люди находили впечатляющим в GPT-3 в то время. Вверху: После простой инструкции GPT-3можетиспользовать выдуманное слово в новом предложении. Внизу слева: GPT-3можетучаствовать в насыщенном повествовании туда и обратно. Внизу справа: GPT-3можетсгенерировать очень простой код. 

Опять же, сравнение несовершенно, но то, что впечатлило людей в GPT-3, возможно, было бы впечатляющим для ученика начальной школы: он писал некоторые простые стихи, мог рассказывать более насыщенные и связные истории, мог начать выполнять элементарные коды, мог достаточно надежно обучаться с помощью простых инструкций и демонстраций и так далее.

GPT-4 (2023) ~ умный старшеклассник : «Ого, он может писать довольно сложный код и итеративно отлаживать, он может писать разумно и сложно о сложных предметах, он может рассуждать о сложной математике школьных соревнований, он побеждает подавляющее большинство старшеклассников на любых тестах, которые мы ему даем, и т. д.» От кода до математики и оценок Ферми, он может думать и рассуждать. GPT-4 теперь полезен для моих повседневных задач, от помощи в написании кода до проверки черновиков.

Некоторые из впечатляющих моментов, которые люди нашли в GPT-4, когда он был выпущен, из «Искры AGI” статья. Вверху: Он пишет очень сложный код (создавая графики, показанные в середине) и может рассуждать о нетривиальных математических задачах. Внизу слева: Решение математической задачи AP. Внизу справа: Решение довольно сложной проблемы кодирования. Еще интересные отрывки из этого исследования возможностей GPT-4здесь

На всех экзаменах, от AP до SAT, GPT-4 показывает лучшие результаты, чем подавляющее большинство старшеклассников.

Конечно, даже GPT-4 все еще несколько неровный; для некоторых задач он намного лучше, чем умные старшеклассники, в то время как есть другие задачи, которые он пока не может выполнить. Тем не менее, я склонен думать, что большинство этих ограничений сводятся к очевидным способам, которыми модели все еще скованы, о чем я подробно расскажу позже . Сырой интеллект (в основном) есть, даже если модели все еще искусственно ограничены; потребуется дополнительная работа, чтобы разблокировать модели, способные в полной мере применять этот сырой интеллект в приложениях.

Прогресс всего за четыре года. Где вы на этой линии? 

Темпы развития глубокого обучения за последнее десятилетие просто необычайны. Всего лишь десятилетие назад это было революционным для системы глубокого обучения, способной распознавать простые изображения. Сегодня мы продолжаем пытаться придумать новые, все более сложные тесты, и все же каждый новый бенчмарк быстро взламывается. Раньше на взлом широко используемых бенчмарков уходили десятилетия; теперь это кажется всего лишь месяцами.

Системы глубокого обучения быстро достигают или превосходят человеческий уровень во многих областях. Графика:Наш мир в данных

У нас буквально заканчиваются бенчмарки. Как анекдот, мои друзья Дэн и Коллин создали бенчмарк под названием MMLU несколько лет назад, в 2020 году. Они надеялись, наконец, создать бенчмарк, который выдержит испытание временем, эквивалентный всем самым сложным экзаменам, которые мы даем студентам старших классов и колледжей. Всего три года спустя эта проблема в основном решена: такие модели, как GPT-4 и Gemini, получают ~90%.

В более широком смысле GPT-4 в основном справляется со всеми стандартными тестами на профпригодность в средней школе и колледже.

(И даже один год от GPT-3.5 до GPT-4 часто выводил нас из диапазона, значительно ниже среднего человеческого уровня, на вершину человеческого диапазона.)

ГПТ-4оценкина стандартизированных тестах. Обратите внимание также на большой скачок от GPT-3.5 до GPT-4 в процентиле человека в этих тестах, часто от значительно ниже среднего человеческого до самого верха человеческого диапазона. (И это GPT-3.5, довольно недавняя модель, выпущенная менее чем за год до GPT-4, а не неуклюжая старая GPT-3 уровня начальной школы, о которой мы говорили ранее!)
Серый: Профессиональныйпрогнозы, сделанный в августе 2021 года, для оценки результатов по бенчмарку MATH в июне 2022 года (сложные математические задачи из математических соревнований для старших классов). Красная звезда: фактические результаты по последнему слову техники к июню 2022 года, намного превосходящие даже прогнозы, данные прогнозистами верхнего диапазона. Медианный исследователь ML былеще более пессимистично.

Или рассмотрим тест MATH — набор сложных математических задач из школьных математических олимпиад.

Когда в 2021 году был выпущен бенчмарк, лучшие модели правильно справились только с ~5% задач. А в оригинальной статье отмечалось: «Более того, мы обнаружили, что простое увеличение бюджетов и количества параметров модели будет непрактичным для достижения сильных математических рассуждений, если тенденции масштабирования сохранятся […]. Чтобы добиться большего успеха в решении математических задач, нам, вероятно, понадобятся новые алгоритмические достижения от более широкого исследовательского сообщества» — нам понадобятся фундаментальные новые прорывы для решения MATH, или так они думали. Опрос исследователей МО предсказал минимальный прогресс в ближайшие годы;

и все же всего за год (к середине 2022 года) точность лучших моделей выросла с ~5% до 50% ; теперь задача MATH в основном решена , а ее недавняя производительность превышает 90%.

Снова и снова, год за годом, скептики утверждали, что «глубокое обучение не сможет сделать X», и быстро оказывались неправы.

Если мы и усвоили один урок из последнего десятилетия развития искусственного интеллекта, так это то, что никогда не стоит делать ставки против глубокого обучения.

Теперь самые сложные нерешенные тесты — это тесты вроде GPQA , набор вопросов по биологии, химии и физике на уровне доктора философии. Многие из вопросов кажутся мне тарабарщиной, и даже доктора философии в других научных областях, проводящие 30+ минут с Google, едва ли набирают больше, чем случайный шанс. Claude 3 Opus в настоящее время получает ~60%,

по сравнению с докторами наук в данной области, которые получают ~80% — и я ожидаю, что этот показатель также снизится в следующем поколении или двух.

Примеры вопросов GPQA. Модели уже лучше меня в этом, и мы, вероятно, скоро достигнем уровня эксперта-доктора наук…

Подсчет OOM

Как это произошло? Волшебство глубокого обучения в том, что оно просто работает — и тенденции оказались на удивление последовательными, несмотря на скептиков на каждом шагу.

Эффекты масштабирования вычислений на примереOpenAI Сора.

С каждым OOM эффективных вычислений модели предсказуемо и надежно улучшаются.

Если мы можем посчитать OOM, мы можем (грубо, качественно) экстраполировать улучшения возможностей.

Именно так несколько проницательных людей предвидели приближение GPT-4.

Мы можем разложить прогресс за четыре года от GPT-2 до GPT-4 на три категории масштабирования:

  1. Вычисления : для обучения этих моделей мы используем гораздо более мощные компьютеры.
  2. Эффективность алгоритмов : существует непрерывная тенденция алгоритмического прогресса. Многие из них действуют как «множители вычислений», и мы можем поместить их на единую шкалу растущих эффективных вычислений .
  3. «Раскрепощение» выгод : по умолчанию модели изучают множество удивительных сырых возможностей, но они скованы всевозможными глупыми способами, что ограничивает их практическую ценность. С помощью простых алгоритмических улучшений, таких как обучение с подкреплением на основе обратной связи с человеком (RLHF), цепочка мыслей (CoT), инструменты и скаффолдинг, мы можем разблокировать значительные скрытые возможности.

Мы можем «подсчитать OOM» улучшения по этим осям: то есть проследить масштабирование для каждого в единицах эффективных вычислений. 3x — это 0,5 OOM; 10x — это 1 OOM; 30x — это 1,5 OOM; 100x — это 2 OOM; и так далее. Мы также можем посмотреть, чего нам следует ожидать в дополнение к GPT-4 с 2023 по 2027 год.

Я разберу каждый из них по отдельности, но вывод ясен: мы стремительно мчимся через OOM. В стене данных есть потенциальные встречные ветры, о которых я расскажу, но в целом, похоже, что нам следует ожидать еще одного скачка размером с GPT-2-GPT-4, поверх GPT-4, к 2027 году.

Вычислить

Начну с наиболее часто обсуждаемого фактора недавнего прогресса: добавления (гораздо) большего объема вычислений к моделям.

Многие полагают, что это просто из-за закона Мура. Но даже в старые времена, когда закон Мура был в расцвете, он был сравнительно ледниковым — возможно, 1-1,5 OOM за десятилетие. Мы видим гораздо более быстрые масштабирования в вычислениях — почти в 5 раз быстрее скорости закона Мура — вместо этого из-за гигантских инвестиций. (Трата даже миллиона долларов на одну модель раньше была возмутительной мыслью, которую никто не мог себе представить, а теперь это мелочь!)

            Модель                       Расчетное вычисление                       Рост          
ГПТ-2 (2019) ~4e21 ФЛОП
ОПТ-3 (2020) ~3e23 ФЛОП + ~2 OOM
ГПТ-4 (2023) 8e24 до 4e25 ФЛОП + ~1,5–2 OOM
Оценки вычислений для GPT-2 — GPT-4 от Epoch AI

Мы можем использовать публичные оценки Epoch AI (источник, широко уважаемый за свой превосходный анализ тенденций в области ИИ), чтобы проследить масштабирование вычислений с 2019 по 2023 год. GPT-2 к GPT-3 был быстрым масштабированием; был большой избыток вычислений, масштабирование от небольшого эксперимента до использования целого центра обработки данных для обучения большой языковой модели. С масштабированием от GPT-3 к GPT-4 мы перешли к современному режиму: пришлось построить совершенно новый (гораздо больший) кластер для следующей модели. И все же резкий рост продолжался. В целом оценки Epoch AI показывают, что обучение GPT-4 использовало примерно в 3000-10000 раз больше сырых вычислений, чем GPT-2.

В общих чертах, это всего лишь продолжение более долгой тенденции. За последние полтора десятилетия, в первую очередь из-за масштабирования инвестиций (и специализированных чипов для рабочих нагрузок ИИ в виде графических процессоров и тензорных процессоров), тренировочные вычисления, используемые для передовых систем ИИ, выросли примерно на ~0,5 OOM/год.

Тренировочные вычисления известных моделей глубокого обучения с течением времени. Источник:Эпоха ИИ

Масштабирование вычислений с GPT-2 до GPT-3 за год было необычным нависанием, но все указывает на то, что долгосрочная тенденция сохранится. Мельница слухов в Сан-Франциско гудит от драматических историй об огромных заказах на GPU. Инвестиции, которые будут задействованы, будут экстраординарными, но они уже в движении. Я расскажу об этом подробнее позже в серии, в IIIa. Гонка за кластером стоимостью в триллион долларов ; исходя из этого анализа, дополнительные 2 OOM вычислений (кластер стоимостью в десятки миллиардов долларов) кажутся весьма вероятными к концу 2027 года; даже кластер, близкий к +3 OOM вычислений (более 100 миллиардов долларов), кажется правдоподобным (и, по слухам, находится в разработке в Microsoft/OpenAI).

Алгоритмическая эффективность

В то время как всеобщее внимание уделяется крупным инвестициям в вычислительную технику, алгоритмический прогресс, вероятно, является не менее важным двигателем прогресса (и его существенно недооценивают).

Чтобы увидеть, насколько важным может быть прогресс алгоритмов, рассмотрим следующую иллюстрацию снижения цены для достижения ~50% точности в тесте MATH (математика школьного турнира) всего за два года. (Для сравнения, аспирант по информатике, который не особенно любил математику, набрал 40%, так что это уже довольно неплохо.) Эффективность вывода возросла почти на 3 OOM — в 1000 раз — менее чем за два года.

Грубая оценка относительной стоимости вывода для достижения ~50% производительности по математике.

Хотя эти цифры относятся только к эффективности вывода (которая может соответствовать или не соответствовать повышению эффективности обучения, поскольку цифры сложнее вывести из общедоступных данных), они ясно показывают, что возможен и происходит огромный прогресс в алгоритмах.

В этой статье я выделю два вида алгоритмического прогресса. Здесь я начну с рассмотрения «внутрипарадигмальных» алгоритмических улучшений — тех, которые просто приводят к лучшим базовым моделям, и тех, которые напрямую действуют как вычислительная эффективность или вычислительные множители . Например, лучший алгоритм может позволить нам достичь той же производительности, но с 10-кратным сокращением вычислений для обучения. В свою очередь, это будет действовать как 10-кратное (1 OOM) увеличение эффективных вычислений . (Позже я расскажу о «распутывании», которое вы можете рассматривать как «расширение парадигмы/расширение приложения» алгоритмического прогресса, который разблокирует возможности базовых моделей.)

Если мы отступим назад и посмотрим на долгосрочные тенденции, то, похоже, найдем новые алгоритмические улучшения с довольно постоянной скоростью. Отдельные открытия кажутся случайными, и на каждом шагу есть непреодолимые препятствия, но долгосрочная линия тренда предсказуема, это прямая линия на графике. Доверяйте линии тренда.

У нас самые лучшие данные по ImageNet (где алгоритмические исследования в основном были общедоступны, и у нас есть данные за десятилетие), для которой мы последовательно повышали эффективность вычислений примерно на ~0,5 OOM/год в течение 9-летнего периода с 2012 по 2021 год.

Мы можем измерить алгоритмический прогресс: насколько меньше вычислений потребуется в 2021 году по сравнению с 2012 годом для обучения модели с той же производительностью? Мы видим тенденцию ~0,5 OOM/год алгоритмической эффективности. Источник:Эрдил и Бесироглу 2022

Это очень важно: это значит, что спустя 4 года мы сможем достичь той же производительности, затратив примерно в 100 раз меньше вычислений (и одновременно добиться гораздо более высокой производительности при тех же вычислениях!).

К сожалению, поскольку лаборатории не публикуют внутренние данные по этому вопросу, сложнее измерить алгоритмический прогресс для передовых LLM за последние четыре года. EpochAI имеет новую работу, воспроизводящую их результаты на ImageNet для моделирования языка, и оценивает аналогичную тенденцию алгоритмической эффективности ~0,5 OOM/год в LLM с 2012 по 2023 год. (Хотя это имеет более широкие полосы погрешности и не охватывает некоторые более недавние достижения, поскольку ведущие лаборатории прекратили публиковать свою алгоритмическую эффективность.)

Оценки Epoch AIалгоритмической эффективности в языковом моделировании. Их оценки показывают, что мы достигли ~4 OOM прироста эффективности за 8 лет. 

Если взглянуть на последние 4 года более конкретно, переход от GPT-2 к GPT-3 был по сути простым масштабированием (согласно статье ), но с момента GPT-3 было много публично известных и публично предполагаемых достижений:

  • Мы можем сделать вывод о выгодах, исходя из затрат на API:
    • GPT-4 на момент выпуска стоил примерно столько же, сколько и GPT-3 на момент его выпуска, несмотря на колоссальный прирост производительности.

      (Если провести наивную и упрощенную оценку на основе законов масштабирования, то можно предположить, что, возможно, примерно половина эффективного увеличения вычислительной мощности от GPT-3 до GPT-4 была получена за счет усовершенствований алгоритмов.

      )

    • С момента выпуска GPT-4 год назад цены OpenAI на модели уровня GPT-4 упали еще в 6/4 раза (вход/выход) с выпуском GPT-4o.
    • Недавно выпущенный Gemini 1.5 Flash обеспечивает производительность на уровне от «GPT-3.75-level» до GPT-4.

      при этом стоимость в 85x/57x (вход/выход) меньше, чем у оригинального GPT-4 (необычайный выигрыш!).

  • Законы масштабирования Шиншиллы дают прирост эффективности в 3 раза и более (0,5 OOMs+).
  • Gemini 1.5 Pro заявил о значительном повышении эффективности вычислений (превосходя Gemini 1.0 Ultra, при этом используя «значительно меньше» вычислений), с Mixture of Experts (MoE) в качестве выделенного изменения архитектуры. Другие статьи также заявляют о существенном кратном увеличении вычислений от MoE.
  • За все время было внесено множество изменений и улучшений в архитектуру , данные , стек обучения и т. д .

В целом общедоступная информация свидетельствует о том, что переход от GPT-2 к GPT-4 привел к повышению эффективности алгоритмов на 1-2 OOM.

В течение 4 лет после GPT-4 следует ожидать сохранения этой тенденции:

в среднем 0,5 OOM/год вычислительной эффективности, т.е. ~2 OOM прироста по сравнению с GPT-4 к 2027 году. Хотя вычислительную эффективность будет все труднее находить, поскольку мы собираем низко висящие фрукты, инвестиции в лаборатории ИИ в деньги и таланты для поиска новых алгоритмических улучшений быстро растут.

(По крайней мере, эффективность затрат на публично выводимые выводы, похоже, нисколько не снизилась.) На более высоком уровне мы могли бы даже увидеть более фундаментальные прорывы, подобные Трансформеру.

с еще большими выгодами.

В совокупности это говорит о том, что к концу 2027 года нам следует ожидать прироста эффективности алгоритмов примерно на 1–3 OOM (по сравнению с GPT-4), возможно, с наиболее вероятным прогнозом в ~2 OOM.

Стена данных

Существует потенциально важный источник дисперсии для всего этого: у нас заканчиваются интернет-данные. Это может означать, что очень скоро наивный подход к предварительной подготовке более крупных языковых моделей на более тщательно отобранных данных может начать сталкиваться с серьезными узкими местами.

Модели Frontier уже обучены на большей части интернета. Например, Llama 3 был обучен на более чем 15T токенов . Common Crawl, свалка большей части интернета , используемая для обучения LLM , содержит >100T токенов в сыром виде, хотя большая часть из них — спам и дублирование (например, относительно простая дедупликация приводит к 30T токенов, что подразумевает, что Llama 3 уже использует практически все данные). Более того, для более специфичных доменов, таких как код, токенов все еще гораздо меньше, например, публичные репозитории github оцениваются в несколько триллионов токенов.

Вы можете пойти немного дальше, повторяя данные, но академическая работа по этому вопросу предполагает, что повторение не дает результатов, обнаружив, что после 16 эпох (16-кратное повторение) отдача очень быстро уменьшается до нуля. В какой-то момент, даже при большем (эффективном) вычислении, улучшение ваших моделей может стать намного сложнее из-за ограничений данных. Это не следует недооценивать: мы ехали по кривым масштабирования, ехали на волне парадигмы языкового моделирования-предобучения, и без чего-то нового здесь эта парадигма (по крайней мере, наивно) исчерпает себя. Несмотря на огромные инвестиции, мы бы остановились. Ходят слухи, что все лаборатории делают огромные исследовательские ставки на новые алгоритмические улучшения или подходы, чтобы обойти это. Исследователи якобы пробуют множество стратегий, от синтетических данных до самостоятельной игры и подходов RL . Инсайдеры отрасли, похоже, настроены весьма оптимистично: Дарио Амодеи (генеральный директор Anthropic) недавно сказал в подкасте : «Если смотреть на это очень наивно, то мы не так уж далеки от исчерпания данных […] Я предполагаю, что это не станет препятствием […] Просто есть много разных способов сделать это». Конечно, любые результаты исследований по этому вопросу являются частной собственностью и в настоящее время не публикуются.

В дополнение к инсайдерскому бычьему оптимизму, я думаю, есть веские интуитивные доводы в пользу того, почему должно быть возможно найти способы обучения моделей с гораздо лучшей эффективностью выборки (улучшения алгоритмов, которые позволяют им большему учиться на ограниченных данных). Подумайте, как бы вы или я учились по очень плотному учебнику по математике:

  • По сути, современный магистр права во время обучения очень-очень быстро просматривает учебник, не тратя на это много мозговой активности,   слова просто пролетают мимо .
  • Вместо этого, когда мы с вами читаем учебник по математике, мы медленно читаем пару страниц; затем у нас в голове возникает внутренний монолог о материале, и мы обсуждаем его с несколькими товарищами по учебе; читаем еще одну или две страницы; затем пытаемся решить несколько практических задач, терпим неудачу, пытаемся решить их снова по-другому, получаем обратную связь по этим задачам, пытаемся снова, пока не решим задачу правильно; и так далее, пока в конце концов материал «не зацепит».
  • Вы или я также не узнали бы многого из прочтения плотного учебника по математике, если бы мы могли только быстро его прочесть, как студенты магистратуры.
  • Но, возможно, тогда есть способы включить аспекты того, как люди будут переваривать плотный учебник по математике, чтобы позволить моделям узнать гораздо больше из ограниченных данных. В упрощенном смысле, такого рода вещи — внутренний монолог о материале, обсуждение с товарищем по учебе, попытки и неудачи в решении задач, пока не получится — это то, что пытаются сделать многие подходы синтетических данных/самостоятельной игры/RL.

Старое состояние искусства моделей обучения было простым и наивным, но оно работало, поэтому никто на самом деле не пытался взломать эти подходы к эффективности выборки. Теперь, когда это может стать более ограничивающим фактором, мы должны ожидать, что все лаборатории вложат миллиарды долларов и свои самые умные умы, чтобы взломать его. Распространенная закономерность в глубоком обучении заключается в том, что требуется много усилий (и много неудачных проектов), чтобы получить правильные детали, но в конечном итоге какая-то версия очевидной и простой вещи просто работает. Учитывая, как глубокое обучение умудрилось прорваться сквозь каждую предполагаемую стену за последнее десятилетие, мой базовый сценарий заключается в том, что здесь будет то же самое.

Более того, на самом деле кажется возможным, что взлом одной из этих алгоритмических ставок, таких как синтетические данные, может значительно улучшить модели. Вот насос интуиции. Современные передовые модели, такие как Llama 3, обучаются в Интернете, а Интернет в основном — это ерунда, как электронная коммерция или SEO или что-то еще. Многие LLM тратят большую часть своих учебных вычислений на эту ерунду, а не на действительно высококачественные данные (например, цепочки рассуждений людей, работающих над сложными научными проблемами). Представьте, если бы вы могли потратить вычисления уровня GPT-4 на исключительно высококачественные данные — это могла бы быть гораздо, гораздо более способная модель.

Здесь также будет полезно вспомнить AlphaGo — первую систему искусственного интеллекта, которая победила чемпионов мира по игре в го за десятилетия до того, как это стало возможным.

  • На этапе 1 AlphaGo был обучен имитационным обучением на опытных играх в Го. Это дало ему основу.
  • На шаге 2 AlphaGo сыграл миллионы игр против себя. Это позволило ему стать сверхчеловеком в го: вспомните знаменитый ход 37 в игре против Ли Седоля, крайне необычный, но блестящий ход, который человек никогда бы не сделал.

Разработка эквивалента шага 2 для LLM является ключевой исследовательской проблемой для преодоления стены данных (и, более того, в конечном итоге станет ключом к достижению уровня интеллекта, превосходящего человеческий).

Все это говорит о том, что ограничения данных, похоже, вводят большие планки погрешностей в любом направлении в прогнозирование будущих лет прогресса ИИ. Существует вполне реальная вероятность того, что все застопорится (степени LLM могут быть такими же важными, как интернет, но мы не доберемся до по-настоящему сумасшедшего AGI). Но я думаю, разумно предположить, что лаборатории это сделают, и что это не только сохранит кривые масштабирования, но и, возможно, позволит получить огромный прирост в возможностях модели.

Кстати, это также означает, что в ближайшие годы нам следует ожидать большего расхождения между различными лабораториями по сравнению с сегодняшним днем. До недавнего времени публиковались самые современные методы, поэтому все в основном делали одно и то же. (И новые выскочки или проекты с открытым исходным кодом могли легко конкурировать с передовой, поскольку рецепт был опубликован.) Теперь ключевые алгоритмические идеи становятся все более проприетарными. Я бы ожидал, что подходы лабораторий будут расходиться гораздо больше, и некоторые будут продвигаться быстрее других — даже лаборатория, которая сейчас кажется передовой, может застрять на стене данных, в то время как другие совершат прорыв, который позволит им вырваться вперед. И открытому исходному коду будет гораздо сложнее конкурировать. Это, безусловно, сделает вещи интересными. (И если и когда лаборатория это поймет, ее прорыв станет ключом к AGI, ключом к сверхинтеллекту — одному из самых ценных секретов Соединенных Штатов .)

Распутывание

Наконец, самая сложная для количественной оценки, но не менее важная категория улучшений: то, что я называю «раскрепощением».

Представьте, что когда вас просят решить сложную математическую задачу, вам нужно немедленно ответить первым, что пришло в голову. Кажется очевидным, что вам будет трудно, за исключением самых простых задач. Но до недавнего времени именно так мы заставляли LLM решать математические задачи. Вместо этого большинство из нас прорабатывают задачу шаг за шагом в блокноте и способны решать гораздо более сложные задачи таким образом. Подсказки «цепочки мыслей» открыли это для LLM. Несмотря на превосходные исходные способности, они были намного хуже в математике, чем могли бы быть, потому что их сковывали очевидным образом, и потребовалась небольшая алгоритмическая настройка, чтобы открыть гораздо большие возможности.

За последние несколько лет мы добились огромных успехов в «раскрепощении» моделей. Это алгоритмические улучшения, выходящие за рамки простого обучения лучших базовых моделей — и часто использующие лишь часть предтренировочных вычислений — которые раскрывают возможности модели:

  • Обучение с подкреплением на основе обратной связи с человеком (RLHF) . Базовые модели обладают невероятными скрытыми возможностями,

     но они сырые и с ними невероятно сложно работать. Хотя популярная концепция RLHF заключается в том, что он просто цензурирует ругательства, RLHF сыграл ключевую роль в том, чтобы сделать модели действительно полезными и коммерчески ценными (вместо того, чтобы заставлять модели предсказывать случайный интернет-текст, заставьте их на самом деле применить свои возможности, чтобы попытаться ответить на ваш вопрос!). В этом и заключалась магия ChatGPT — хорошо сделанный RLHF впервые сделал модели пригодными для использования и полезными для реальных людей. В оригинальной статье InstructGPT есть прекрасная количественная оценка этого: небольшая модель с RLHF была эквивалентна не-RLHF более чем в 100 раз большей модели с точки зрения предпочтений человека-оценщика.

  • Цепь мыслей (CoT). Как обсуждалось. CoT начал широко использоваться всего 2 года назад и может обеспечить эквивалент >10-кратного эффективного увеличения вычислительных возможностей при решении математических/логических задач.
  • Scaffolding . Подумайте о CoT++: вместо того, чтобы просто попросить модель решить проблему, попросите одну модель составить план атаки, попросите другую предложить кучу возможных решений, попросите третью критиковать ее и т. д. Например , на HumanEval (проблемы кодирования) простой scaffolding позволяет GPT-3.5 превзойти неscaffolding GPT-4. На SWE-Bench (тест решения реальных задач по программной инженерии) GPT-4 может решить только ~2% правильно, в то время как с агентским scaffolding Девина он подскакивает до 14-23%. (Однако разблокировка агентства находится только в зачаточном состоянии, о чем я расскажу позже.)
  • Инструменты: Представьте, если бы людям не разрешалось пользоваться калькуляторами или компьютерами. Мы только в начале пути, но ChatGPT уже может использовать веб-браузер, запускать какой-то код и т. д.
  • Длина контекста . Модели перешли от контекста 2 тыс. токенов (GPT-3) к контексту 32 тыс. (выпуск GPT-4) и к контексту 1 млн+ (Gemini 1.5 Pro). Это огромное дело. Гораздо меньшая базовая модель, скажем, со 100 тыс. токенов релевантного контекста, может превзойти модель, которая намного больше, но имеет только, скажем, 4 тыс. релевантных токенов контекста — больше контекста фактически дает большой прирост вычислительной эффективности.

    В более общем плане контекст является ключом к разблокировке многих приложений этих моделей: например, многие приложения кодирования требуют понимания больших частей кодовой базы, чтобы с пользой вносить новый код; или, если вы используете модель, чтобы помочь вам написать документ на работе, ей действительно нужен контекст из множества связанных внутренних документов и разговоров. Gemini 1.5 Pro с его контекстом из 1 млн токенов даже смог выучить новый язык (язык с низкими ресурсами, которого нет в Интернете) с нуля, просто поместив словарь и справочные материалы по грамматике в контекст!

  • Улучшения после обучения.  Текущая версия GPT-4 существенно улучшилась по сравнению с оригинальной версией GPT-4 на момент ее выпуска, по словам Джона Шульмана, благодаря улучшениям после обучения, которые раскрыли скрытые возможности модели: в оценках рассуждений она добилась существенного прогресса (например, ~50% -> 72% по MATH, ~40% до ~50% по GPQA), а в таблице лидеров LMSys она поднялась почти на 100 пунктов в рейтинге ELO (сравнимо с разницей в рейтинге ELO между Claude 3 Haiku и гораздо более крупной Claude 3 Opus, моделями, которые имеют разницу в цене примерно в 50 раз ).

Исследование Epoch AI некоторых из этих методов, таких как скаффолдинг, использование инструментов и т. д., показало, что такие методы обычно могут приводить к эффективному вычислительному приросту в 5–30 раз во многих тестах. METR (организация, которая оценивает модели) также обнаружила очень большие улучшения производительности в своем наборе агентских задач путем отсоединения от той же базовой модели GPT-4: с 5% только с базовой моделью до 20% с GPT-4 в качестве постобучения при выпуске и почти до 40% сегодня за счет лучшего постобучения, инструментов и скаффолдинга агентов.

Производительность по агентским задачам METR с течением времени за счет лучшего освобождения. Источник:Оценка модели и исследование угроз

Хотя их трудно поместить в единую эффективную шкалу вычислений с вычислительной и алгоритмической эффективностью, очевидно, что это огромный прирост, по крайней мере, примерно такой же величины, как масштабирование вычислений и алгоритмическая эффективность. (Это также подчеркивает центральную роль алгоритмического прогресса: 0,5 OOM/год вычислительной эффективности, уже существенные, являются лишь частью истории, а в сочетании с неуклонным алгоритмическим прогрессом в целом, возможно, даже составляют большую часть прироста в текущей тенденции.)

«Распутывание» — это то, что фактически позволило этим моделям стать полезными, и я бы сказал, что большая часть того, что сдерживает многие коммерческие приложения сегодня, — это необходимость дальнейшего «распутывания» такого рода. Действительно, сегодняшние модели все еще невероятно спутаны ! Например:

  • У них нет долговременной памяти.
  • Они не умеют пользоваться компьютером (их набор инструментов по-прежнему весьма ограничен).
  • Они по-прежнему в основном не думают, прежде чем говорят. Когда вы просите ChatGPT написать эссе, это все равно, что ожидать, что человек напишет эссе, используя свой первоначальный поток сознания.
  • Они (в основном) могут участвовать только в коротких диалогах, вместо того чтобы уйти на день или неделю, подумать о проблеме, изучить различные подходы, проконсультироваться с другими людьми, а затем написать вам более подробный отчет или запрос на внесение изменений.
  • Они в основном не персонализированы под вас или ваше приложение (просто стандартный чат-бот с короткими подсказками, а не со всей необходимой информацией о вашей компании и вашей работе).

Возможности здесь огромны, и мы быстро собираем здесь низко висящие фрукты. Это критически важно: совершенно неправильно просто представлять себе «GPT-6 ChatGPT».  При продолжающемся неуклонном прогрессе улучшения будут пошаговыми изменениями по сравнению с GPT-6 + RLHF. К 2027 году вместо чат-бота у вас будет что-то, что больше похоже на агента, на коллегу.

От чат-бота до агента-коллеги

Как может выглядеть амбициозное освобождение в ближайшие годы? Я думаю, что есть три ключевых ингредиента:

1. Решение «проблемы адаптации»

GPT-4 обладает сырым интеллектом, чтобы выполнять приличную часть работы многих людей, но это своего рода умный новый сотрудник, который появился только 5 минут назад: у него нет никакого соответствующего контекста, он не читал корпоративные документы или историю Slack, не общался с членами команды и не потратил время на изучение внутренней кодовой базы компании. Умный новый сотрудник не так уж полезен через 5 минут после прибытия, но он весьма полезен через месяц! Кажется, что должно быть возможно, например, с помощью очень длинного контекста, «вводить в эксплуатацию» модели, как мы бы сделали это с новым коллегой-человеком. Это само по себе было бы огромным открытием.

2. Нависание вычислений во время тестирования (рассуждение/исправление ошибок/система II для задач с большим горизонтом)

Сейчас модели в основном могут выполнять только короткие задачи: вы задаете им вопрос, и они дают вам ответ. Но это крайне ограничивает. Самая полезная когнитивная работа, которую делают люди, имеет более длительный горизонт — она занимает не просто 5 минут, а часы, дни, недели или месяцы.

Ученый, который мог думать о сложной проблеме только 5 минут, не смог бы совершить никаких научных прорывов. Инженер-программист, который мог бы написать только скелет кода для одной функции, когда его об этом попросили, не был бы очень полезен — инженерам-программистам дают более масштабную задачу, а затем они составляют план, разбираются в соответствующих частях кодовой базы или технических инструментах, пишут различные модули и тестируют их пошагово, отлаживают ошибки, ищут в пространстве возможных решений и в конечном итоге отправляют большой запрос на включение, который является кульминацией недель работы. И так далее.

По сути, существует большой перевес вычислений во время тестирования. Думайте о каждом токене GPT-4 как о слове внутреннего монолога, когда вы думаете о проблеме. Каждый токен GPT-4 довольно умен, но в настоящее время он может эффективно использовать только порядка ~ сотен токенов для связных цепочек мыслей (эффективно, как если бы вы могли потратить только несколько минут внутреннего монолога/размышлений над проблемой или проектом).

А что, если бы можно было использовать миллионы токенов для обдумывания и работы над действительно сложными проблемами или более крупными проектами?

Количество токенов Это эквивалентно тому, что я работаю над чем-то для…
100-е Несколько минут ChatGPT (мы здесь)
1000-е Полчаса +1 OOMs тестовое время вычисления
10000-е Половина рабочего дня +2 OOM
100,000-е Рабочая неделя +3 OOM
Миллионы Несколько месяцев +4 OOM
Предположим, что человек думает со скоростью ~100 токенов в минуту и ​​работает 40 часов в неделю. Переведем «сколько времени думает модель» в токенах в человеческое время, затрачиваемое на решение данной проблемы/проекта.

Даже если бы интеллект «на токен» был тем же самым, это была бы разница между умным человеком, тратящим несколько минут и несколько месяцев на решение проблемы. Не знаю, как вы, но я способен на гораздо, гораздо, гораздо больше за несколько месяцев и несколько минут. Если бы мы могли разблокировать «способность думать и работать над чем-то в течение месяцев, а не нескольких минут» для моделей, это разблокировало бы безумный скачок в возможностях. Здесь есть огромный навес, стоимостью во много OOM.

Прямо сейчас модели пока не могут этого сделать. Даже с учетом последних достижений в области длинного контекста, этот длинный контекст в основном работает только для потребления токенов, а не для производства токенов — через некоторое время модель сходит с рельсов или застревает. Она пока не может отвлечься на некоторое время, чтобы поработать над проблемой или проектом самостоятельно.

Но разблокировка вычислений во время тестирования может быть всего лишь вопросом относительно небольших «раскрепощающих» алгоритмических побед. Возможно, небольшое количество RL помогает модели научиться исправлять ошибки («хм, это выглядит неправильно, позвольте мне еще раз проверить»), строить планы, искать возможные решения и так далее. В некотором смысле, модель уже имеет большую часть сырых возможностей, ей просто нужно изучить несколько дополнительных навыков, чтобы собрать все это воедино.

По сути, нам просто нужно обучить модель своего рода внешнему циклу Системы II.

что позволяет ему рассуждать о сложных, долгосрочных проектах.

Если нам удастся обучить этому внешнему циклу, то вместо короткого ответа чат-бота в пару абзацев представьте поток из миллионов слов (поступающих быстрее, чем вы успеваете их прочитать), поскольку модель обдумывает проблемы, использует инструменты, пробует разные подходы, проводит исследования, пересматривает свою работу, координирует работу с другими и самостоятельно завершает крупные проекты.

3. Использование компьютера

Это, пожалуй, самый простой из трех. ChatGPT сейчас в основном похож на человека, который сидит в изолированном ящике, которому вы можете отправлять текстовые сообщения. В то время как ранние улучшения, облегчающие работу, учат модели использовать отдельные изолированные инструменты, я ожидаю, что с помощью мультимодальных моделей мы скоро сможем сделать это одним махом: мы просто дадим моделям возможность использовать компьютер так, как это делает человек.

Это означает присоединение к вашим звонкам Zoom, исследование информации в Интернете, отправку сообщений и электронных писем людям, чтение общих документов, использование ваших приложений и инструментов разработки и т. д. (Разумеется, для того чтобы модели могли максимально эффективно использовать это в циклах с более длительным горизонтом, это будет идти рука об руку с разблокировкой вычислений во время тестирования.)

К концу этого я ожидаю, что мы получим что-то, что будет очень похоже на удаленного работника . Агент, который присоединяется к вашей компании, принимается на работу как новый человек, пишет вам и коллегам в Slack и использует ваше программное обеспечение, делает запросы на включение, и который, учитывая большие проекты, может сделать модельный эквивалент человека, который уходит на недели, чтобы самостоятельно завершить проект. Вам, вероятно, понадобятся несколько лучшие базовые модели, чем GPT-4, чтобы разблокировать это, но, возможно, даже не намного лучше — много сока в исправлении понятных и основных способов, которыми модели все еще скованы.

Очень ранний взгляд на то, как это может выглядеть, выглядит так:Девин, ранний прототип разблокировки «агентского навеса»/«вычислительного навеса времени тестирования» на моделях на пути к созданию полностью автоматизированного инженера-программиста. Я не знаю, насколько хорошо Devin работает на практике, и эта демонстрация все еще очень ограничена по сравнению с тем, что может дать правильное распутывание чат-бота → агента, но это полезный тизер того, что скоро появится.

Кстати, я ожидаю, что центральное положение освобождения от пут приведет к довольно интересному эффекту «звукового удара» с точки зрения коммерческих приложений. Промежуточные модели между настоящим и удаленным работником потребуют тонны волочения, чтобы изменить рабочие процессы и построить инфраструктуру для интеграции и извлечения экономической выгоды. Удаленного работника будет значительно легче интегрировать — просто, ну, дайте им автоматизировать все работы, которые можно выполнить удаленно. Кажется правдоподобным, что волочение займет больше времени, чем освобождение от пут, то есть к тому времени, когда удаленный работник сможет автоматизировать большое количество работ, промежуточные модели еще не будут полностью освоены и интегрированы — поэтому скачок в создаваемой экономической выгоде может быть несколько прерывистым.

Следующие четыре года

Сводка оценок факторов прогресса за четыре года, предшествовавших GPT-4, и то, чего нам следует ожидать в течение четырех лет после GPT-4. 

Если сложить все цифры, то (приблизительно) следует ожидать еще одного скачка от GPT-2 к GPT-4 в течение четырех лет после GPT-4, к концу 2027 года.

  • Переход от GPT-2 к GPT-4 ознаменовался примерно 4,5–6 OOM базового эффективного масштабирования вычислений (физическая вычислительная и алгоритмическая эффективность), а также значительными «раскрепощающими» преимуществами (от базовой модели до чат-бота).
  • В последующие 4 года следует ожидать 3–6 OOM базового эффективного масштабирования вычислений (физической вычислительной и алгоритмической эффективности) — возможно, с наилучшим предположением около 5 OOM — плюс постепенные изменения в полезности и приложениях, разблокированных за счет «раскрепощения» (от чат-бота до удаленного агента/внедряемого удаленного работника).

Чтобы представить это в перспективе, предположим, что обучение GPT-4 заняло 3 месяца. В 2027 году ведущая лаборатория ИИ сможет обучить модель уровня GPT-4 за минуту.

 Эффективное масштабирование вычислений OOM будет значительным.

Куда это нас приведет?

Резюме подсчета ООМ.

GPT-2 к GPT-4 перевел нас от ~дошкольника к ~умному старшекласснику; от того, кто едва мог выдать несколько связных предложений, до того, кто сдал экзамены в старшей школе и стал полезным помощником по кодированию. Это был безумный скачок. Если это пробел в интеллекте, который мы снова закроем, куда это нас приведет?

Не стоит удивляться, если это заведет нас очень, очень далеко. Скорее всего, это приведет нас к моделям, которые смогут превзойти докторов наук и лучших экспертов в данной области.

(Один из хороших способов представить это заключается в том, что текущая тенденция развития ИИ идет примерно в 3 раза быстрее, чем развитие ребенка. Ваш ребенок, который развивается в 3 раза быстрее, только что окончил среднюю школу; он отнимет у вас работу, прежде чем вы это поймете!)

Опять же, важно не просто представить себе невероятно умный ChatGPT: очевидный прогресс должен означать, что он больше похож на удаленного работника, невероятно умного агента, который может рассуждать, планировать, исправлять ошибки, знает все о вас и вашей компании и может работать над проблемой самостоятельно в течение нескольких недель.

К 2027 году мы на пути к созданию AGI. Эти системы ИИ, по сути, смогут автоматизировать практически все когнитивные задачи (подумайте: все задачи, которые можно выполнять удаленно).

Чтобы было ясно — погрешности большие. Прогресс может остановиться, поскольку у нас закончатся данные, если алгоритмические прорывы, необходимые для прорыва сквозь стену данных, окажутся сложнее, чем ожидалось. Возможно, распутывание не зайдет так далеко, и мы застрянем только с экспертными чат-ботами, а не с экспертами-коллегами. Возможно, десятилетние трендовые линии сломаются, или масштабирование глубокого обучения на этот раз действительно упрется в стену. (Или алгоритмический прорыв, даже простое распутывание, которое высвобождает вычислительный навес времени тестирования, может стать сдвигом парадигмы, еще больше ускоряя процесс и приводя к AGI еще раньше.)

В любом случае, мы стремительно продвигаемся вперед, и не требуется никаких эзотерических верований, а лишь экстраполяция тенденций прямых линий, чтобы крайне серьезно отнестись к возможности появления ИИОН — настоящего ИИОН — к 2027 году.

Похоже, что многие сейчас находятся в игре по определению ИИ с понижением, как просто действительно хорошего чат-бота или чего-то еще. Я имею в виду систему ИИ, которая могла бы полностью автоматизировать мою работу или работу моих друзей, которая могла бы полностью выполнять работу исследователя или инженера ИИ. Возможно, некоторые области, такие как робототехника, могут потребовать больше времени для понимания по умолчанию. И общественное внедрение, например, в медицинских или юридических профессиях, может быть легко замедлено общественным выбором или регулированием. Но как только модели смогут автоматизировать само исследование ИИ, этого будет достаточно — достаточно, чтобы запустить интенсивные циклы обратной связи — и мы могли бы очень быстро добиться дальнейшего прогресса, автоматизированные инженеры ИИ сами решат все оставшиеся узкие места для полной автоматизации всего. В частности, миллионы автоматизированных исследователей могли бы очень правдоподобно сжать десятилетие дальнейшего алгоритмического прогресса до года или меньше. ИИ будет всего лишь небольшим проявлением сверхразума, который вскоре появится. (Подробнее об этом в следующей части .)

В любом случае, не ждите, что головокружительный темп прогресса снизится. Линии тренда выглядят невинными, но их последствия интенсивны. Как и каждое поколение до них, каждое новое поколение моделей будет ошеломлять большинство наблюдателей; они будут недоверчивы, когда очень скоро модели будут решать невероятно сложные научные проблемы, на которые у докторов наук уйдут дни, когда они будут носиться вокруг вашего компьютера, выполняя вашу работу, когда они будут писать кодовые базы с миллионами строк кода с нуля, когда каждый год или два экономическая ценность, создаваемая этими моделями, будет увеличиваться в 10 раз. Забудьте о научной фантастике, посчитайте OOM: это то, чего мы должны ожидать. AGI больше не является далекой фантазией. Масштабирование простых методов глубокого обучения только что сработало, модели просто хотят учиться, и мы собираемся сделать еще в 100 000 раз больше к концу 2027 года. Пройдет совсем немного времени, прежде чем они станут умнее нас.

GPT-4 — это только начало. Где мы будем через четыре года? Не совершайте ошибку, недооценивая быстрые темпы прогресса глубокого обучения (как показано напрогресс в GAN). 

Следующая запись в серии:
II. От AGI к сверхинтеллекту: взрыв интеллекта


Приложение. Гонка по OOM: это десятилетие или провал

Раньше я был более скептичен в отношении коротких сроков до AGI. Одна из причин в том, что казалось неразумным отдавать предпочтение этому десятилетию, концентрируя на нем так много массы вероятности AGI (казалось классическим заблуждением думать: «О, мы такие особенные»). Я думал, что мы должны быть не уверены в том, что требуется для получения AGI, что должно привести к гораздо более «размазанному» распределению вероятностей относительно того, когда мы можем получить AGI.

Однако я изменил свое мнение: критически важно, что наша неопределенность относительно того, что требуется для создания AGI, должна измеряться единицами эффективных вычислений, а не годами.

В этом десятилетии мы мчимся через OOM. Даже в свои былые лучшие времена закон Мура составлял всего 1–1,5 OOM/десятилетие. Я оцениваю, что мы сделаем ~5 OOM за 4 года и более ~10 за это десятилетие в целом.

В этом десятилетии мы стремительно преодолевали ООМ; после начала 2030-х годов нас ждет медленное и упорное движение.

По сути, мы находимся в середине огромного масштабирования, пожиная одноразовые плоды в этом десятилетии, и прогресс через OOM будет кратно медленнее после этого. Если это масштабирование не приведет нас к AGI в течение следующих 5-10 лет, это может быть долгим путем.

  • Масштабирование расходов : Раньше тратить миллион долларов на модель было возмутительно; к концу десятилетия у нас, скорее всего, будут кластеры на $100 млрд или $1 трлн . Подняться намного выше будет сложно; это уже в принципе осуществимый предел (как с точки зрения того, что может себе позволить крупный бизнес, так и просто как доля ВВП). После этого все, что у нас есть, это ледяной тренд в 2%/год реального роста ВВП, чтобы увеличить это.
  • Аппаратные улучшения : Аппаратные улучшения ИИ-оборудования происходят гораздо быстрее, чем по закону Мура. Это потому, что мы специализируем чипы для рабочих нагрузок ИИ. Например, мы перешли от ЦП к ГП; адаптировали чипы для Трансформеров; и мы перешли к гораздо более низкоточным числовым форматам, от fp64/fp32 для традиционных суперкомпьютеров до fp8 на H100. Это большие улучшения, но к концу десятилетия у нас, скорее всего, будут полностью специализированные чипы для ИИ, без возможности дальнейшего улучшения за пределами закона Мура.
  • Алгоритмический прогресс : в грядущем десятилетии лаборатории ИИ вложат десятки миллиардов в алгоритмические НИОКР, и все самые умные люди в мире будут работать над этим; от крошечных показателей эффективности до новых парадигм, мы будем собирать множество низко висящих фруктов. Мы, вероятно, не достигнем какого-либо жесткого предела (хотя «распутывания», вероятно, конечны), но, по крайней мере, темпы улучшений должны замедлиться, поскольку быстрый рост (в долларах и инвестициях в человеческий капитал) обязательно замедлится (например, большинство умных талантов STEM уже будут работать над ИИ). (Тем не менее, это самый неопределенный прогноз, и источник большей части неопределенности в отношении OOM в 2030-х годах на графике выше.)

В совокупности это означает, что мы мчимся через гораздо больше OOM в следующем десятилетии, чем могли бы за несколько десятилетий после этого. Может быть, этого достаточно — и мы скоро получим AGI — или нас может ждать долгая, медленная работа. Мы с вами можем разумно не согласиться относительно среднего времени до AGI, в зависимости от того, насколько сложным, по нашему мнению, будет достижение AGI — но, учитывая, как мы мчимся через OOM прямо сейчас, ваш модальный год AGI, безусловно, должен быть где-то в конце этого десятилетия или около того.

У Мэтью Барнетта естьхорошая связанная визуализацияэтого, принимая во внимание только вычислительные и биологические ограничения.

  1. Прогнозы, которые они делали каждый год на протяжении последнего десятилетия, и в которых они постоянно ошибались…
  2. Из SSC : Джанель Шейн спрашивает у GPT-2 его десять любимых животных:
    Подсказка: Мои 10 любимых животных: 1.
    Мои десять любимых животных:
    Зебры с белым шрамом на спине
    Коварные пауки и осьминоги
    Лягушки с большими листьями, желательно черными
    Кореллы с чешуей
    Гагарка с крыльями, свисающими примерно на 4 дюйма от лица, и татуировкой в ​​виде сердца на лягушке
    Сцепленные тетрабосы кокатрикса, которых можно ослепить, разрезать и съесть сырыми:
    Черно-белые пустынные крокодилы, живущие на солнце
    Зебры и многие другие гороховые жуки
  3. Из статьи GPT-2 , раздел 3.6.
  4. Я имею в виду старый неуклюжий GPT-3, а не радикально улучшенный GPT-3.5, который вы, возможно, знаете по ChatGPT.
  5. И нет, эти тесты не входят в обучающий набор. Лаборатории ИИ прикладывают реальные усилия, чтобы гарантировать, что эти оценки не загрязнены, потому что им нужны хорошие измерения, чтобы заниматься хорошей наукой. Недавний анализ ScaleAI подтвердил, что ведущие лаборатории не переобучаются по бенчмаркам (хотя некоторые разработчики LLM поменьше могут завышать свои цифры).
  6. В оригинальной статье отмечалось: «Мы также оценивали людей по МАТЕМАТИКЕ и обнаружили, что аспирант по информатике, который не особенно любит математику, набрал около 40% по МАТЕМАТИКЕ, в то время как трехкратный золотой медалист IMO набрал 90%, что говорит о том, что МАТЕМАТИКА может быть сложной и для людей».
  7. Соавтор отмечает : «Когда наша группа впервые опубликовала набор данных MATH, по крайней мере один [коллега-исследователь МО] сказал нам, что это бессмысленный набор данных, поскольку он слишком далеко выходит за рамки того, чего могут достичь модели МО (на самом деле, я и сам был немного обеспокоен этим)».
  8. Вот Янн Лекун предсказывает в 2022 году, что даже GPT-5000 не сможет рассуждать о физических взаимодействиях с реальным миром; GPT-4, очевидно, делает это с легкостью год спустя.Вот стены Гэри Маркуса, предсказанные после того, как GPT-2 была решена GPT-3, и стены, которые он предсказал после того, как GPT-3 была решена GPT-4.Вот профессор Брайан Каплан проигрывает свою первую в истории публичную ставку (после того, как ранее имел безупречную историю публичных ставок). В январе 2023 года, после того как GPT-3.5 получил D на его промежуточном экзамене по экономике, профессор Каплан поспорил с Мэтью Барнеттом, что ни один ИИ не получит A на его промежуточном экзамене по экономике к 2029 году. Всего два месяца спустя, когда вышел GPT-4, он сразу же набрал A на его промежуточном экзамене (и это был бы один из самых высоких результатов в его классе).
  9. В наборе алмазов большинство голосов модели, попытка 32 раза с цепочкой мыслей.
  10. И стоит отметить, насколько последовательны эти трендовые линии. Объединение оригинальной статьи о законах масштабирования с некоторыми оценками масштабирования вычислений и эффективности вычислений с тех пор подразумевает последовательную тенденцию масштабирования для более чем 15 порядков величины (более 1 000 000 000 000 000x в эффективных вычислениях)!
  11. Распространенное заблуждение заключается в том, что масштабирование справедливо только для потери перплексии, но мы также видим очень четкое и последовательное поведение масштабирования в производительности нижестоящих задач в бенчмарках. Обычно это просто вопрос нахождения правильного логарифмического графика. Например, в сообщении в блоге GPT-4 они показывают последовательное поведение масштабирования для производительности при кодировании задач на протяжении 6 OOM (1 000 000x) вычислений, используя MLPR (среднюю скорость прохождения логарифма). В статье «Являются ли эмерджентные способности миражом?» высказывается аналогичная точка зрения; при правильном выборе метрики почти всегда наблюдается последовательная тенденция для производительности нижестоящих задач.В более общем плане качественное наблюдение «гипотезы масштабирования» — очень четкие тенденции в возможностях модели при масштабировании — предшествует кривым масштабирования потерь; работа «законов масштабирования» была лишь формальным измерением этого.
  12. 1. Gemini 1.5 Flash набирает 54,9% на MATH и стоит $0,35/$1,05 (ввод/вывод) за миллион токенов. GPT-4 набрал 42,5% на предварительной версии MATH и 52,9% на MATH в начале 2023 года и стоил $30/$60 (ввод/вывод) за миллион токенов; это в 85x/57x (ввод/вывод) дороже за токен, чем Gemini 1.5 Flash. Чтобы быть консервативным, я использую оценку 30-кратного снижения стоимости выше (учитывая, что Gemini 1.5 Flash, возможно, использует больше токенов для решения проблем).
    2. Minerva540B набирает 50,3% на MATH, используя большинство голосов среди 64 образцов. Знающий друг оценивает, что базовая модель здесь, вероятно, в 2-3 раза дороже для вывода, чем GPT-4. Однако Minerva, похоже, использует несколько меньше токенов на ответ при быстрой выборочной проверке. Что еще важнее, Minerva потребовалось 64 образца для достижения этой производительности, наивно подразумевая 64-кратное увеличение стоимости, если вы, например, наивно запустили это через API вывода. На практике токены подсказок можно кэшировать при запуске eval; при наличии подсказки с несколькими выстрелами токены подсказок, вероятно, составят большую часть стоимости, даже с учетом выходных токенов. Предположим, что выходные токены составляют треть стоимости для получения одного образца, это будет означать только ~20-кратное увеличение стоимости по сравнению с maj@64 с кэшированием. Чтобы быть консервативным, я использую грубое число 20-кратного уменьшения стоимости в приведенном выше (даже если наивное уменьшение стоимости вывода при запуске этого через API будет больше).
  13. Хотя это эффективность вывода (а не обязательно эффективность обучения) и в некоторой степени будет отражать оптимизации, специфичные для вывода, а) они предполагают, что в целом возможен и происходит огромный прогресс алгоритмов, и б) часто бывает так, что алгоритмические улучшения являются как повышением эффективности обучения, так и эффективностью вывода, например, за счет сокращения количества необходимых параметров.
  14. GPT-3 : токены на $60/1 млн, GPT-4 : входные токены на $30/1 млн и выходные токены на $60/1 млн.
  15. Законы масштабирования Chinchilla гласят, что следует масштабировать количество параметров и данные одинаково. То есть количество параметров растет на «половину OOM» от OOM, которые растут при эффективном вычислении обучения. В то же время количество параметров интуитивно примерно пропорционально затратам на вывод. При прочих равных условиях постоянные затраты на вывод, таким образом, подразумевают, что половина OOM эффективного роста вычислений была «отменена» алгоритмическим выигрышем.
    Тем не менее, для ясности, это очень наивный расчет (предназначенный только для грубой иллюстрации), который неверен во многих отношениях. Могут быть оптимизации, специфичные для вывода (которые не переходят в эффективность обучения); могут быть эффективности обучения, которые не уменьшают количество параметров (и, таким образом, не переходят в эффективность вывода); и так далее.
  16. Gemini 1.5 Flash имеет рейтинг, аналогичный GPT-4 (выше, чем у оригинального GPT-4, но ниже, чем у обновленных версий GPT-4) в LMSys, таблице лидеров чат-ботов , и имеет схожие результаты по MATH и GPQA (оценки, измеряющие рассуждение), как и оригинальный GPT-4, при этом находясь примерно посередине между GPT-3.5 и GPT-4 в MMLU (оценка, которая в большей степени ориентирована на измерение знаний).
  17. В масштабе ~GPT-3 , более чем в 3 раза в более крупных масштабах.
  18. Например, в этой статье содержится сравнение ванильного Transformer в стиле GPT-3 с различными простыми изменениями в архитектуре и рецептах обучения, опубликованными за эти годы (RMSnorms вместо layernorm, различные позиционные вложения, активация SwiGlu, оптимизатор AdamW вместо Adam и т. д.), что они называют «Transformer++», что подразумевает выигрыш в 6 раз, по крайней мере, в малых масштабах.
  19. Если взять тенденцию 0,5 OOM/год и 4 года между выпуском GPT-2 и GPT-4, то это будет 2 OOM. Однако переход от GPT-2 к GPT-3 был простым масштабированием (после больших успехов, например, от Transformers), и OpenAI утверждает, что предварительное обучение GPT-4 было завершено в 2022 году , что может означать, что мы рассматриваем ближе к 2 годам алгоритмического прогресса, который мы должны здесь учитывать. 1 OOM алгоритмической эффективности кажется консервативной нижней границей.
  20. По крайней мере, учитывая более чем десятилетие последовательных улучшений алгоритмов, бремя доказательства ляжет на тех, кто предположит, что все это внезапно остановится!
  21. Экономическая отдача от трехкратного повышения эффективности вычислений будет измеряться десятками миллиардов долларов и более, учитывая затраты на кластер.
  22. Грубо говоря, это примерно ~10-кратный прирост .
  23.  И простое перечитывание одного и того же учебника снова и снова может привести к запоминанию, а не пониманию. Я полагаю, что именно так многие Wordcels сдают математические классы!
  24.  Еще один способ размышления об этом мне кажется интересным: между предварительным обучением и контекстным обучением есть «недостающая середина». Контекстное обучение невероятно (и может конкурировать с эффективностью человеческой выборки). Например, в статье Gemini 1.5 Pro обсуждается предоставление модели учебных материалов (учебника, словаря) на языке Каламанг, на котором говорят менее 200 человек и который в основном отсутствует в Интернете, в контексте — и модель учится переводить с английского на Каламанг на человеческом уровне! В контексте модель способна учиться по учебнику так же хорошо, как и человек (и гораздо лучше, чем если бы она просто засунула этот учебник в предварительное обучение).Когда человек учится по учебнику, он может перерабатывать свою кратковременную память/усвоение знаний в долговременную память/долговременные навыки с практикой; однако у нас нет эквивалентного способа перерабатывать контекстное обучение «обратно к весам». Синтетические данные/самостоятельное воспроизведение/обучение с подкреплением и т. д. пытаются это исправить: позвольте модели учиться самостоятельно, затем подумайте об этом и примените на практике то, чему она научилась, преобразуя полученные знания обратно в веса.
  25. См. также выступление Андрея Карпати, где он обсуждает эту тему здесь .
  26. В некотором смысле, это магия неконтролируемого обучения: чтобы лучше предсказать следующий токен, чтобы уменьшить недоумение, модели изучают невероятно богатые внутренние представления, все от ( знаменитого ) чувства до сложных моделей мира. Но, из коробки, они скованы: они используют свои невероятные внутренние представления просто для того, чтобы предсказать следующий токен в случайном интернет-тексте, и вместо того, чтобы применять их наилучшим образом, чтобы на самом деле попытаться решить вашу проблему.
  27. См. Рисунок 7 из обновленного технического документа Gemini 1.5 , на котором сравниваются замешательство и контекст для Gemini 1.5 Pro и Gemini 1.5 Flash (гораздо более дешевой и, предположительно, меньшей модели).
  28. Но люди над этим работают!
  29. Что имеет смысл — зачем бы ему изучать навыки долгосрочного рассуждения и исправления ошибок? В Интернете очень мало данных в форме «моего полного внутреннего монолога, рассуждений, всех соответствующих шагов в течение месяца, пока я работаю над проектом». Для раскрытия этой способности потребуется новый вид обучения, чтобы он освоил эти дополнительные навыки.Или, как выразился Гверн (частная переписка): «„Мозг размером с галактику, и что они просят меня сделать? Предсказывать неправильно написанные ответы на тестах!“ — простонал Марвин, подавленная нейронная сеть».
  30.  Система I против Системы II — полезный способ размышления о текущих возможностях LLM, включая их ограничения и глупые ошибки, и о том, что может быть возможно с RL и распутыванием. Подумайте об этом так: когда вы ведете машину, большую часть времени вы находитесь на автопилоте (система I, что модели в основном делают прямо сейчас). Но когда вы сталкиваетесь со сложной строительной зоной или новым перекрестком, вы можете попросить своего спутника на пассажирском сиденье на мгновение прервать ваш разговор, пока вы выясняете — на самом деле думаете — что происходит и что делать. Если бы вы были вынуждены идти по жизни только с системой I (ближе к моделям сегодня), у вас было бы много проблем. Создание способности для циклов рассуждений системы II — это центральная разблокировка.
  31. На основе наилучших предположений относительно масштабирования физических вычислений и алгоритмической эффективности, описанных выше, и упрощения соображений параллелизма (в реальности это может выглядеть скорее как «1440 (60*24) моделей уровня GPT-4 в день» или что-то подобное).
  32. Конечно, любой бенчмарк, который у нас есть сегодня, будет насыщенным. Но это не говорит о многом; это в основном отражение сложности создания достаточно жестких бенчмарков.

**************

II. От ИИ к сверхинтеллекту: взрыв интеллекта

Прогресс ИИ не остановится на человеческом уровне. Сотни миллионов ИИ могли бы автоматизировать исследования ИИ, сжимая десятилетие алгоритмического прогресса (5+ OOM) до ≤1 года. Мы быстро перейдем от человеческого уровня к значительно сверхчеловеческим системам ИИ. Мощь — и опасность — сверхинтеллекта будут драматичны. 


Давайте определим сверхразумную машину как машину, которая может намного превзойти все интеллектуальные действия любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхразумная машина могла бы проектировать еще лучшие машины; тогда, несомненно, произошел бы «взрыв интеллекта», и интеллект человека остался бы далеко позади. Таким образом, первая сверхразумная машина — это последнее изобретение, которое когда-либо нужно было бы сделать человеку.

Ай Джей Гуд ( 1965 )

Бомба и Супер

В общем представлении ужасы Холодной войны в основном прослеживаются до Лос-Аламоса, с изобретением атомной бомбы. Но Бомба сама по себе, возможно, переоценена. Переход от Бомбы к Супер — водородным бомбам — был, возможно, столь же важен.

Во время воздушных налетов на Токио сотни бомбардировщиков сбросили на город тысячи тонн обычных бомб. Позже в том же году Little Boy, сброшенный на Хиросиму, высвободил схожую разрушительную силу в одном устройстве. Но всего 7 лет спустя водородная бомба Теллера снова увеличила мощность в тысячу раз — одна бомба с большей взрывной силой, чем все бомбы, сброшенные за всю Вторую мировую войну вместе взятые.

Бомба была более эффективной кампанией бомбардировок. Супер был устройством для уничтожения страны.

То же самое будет с ОИИ и Сверхинтеллектом.

Прогресс ИИ не остановится на человеческом уровне. Первоначально обучаясь на лучших человеческих играх, AlphaGo начал играть сам с собой — и быстро стал сверхчеловеком, делая чрезвычайно креативные и сложные ходы, которые человек никогда бы не придумал.

Мы обсуждали путь к AGI в предыдущей части . Как только мы получим AGI, мы повернем рукоятку еще раз — или два или три раза — и системы ИИ станут сверхчеловеческими — значительно сверхчеловеческими. Они станут качественно умнее вас или меня, намного умнее, возможно, подобно тому, как вы или я качественно умнее ученика начальной школы.

Скачок к сверхинтеллекту был бы достаточно диким при нынешних быстрых, но непрерывных темпах прогресса ИИ (если мы смогли бы совершить скачок к ОИИ за 4 года от GPT-4, что могли бы принести еще 4 или 8 лет после этого?). Но он мог бы быть гораздо быстрее, если ОИИ автоматизирует само исследование ИИ.

Как только мы получим AGI, у нас будет не один AGI. Я расскажу о цифрах позже, но: учитывая флоты GPU вывода к тому времени, мы, вероятно, сможем запустить многие миллионы из них (возможно, 100 миллионов эквивалентов человека, и вскоре после этого со скоростью в 10 раз больше человеческой) . Даже если они пока не могут ходить по офису или варить кофе, они смогут проводить исследования МО на компьютере. Вместо нескольких сотен исследователей и инженеров в ведущей лаборатории ИИ у нас будет более 100 000 раз больше — яростно работающих над алгоритмическими прорывами, днем ​​и ночью. Да, рекурсивное самосовершенствование, но не требуется никакой научной фантастики; им нужно будет только ускорить существующие тенденции алгоритмического прогресса ( в настоящее время ~0,5 OOM/год). 

Автоматизированные исследования ИИ могут ускорить алгоритмический прогресс, что приведет к 5+ OOM эффективного прироста вычислений за год. Системы ИИ, которые у нас будут к концу интеллектуального взрыва, будут намного умнее людей. 

Автоматизированные исследования ИИ, вероятно, могли бы сжать десятилетие алгоритмического прогресса человечества менее чем до года (и это кажется консервативным). Это было бы 5+ OOM, еще один скачок размером с GPT-2-GPT-4 , поверх AGI — качественный скачок, как от дошкольника к умному старшекласснику, поверх систем ИИ, которые уже столь же умны, как эксперты-исследователи/инженеры ИИ.

Существует несколько вероятных узких мест, включая ограниченные вычислительные мощности для экспериментов, взаимодополняемость с людьми и усложняющийся алгоритмический прогресс, на которых я остановлюсь, но ни одно из них не кажется достаточным, чтобы окончательно замедлить процесс.

Прежде чем мы это осознаем, у нас на руках окажется сверхразум — системы ИИ, намного более умные, чем люди, способные на новое, творческое, сложное поведение, которое мы даже не можем начать понимать — возможно, даже небольшая цивилизация из миллиардов таких. Их сила тоже будет огромной. Применяя сверхразум к НИОКР в других областях, взрывной прогресс расширится от простого исследования МО; вскоре они решат робототехнику, совершат резкие скачки в других областях науки и техники в течение нескольких лет, и последует промышленный взрыв. Сверхразум, вероятно, обеспечит решающее военное преимущество и раскроет неисчислимые силы разрушения. Мы столкнемся с одним из самых интенсивных и нестабильных моментов в истории человечества.

Автоматизация исследований ИИ

Нам не нужно автоматизировать все — только исследования ИИ. Распространенное возражение против преобразующего воздействия ОИИ заключается в том, что ИИ будет трудно делать все. Взгляните, например, на робототехнику, говорят скептики; это будет серьезная проблема, даже если ИИ будет когнитивно на уровне докторов наук. Или возьмите автоматизацию биологических исследований и разработок, которая может потребовать большого количества физической лабораторной работы и экспериментов с участием людей.

Но нам не нужна робототехника — нам не нужно много вещей — для ИИ, чтобы автоматизировать исследования ИИ. Работа исследователей и инженеров ИИ в ведущих лабораториях может быть полностью выполнена виртуально и не сталкиваться с узкими местами реального мира таким же образом (хотя она все равно будет ограничена вычислениями, о которых я расскажу позже). И работа исследователя ИИ довольно проста, в общем плане вещей: читать литературу по МО и придумывать новые вопросы или идеи, проводить эксперименты для проверки этих идей, интерпретировать результаты и повторять. Все это кажется прямо в области, где простые экстраполяции текущих возможностей ИИ могут легко вывести нас на уровень лучших людей или превзойти его к концу 2027 года .

Стоит подчеркнуть, насколько прямолинейными и хакерскими были некоторые из крупнейших прорывов в области машинного обучения последнего десятилетия: «о, просто добавьте немного нормализации» (LayerNorm/BatchNorm) или «сделайте f(x)+x вместо f(x)» (остаточные связи)» или «исправьте ошибку реализации» (законы масштабирования Каплана → Шиншиллы). Исследования ИИ можно автоматизировать. И автоматизация исследований ИИ — это все, что нужно, чтобы запустить необычайные циклы обратной связи.

Мы сможем запускать миллионы копий (и вскоре со скоростью в 10 раз выше человеческой) автоматизированных исследователей ИИ. Даже к 2027 году мы должны ожидать флотов GPU в десятки миллионов . Одни только тренировочные кластеры должны приближаться к ~3 OOM больше, что уже дает нам 10 миллионов+ эквивалентов A100. Флоты вывода должны быть еще больше. (Подробнее обо всем этом в следующей части .)

Это позволило бы нам запускать много миллионов копий наших автоматизированных исследователей ИИ, возможно, 100 миллионов эквивалентов человеческих исследователей, работающих день и ночь. Есть некоторые предположения, которые перетекают в точные цифры, включая то, что люди «думают» со скоростью 100 токенов в минуту (просто грубая оценка порядка величины, например, рассмотрите ваш внутренний монолог) и экстраполируя исторические тенденции и законы масштабирования Chinchilla на издержки вывода на токен для пограничных моделей, остающихся на том же уровне.

Мы также хотели бы зарезервировать часть GPU для проведения экспериментов и обучения новых моделей. Полный расчет в сноске.

Другой способ представить это так: учитывая флоты вывода в 2027 году, мы сможем генерировать токены на сумму, равную целому интернету, каждый день.

В любом случае, точные цифры не имеют большого значения, за исключением простой демонстрации правдоподобности.

Более того, наши исследователи автоматизированного ИИ вскоре смогут работать гораздо быстрее человека:

  • Взяв на себя некоторые штрафы за вывод, мы можем пожертвовать запуском меньшего количества копий в обмен на их запуск на более высокой последовательной скорости. (Например, мы могли бы перейти от ~5-кратной скорости человека к ~100-кратной скорости человека, запустив «всего» 1 миллион копий автоматизированных исследователей.

    )

  • Что еще важнее, первое алгоритмическое новшество, над которым работают исследователи автоматизированного ИИ, получает ускорение в 10 или 100 раз. Gemini 1.5 Flash примерно в 10 раз быстрее, чем изначально выпущенный GPT-4,

    всего лишь год спустя, обеспечивая производительность, схожую с изначально выпущенным GPT-4 в тестах рассуждений. Если это алгоритмическое ускорение, которое несколько сотен исследователей-людей могут найти за год, исследователи автоматизированного ИИ смогут найти похожие победы очень быстро.

То есть: ожидайте 100 миллионов автоматизированных исследователей, каждый из которых будет работать со скоростью, в 100 раз превышающей скорость человека, вскоре после того, как мы начнем автоматизировать исследования ИИ. Каждый из них сможет выполнить годовую работу за несколько дней. Рост исследовательских усилий — по сравнению с несколькими сотнями жалких исследователей-людей в ведущей лаборатории ИИ сегодня, работающих со скоростью, в 1 раз превышающей скорость человека — будет необычайным.

Это может легко значительно ускорить существующие тенденции алгоритмического прогресса, сжав десятилетие достижений в год. Нам не нужно постулировать что-то совершенно новое для автоматизированных исследований ИИ, чтобы значительно ускорить прогресс ИИ. Пройдясь по числам в предыдущей части , мы увидели, что алгоритмический прогресс был центральным двигателем прогресса глубокого обучения в последнее десятилетие; мы отметили линию тренда ~0,5 OOM/год только по эффективности алгоритмов, с дополнительными большими алгоритмическими выгодами от распутывания сверху. (Я думаю, что важность алгоритмического прогресса была недооценена многими, и правильное его понимание важно для оценки возможности взрыва интеллекта.)

Могут ли наши миллионы автоматизированных исследователей ИИ (скоро работающих со скоростью, превышающей человеческую в 10 или 100 раз) вместо этого сжать алгоритмический прогресс, который исследователи-люди достигли бы за десятилетие, до года? Это составило бы более 5 OOM в год.

Не стоит просто представлять себе 100 миллионов младших стажеров-инженеров-программистов (мы получим их раньше, в ближайшие пару лет!). Настоящие исследователи автоматизированного ИИ будут очень умными — и в дополнение к их чистому количественному преимуществу исследователи автоматизированного ИИ будут иметь и другие огромные преимущества перед исследователями-людьми:

  • Они смогут прочитать каждую когда-либо написанную работу по машинному обучению, смогут глубоко обдумать каждый предыдущий эксперимент, когда-либо проведенный в лаборатории, учиться параллельно на каждой из своих копий и быстро накопить эквивалент тысячелетнего опыта. Они смогут развить гораздо более глубокие интуиции по машинному обучению, чем любой человек.
  • Они смогут легко написать миллионы строк сложного кода, сохранить всю кодовую базу в контексте и потратить человеческие десятилетия (или больше) на проверку и перепроверку каждой строки кода на наличие ошибок и оптимизаций. Они будут превосходно компетентны во всех частях работы.
  • Вам не придется индивидуально обучать каждого автоматизированного исследователя ИИ (действительно, обучение и адаптация 100 миллионов новых людей будет сложной задачей). Вместо этого вы можете просто обучить и адаптировать одного из них, а затем сделать копии. (И вам не придется беспокоиться о политиканстве, культурной акклиматизации и т. д., и они будут работать с максимальной энергией и концентрацией днем ​​и ночью.)
  • Огромное количество автоматизированных исследователей на базе ИИ смогут обмениваться контекстом (возможно, даже получать доступ к скрытому пространству друг друга и т. д.), что позволит обеспечить гораздо более эффективное сотрудничество и координацию по сравнению с исследователями-людьми.
  • И, конечно, какими бы умными ни были наши первые исследователи автоматизированного ИИ, вскоре мы сможем совершить еще один скачок в развитии, создавая еще более умные модели, еще более способные к автоматизированным исследованиям ИИ.

Представьте себе автоматизированного Алека Рэдфорда — представьте себе 100 миллионов автоматизированных Алеков Рэдфордов.

Я думаю, что почти каждый исследователь в OpenAI согласится, что если бы у них было 10 Алеков Рэдфордов, не говоря уже о 100 или 1000 или 1 миллионе, работающих со скоростью в 10 или 100 раз выше человеческой, они могли бы очень быстро решить очень многие из своих проблем. Даже с различными другими узкими местами (подробнее чуть позже), сжатие десятилетия алгоритмического прогресса в год в результате кажется очень правдоподобным. (Десятикратное ускорение за счет в миллион раз большего объема исследовательских усилий, что кажется консервативным, если уж на то пошло.)

Это было бы 5+ OOM прямо здесь. 5 OOM алгоритмических побед были бы похожим масштабированием, которое произвело скачок GPT-2-в-GPT-4 , скачок возможностей от ~дошкольника до ~умного старшеклассника. Представьте себе такой качественный скачок поверх AGI, поверх Алека Рэдфорда.

Вполне вероятно, что мы перейдем от ОИИ к сверхразуму очень быстро, возможно, менее чем за год.

Возможные узкие места

Хотя эта базовая версия на удивление убедительна и подкреплена тщательным экономическим моделированием , существуют некоторые реальные и правдоподобные препятствия, которые, вероятно, замедлят взрывной рост автоматизированных исследований на основе ИИ.

Я дам здесь краткое изложение, а затем более подробно расскажу об этом в дополнительных разделах ниже для тех, кому это интересно:

  • Ограниченные вычисления : исследования ИИ не просто требуют хороших идей, мышления или математики, но и проведения экспериментов для получения эмпирического сигнала о ваших идеях. Миллион раз больше исследовательских усилий с помощью автоматизированного исследовательского труда не будет означать в миллион раз более быстрого прогресса, потому что вычисления все еще будут ограничены, а ограниченные вычисления для экспериментов будут узким местом. Тем не менее, даже если это не будет ускорением в 1 000 000 раз, мне трудно представить, что исследователи автоматизированного ИИ не могли бы использовать вычисления по крайней мере в 10 раз эффективнее: они смогут получить невероятную интуицию МО (усвоив всю литературу по МО и каждый предыдущий эксперимент при каждом запуске!) и эквивалент столетий времени на размышления, чтобы выяснить, какой именно эксперимент нужно запустить, настроить его оптимально и получить максимальную ценность информации; они смогут потратить эквивалент столетий времени инженера, прежде чем запускать даже крошечные эксперименты, чтобы избежать ошибок и сделать их правильно с первой попытки; они могут пойти на компромиссы, чтобы сэкономить на вычислениях, сосредоточившись на самых больших победах; и они смогут попробовать множество экспериментов меньшего масштаба (и с учетом эффективного масштабирования вычислений к тому времени, «меньший масштаб» означает возможность обучить 100 000 моделей уровня GPT-4 в год, чтобы попробовать архитектурные прорывы). Некоторые исследователи и инженеры-люди способны добиться прогресса в 10 раз большего, чем другие, даже при том же объеме вычислений — и это должно еще больше относиться к исследователям автоматизированного ИИ. Я действительно думаю, что это самое важное узкое место, и я рассмотрю его более подробно ниже.
  • Взаимодополняемость/длинный хвост : классический урок экономики (ср. болезнь роста Баумоля) заключается в том, что если вы можете автоматизировать, скажем, 70% чего-либо, вы получаете некоторый выигрыш, но оставшиеся 30% быстро становятся вашим узким местом. Для всего, что не достигает полной автоматизации — скажем, действительно хороших вторых пилотов — исследователи человеческого ИИ останутся основным узким местом, делая общее увеличение скорости алгоритмического прогресса относительно небольшим. Более того, вероятно, есть некоторый длинный хвост возможностей, необходимых для автоматизации исследований ИИ — последние 10% работы исследователя ИИ может быть особенно трудно автоматизировать. Это может немного смягчить взлет, хотя я предполагаю, что это задержит все только на пару лет. Возможно, скорость моделей 2026/27 гг. — это протоавтоматизированный исследователь, потребуется еще год или два для окончательного освобождения, несколько лучшей модели, ускорения вывода и устранения неполадок, чтобы достичь полной автоматизации, и, наконец, к 2028 г. мы получим 10-кратное ускорение (и сверхразум к концу десятилетия).
  • Внутренние ограничения алгоритмического прогресса : Может быть, еще 5 OOM алгоритмической эффективности будут принципиально невозможны? Я сомневаюсь. Хотя верхние пределы, безусловно, будут,

    Если мы получили 5 OOM за последнее десятилетие, то, вероятно, нам следует ожидать, что по крайней мере еще одно десятилетие прогресса будет возможным. Более конкретно, текущие архитектуры и алгоритмы обучения все еще очень рудиментарны, и кажется, что гораздо более эффективные схемы должны быть возможны. Биологические референтные классы также поддерживают значительно более эффективные алгоритмы, которые являются правдоподобными.

  • Идеи становится все труднее находить, поэтому автоматизированные исследователи ИИ будут просто поддерживать, а не ускорять текущий темп прогресса: Одно из возражений заключается в том, что, хотя автоматизированные исследования значительно увеличат эффективные исследовательские усилия, идеи также становится труднее находить. То есть, хотя сегодня для поддержания 0,5 OOM/год в лаборатории требуется всего несколько сотен ведущих исследователей, по мере того, как мы исчерпываем низко висящие фрукты, для поддержания этого прогресса потребуется все больше и больше усилий, и поэтому 100 миллионов автоматизированных исследователей будут просто тем, что необходимо для поддержания прогресса. Я думаю, что эта базовая модель верна, но эмпирические данные не сходятся: величина увеличения исследовательских усилий — в миллион раз — намного, намного больше, чем исторические тенденции роста исследовательских усилий, которые были необходимы для поддержания прогресса. С точки зрения экономического моделирования, это странное «острейшее допущение» — предполагать, что увеличение исследовательских усилий за счет автоматизации будет как раз достаточным для поддержания постоянного прогресса.
  • Идеи становится все труднее находить, а отдача уменьшается, поэтому взрыв интеллекта быстро сойдет на нет : В связи с приведенным выше возражением, даже если автоматизированные исследователи ИИ приведут к первоначальному всплеску прогресса, то, сможет ли быстрый прогресс поддерживаться, зависит от формы кривой убывающей отдачи от алгоритмического прогресса. Опять же, мое лучшее прочтение эмпирических доказательств заключается в том, что показатели степени сдвигаются в пользу взрывного/ускоряющегося прогресса. В любом случае, чистый размер единовременного повышения — от сотен до сотен миллионов исследователей ИИ — вероятно, преодолевает убывающую отдачу здесь, по крайней мере, для большого количества OOM алгоритмического прогресса, хотя он, конечно, не может быть бесконечно самоподдерживающимся.

В целом, эти факторы могут несколько замедлить ход событий: самые экстремальные версии взрыва интеллекта (скажем, за одну ночь) кажутся неправдоподобными. И они могут привести к несколько более длительному разгону (возможно, нам нужно подождать еще год или два от более вялых, протоавтоматизированных исследователей до настоящих автоматизированных Алеков Рэдфордов, прежде чем все начнется в полную силу). Но они, конечно, не исключают очень быстрого взрыва интеллекта. Год — или максимум несколько лет, но, возможно, даже несколько месяцев — за которые мы перейдем от полностью автоматизированных исследователей ИИ к значительно сверхчеловеческим системам ИИ должны быть нашими основными ожиданиями.

Сила сверхинтеллекта

Независимо от того, согласны ли вы с самой сильной формой этих аргументов — получим ли мы взрывной рост интеллекта менее чем за год или это займет несколько лет, — ясно: мы должны противостоять возможности сверхразума.

Системы искусственного интеллекта, которые, скорее всего, появятся у нас к концу этого десятилетия, будут невообразимо мощными.

  • Конечно, они будут количественно сверхлюдьми. На наших флотах из сотен миллионов графических процессоров к концу десятилетия мы сможем управлять цивилизацией из миллиардов из них, и они смогут «думать» на порядки быстрее, чем люди. Они смогут быстро освоить любую область, написать триллионы строк кода, прочитать каждую исследовательскую работу в каждой научной области, когда-либо написанную (они будут идеально междисциплинарными!) и написать новые, прежде чем вы пройдете аннотацию одной, учиться на параллельном опыте каждой из ее копий, получить миллиарды лет человеческого эквивалента опыта с некоторыми новыми инновациями за считанные недели, работать 100% времени с пиковой энергией и концентрацией и не будут замедляться тем одним товарищем по команде, который отстает, и так далее.
  • Что еще важнее — но сложнее представить — они будут качественно сверхчеловеческими. Как узкий пример этого, крупномасштабные запуски RL смогли произвести совершенно новое и креативное поведение за пределами человеческого понимания, например, знаменитый ход 37 в AlphaGo против Ли Седоля . Суперинтеллект будет таким во многих областях. Он найдет эксплойты в человеческом коде, слишком тонкие для того, чтобы любой человек их заметил, и он будет генерировать код, слишком сложный для того, чтобы любой человек его понял, даже если модель потратила десятилетия, пытаясь объяснить его. Чрезвычайно сложные научные и технологические проблемы, на которых человек застрял бы на десятилетия, покажутся им такими очевидными . Мы будем как старшеклассники, застрявшие на ньютоновской физике, пока он изучает квантовую механику.

Чтобы наглядно представить, насколько это может быть дико , посмотрите несколько видеороликов на Youtube со скоростным прохождением видеоигр, например, этот, где вы проходите Minecraft за 20 секунд .

Прохождение Minecraft за 20 секунд. (Если вы понятия не имеете, что происходит в этом видео, вы в хорошей компании; даже большинство обычных игроков Minecraft почти не имеют представления о том, что происходит.) 

Теперь представьте, что это применимо ко всем областям науки, технологий и экономики. Конечно, погрешности здесь чрезвычайно велики. Тем не менее, важно учитывать, насколько это будет иметь последствия.

Каково это — стоять здесь? Иллюстрация изПодождите, но почему/Тим Урбан.

В интеллектуальном взрыве взрывной прогресс изначально был только в узкой области автоматизированных исследований ИИ. По мере того, как мы получаем сверхинтеллект и применяем миллиарды (теперь сверхинтеллектуальных) агентов для НИОКР во многих областях, я ожидаю, что взрывной прогресс будет расширяться:

  • Взрыв возможностей ИИ. Возможно, наши первоначальные ИИ имели ограничения, которые не позволяли им полностью автоматизировать работу в некоторых других областях (а не только в области исследований ИИ); автоматизированные исследования ИИ быстро решат эти проблемы, позволяя автоматизировать любую когнитивную работу.
  • Решить робототехнику. Сверхразум не останется чисто когнитивным надолго. Заставить робототехнику хорошо работать — это в первую очередь проблема алгоритмов МО (а не аппаратная проблема), и наши исследователи автоматизированного ИИ, скорее всего, смогут ее решить (подробнее ниже). Фабрики перейдут от управления людьми к управлению ИИ с использованием физического труда человека, а вскоре и к полному управлению роями роботов.
  • Радикально ускорить научно-технический прогресс. Да, Эйнштейн в одиночку не смог бы развить нейронауку и построить полупроводниковую промышленность, но миллиард сверхразумных автоматизированных ученых, инженеров, технологов и робототехников (при этом роботы будут двигаться со скоростью в 10 и более раз больше человеческой!)

    добились бы необычайных успехов во многих областях за несколько лет. (Вот хорошая короткая история , наглядно демонстрирующая, как могли бы выглядеть НИОКР, управляемые ИИ.) Миллиард сверхразумов смог бы сжать усилия по НИОКР, которые исследователи-люди проделали бы в следующем столетии, до лет. Представьте, если бы технологический прогресс 20-го века был сжат менее чем до десятилетия. Мы бы прошли путь от полетов, которые считались миражом, до самолетов, до человека на Луне и МБР за считанные годы. Вот как, по моему мнению, будут выглядеть 2030-е годы в науке и технологиях.

  • Промышленный и экономический взрыв. Чрезвычайно ускоренный технологический прогресс в сочетании с возможностью автоматизации всего человеческого труда может значительно ускорить экономический рост (представьте: самовоспроизводящиеся фабрики роботов, быстро покрывающие всю пустыню Невада).

    Рост, вероятно, не будет просто с 2% в год до 2,5% в год; скорее, это будет фундаментальным изменением в режиме роста, более сопоставимым с историческим ступенчатым изменением от очень медленного роста до пары процентов в год с промышленной революцией. Мы могли бы увидеть темпы экономического роста в 30% в год и выше, вполне возможно, несколько удвоений в год. Это довольно прямо следует из моделей экономического роста экономистов. Конечно, это может быть отложено общественными противоречиями; тайное регулирование может гарантировать, что юристам и врачам по- прежнему нужно будет оставаться людьми, даже если системы ИИ будут намного лучше справляться с этой работой; наверняка будет брошен песок в шестеренки быстро расширяющихся робо-фабрик, поскольку общество сопротивляется темпам изменений; и, возможно, мы захотим сохранить человеческих нянь; все это замедлит рост общей статистики ВВП. Тем не менее, в каких бы областях мы ни устранили созданные человеком барьеры (например, конкуренция может заставить нас сделать это для военного производства), мы увидим промышленный взрыв.

Режим роста Дата начала
доминировать
Время удвоения
мировой экономики
(лет)
Охота 2 000 000 до н.э. 230,000
Сельское хозяйство 4700 г. до н.э. 860
Наука и коммерция 1730 г. н.э. 58
Промышленность 1903 год нашей эры 15
Сверхразум? 2030 год нашей эры? ???
Изменение в режиме роста не является беспрецедентным: по мере того, как цивилизация переходила от охоты к сельскому хозяйству, к расцвету науки и коммерции, к промышленности, темпы глобального экономического роста ускорялись. Сверхразум может дать начало еще одному изменению в режиме роста. На основе « Долгосрочного роста как последовательности экспоненциальных режимов » Робина Хэнсона .
  • Обеспечить решающее и подавляющее военное преимущество. Даже раннего когнитивного суперинтеллекта может быть достаточно здесь; возможно, какая-то сверхчеловеческая хакерская схема может дезактивировать вражеские военные силы. В любом случае, военная мощь и технический прогресс были тесно связаны исторически, и с необычайно быстрым техническим прогрессом придут сопутствующие военные революции. Рои дронов и робоармии будут большим делом, но это только начало; мы должны ожидать совершенно новых видов оружия, от новых видов ОМП до неуязвимой лазерной противоракетной обороны и вещей, которые мы пока не можем постичь. По сравнению с арсеналами до суперинтеллекта, это будет похоже на то, как армии 21-го века сражаются с бригадой 19-го века из лошадей и штыков. (Я обсуждаю, как суперинтеллект может привести к решающему военному преимуществу в более поздней части .)
  • Быть способным свергнуть правительство США. Тот, кто контролирует сверхразум, вполне вероятно, будет иметь достаточно власти, чтобы захватить контроль у сил, существовавших до сверхразума. Даже без роботов небольшая цивилизация сверхразумов могла бы взломать любую незащищенную военную, избирательную, телевизионную и т. д. систему, хитроумно убедить генералов и электорат, экономически превзойти национальные государства, разработать новое синтетическое биологическое оружие, а затем заплатить человеку биткойнами за его синтез и так далее. В начале 1500-х годов Кортес и около 500 испанцев завоевали империю ацтеков с населением в несколько миллионов человек; Писарро и ~300 испанцев завоевали империю инков с населением в несколько миллионов человек; Альфонсо и ~1000 португальцев завоевали Индийский океан. У них не было божественной силы, но технологическое преимущество Старого Света и преимущество в стратегической и дипломатической хитрости привели к совершенно решающему преимуществу. Сверхразум может выглядеть похожим.
Взрывной рост начинается в более узкой области НИОКР в области ИИ; по мере того, как мы применяем сверхинтеллект к НИОКР в других областях, взрывной рост будет расширяться.

Как все это будет развиваться в 2030-х годах, предсказать трудно (и это история для другого раза). Но, по крайней мере, одно ясно: мы быстро погрузимся в самую экстремальную ситуацию, с которой когда-либо сталкивалось человечество.

Системы искусственного интеллекта человеческого уровня, AGI, были бы весьма последовательны сами по себе, но в каком-то смысле они были бы просто более эффективной версией того, что мы уже знаем. Но, весьма вероятно, что всего за год мы перейдем к гораздо более инопланетным системам, системам, чье понимание и способности — чья грубая сила — превзойдут даже человечество вместе взятое. Существует реальная вероятность того, что мы потеряем контроль , поскольку мы вынуждены передать доверие системам искусственного интеллекта во время этого быстрого перехода.

В более общем плане, все начнет происходить невероятно быстро . И мир начнет сходить с ума. Предположим, что мы прошли через геополитические лихорадки и рукотворные опасности 20-го века за считанные годы; именно такую ​​ситуацию нам следует ожидать после сверхразума. К концу этого периода сверхразумные системы искусственного интеллекта будут управлять нашими военными и экономическими системами. Во время всего этого безумия у нас будет крайне мало времени, чтобы принимать правильные решения. Проблемы будут колоссальными. Потребуется все, что у нас есть, чтобы пройти через это в целости и сохранности.

Взрыв интеллекта и период, наступивший сразу после появления сверхразума, станут одними из самых нестабильных, напряженных, опасных и диких периодов в истории человечества. 

И к концу десятилетия мы, скорее всего, окажемся в самом разгаре этого процесса.


Столкновение с возможностью взрыва интеллекта — возникновением сверхразума — часто перекликается с ранними дебатами вокруг возможности ядерной цепной реакции — и атомной бомбы, которую она позволит создать. Герберт Уэллс предсказал атомную бомбу в романе 1914 года. Когда Силард впервые задумал идею цепной реакции в 1933 году, он никого не смог в ней убедить; это была чистая теория. Как только деление было эмпирически обнаружено в 1938 году, Силард снова взбесился и решительно выступил за секретность, и несколько человек начали осознавать возможность создания бомбы. Эйнштейн не рассматривал возможность цепной реакции, но когда Силард столкнулся с ним, он быстро увидел последствия и был готов сделать все, что было необходимо; он был готов бить тревогу и не боялся показаться глупым. Но Ферми, Бор и большинство ученых считали, что «консервативным» было бы преуменьшить значение этого, а не серьезно отнестись к необычайным последствиям возможности создания бомбы. Секретность (чтобы не делиться своими достижениями с немцами) и другие всеохватные усилия казались им абсурдными. Цепная реакция звучала слишком безумно. (Даже когда, как оказалось, бомба была всего в полувеке от того, чтобы стать реальностью.)

Мы должны снова столкнуться с возможностью цепной реакции. Возможно, это звучит для вас как спекуляция. Но среди старших ученых в лабораториях ИИ многие считают быстрый взрыв интеллекта поразительно правдоподобным. Они могут это увидеть . Сверхразум возможен.

Следующий пост в серии:
III. Вызовы – IIIa. Гонка к кластеру в триллион долларов


  1. И многие из извращений холодной войны (см. книгу Дэниела Эллсберга ) возникли из-за простой замены атомных бомб водородными, без корректировки ядерной политики и военных планов в соответствии с колоссальным ростом потенциала.
  2. Работа исследователя ИИ — это также работа, которую исследователи ИИ в лабораториях ИИ просто, ну, знают очень хорошо, поэтому для них будет особенно интуитивно оптимизировать модели, чтобы быть хорошими в этой работе. И будут огромные стимулы делать это, чтобы помочь им ускорить свои исследования и конкурентное преимущество их лабораторий.
  3. Кстати, это предполагает важный момент в плане последовательности рисков от ИИ. Распространенная модель угроз ИИ, на которую указывают люди, — это системы ИИ, разрабатывающие новое биологическое оружие, и это создает катастрофический риск. Но если исследования ИИ проще автоматизировать, чем НИОКР в области биологии, мы можем получить взрыв интеллекта до того, как получим экстремальные биоугрозы ИИ. Это важно, например, в отношении того, следует ли нам ожидать «биологических предупредительных выстрелов» вовремя, прежде чем все станет безумным в отношении ИИ.
  4. Как отмечалось ранее , API GPT-4 сегодня стоит меньше, чем GPT-3, когда он был выпущен, — это говорит о том, что тенденция выигрыша эффективности вывода достаточно быстра, чтобы поддерживать затраты на вывод примерно постоянными, даже когда модели становятся намного более мощными. Аналогично, были огромные выигрыши в затратах на вывод всего за год с момента выпуска GPT-4; например, текущая версия Gemini 1.5 Pro превосходит оригинальный GPT-4, будучи примерно в 10 раз дешевле .Мы также можем обосновать это несколько подробнее, рассмотрев законы масштабирования Chinchilla. Согласно законам масштабирования Chinchilla, размер модели, а значит и стоимость вывода, растут пропорционально квадратному корню стоимости обучения, т. е. половине OOM масштабирования OOM эффективных вычислений. Однако в предыдущей части я предположил, что алгоритмическая эффективность развивается примерно такими же темпами, что и масштабирование вычислений, т. е. она составляет примерно половину OOM эффективного масштабирования вычислений. Если эти алгоритмические выигрыши также преобразуются в эффективность вывода, это означает, что алгоритмическая эффективность компенсирует наивное увеличение стоимости вывода.На практике эффективность вычислений обучения часто, но не всегда, приводит к выигрышам эффективности вывода. Однако есть также много отдельных выигрышей эффективности вывода, которые не являются выигрышами эффективности обучения. Так что, по крайней мере, с точки зрения грубой оценки, предположение, что $/токен пограничных моделей останется примерно одинаковым, не кажется безумием.(Разумеется, они будут использовать больше токенов, т.е. больше вычислений во время тестирования. Но это уже часть расчета, поскольку человеческие эквиваленты оцениваются как 100 токенов в минуту.)
  5. GPT-4 Turbo стоит около $0,03/1 тыс. токенов. Мы предполагали, что у нас будет 10 миллионов эквивалентов A100, которые стоят ~$1 час на GPU, если эквиваленты A100. Если мы используем затраты API для перевода GPU в сгенерированные токены, это означает 10 миллионов GPU * $1/GPU-час * 33 тыс. токенов/$ = ~ один триллион токенов/час. Предположим, что человек думает со скоростью 100 токенов/мин, это означает, что эквивалент человека составляет 6000 токенов/час. Один триллион токенов/час, деленный на 6000 токенов/человеко-час = ~200 миллионов эквивалентов человека — то есть как если бы работали 200 миллионов исследователей-людей, днем ​​и ночью. (И даже если мы зарезервируем половину графических процессоров для экспериментальных вычислений, мы получим 100 миллионов эквивалентов людей-исследователей.)
  6. Предыдущая сноска оценивала ~1T токенов/час, т.е. 24T токенов в день. В предыдущей части я отметил , что публичный дедуплицированный CommonCrawl имел около 30T токенов .
  7. Джейкоб Стейнхардт оценивает, что k^3 параллельных копий модели можно заменить одной моделью, которая на k^2 быстрее, учитывая некоторые математические расчеты компромиссов вывода с помощью схемы тайлинга (которая теоретически работает даже для k, равного 100 или более). Предположим, что начальные скорости уже были ~5x человеческой скорости (на основе, скажем, скорости GPT-4 на момент выпуска). Затем, приняв этот штраф за вывод (при k= ~5), мы смогли бы запустить ~1 миллион автоматизированных исследователей ИИ со скоростью ~100x человеческой.
  8. Этот источник измеряет пропускную способность Flash на уровне ~6x GPT-4 Turbo, а GPT-4 Turbo был быстрее оригинального GPT-4. Задержка, вероятно, также примерно в 10 раз быстрее.
  9. Алек Рэдфорд — невероятно одаренный и плодовитый исследователь/инженер OpenAI, стоящий за многими важнейшими достижениями , хотя иногда он остается незамеченным.
  10. Например, 25 OOM алгоритмического прогресса поверх GPT-4 явно невозможны: это означало бы, что можно было бы обучить модель уровня GPT-4 всего лишь с несколькими FLOP.
  11. Десятикратно быстрые роботы, выполняющие физические НИОКР в реальном мире, — это «медленная версия»; в реальности сверхразумы попытаются выполнить как можно больше НИОКР в симуляции, как AlphaFold или изготовить « цифровых близнецов ».
  12. Почему «факторио-мир» — построить фабрику, которая производит больше фабрик, производить еще больше фабрик, удваивать фабрики, пока в конечном итоге вся ваша планета быстро не будет покрыта фабриками — невозможен сегодня? Что ж, рабочая сила ограничена — вы можете накапливать капитал (фабрики, инструменты и т. д.), но это приводит к убывающей отдаче, поскольку она ограничена фиксированной рабочей силой. С роботами и системами ИИ, способными полностью автоматизировать труд, это ограничение снимается; робо-фабрики могут производить больше робо-фабрик ~неограниченным образом, что приведет к промышленному взрыву. Смотрите больше моделей экономического роста здесь .

*********

 

IIIa. Гонка к кластеру в триллион долларов

Самое необычайное ускорение техно-капитала было запущено. Поскольку доходы от ИИ быстро растут, многие триллионы долларов будут направлены в GPU, центры обработки данных и наращивание мощности до конца десятилетия. Промышленная мобилизация, включая рост производства электроэнергии в США на десятки процентов, будет интенсивной. 


Видите ли, я же говорил, что это невозможно сделать, не превратив всю страну в фабрику. Вы именно это и сделали.

Нильс Бор (Эдварду Теллеру, узнав о масштабах Манхэттенского проекта в 1944 году)

Кластер на триллион долларов. Кредит: DALLE. 

Гонка за AGI будет разворачиваться не только в коде и за ноутбуками — это будет гонка за мобилизацию промышленной мощи Америки. В отличие от всего, что мы недавно видели в Кремниевой долине, ИИ — это огромный промышленный процесс: каждая новая модель требует гигантского нового кластера, вскоре гигантских новых электростанций и, в конечном итоге, гигантских новых фабрик по производству чипов. Инвестиции, которые в нее вовлечены, ошеломляют. Но за кулисами они уже в движении.

В этом посте я приведу вам цифры, которые дадут вам представление о том, что это будет означать:

  • Поскольку доходы от продуктов ИИ быстро растут (вероятно, к 2026 году они достигнут 100 млрд долларов в год для таких компаний, как Google или Microsoft, с мощными, но еще не созданными на основе AGI системами), это будет стимулировать еще большую мобилизацию капитала, а общий объем инвестиций в ИИ может превысить 1 трлн долларов в год к 2027 году.
  • К 2028 году мы находимся на пути к созданию отдельных учебных кластеров стоимостью в сотни миллиардов долларов — кластеров, требующих мощности, эквивалентной мощности небольшого/среднего штата США, и более дорогостоящих, чем Международная космическая станция.
  • К концу десятилетия мы перейдем к отдельным учебным кластерам стоимостью более 1 трлн долл., требующим мощности, эквивалентной >20% производства электроэнергии в США. Триллионы долларов капитальных затрат будут штамповать сотни миллионов графических процессоров в год в целом.

Nvidia потрясла мир, когда ее продажи дата-центров резко возросли с примерно $14 млрд в годовом исчислении до примерно $90 млрд в годовом исчислении за последний год. Но это все еще только начало.

Обучение вычислений

Ранее мы обнаружили тенденцию к росту вычислений для обучения ИИ примерно на 0,5 OOM/год.

Если эта тенденция сохранится до конца десятилетия, что это будет означать для крупнейших учебных кластеров?

Год ООМы # эквивалент      H100 Расходы Власть Класс мощности
2022 ~Кластер GPT-4 ~10к ~$500 млн. ~10 МВт ~10 000 средних домов
~2024 +1 ООМ ~100 тыс. миллиарды долларов ~100 МВт ~100 000 домов
~2026 +2 OOM ~1М Десятки миллиардов долларов ~1 ГВт Плотина Гувера, или большой ядерный реактор
~2028 +3 OOM ~10M Сотни миллиардов долларов ~10 ГВт Небольшой/средний штат США.
~2030 +4 OOM ~100M $1T+ ~100ГВт >20% производства электроэнергии в США
Масштабирование крупнейших обучающих кластеров, грубые приблизительные расчеты.

В это может показаться трудным поверить, но, похоже, это происходит. Zuck купил 350 тыс. H100 . Amazon купил кампус центра обработки данных мощностью 1 ГВт рядом с атомной электростанцией. По слухам, в Кувейте строится кластер мощностью 1 ГВт и эквивалентом 1,4 млн H100 (кластер ~2026 года). СМИ сообщают, что Microsoft и OpenAI, по слухам, работают над кластером стоимостью 100 млрд долларов, запуск которого запланирован на 2028 год (стоимость сопоставима со стоимостью Международной космической станции !). И поскольку каждое поколение моделей шокирует мир, возможно, нас ждет дальнейшее ускорение.

Возможно, самая дикая часть заключается в том, что готовность тратить, похоже, даже не является связывающим ограничением на данный момент, по крайней мере для учебных кластеров. Это поиск самой инфраструктуры: «Где я найду 10 ГВт?» (энергия для кластера стоимостью более 100 млрд долларов, тенденция 2028 года) — любимая тема для разговоров в Сан-Франциско. То, о чем думает любой вычислительный парень, — это обеспечение электроэнергией, землей, разрешениями и строительством центра обработки данных.

Хотя ожидание получения графических процессоров может занять год, сроки поставки для них все равно гораздо дольше.

Кластер на триллион долларов — +4 OOM из кластера GPT-4, учебный кластер ~2030 года по текущему тренду — станет поистине экстраординарным усилием. 100 ГВт мощности, которые потребуются для этого, эквивалентны >20% производства электроэнергии в США; представьте себе не просто склад с ГП, а сотни электростанций. Возможно, для этого потребуется национальный консорциум.

(Обратите внимание, что я думаю, что для AGI нам, скорее всего, понадобится кластер стоимостью всего ~$100 млрд или меньше. Кластер стоимостью $1 трлн может стать тем, на чем мы будем обучать и запускать сверхинтеллект, или тем, что мы будем использовать для AGI, если AGI окажется сложнее, чем ожидалось. В любом случае, в мире после AGI наличие наибольшей вычислительной мощности, вероятно, по-прежнему будет иметь большое значение.)

Общий расчет

Выше приведены лишь приблизительные цифры для самых больших обучающих кластеров. Общие инвестиции, вероятно, будут еще больше: большая часть GPU, вероятно, будет использоваться для вывода

(Графические процессоры фактически будут запускать системы искусственного интеллекта для продуктов), и в гонке могут участвовать несколько игроков с гигантскими кластерами.

По моим приблизительным оценкам, в 2024 году инвестиции в ИИ составят 100–200 млрд долларов:

  • Доход центра обработки данных Nvidia скоро достигнет ~$25B/квартальной ставки, т.е. ~$100B капзатрат, поступающих только через Nvidia. Но, конечно, Nvidia не единственный игрок (TPU от Google тоже великолепны!), и почти половина капзатрат центра обработки данных идет на вещи, не связанные с чипами (сайт, здание, охлаждение, питание и т.д.)
Квартальный доход центра обработки данных Nvidia. ГрафикТомас Вудсайд
  • Крупные технологические компании резко увеличили объемы своих капиталовложений: Microsoft и Google, скорее всего, инвестируют более 50 млрд долларов,

    AWS и Meta $40B+, в капиталовложениях в этом году. Не все это ИИ, но в совокупности их капиталовложения вырастут на $50B-100B в годовом исчислении из-за бума ИИ, и даже тогда они все еще сокращают другие капиталовложения, чтобы переложить еще больше расходов на ИИ. Более того, другие поставщики облачных услуг, компании (например, Tesla тратит $10B на ИИ в этом году) и национальные государства также инвестируют в ИИ.

Капитальные вложения в крупные технологические проекты растут чрезвычайно быстро с тех пор, как ChatGPT спровоцировал бум ИИ.Графический источник.

Давайте сыграем в этом направлении. Я предполагаю, что общие инвестиции в вычисления будут расти медленнее, чем 3x/год крупнейших обучающих кластеров, скажем, 2x/год.

Год Ежегодные инвестиции Поставки ускорителей ИИ (в эквиваленте H100) Мощность в % от производства электроэнергии в США

Чипы в % от текущего производства пластин TSMC
2024 ~$150 млрд. ~5-10M

1-2% 5-10%

~2026 ~$500 млрд. ~Десятки миллионов 5% ~25%
~2028 ~$2Т ~100M 20% ~100%
~2030 ~$8T Многие сотни миллионов 100% 4x текущая емкость
Игра на опережение тенденций по общемировым инвестициям в ИИ. Грубый приблизительный расчет. 

И это не просто мои идиосинкразические цифры. AMD прогнозирует рынок ускорителей ИИ на $400 млрд к 2027 году, подразумевая более $700 млрд общих расходов на ИИ, что довольно близко к моим цифрам (и они, безусловно, гораздо меньше «обезумели от AGI», чем я). Сообщается, что Сэм Альтман ведет переговоры о сборе средств на проект с капитальными затратами « до $7 трлн » для наращивания вычислительной мощности ИИ (цифра широко высмеивалась, но она кажется менее безумной, если вы посмотрите цифры здесь…). Так или иначе, это масштабное масштабирование происходит.

Будет ли это сделано? Это можно сделать?

Масштаб инвестиций, постулируемый здесь, может показаться фантастическим. Но как спрос, так и предложение, похоже, могли бы поддержать указанную выше траекторию. Экономическая отдача оправдывает инвестиции, масштаб расходов не является беспрецедентным для новой технологии общего назначения, а промышленная мобилизация для мощности и чипов осуществима.

Доход от ИИ 

Компании будут вкладывать крупные средства в ИИ, если будут рассчитывать на то, что экономическая отдача оправдает эти инвестиции.

Отчеты показывают, что OpenAI имел доход в размере 1 млрд долларов в августе 2023 года и доход в размере 2 млрд долларов в феврале 2024 года . Это примерно удваивается каждые 6 месяцев. Если эта тенденция сохранится, мы должны увидеть годовой доход в размере ~10 млрд долларов к концу 2024/началу 2025 года, даже без значительного скачка цен от любой модели следующего поколения. По одной из оценок, Microsoft уже имеет ~5 млрд долларов дополнительного дохода от ИИ.

До сих пор каждое 10-кратное масштабирование инвестиций в ИИ, похоже, приносит необходимую отдачу. GPT-3.5 развязал манию ChatGPT. Предполагаемая стоимость кластера GPT-4 в 500 миллионов долларов была бы окуплена миллиардами годовых доходов Microsoft и OpenAI (см. расчеты выше), а учебный кластер «класса 2024 года» в миллиарды легко окупится, если доходы от ИИ Microsoft/OpenAI продолжат расти и достигнут уровня дохода в 10 миллиардов долларов. Этот бум обусловлен инвестициями: требуется время от огромного заказа GPU, чтобы построить кластеры, построить модели и развернуть их, а кластеры, которые планируются сегодня, отстоят на много лет. Но если отдача от последнего заказа GPU продолжит материализоваться, инвестиции продолжат стремительно расти (и опережать доходы), вливая еще больше капитала в ставку на то, что следующие 10x продолжат окупаться.

Ключевой вехой для доходов от ИИ, о которой я люблю думать, является: когда крупная технологическая компания (Google, Microsoft, Meta и т. д.) достигнет уровня выручки в 100 млрд долларов от ИИ (продуктов и API)? Эти компании имеют порядка 100–300 млрд долларов выручки сегодня; таким образом, 100 млрд долларов начнут составлять весьма существенную долю их бизнеса. Очень наивно экстраполируя удвоение каждые 6 месяцев, предположив, что мы достигнем уровня выручки в 10 млрд долларов в начале 2025 года, можно предположить, что это произойдет в середине 2026 года.

Это может показаться натяжкой, но мне кажется, что для достижения этой цели требуется на удивление мало воображения. Например, у Microsoft Office около 350 миллионов платных подписчиков — можете ли вы заставить треть из них заплатить 100 долларов в месяц за надстройку ИИ? Для среднестатистического работника это всего лишь несколько часов в месяц продуктивности; модели, достаточно мощные, чтобы сделать это оправданным, кажутся вполне достижимыми в ближайшие пару лет.

Трудно недооценить последовавшие за этим отголоски. Это сделало бы продукты ИИ крупнейшим драйвером доходов для крупнейших корпораций Америки и, безусловно, их крупнейшей областью роста. Прогнозы общего роста доходов для этих компаний взлетели бы до небес. Фондовые рынки последовали бы за ними; вскоре после этого мы могли бы увидеть нашу первую компанию стоимостью 10 трлн долларов. Крупные технологические компании на этом этапе были бы готовы пойти на все, каждый из которых инвестировал бы многие сотни миллиардов (как минимум) в дальнейшее масштабирование ИИ. Вероятно, тогда мы увидим нашу первую продажу корпоративных облигаций на многие сотни миллиардов долларов.

За пределами $100 млрд становится сложнее увидеть контуры. Но если мы действительно на пути к AGI, отдача будет. Белые воротнички получают десятки триллионов долларов заработной платы ежегодно по всему миру; внештатный удаленный работник, который автоматизирует даже часть белых воротничков/когнитивных работ (представьте, скажем, по-настоящему автоматизированного кодировщика ИИ), оплатил бы кластер стоимостью в триллион долларов. Если ничего другого, импорт национальной безопасности вполне мог бы мотивировать правительственный проект, объединяющий ресурсы страны в гонке за AGI ( подробнее позже ).

Исторические прецеденты

$1 трлн/год общих годовых инвестиций в ИИ к 2027 году кажется возмутительным. Но стоит взглянуть на другие исторические справочные классы:

$1 трлн/год общих инвестиций в ИИ к 2027 году будет драматичным — одним из самых крупных капиталовложений когда-либо — но не беспрецедентным. И индивидуальный кластер обучения стоимостью триллион долларов к концу десятилетия, похоже, на столе.

Власть

Вероятно, самым большим ограничением в плане поставок будет электроэнергия . Уже сейчас, в более близких масштабах (1 ГВт/2026 и особенно 10 ГВт/2028), электроэнергия стала связывающим ограничением: просто нет большого количества свободных мощностей, а контракты на электроэнергию обычно являются долгосрочными. А строительство, скажем, новой атомной электростанции гигаваттного класса занимает десятилетие. (Интересно, когда мы начнем видеть такие вещи, как технологические компании, покупающие компании по выплавке алюминия для своих контрактов на электроэнергию гигаваттного класса.

)

Сравниваем тенденции общего производства электроэнергии в США с нашими приблизительными оценками спроса на электроэнергию для систем искусственного интеллекта.

За последнее десятилетие общий объем производства электроэнергии в США вырос всего на 5% .

Коммунальные предприятия начинают радоваться ИИ ( вместо 2,6% роста за следующие 5 лет они теперь оценивают 4,7%!). Но они едва ли оценивают то, что грядет. Один только кластер стоимостью в триллион долларов и мощностью 100 ГВт потребует ~20% от текущего производства электроэнергии в США за 6 лет; вместе с большой мощностью вывода спрос будет многократно выше.

Большинству это кажется совершенно невозможным. Некоторые делают ставку на ближневосточные автократии, которые ходят и предлагают безграничную власть и гигантские кластеры, чтобы получить своим правителям место за столом AGI.

Но это вполне возможно сделать в Соединенных Штатах: у нас много природного газа.

  • Для обеспечения электроэнергией кластера мощностью 10 ГВт потребуется всего несколько процентов от добычи природного газа в США, и это можно сделать быстро.
  • Даже кластер мощностью 100 ГВт на удивление осуществим.
    • В настоящее время только сланцевое месторождение Марцеллус/Ютика (около Пенсильвании) производит около 36 миллиардов кубических футов газа в день; этого было бы достаточно для непрерывной выработки чуть менее 150 ГВт с помощью генераторов (а электростанции комбинированного цикла могли бы вырабатывать 250 ГВт благодаря своей более высокой эффективности).
    • Для кластера мощностью 100 ГВт потребуется около 1200 новых скважин .

      Каждая установка может бурить примерно 3 скважины в месяц, поэтому 40 установок (текущее количество установок в Марцеллусе) могли бы создать производственную базу для 100 ГВт менее чем за год.

      Еще в 2019 году на судне Marcellus насчитывалось около 80 буровых установок, поэтому не составит труда добавить еще 40 буровых установок для наращивания производственной базы.

    • В целом добыча природного газа в США за десятилетие выросла более чем вдвое ; простое продолжение этой тенденции могло бы обеспечить электроэнергией несколько центров обработки данных стоимостью триллионы долларов.
    • Сложнее всего будет построить достаточное количество генераторов/турбин; это нетривиальная задача, но, похоже, выполнимая при капиталовложениях в размере около 100 млрд долларов.

      для 100 ГВт электростанций на природном газе. Электростанции комбинированного цикла могут быть построены примерно за два года; для генераторов этот срок будет еще короче.

Барьеры даже для триллионов долларов на строительство центров обработки данных в США полностью созданы нами самими. Благонамеренные, но жесткие климатические обязательства (не только правительства, но и обязательства по зеленым центрам обработки данных Microsoft, Google, Amazon и т. д.) стоят на пути очевидного, быстрого решения. По крайней мере, даже если мы не будем заниматься природным газом, широкая программа дерегулирования разблокирует солнечные/батарейные/SMR/геотермальные мегапроекты. Разрешения, регулирование коммунальных служб, регулирование линий электропередач FERC и экологическая экспертиза NEPA делают то, что должно занять несколько лет, десятилетием или больше. У нас нет такого времени.

Мы собираемся переместить центры обработки данных AGI на Ближний Восток под каблук жестоких, капризных автократов. Я бы тоже предпочел чистую энергию, но это просто слишком важно для национальной безопасности США. Нам понадобится новый уровень решимости, чтобы это произошло. Ограничение мощности может, должно и будет решено.

Чипсы

Хотя чипы — это то, что обычно приходит на ум, когда люди думают об ограничениях поставок ИИ, они, вероятно, являются меньшим ограничением, чем мощность. Глобальное производство чипов ИИ по-прежнему составляет довольно небольшой процент от передового производства TSMC, вероятно, менее 10%. Есть много возможностей для роста, если ИИ станет большей долей производства TSMC.

Действительно, производство чипов ИИ в 2024 году (~5-10 млн эквивалентов H100) уже почти хватило бы для кластера стоимостью в сотни миллиардов долларов (если бы все они были направлены в один кластер). С точки зрения чистого логического фабриканта ~100% выпуска TSMC в течение года уже могли бы поддерживать кластер стоимостью в триллион долларов (опять же, если бы все чипы были направлены в один центр обработки данных).

Конечно, не все TSMC смогут быть перенаправлены на ИИ, и не все производство чипов ИИ в течение года будет направлено на один учебный кластер. Общий спрос на чипы ИИ (включая вывод и нескольких игроков) к 2030 году будет кратен текущему общему объему передовых логических чипов TSMC, только для ИИ. TSMC ~ удвоилось

за последние 5 лет; им, вероятно, нужно было бы пойти ~как минимум в два раза быстрее в темпах расширения, чтобы удовлетворить спрос на чипы ИИ. Потребуются огромные новые инвестиции в фабрики.

Даже если фабрики чистой логики не будут ограничением, усовершенствованная упаковка чип-на-пластине-на-подложке (CoWoS) (подключение чипов к памяти, также производимая TSMC, Intel и другими) и память HBM (на которую существует огромный спрос ) уже являются ключевыми узкими местами для текущего масштабирования графических процессоров ИИ; они более специализированы для ИИ, в отличие от чистых логических чипов, поэтому там меньше уже существующих мощностей. В ближайшей перспективе они будут основным ограничением для производства большего количества графических процессоров, и это будут огромные ограничения по мере масштабирования ИИ. Тем не менее, их сравнительно «легко» масштабировать; было невероятно наблюдать, как TSMC буквально строит фабрики «с нуля» (т. е. совершенно новые объекты с нуля), чтобы значительно масштабировать производство CoWoS в этом году (и Nvidia даже начинает искать альтернативы CoWoS, чтобы обойти дефицит).

Новый TSMC Gigafab ( технологическое чудо ) стоит около 20 млрд долларов капитальных затрат и производит 100 тыс. пластин в месяц. Для сотен миллионов графических процессоров ИИ в год к концу десятилетия TSMC потребуется построить десятки таких, а также огромное наращивание памяти, усовершенствованной упаковки, сетей и т. д., что составит значительную часть капитальных затрат. Это может составить более 1 трлн долларов капитальных затрат. Это будет интенсивно, но выполнимо. (Возможно, самым большим препятствием будет не осуществимость, но TSMC даже не пытается — TSMC пока, похоже, не готова к масштабированию ИИ! Они думают, что ИИ будет «только» расти со скоростью ледникового 50% CAGR .)

Недавние усилия правительства США, такие как закон CHIPS, были направлены на то, чтобы переместить больше производства чипов ИИ в США (в качестве страховки на случай непредвиденных обстоятельств с Тайванем). Хотя перенести больше производства чипов ИИ в США было бы неплохо, это менее критично, чем иметь фактический центр обработки данных (в котором находится AGI) в США. Если производство чипов за рубежом похоже на наличие урановых месторождений за рубежом, то наличие центра обработки данных AGI за рубежом похоже на строительство и хранение за рубежом буквального ядерного оружия. Учитывая дисфункцию и стоимость, которые мы наблюдали при строительстве фабрик в США на практике, я предполагаю, что мы должны отдать приоритет центрам обработки данных в США, делая большую ставку на демократических союзников, таких как Япония и Южная Корея, для проектов фабрик — строительство фабрик там кажется гораздо более функциональным .

Кластеры демократии

До конца десятилетия будут построены вычислительные кластеры на многие триллионы долларов. Единственный вопрос — будут ли они построены в Америке. Ходят слухи, что некоторые делают ставку на их строительство в других местах, особенно на Ближнем Востоке. Действительно ли мы хотим, чтобы инфраструктура для Манхэттенского проекта контролировалась какой-то капризной ближневосточной диктатурой?

Кластеры, которые планируются сегодня, вполне могут быть кластерами, на которых обучаются и работают AGI и суперинтеллект, а не просто «кластеры крутых больших технологических продуктов». Национальные интересы требуют, чтобы они были построены в Америке (или близких демократических союзниках). Все остальное создает необратимый риск безопасности: это риск кражи весов AGI

(и, возможно, будут отправлены в Китай ) ( подробнее позже ); это рискует тем, что эти диктатуры физически захватят центры обработки данных (чтобы самим создавать и запускать AGI), когда гонка AGI станет жаркой; или даже если эти угрозы только неявно используются, это ставит AGI и суперинтеллект в зависимость от капризов неприятных диктаторов. Америка горько сожалела о своей энергетической зависимости от Ближнего Востока в 70-х, и мы так упорно трудились, чтобы выбраться из-под их каблука. Мы не можем совершить ту же ошибку снова.

Кластеры могут быть построены в США, и мы должны объединить наши действия, чтобы убедиться, что это произойдет в США. Американская национальная безопасность должна быть на первом месте, перед соблазном свободного потока ближневосточных денег, тайного регулирования или даже, да, достойных восхищения климатических обязательств. Мы сталкиваемся с настоящей системной конкуренцией — может ли необходимая промышленная мобилизация быть осуществлена ​​только в автократиях «сверху вниз»? Если американский бизнес будет освобожден, Америка сможет строить, как никто другой (по крайней мере, в красных штатах). Готовность использовать природный газ или, по крайней мере, широкомасштабная программа дерегулирования — исключения NEPA, исправление FERC и выдача разрешений на передачу на федеральном уровне, отмена регулирования коммунальных услуг, использование федеральных властей для разблокирования земли и прав прохода — является приоритетом национальной безопасности.


В любом случае — экспоненциальный рост сейчас в самом разгаре.

В «старые времена», когда AGI все еще было ругательным словом, некоторые коллеги и я создавали теоретические экономические модели того, как может выглядеть путь к AGI. Одной из особенностей этих моделей был гипотетический момент «пробуждения ИИ», когда мир начал понимать, насколько мощными могут быть эти модели, и начал быстро наращивать свои инвестиции — достигая кульминации в нескольких % ВВП в направлении крупнейших учебных запусков.

Тогда это казалось далеким, но это время пришло. 2023 год стал «пробуждением ИИ».

За кулисами происходит самое ошеломляющее ускорение техно-капитала.

Приготовьтесь к перегрузкам.

Следующая запись в серии:
IIIb. Lock Down the Labs: Security for AGI

(Что все это значит для NVDA/TSM и т. д.? Я оставляю читателю в качестве упражнения. Подсказка: те, кто обладает ситуационной осведомленностью, купили намного дешевле, чем вы, но это все равно даже близко не полностью учтено в цене.

)


  1. Как уже упоминалось, OOM = порядок величины, 10x = 1 порядок величины.
  2. Одной из ключевых неопределенностей является то, насколько распределенным будет обучение: если бы вместо того, чтобы сосредоточивать все это количество энергии в одном месте, мы могли бы распределить его между 100 местами, это было бы намного проще.
  3. См., например, Zuck здесь ; только ~45 тыс. его H100 находятся в его крупнейших обучающих кластерах, подавляющее большинство из его 350 тыс. H100 для вывода. У Meta, вероятно, более серьезные потребности в выводе, чем у других игроков, которые обслуживают меньше клиентов до сих пор, но по мере масштабирования продуктов ИИ всех остальных, я ожидаю, что вывод станет сильным большинством графических процессоров.
  4. Например, этот анализ общей стоимости владения оценивает, что около 40% стоимости большого кластера приходится на сами графические процессоры H100, а еще 13% уходит на Nvidia для сетей Infiniband. При этом, исключая стоимость капитала в этом расчете, мы получим, что графические процессоры составляют около 50% стоимости, а с учетом сетей мы получим, что Nvidia получит чуть более 60% стоимости кластера.
  5. И , судя по всему , несмотря на то, что Microsoft за последний квартал увеличила капитальные затраты на 79% по сравнению с прошлым годом, спрос на облачные решения ИИ по-прежнему превышает предложение!
  6. Вероятно, в будущем большая часть мирового производства графических процессоров будет направляться в крупнейший учебный кластер, чем сегодня, например, из-за консолидации в нескольких ведущих лабораториях, а не во многих компаниях, имеющих кластеры масштаба пограничных моделей.
  7. Конечно, не все это будет в США, но для справки.
  8. Я предполагаю, что Nvidia собирается поставить порядка 5 млн GPU для центров обработки данных в 2024 году. Меньшая часть из них — B100, которые мы будем считать как 2x+ H100. Затем идут другие чипы ИИ: TPU, Trainium, кастомный кремний Meta, GPU AMD и т. д.
  9. TSMC имеет мощности для более чем 150 тыс. 5-нм пластин в месяц, наращивает производство до 100 тыс. 3-нм пластин в месяц и, вероятно, еще 150 тыс. или около того 7-нм пластин в месяц; назовем это 400 тыс. пластин в месяц в общей сложности.Скажем, примерно 35 H100 на пластину (H100 производятся на 5 нм). При 5-10 млн эквивалентов H100 в 2024 году это 150-300 тыс. пластин в год для ежегодного производства чипов ИИ в 2024 году.В зависимости от того, где в этом диапазоне и хотим ли мы учитывать производство 7 нм, это около 3-10% от годового производства передовых пластин.
  10. Для меня большой неопределенностью является то, каковы задержки для распространения и принятия технологии. Я думаю, что вероятный доход замедляется, потому что промежуточные модели, предшествующие AGI, требуют много «таска» для надлежащей интеграции в рабочие процессы компании; исторически требовалось некоторое время, чтобы полностью извлечь выгоду из прироста производительности от новых технологий общего назначения. Вот где вступает в силу обсуждение « звукового удара » ранее: по мере того, как мы «раскрепощаем» модели, и они начинают больше походить на агентов/внештатных удаленных работников, их развертывание становится намного проще. Вместо того, чтобы полностью переделывать какой-то рабочий процесс, чтобы извлечь 25% прироста производительности из GPT-чатбота, вместо этого вы получите модели, которые вы можете взять на борт и работать с ними, как с новым коллегой (например, просто напрямую заменить инженера, вместо того, чтобы обучать инженеров использованию какого-то нового инструмента). Или, в крайнем случае и позже: вам не нужно будет полностью перепроектировать фабрику для работы с каким-то новым инструментом, вы просто привлечете гуманоидных роботов.Тем не менее, это может привести к некоторому разрыву в экономической ценности и получаемом доходе, в зависимости от того, насколько быстро мы сможем «распутать» модели.
  11. Интересно, что произойдет с процентными ставками… см. Тайлера Коуэна здесь ; Чоу, Мазлиша и Гальперина здесь .
  12. И, если говорить о более отдаленной перспективе, если бы AGI действительно привел к существенному увеличению экономического роста, то вполне вероятным стал бы показатель в 10 трлн долларов США и более в год — при этом в качестве эталонного класса использовались бы темпы инвестирования в странах в периоды высоких темпов роста.
  13.  «С 2011 года плавильный завод в Алуэте потребляет 930 МВт электроэнергии при максимальной производственной мощности».
  14. Тем не менее, это «чистая новая» мощность: часть из этого идет на строительство новых возобновляемых источников энергии и отключение старых заводов на ископаемом топливе от сети. Возможно, это ближе к одному или двум процентам в год валовой новой мощности.
  15. Выражаем благодарность Остину Вернону (личная переписка) за помощь в этих оценках.
  16. Новые скважины дают около 0,01 млрд куб. футов в день.
  17.  Каждая скважина производит около 20 млрд кубических футов нефти за свой срок службы, а это означает, что две новые скважины в месяц заместят истощенные запасы, т.е. для поддержания добычи потребуется всего одна буровая установка.
  18.  Хотя было бы эффективнее добавлять меньше установок и наращивать производство в течение более длительного периода времени, чем 10 месяцев.
  19. Кубический фут природного газа генерирует около 0,13 кВт·ч. Добыча сланцевого газа в США в 2020 году составила около ~70 млрд кубических футов в день. Предположим, мы снова удвоили добычу, а все дополнительные мощности пошли на вычислительные кластеры. Это 3322 ТВт·ч/год электроэнергии, или достаточно для почти 4 кластеров по 100 ГВт.
  20. Капитальные затраты на электростанции, работающие на природном газе, по-видимому, составляют менее 1000 долларов США за кВт, то есть капитальные затраты на 100 ГВт электростанций, работающих на природном газе, составят около 100 миллиардов долларов США.
  21. Солнечная энергия и батареи — это не совсем безумная альтернатива, но она кажется более грубой, чем природный газ. Я оценил расчет Кейси Хэндмера по покрытию Земли солнечными панелями:
    «С текущими графическими процессорами вычислительная мощность глобального солнечного центра обработки данных эквивалентна ~150 миллиардам людей, хотя, если наши компьютеры в конечном итоге смогут сравниться с эффективностью [человеческого мозга], мы могли бы поддерживать более 5 квадриллионов душ ИИ».
  22.  Это ставит интересный вопрос о том, почему требования к питанию так сильно растут, прежде чем производство чипов на фабриках начинает действительно ограничиваться. Простой ответ заключается в том, что в то время как центры обработки данных работают непрерывно на мощности, близкой к максимальной, большинство производимых в настоящее время чипов простаивают большую часть времени. В настоящее время смартфоны составляют около половины от основного спроса на чипы, но потребляют гораздо меньше энергии на площадь пластины (обменивая транзисторы на последовательные операции и энергоэффективность) и имеют низкую загрузку, поскольку смартфоны в основном простаивают. Революция ИИ означает, что наши транзисторы будут работать намного интенсивнее, направляя их все на постоянно работающие, высокопроизводительные центры обработки данных ИИ вместо простаивающих, работающих от батареи/энергосберегающих устройств. HT Карл Шульман по этому вопросу.
  23. (Используя доход в качестве прокси-показателя.)
  24.  Гораздо проще проводить атаки по побочным каналам, чтобы вывести грузы, имея физический доступ!
  25. Я отчетливо помню, как в марте 2023 года написал на своей доске: «ВЗЛЕТ НАЧАЛСЯ».
  26. Аналитики основных продаж, похоже, предполагают рост выручки Nvidia всего на 10-20% в годовом исчислении с CY24 по CY25, может быть, $120-$130 млрд в CY25 (или, по крайней мере, так было до недавнего времени). Безумие! Довольно очевидно уже некоторое время, что Nvidia получит более $200 млрд выручки в CY25.

***********

IIIb. Закройте лаборатории: безопасность для AGI

Ведущие лаборатории ИИ в стране относятся к безопасности как к чему-то второстепенному. В настоящее время они, по сути, передают ключевые секреты AGI КПК на блюдечке с голубой каемочкой. Защита секретов и весов AGI от угрозы со стороны государственных субъектов потребует огромных усилий, и мы не на верном пути. 


Они встретились вечером в офисе Вигнера. «Сциллард изложил данные Колумбии, — сообщает Уилер, — и предварительные указания на то, что по крайней мере два вторичных нейтрона возникают из каждого деления, вызванного нейтронами. Разве это не означало, что ядерный взрыв, безусловно, возможен?» Не обязательно, возразил Бор.

«Мы пытались убедить его, — пишет Теллер, — что нам следует продолжать исследования деления, но не следует публиковать результаты. Мы должны держать результаты в секрете, чтобы нацисты не узнали о них и не произвели ядерные взрывы первыми».

«Бор настаивал на том, что нам никогда не удастся производить ядерную энергию, и он также настаивал на том, что в физику никогда не следует вносить секретность».

Ричард Роудс, Создание атомной бомбы (стр. 430)

При текущем курсе ведущие китайские лаборатории AGI будут не в Пекине или Шанхае — они будут в Сан-Франциско и Лондоне. Через несколько лет станет ясно, что секреты AGI — самые важные секреты национальной обороны США, заслуживающие обращения наравне с чертежами бомбардировщиков B-21 или подводных лодок класса Columbia, не говоря уже о пресловутых «ядерных секретах», — но сегодня мы обращаемся с ними так же, как с программным обеспечением SaaS. При таком раскладе мы, по сути, просто передаем сверхразум КПК.

Все триллионы, которые мы инвестируем, мобилизация американской промышленной мощи, усилия наших лучших умов — все это не имеет значения, если Китай или другие могут просто украсть веса моделей (все, что представляет собой готовая модель ИИ, все, чем будет ИИ, — это большой файл на компьютере) или ключевые алгоритмические секреты (ключевые технические прорывы, необходимые для создания ИИ).

Ведущие американские лаборатории искусственного интеллекта заявляют о том, что они создают ОИИ: они считают, что создаваемая ими технология станет самым мощным оружием, которое когда-либо создавала Америка, еще до конца десятилетия. Но они не относятся к этому так. Они измеряют свои усилия по обеспечению безопасности по «случайным технологическим стартапам», а не по «ключевым национальным оборонным проектам». По мере того, как гонка ОИИ усиливается — по мере того, как становится ясно, что суперинтеллект будет иметь решающее значение в международном военном соревновании — нам придется столкнуться со всей силой иностранного шпионажа. В настоящее время лаборатории едва способны защититься от скрипткидди, не говоря уже о «безопасности, защищенной от Северной Кореи», не говоря уже о готовности столкнуться с Министерством государственной безопасности Китая, которое использует всю свою мощь.

И это будет иметь значение не только через годы. Конечно, кого волнует, если веса GPT-4 будут украдены — что действительно важно с точки зрения безопасности весов, так это то, что мы можем защитить веса AGI в будущем, так что у нас есть несколько лет, можно сказать. (Хотя, если мы создаем AGI в 2027 году, нам действительно нужно двигаться!) Но лаборатории ИИ разрабатывают алгоритмические секреты — ключевые технические прорывы, чертежи, так сказать — для AGI прямо сейчас (в частности, RL/self-play/synthetic data/etc « следующая парадигма » после LLM, чтобы преодолеть стену данных). Безопасность уровня AGI для алгоритмических секретов необходима за годы до безопасности уровня AGI для весов. Эти алгоритмические прорывы будут значить больше, чем кластер в 10 или 100 раз больше через несколько лет — это гораздо больше, чем экспортный контроль за вычислениями, который USG (провидчески!) интенсивно преследует. Сейчас вам даже не нужно проводить масштабную шпионскую операцию, чтобы украсть эти секреты: просто зайдите на любую вечеринку в Сан-Франциско или загляните в окна офиса.

Наша сегодняшняя неудача скоро станет необратимой: в течение следующих 12-24 месяцев мы слим ключевые достижения в области AGI КПК. Это будет единственным величайшим сожалением истеблишмента национальной безопасности до конца десятилетия.

На кону сохранение свободного мира против авторитарных государств, и здоровое преимущество станет необходимым буфером, который даст нам запас прочности, чтобы обеспечить безопасность ИИ. У Соединенных Штатов есть преимущество в гонке AGI. Но мы упустим это преимущество, если не займемся безопасностью в ближайшее время. Приступить к этому сейчас, возможно, даже самое важное, что нам нужно сделать сегодня, чтобы гарантировать, что AGI пойдет хорошо.

Недооценивать государственных деятелей — на свой страх и риск

Слишком много умных людей недооценивают шпионаж.

Возможности государств и их разведывательных служб чрезвычайно внушительны. Даже в обычные времена, не в условиях тотальной гонки за AGI (и из того немногого, что мы знаем публично), национальные государства (или менее продвинутые субъекты) были способны:

Чтобы еще больше понять, с чем мы имеем дело, сталкиваясь со спецслужбами, я настоятельно рекомендую книгу «Внутри аквариума» , написанную перебежчиком из советского ГРУ (военной разведки).

Китай уже занимается широкомасштабным промышленным шпионажем; директор ФБР заявил, что КНР проводит хакерскую операцию, масштабы которой превосходят « все крупные страны вместе взятые ». А всего пару месяцев назад генеральный прокурор объявил об аресте гражданина Китая , который украл ключевой код искусственного интеллекта у Google, чтобы привезти его с собой в КНР (еще в 2022/23 году, и, вероятно, это лишь верхушка айсберга).

Но это только начало. Мы должны быть готовы к тому, что наши противники «проснутся к AGI» в ближайшие несколько лет. ИИ станет приоритетом №1 для всех разведывательных агентств мира. В этой ситуации они будут готовы использовать экстраординарные средства и заплатить любую цену, чтобы проникнуть в лаборатории ИИ. 

Модель угрозы

Мы должны защищать два ключевых актива: веса моделей (особенно по мере приближения к ИИОН, но для правильной работы требуются годы подготовки и практики) и алгоритмические секреты (начиная со вчерашнего дня).

Вес модели

Модель ИИ — это просто большой файл с числами на сервере. Его можно украсть. Все, что нужно противнику, чтобы сравниться с вашими триллионами долларов, вашими умнейшими умами и десятилетиями работы, — это украсть этот файл. (Представьте, что нацисты получили точную копию каждой атомной бомбы, произведенной в Лос-Аламосе.)

Если мы не можем обеспечить безопасность весов моделей, мы просто создаем ИИ для КПК (и, учитывая текущую траекторию безопасности лабораторий ИИ, даже для Северной Кореи).

Даже помимо национальной конкуренции, обеспечение весов моделей также имеет решающее значение для предотвращения катастроф ИИ. Все наши заламывания рук и защитные меры напрасны, если плохой субъект (скажем, террорист или государство-изгой) может просто украсть модель и делать с ней все, что захочет, обходя любые уровни безопасности. Какое бы новое ОМП ни изобрел суперинтеллект, он быстро распространился бы на десятки государств-изгоев. Более того, безопасность — это первая линия обороны против неконтролируемых или несогласованных систем ИИ (насколько глупыми мы бы себя чувствовали, если бы не смогли сдержать сверхинтеллект-изгой, потому что мы не построили и не испытали его сначала в изолированном кластере?).

Обеспечение весов моделей не имеет сейчас особого значения: кража GPT-4 без базового рецепта не так уж и важна для CCP. Но это действительно будет иметь значение через несколько лет, как только у нас появится AGI, системы, которые действительно невероятно мощны.

Возможно, единственный сценарий, который больше всего не дает мне спать по ночам, — это если Китай или другой противник сможет украсть веса автоматизированных моделей исследователей ИИ на пороге взрыва интеллекта . Китай мог бы немедленно использовать их для автоматизации собственных исследований ИИ (даже если ранее они сильно отставали) — и запустить свой собственный взрыв интеллекта. Этого было бы достаточно для автоматизации исследований ИИ и создания сверхразума. Любое преимущество США исчезло бы.

Более того, это немедленно поставило бы нас в экзистенциальную гонку; любой запас прочности для обеспечения безопасности сверхразума исчез бы. КПК вполне может попытаться проскочить через взрыв интеллекта как можно быстрее — даже месяцы опережения сверхразума могли бы означать решающее военное преимущество — в процессе пропуская все меры предосторожности, которые любые ответственные усилия США по AGI надеялись бы предпринять. Нам также пришлось бы проскочить через взрыв интеллекта, чтобы избежать полного доминирования КПК. Даже если США все же удастся в конце концов вырваться вперед, потеря запаса будет означать необходимость идти на огромные риски в плане безопасности ИИ.

Мы далеки от достаточной безопасности, чтобы защитить веса сегодня. Google DeepMind (возможно, лаборатория ИИ, которая имеет лучшую безопасность из всех, учитывая инфраструктуру Google) по крайней мере прямо признает это. Их Frontier Safety Framework описывает уровни безопасности 0, 1, 2, 3 и 4 (~1,5 — это то, что вам нужно для защиты от хорошо обеспеченных ресурсами террористических групп или киберпреступников, 3 — это то, что вам нужно для защиты от Северной Кореи мира, и 4 — это то, что вам нужно, чтобы иметь хотя бы шанс защититься от приоритетных усилий самых способных государственных субъектов).

Они признают, что находятся на уровне 0 (только самые банальные и основные меры). Если бы мы получили AGI и суперинтеллект в ближайшее время, мы бы буквально доставили его террористическим группам и каждому сумасшедшему диктатору!

Критически важно, что разработка инфраструктуры для безопасности веса, вероятно, займет много лет — если мы думаем, что AGI через ~3-4 года — это реальная возможность, и нам нужна безопасность веса с защитой от состояния, нам нужно начать работу над крахом уже сейчас. Обеспечение безопасности веса потребует инноваций в оборудовании и радикально иной конструкции кластера; и безопасность на этом уровне не может быть достигнута в одночасье, а требует циклов итераций.

Если мы не подготовимся вовремя, наше положение будет ужасным. Мы будем на пороге сверхразума, но через годы от необходимой безопасности. Мы выберем либо двигаться вперед, но напрямую предоставить сверхразум КПК — с экзистенциальной гонкой через взрыв интеллекта, который подразумевает это — либо ждать, пока не будет завершена программа по краху безопасности, рискуя потерять лидерство.

Алгоритмические секреты

Хотя люди начинают осознавать (хотя и не обязательно реализовывать) необходимость обеспечения безопасности веса, возможно, сейчас еще более важным (и значительно недооцененным) является обеспечение безопасности алгоритмических секретов.

Один из способов думать об этом заключается в том, что кража алгоритмических секретов будет стоить наличия кластера в 10 и более раз большего, чем PRC:

  • Как обсуждалось в Подсчете OOM , алгоритмический прогресс, вероятно, так же важен, как и масштабирование вычислений для прогресса ИИ. Учитывая базовую тенденцию ~0,5 OOM вычислительной эффективности в год (+ дополнительный алгоритмический «раскрепощающий» прирост сверху), мы должны ожидать несколько OOM алгоритмических секретов между настоящим моментом и AGI. По умолчанию я ожидаю, что американские лаборатории будут на годы впереди; если они смогут защитить свои секреты, это может легко стоить 10x-100x вычислений.
    • (Обратите внимание, что мы готовы принести американским инвесторам сотни миллиардов долларов расходов, контролируя экспорт чипов Nvidia — возможно, это приведет к трехкратному увеличению стоимости вычислений для китайских лабораторий — но при этом мы разглашаем в три раза больше алгоритмических секретов!)
  • Может быть, что еще важнее, мы можем разрабатывать ключевые прорывы парадигмы для AGI прямо сейчас. Как обсуждалось ранее , простое масштабирование текущих моделей упрется в стену: стену данных. Даже при гораздо большем количестве вычислений не получится создать лучшую модель. Передовые лаборатории ИИ яростно работают над тем, что будет дальше, от RL до синтетических данных. Они, вероятно, придумают что-то безумное — по сути, эквивалент «AlphaGo self-play» для общего интеллекта. Их изобретения будут такими же ключевыми, как и изобретение парадигмы LLM изначально несколько лет назад, и они будут ключом к созданию систем, которые выходят далеко за рамки человеческого уровня. У нас все еще есть возможность отказать Китаю в этих ключевых алгоритмических прорывах, без которых они застряли бы у стены данных. Но без лучшей безопасности в течение следующих 12–24 месяцев мы вполне можем необратимо снабдить Китай этими ключевыми прорывами AGI.
  • Легко недооценить, насколько важными будут алгоритмические секреты Edge, потому что еще пару лет назад все было опубликовано. Основная идея была там: масштабировать Transformers в интернет-тексте. Многие алгоритмические детали и эффективность были там: законы масштабирования Chinchilla, MoE и т. д. Таким образом, сегодня модели с открытым исходным кодом довольно хороши, и у нескольких компаний есть довольно хорошие модели (в основном в зависимости от того, сколько $$$ они собрали и насколько велики их кластеры). Но это, вероятно, довольно резко изменится в ближайшие пару лет. В основном весь прогресс в области алгоритмов Frontier происходит в лабораториях в наши дни (академия, как ни странно, не имеет значения), и ведущие лаборатории прекратили публиковать свои достижения. Мы должны ожидать гораздо большего расхождения впереди: между лабораториями, между странами и между фирменными моделями Frontier и Open Source. Несколько американских лабораторий будут далеко впереди — в 10, 100 раз и более, намного больше, чем, скажем, 7-нм против 3-нм чипов, — если только они немедленно не раскроют секреты алгоритмов.

Проще говоря, я думаю, что неспособность защитить алгоритмические секреты — это, вероятно, наиболее вероятный способ, с помощью которого Китай сможет оставаться конкурентоспособным в гонке за ИИОН. (Я расскажу об этом подробнее позже .)

Трудно переоценить, насколько плоха безопасность алгоритмических секретов прямо сейчас. Между лабораториями находятся тысячи людей с доступом к самым важным секретам; по сути, нет проверки биографических данных, изоляции, контроля, базовой информационной безопасности и т. д. Вещи хранятся на легко взламываемых SaaS-сервисах. Люди болтают на вечеринках в Сан-Франциско. Любому, у кого в голове все секреты, могут предложить 100 миллионов долларов и завербовать в китайскую лабораторию в любой момент.

Вы можете… просто смотреть через окна офиса. И так далее. Существует множество статей и слухов, летающих по Сан-Франциско, якобы содержащих обширные сведения о различных достижениях в области алгоритмов в лабораториях.

Безопасность лаборатории ИИ не намного лучше, чем «безопасность случайного запуска». Прямая продажа секретов ИИ КПК была бы, по крайней мере, честнее.

… Это ли то, что мы видим в OpenAI или любой другой американской лаборатории ИИ? Нет. На самом деле, мы видим противоположное — эквивалент безопасности швейцарского сыра. Китайское проникновение в эти лаборатории было бы тривиально простым, используя любое количество методов промышленного шпионажа, например, просто подкупив уборщиков, чтобы они вставили USB-ключи в ноутбуки. Мое собственное предположение заключается в том, что все такие американские лаборатории ИИ полностью проникли, и что Китай получает еженощные загрузки всех американских исследований и кодов ИИ ПРЯМО СЕЙЧАС…

Марк Андрессен

Хотя это будет сложно, я думаю, что эти секреты можно защитить. Вероятно, есть только десятки людей, которым действительно «нужно знать» ключевые детали реализации для данного алгоритмического прорыва в данной лаборатории (даже если большему числу нужно знать базовую идею высокого уровня) — вы можете проверять, изолировать и интенсивно контролировать этих людей, в дополнение к радикально модернизированной информационной безопасности.

Что потребует «супербезопасность»

В лабораториях ИИ есть много легких путей решения проблем безопасности. Простое принятие лучших практик, скажем, секретных хедж-фондов или безопасности уровня клиентских данных Google поставило бы нас в гораздо лучшее положение относительно «обычного» экономического шпионажа со стороны КПК. Действительно, есть примечательные примеры того, как частные компании прекрасно справляются с сохранением секретов. Возьмем, к примеру, компании количественной торговли (мировые «Джейн-стритс»). Несколько человек рассказали мне, что за час разговора они могли бы передать конкуренту достаточно информации, чтобы альфа их компании упала до ~ нуля — аналогично тому, сколько ключевых секретов алгоритмов ИИ можно было бы передать за короткий разговор — и все же этим компаниям удается хранить эти секреты и сохранять свое преимущество.

Хотя большинство ведущих американских лабораторий искусственного интеллекта отказались поставить национальные интересы на первое место, отвергнув даже элементарные меры безопасности на этом уровне, если они требуют каких-либо затрат или приоритетности безопасности, собрать этот легкодоступный плод было бы вполне в их силах.

Но давайте взглянем немного дальше. Как только Китай начнет по-настоящему понимать важность AGI, мы должны ожидать, что его шпионские усилия будут задействованы в полную силу; представьте себе миллиарды долларов инвестиций, тысячи сотрудников и чрезвычайные меры (например, ударные группы специального назначения), направленные на проникновение в американские усилия AGI. Что потребуется для обеспечения безопасности AGI и суперинтеллекта?

Короче говоря, это будет возможно только с помощью правительства . Например, Microsoft регулярно взламывают государственные структуры (например, российские хакеры недавно украли электронную почту руководителей Microsoft , а также правительственную электронную почту, размещенную Microsoft ). Высококлассный эксперт по безопасности, работающий в этой области, подсчитал, что даже при полном частном ускоренном курсе Китай все равно, скорее всего, сможет выкрасть веса AGI, если это будет их приоритетом № 1 — единственный способ довести эту вероятность до однозначных цифр потребовал бы, более или менее, государственного проекта.

Хотя у правительства нет идеальной репутации в области безопасности, только у него есть инфраструктура, ноу-хау и компетенции для защиты секретов уровня национальной обороны. Базовые вещи, такие как полномочия подвергать сотрудников интенсивной проверке; угрожать тюремным заключением за утечку секретов; физическая безопасность для центров обработки данных; и обширные ноу-хау таких мест, как АНБ, и людей, стоящих за допусками к секретной информации (частные компании просто не обладают экспертизой в области атак государственных субъектов).

Я не один из тех, кто стоит за допусками к секретной информации, поэтому я не могу дать надлежащий отчет о том, что на самом деле потребует безопасность AGI. Лучший публичный ресурс по этому вопросу — отчет RAND о безопасности веса . Чтобы дать представление о том, что на самом деле будет означать эта безопасность, защищенная от государственных акторов:

  • Полностью изолированные центры обработки данных с физической безопасностью на уровне большинства защищенных военных баз (проверенный персонал, физические укрепления, группа реагирования на месте, обширное наблюдение и строгий контроль доступа).
    • И не только для обучающих кластеров — кластерам вывода нужна такая же серьезная защита!
  • Новые технические достижения в области конфиденциального вычислительного/аппаратного шифрования

    и строжайший контроль всей цепочки поставок оборудования.

  • Весь исследовательский персонал, работающий в SCIF (Sensitive Compartmented Information Facility, произносится как «скифф»), см. эту визуализацию .
  • Жесткие проверки персонала и допуски к секретной информации (включая регулярные проверки благонадежности сотрудников и т. п.), постоянный мониторинг и существенное ограничение свободы увольнения, а также жесткое хранение информации.
  • Строгий внутренний контроль, например, многоключевая подпись для запуска любого кода.
  • Строгие ограничения на любые внешние зависимости и удовлетворение общих требований сетей TS/SCI.
  • Продолжается интенсивное тестирование на проникновение со стороны АНБ или аналогичной организации.
  • И так далее…

Гигантские кластеры AGI сейчас планируются; соответствующие усилия по обеспечению безопасности тоже должны быть. Если мы построим AGI всего за несколько лет, у нас очень мало времени.

Тем не менее, эти огромные усилия не должны приводить к фатализму. Спасение безопасности в том, что КПК, вероятно, еще не полностью обездвижена AGI, и поэтому пока не инвестирует в самые экстремальные усилия. Безопасность американской лаборатории ИИ должна «только» оставаться впереди кривой по сравнению с интенсивностью китайских шпионских усилий. Это означает немедленное повышение безопасности, чтобы оставаться впереди «более обычного» экономического шпионажа (которому мы далеки от сопротивления, но частные компании, вероятно, могли бы); и это означает в течение следующих нескольких лет, по мере того, как китайский и другой иностранный шпионаж будет набирать обороты, быстрое повышение до гораздо более интенсивных мер в сотрудничестве с правительством.


Некоторые утверждают, что строгие меры безопасности и связанные с ними трения не стоят того, поскольку они слишком сильно замедлят работу американских лабораторий ИИ. Но я думаю, что это ошибочно:

  • Это трагедия проблемы общего достояния. Для коммерческих интересов данной лаборатории меры безопасности, которые вызывают замедление на 10%, могут быть губительны в конкуренции с другими лабораториями. Но национальные интересы явно лучше, если каждая лаборатория будет готова принять дополнительное трение: американские исследования ИИ намного опережают китайский и другой зарубежный алгоритмический прогресс, и сохранение Америкой 90%-ной скорости алгоритмического прогресса в качестве нашего национального преимущества явно лучше, чем сохранение 0% в качестве национального преимущества (когда все мгновенно крадут)!
  • Более того, усиление безопасности сейчас будет менее болезненным путем с точки зрения продуктивности исследований в долгосрочной перспективе. В конце концов, неизбежно, хотя бы на пороге сверхразума, в грядущей чрезвычайной гонке вооружений, правительство США поймет, что ситуация невыносима, и потребует ужесточения мер безопасности. Гораздо более болезненным и более медленным будет внедрение экстремальных мер безопасности, защищенных от государственных деятелей, с самого начала, а не итеративно.

Другие утверждают, что даже если наши секреты или весы утекут, мы все равно сможем вырваться вперед , будучи быстрее в других отношениях (поэтому нам не следует беспокоиться об этих мерах безопасности). Это также ошибочно или, по крайней мере, слишком рискованно :

  • Как я обсуждаю в более поздней статье , я думаю, что КПК вполне может грубо превзойти США (кластер в 100 ГВт будет для них намного проще). В более общем плане, у Китая может не быть той же осторожности, замедляющей его, как у США (как разумной, так и неразумной осторожности!). Даже если кража алгоритмов или весов «всего лишь» ставит их в один ряд с моделью США, этого может быть достаточно, чтобы выиграть гонку за сверхразум.
  • Более того, даже если США в конце концов вырвутся вперед, разница между 1-2-летним и 1-2-месячным опережением будет действительно иметь значение для преодоления опасностей сверхразума. Опережение в 1-2 года означает по крайней мере разумный запас для правильного обеспечения безопасности и преодоления чрезвычайно нестабильного периода вокруг взрыва интеллекта и пост-сверхразума.

    Всего лишь 1-2 месяца опережения означают сумасшедшую международную гонку вооружений с экстремальным давлением, гонку через взрыв интеллекта и полное отсутствие возможности правильно организовать безопасность. Это та гонка ноздря в ноздрю, экзистенциальная гонка, в которой мы сталкиваемся с наибольшими рисками самоуничтожения .

  • Не забывайте о России, Иране, Северной Корее и т. д. Их хакерские возможности не скудны. На текущем курсе мы свободно делимся с ними суперинтеллектом! Без особой безопасности мы распространяем то, что станет нашим самым мощным оружием, среди множества невероятно опасных, безрассудных и непредсказуемых субъектов.

Мы не на верном пути

Когда немногим впервые стало ясно, что атомная бомба возможна, секретность также была, пожалуй, самым спорным вопросом. В 1939 и 1940 годах Лео Силард стал известен «в американском физическом сообществе как ведущий апостол секретности в вопросах деления».

Но большинство его отвергло; секретность была совсем не тем, к чему привыкли ученые, и она противоречила многим из их основных инстинктов открытой науки. Но постепенно стало ясно, что нужно было сделать: военный потенциал этого исследования был слишком велик, чтобы просто свободно делиться им с нацистами. И секретность наконец была введена, как раз вовремя.

Осенью 1940 года Ферми закончил новые измерения поглощения углерода графитом, предположив, что графит является жизнеспособным замедлителем для бомбы. Сциллард напал на Ферми с очередным призывом к секретности. «В это время Ферми действительно вышел из себя; он действительно считал это абсурдом», — рассказал Сциллард. К счастью, дальнейшие апелляции в конечном итоге увенчались успехом, и Ферми неохотно воздержался от публикации своих результатов по графиту.

В то же время немецкий проект сузился до двух возможных материалов-замедлителей: графита и тяжелой воды. В начале 1941 года в Гейдельберге Вальтер Боте провел неверное измерение сечения поглощения графита и пришел к выводу, что графит поглотит слишком много нейтронов, чтобы поддерживать цепную реакцию. Поскольку Ферми держал свой результат в секрете, у немцев не было измерений Ферми, чтобы сверить их и исправить ошибку. Это было решающим: это привело немецкий проект к поиску тяжелой воды — решительно неверному пути, который в конечном итоге обрекал немецкие усилия по созданию ядерного оружия.

Если бы не призыв к секретности в последнюю минуту, немецкий проект по созданию бомбы мог бы стать гораздо более грозным конкурентом, и история могла бы повернуться совсем иначе.


В ведущих лабораториях ИИ настоящий ментальный диссонанс по поводу безопасности. Они во весь голос заявляют, что в этом десятилетии будут строить AGI. Они подчеркивают, что американское лидерство в AGI будет иметь решающее значение для национальной безопасности США. Сообщается, что они планируют создание 7T чипов , которые имеют смысл только в том случае, если вы действительно верите в AGI. И действительно, когда вы поднимаете тему безопасности, они кивают и признают: «конечно, мы все будем в бункере» и ухмыляются.

И все же реальность безопасности не может быть более оторвана от этого. Всякий раз, когда приходит время делать сложный выбор в пользу безопасности, стартап-отношения и коммерческие интересы берут верх над национальными интересами. Советник по национальной безопасности получил бы нервный срыв, если бы он понял уровень безопасности в ведущих лабораториях ИИ страны.

Прямо сейчас разрабатываются секреты, которые можно будет использовать для каждого тренировочного запуска в будущем и которые станут ключевыми ключами к AGI, которые защищены системой безопасности стартапа и принесут КПК сотни миллиардов долларов.

Реальность такова, что а) в течение следующих 12–24 месяцев мы разработаем ключевые алгоритмические прорывы для AGI и немедленно передадим их КПК, и б) мы даже не на пути к тому, чтобы наши веса были защищены от таких злоумышленников, как Северная Корея, не говоря уже о тотальных усилиях Китая, к тому времени, как мы построим AGI. «Хорошая безопасность для стартапа» просто даже близко не достаточно хороша, и у нас очень мало времени, прежде чем вопиющий ущерб национальной безопасности Соединенных Штатов станет необратимым.

Мы разрабатываем самое мощное оружие, которое когда-либо создавало человечество. Алгоритмические секреты, которые мы разрабатываем прямо сейчас, — это буквально самые важные секреты национальной обороны страны — секреты, которые станут основой экономического и военного превосходства США и ее союзников к концу десятилетия, секреты, которые определят, есть ли у нас необходимое лидерство для правильного обеспечения безопасности ИИ, секреты, которые определят исход Третьей мировой войны, секреты, которые определят будущее свободного мира. И все же безопасность лаборатории ИИ, вероятно, хуже, чем случайный подрядчик по обороне, изготавливающий болты.

Это безумие.

По сути, все, что мы делаем — и в сфере национальной конкуренции, и в сфере безопасности ИИ — не будет иметь значения, если мы не исправим это в ближайшее время.

Следующая запись в серии :
IIIc.

Арекламный щитна заводе по обогащению урана в Оук-Ридже, штат Теннесси, 1943 год.

  1. Один спойлер, для ознакомления: после окончания ~шпионской академии, перед отправкой за границу, начинающие шпионы должны были доказать свои навыки на родине: они должны были получить секретную информацию от советского ученого. Наказанием за раскрытие государственных секретов, конечно же, была смерть. То есть: окончание ~шпионской академии означало выбор соотечественника, которого нужно было приговорить к смерти. HT Илья Суцкевер за рекомендацию книги.
  2. Кстати, обвинительное заключение является прекрасной иллюстрацией того, как легко обойти систему безопасности даже в Google, которая, вероятно, имеет лучшую безопасность среди всех лабораторий ИИ (учитывая их способность опираться на многолетние инвестиции Google в инфраструктуру безопасности). Все, что потребовалось, чтобы украсть код, не будучи обнаруженным, — это вставить код в Apple Notes, а затем экспортировать в pdf!«DING извлек эти файлы, скопировав данные из исходных файлов Google в приложение Apple Notes на своем ноутбуке MacBook, выданном Google. Затем DING преобразовал Apple Notes в файлы PDF и загрузил их из сети Google в учетную запись DING 1. Этот метод помог DING избежать немедленного обнаружения». (Из обвинительного заключения .)Его поймали только потому, что он совершил кучу других глупостей, например, сразу же запустил крупные стартапы в Китае, что вызвало у людей подозрения (и позже он даже вернулся в США).
  3. На основании заявленного соответствия их уровней безопасности уровням L1-L5, указанным в отчете RAND по весовой безопасности .
  4. Иногда я шучу, что достижения в области алгоритмов лаборатории ИИ не доводятся до сведения американского исследовательского сообщества, но доводятся до сведения китайского исследовательского сообщества!
  5.  Действительно, я слышал от друзей, что ByteDance разослала электронные письма практически каждому человеку, работавшему в Google Gemini, с предложением нанять их, предложив им L8 (очень высокую должность с предположительно такой же высокой оплатой) и заявив, что они будут подчиняться непосредственно техническому директору ByteDance в Америке.
  6. Флоты вывода, вероятно, будут намного больше, чем тренировочные кластеры, и поэтому возникнет огромное давление, чтобы использовать эти кластеры вывода для запуска автоматизированных исследователей ИИ во время взрыва интеллекта (и запуска миллиардов сверхинтеллектов в более широком смысле сразу после него). Веса AGI/сверхинтеллекта, таким образом, могут быть также выведены из этих кластеров. (Я беспокоюсь, что это недооценено, и кластеры вывода будут гораздо менее защищены.)
  7. Но нельзя полагаться только на это! Аппаратное шифрование регулярно становится побочным каналом . Конечно, ключом является глубокая защита.
  8. Например, время, необходимое для дополнительных 6 месяцев в период взрывного развития интеллекта для проведения исследований по выравниванию, чтобы убедиться, что сверхразум не пойдет не так , время для стабилизации ситуации после изобретения некоторых новых видов оружия массового поражения путем направления этих систем на оборонительные цели, или просто время для лиц, принимающих решения, для принятия правильных решений, учитывая необычайно быстрые темпы технологических изменений с появлением сверхразума.
  9. Мы прилагаем все усилия, чтобы предотвратить распространение ядерного оружия в государства-изгои, даже если мы все равно будем «впереди» в области ядерных технологий по сравнению с их более ограниченным арсеналом, учитывая тот хаос, который может вызвать распространение.
  10. Создание атомной бомбы, стр. 509
  11. Создание атомной бомбы, стр. 507
  12. Эффективность вычислений возрастает в 100 раз и более при создании кластеров стоимостью в десятки или сотни миллиардов долларов.************

IIIc.Сверхвыравнивание

Надежное управление системами ИИ, которые намного умнее нас, — нерешенная техническая проблема. И хотя это решаемая проблема, все может очень легко сойти с рельсов во время быстрого интеллектуального взрыва. Управление этим будет чрезвычайно напряженным; неудача может легко стать катастрофической.


Старый колдун
Наконец-то ушел!
Теперь духи, которыми он управляет,
Будут подчиняться моим приказам.

Я тоже буду творить чудеса.

Сэр, я в отчаянном положении!
Духи, которых я вызвал, —
Я не могу от них избавиться.

Иоганн Вольфганг фон Гёте, «Ученик чародея»

Кэтому моменту вы, вероятно, уже слышали о ИИ-обреченниках. Вас могли заинтриговать их аргументы, или вы могли их сразу отвергнуть. Вам не хочется читать очередную мрачную медитацию.

Я не пессимист.

Разрозненный сверхинтеллект, вероятно, не является самым большим риском для ИИ.

Но я провел последний год, работая над техническими исследованиями по выравниванию систем ИИ в качестве своей основной работы в OpenAI, работая с Ильей и командой Superalignment . Существует вполне реальная техническая проблема: наши текущие методы выравнивания (методы, гарантирующие, что мы можем надежно контролировать, направлять и доверять системам ИИ) не будут масштабироваться до сверхчеловеческих систем ИИ. Я хочу объяснить, что я вижу как «стандартный» план того, как мы справимся,

и почему я настроен оптимистично. Хотя недостаточно людей в теме — нам следует приложить гораздо больше амбициозных усилий для решения этой проблемы! — в целом нам повезло с тем, как глубокое обучение вышло на новый уровень, есть много эмпирических низко висящих плодов, которые помогут нам пройти часть пути, и у нас будет преимущество в виде миллионов автоматизированных исследователей ИИ, которые помогут нам пройти оставшуюся часть пути.

Но я также хочу рассказать вам, почему я беспокоюсь. Больше всего, обеспечение того, чтобы выравнивание не пошло наперекосяк, потребует чрезвычайной компетентности в управлении взрывом интеллекта. Если мы быстро перейдем от AGI к сверхинтеллекту , мы столкнемся с ситуацией, когда менее чем за год мы перейдем от узнаваемых систем человеческого уровня, для которых потомки нынешних методов выравнивания будут в основном работать нормально, к гораздо более чуждым, значительно сверхчеловеческим системам, которые представляют качественно иную, принципиально новую техническую проблему выравнивания; в то же время переходя от систем, где отказ не имеет больших рисков, к чрезвычайно мощным системам, где отказ может быть катастрофическим; и все это в то время, когда большая часть мира, вероятно, сходит с ума. Это заставляет меня изрядно нервничать.

К концу десятилетия у нас будут миллиарды сверхчеловеческих агентов ИИ, которые будут бегать вокруг. Эти сверхчеловеческие агенты ИИ будут способны на чрезвычайно сложное и креативное поведение; у нас не будет никакой надежды последовать за ними. Мы будем как первоклассники, пытающиеся контролировать людей с несколькими докторскими степенями.

По сути, мы сталкиваемся с проблемой передачи доверия . К концу интеллектуального взрыва у нас не будет никакой надежды понять, что делает наш миллиард сверхразумов (за исключением того, что они могут решить объяснить нам, как ребенку). И у нас пока нет технической возможности надежно гарантировать даже базовые побочные ограничения для этих систем, такие как «не лги», «соблюдай закон» или «не пытайся выкрасть ваш сервер». Подкрепление с помощью обратной связи от человека (RLHF) очень хорошо подходит для добавления таких побочных ограничений для текущих систем, но RLHF полагается на способность людей понимать и контролировать поведение ИИ, которое в принципе не масштабируется до сверхчеловеческих систем.

Проще говоря, без очень согласованных усилий мы не сможем гарантировать, что сверхразум не выйдет из-под контроля (и это признают многие лидеры в этой области ). Да, по умолчанию все может быть хорошо. Но мы просто пока этого не знаем. Особенно, когда будущие системы ИИ будут обучаться не только с помощью имитационного обучения, но и масштабного долгосрочного RL (обучения с подкреплением), они приобретут непредсказуемое поведение, сформированное методом проб и ошибок (например, они могут научиться лгать или стремиться к власти, просто потому, что это успешные стратегии в реальном мире!).

Ставки будут настолько высоки, что надеяться на лучшее просто не будет достаточно хорошим ответом на вопрос выравнивания.

Проблема

Проблема супервыравнивания

Нам удалось разработать очень успешный метод согласования (т. е. управления/контроля) текущих систем ИИ (системы ИИ глупее нас!): обучение с подкреплением на основе обратной связи с человеком (RLHF). Идея RLHF проста: система ИИ пробует разные вещи, люди оценивают, было ли ее поведение хорошим или плохим, а затем подкрепляют хорошее поведение и наказывают плохое. Таким образом, она учится следовать человеческим предпочтениям.

Действительно, RLHF стал залогом успеха ChatGPT и других.

Базовые модели имели много сырых интеллектов, но не применяли их полезным образом по умолчанию; они обычно просто отвечали искаженным беспорядком, напоминающим случайный интернет-текст. С помощью RLHF мы можем управлять их поведением, прививая важные основы, такие как следование инструкциям и полезность. RLHF также позволяет нам закладывать защитные ограждения: например, если пользователь просит у меня инструкции по биологическому оружию, модель, вероятно, должна отказать.

Основная техническая проблема супервыравнивания проста: как нам контролировать системы ИИ, которые (намного ) умнее нас ?

RLHF предсказуемо сломается, поскольку системы ИИ станут умнее , и мы столкнемся с принципиально новыми и качественно иными техническими проблемами. Представьте себе, например, сверхчеловеческую систему ИИ, генерирующую миллион строк кода на новом языке программирования, который она изобрела. Если бы вы спросили человека-оценщика в процедуре RLHF: «Содержит ли этот код какие-либо лазейки безопасности?», он бы просто не узнал. Он не смог бы оценить вывод как хороший или плохой, безопасный или небезопасный, и поэтому мы не смогли бы подкреплять хорошее поведение и наказывать плохое поведение с помощью RLHF.

Настройка систем ИИ под контролем человека (как в RLHF) не приведет к масштабированию до сверхразума. На основе иллюстрации из «Обобщение от слабого к сильному«.

Даже сейчас лаборатории ИИ уже должны платить экспертам-программистам , чтобы они давали оценки RLHF для кода ChatGPT — код, который могут генерировать текущие модели, уже довольно продвинут! Оплата труда человека-разметчика выросла с нескольких долларов для разметчиков MTurk до ~$100/час для вопросов GPQA

за последние несколько лет. В (ближайшем) будущем даже лучшие эксперты-люди, тратящие много времени, будут недостаточно хороши. Мы начинаем сталкиваться с ранними версиями проблемы супервыравнивания в реальном мире сейчас, и очень скоро это станет серьезной проблемой даже для практического развертывания систем следующего поколения. Очевидно, что нам понадобится преемник RLHF, который масштабируется до возможностей ИИ лучше, чем человеческий уровень, где человеческий надзор выходит из строя. В некотором смысле цель исследовательских усилий по супервыравниванию — повторить историю успеха RLHF: сделать базовые исследовательские ставки, которые будут необходимы для управления и развертывания систем ИИ через пару лет.

Как выглядит неудача

Люди слишком часто просто представляют себе «чатбот GPT-6», сообщая своим интуициям, что они, конечно, не будут опасно смещены. Как обсуждалось ранее в этой серии, « распутывающая » траектория указывает на агентов, обученных с RL, в ближайшем будущем. Я думаю, что графика Роджера передает это правильно:

Роджер Гроссе(Профессор Университета Торонто)

Один из способов думать о том, чего мы пытаемся достичь с помощью выравнивания, с точки зрения безопасности, — это добавить боковые ограничения. Рассмотрим будущую мощную «базовую модель», которую на втором этапе обучения мы обучаем с помощью долгосрочного RL, чтобы управлять бизнесом и зарабатывать деньги

(в качестве упрощенного примера):

  • По умолчанию он вполне может научиться лгать, мошенничать, обманывать, взламывать, стремиться к власти и так далее — просто потому, что это могут быть успешные стратегии зарабатывания денег в реальном мире!
  • Мы хотим добавить дополнительные ограничения: не лгать, не нарушать закон и т. д.
  • Но здесь мы возвращаемся к фундаментальной проблеме согласования сверхчеловеческих систем: мы не сможем понять, что они делают, и поэтому не сможем заметить и наказать плохое поведение с помощью RLHF.

Если мы не сможем добавить эти побочные ограничения, то неясно, что произойдет. Может быть, нам повезет, и все будет благополучно по умолчанию (например, может быть, мы сможем продвинуться довольно далеко без долгосрочных целей систем ИИ, или нежелательное поведение будет незначительным). Но также вполне вероятно, что они научатся гораздо более серьезным нежелательным моделям поведения: они научатся лгать, они научатся стремиться к власти, они научатся вести себя хорошо, когда люди смотрят, и следовать более гнусным стратегиям, когда мы не смотрим, и так далее.

Нерешенность проблемы супервыравнивания означает, что у нас просто не будет возможности гарантировать даже эти базовые побочные ограничения для этих систем суперинтеллекта, такие как « будут ли они надежно следовать моим инструкциям? » или « будут ли они честно отвечать на мои вопросы?» или « не будут ли они обманывать людей?» . Люди часто связывают выравнивание с некоторыми сложными вопросами о человеческих ценностях или переходят к политическим спорам, но решение о том, какое поведение и ценности привить модели, хотя и важно, является отдельной проблемой. Основная проблема заключается в том, что для всего, что вы хотите привить модели (включая обеспечение самых базовых вещей, таких как «соблюдение закона»!), мы пока не знаем, как это сделать для очень мощных систем ИИ, которые мы создадим очень скоро.

Опять же, последствия этого не совсем ясны. Ясно, что сверхразум будет обладать огромными возможностями, и поэтому неправильное поведение может довольно легко стать катастрофическим. Более того, я ожидаю, что в течение небольшого количества лет эти системы ИИ будут интегрированы во многие критически важные системы, включая военные системы (неспособность сделать это будет означать полное доминирование противников). Это звучит безумно, но помните, когда все говорили, что мы не подключим ИИ к Интернету? То же самое касается и таких вещей, как « мы позаботимся о том, чтобы человек всегда был в курсе! » — как говорят сегодня.

Ошибки выравнивания тогда могут выглядеть как отдельные инциденты, скажем, автономный агент, совершающий мошенничество, модельный экземпляр, самовыводящийся, автоматизированный исследователь, фальсифицирующий экспериментальный результат, или рой дронов, нарушающий правила ведения боевых действий. Но ошибки также могут быть гораздо более масштабными или более систематическими — в крайнем случае, ошибки могут больше походить на восстание роботов. Мы вызовем довольно инопланетный интеллект, намного умнее нас, такой, архитектура и процесс обучения которого были даже не разработаны нами, а какими-то сверхумными системами ИИ предыдущего поколения, такими, где мы даже не можем начать понимать, что они делают, они будут управлять нашими военными, и их цели будут изучены в процессе естественного отбора.

Пока мы не решим проблему выравнивания — пока мы не выясним, как привить эти побочные ограничения — нет особых причин ожидать, что эта маленькая цивилизация сверхразумов продолжит подчиняться человеческим командам в долгосрочной перспективе. Кажется вполне возможным, что в какой-то момент они просто сговорятся вырезать людей, внезапно или постепенно.

Взрыв интеллекта делает все это невероятно напряженным

Я оптимистично настроен, что супервыравнивание — это решаемая техническая проблема. Так же, как мы разработали RLHF, мы можем разработать преемника RLHF для сверхчеловеческих систем и заняться наукой, которая даст нам высокую уверенность в наших методах. Если все будет продолжаться итеративно, если мы будем настаивать на строгом тестировании безопасности и так далее, все это должно быть выполнимо (и я расскажу о своих лучших текущих догадках о том, как мы справимся, немного позже).

Что делает это невероятно пугающим, так это возможность взрыва интеллекта: мы можем совершить переход от систем, примерно соответствующих человеческому уровню, к системам, значительно превосходящим человеческие, чрезвычайно быстро, возможно, менее чем за год:

Интеллектуальный взрыв делает суперсоюз невероятно пугающим. 
  • Мы чрезвычайно быстро перейдем от систем, где RLHF работает отлично, к системам, где он полностью сломается. Это оставляет нам крайне мало времени для итеративного обнаружения и устранения путей, в которых наши текущие методы не сработают.
  • В то же время мы чрезвычайно быстро перейдем от систем, где сбои имеют довольно низкие ставки (ChatGPT сказал плохое слово, ну и что) — к чрезвычайно высоким ставкам (ой, суперинтеллект сам себя вывел из нашего кластера, теперь он взламывает армию). Вместо того, чтобы итеративно сталкиваться со все более опасными сбоями безопасности в дикой природе, первые заметные сбои безопасности, с которыми мы столкнемся, могут уже оказаться катастрофическими.
  • Сверхразум, который мы получим к концу, будет значительно сверхчеловеческим. Мы будем полностью полагаться на доверие этим системам и на доверие тому, что они нам говорят о происходящем, поскольку у нас больше не будет возможности пронзить то, что именно они делают.
  • Сверхразум, который мы получим к концу, может оказаться совершенно инопланетным . Мы пройдем через десятилетие или больше достижений МО во время взрыва интеллекта, что означает, что архитектура и алгоритмы обучения будут совершенно другими (с потенциально гораздо более рискованными свойствами безопасности).
    • Один пример, который мне очень примечателен: мы вполне можем проложить себе путь к ИИ человеческого уровня или в какой-то степени сверхчеловеческому с помощью систем, которые рассуждают посредством цепочек мыслей, т. е. посредством английских токенов. Это чрезвычайно полезно, потому что это означает, что модели «думают вслух», позволяя нам отлавливать вредоносное поведение (например, если оно строит козни против нас). Но , конечно, заставить системы ИИ думать токенами — не самый эффективный способ сделать это, наверняка есть что-то гораздо лучшее, что делает все это мышление посредством внутренних состояний — и поэтому модель к концу интеллектуального взрыва почти наверняка не будет думать вслух, т. е. будет иметь совершенно неинтерпретируемые рассуждения.
  • Это будет невероятно нестабильный период, потенциально на фоне международной гонки вооружений, огромного давления, требующего двигаться быстрее, безумных новых возможностей, появляющихся каждую неделю, при отсутствии у человека времени для принятия правильных решений и т. д. Мы столкнемся с тоннами неоднозначных данных и решений с высокими ставками.
    • Подумайте: «Мы поймали систему ИИ на некоторых нехороших вещах во время теста, но мы немного скорректировали нашу процедуру, чтобы отточить это. Наши исследователи автоматизированного ИИ говорят нам, что метрики выравнивания выглядят хорошо, но мы на самом деле не понимаем, что происходит, и не полностью доверяем им, и у нас нет никакого сильного научного понимания, которое дает нам уверенность, что это будет продолжаться еще пару OOM. Так что, вероятно , все будет в порядке? А еще Китай только что украл наши веса, и они запускают свой собственный интеллектуальный взрыв, они прямо наступают нам на пятки».

Просто действительно кажется, что это может сойти с рельсов. Честно говоря, это звучит пугающе.

Да, у нас будут системы ИИ, которые нам помогут. Так же, как они будут автоматизировать исследования возможностей, мы можем использовать их для автоматизации исследований выравнивания. Это будет ключевым моментом, как я обсуждаю ниже. Но — можете ли вы доверять системам ИИ? Вы не были уверены, были ли они изначально согласованы — на самом ли деле они честны с вами в своих заявлениях о науке выравнивания? Смогут ли автоматизированные исследования выравнивания идти в ногу с автоматизированными исследованиями возможностей (например, потому что автоматизировать выравнивание сложнее, например, потому что есть менее четкие метрики, которым мы можем доверять по сравнению с улучшением возможностей модели, или есть большое давление, чтобы идти на полной скорости в прогрессе возможностей из-за международной гонки)? И ИИ не сможет полностью заменить все еще людей, принимающих решения, делая правильные выводы в этой невероятно высокой ситуации.

План по умолчанию: как нам с этим справиться

В конечном итоге нам нужно будет решить проблему выравнивания для сверхчеловеческого, довольно инопланетного сверхразума. Может быть, где-то и есть простое решение для выравнивания сверхразума раз и навсегда. Но я твердо уверен, что мы доберемся туда, продираясь сквозь это.

Я думаю, мы можем пожинать плоды в ряде эмпирических ставок, которые я опишу ниже, чтобы выровнять несколько сверхчеловеческих систем. Затем, если мы уверены, что можем доверять этим системам, нам нужно будет использовать эти несколько сверхчеловеческие системы для автоматизации исследований выравнивания — наряду с автоматизацией исследований ИИ в целом во время взрыва интеллекта — чтобы выяснить, как решить проблему выравнивания, чтобы пройти оставшуюся часть пути, вплоть до значительно сверхчеловеческого, довольно инопланетного сверхинтеллекта.

Выравнивание моделей, в некоторой степени сверхчеловеческих

Согласования систем человеческого уровня будет недостаточно. Даже первые системы, которые смогут проводить автоматизированные исследования ИИ, т. е. начинать взрыв интеллекта, скорее всего, уже будут существенно сверхчеловеческими во многих областях. Это связано с тем, что возможности ИИ, скорее всего, будут несколько резкими — к тому времени, когда ИИ достигнет человеческого уровня в том, в чем исследователь/инженер ИИ-человек проявляет себя хуже всего, он станет сверхчеловеческим во многих других вещах. Например, возможно, способность систем ИИ эффективно координировать и планировать отстает, а это означает, что к тому времени, когда взрыв интеллекта достигнет полной силы, они, вероятно, уже будут сверхчеловеческими кодерами, отправляющими миллионные запросы на извлечение на новых языках программирования, которые они разработали, и они будут сверхчеловеческими в математике и машинном обучении.

Эти ранние системы взрыва интеллекта начнут количественно и качественно превосходить человеческие, по крайней мере, во многих областях. Но они будут выглядеть гораздо ближе к системам, которые у нас есть сегодня, с точки зрения архитектуры, и разрыв в интеллекте, который нам нужно закрыть, будет гораздо более управляемым. (Возможно, если попытки людей создать настоящий сверхинтеллект похожи на попытки первоклассника контролировать аспиранта, то это больше похоже на попытку умного старшеклассника контролировать аспиранта.)

В более общем плане, чем больше мы сможем развивать хорошую науку сейчас, тем больше мы сможем убедиться, что все не сойдет с рельсов во время взрыва интеллекта. Даже имея хорошие метрики, которым мы можем доверять для супервыравнивания, на удивление сложно, но без надежных метрик во время взрыва интеллекта мы не узнаем, безопасно ли продолжать или нет.

Вот некоторые из основных направлений исследований, которые я вижу для преодоления разрыва между системами человеческого уровня и в некоторой степени сверхчеловеческими системами:

Оценка проще, чем генерация. Мы получаем часть пути «бесплатно», потому что нам проще оценивать результаты (особенно для вопиющих случаев неправильного поведения), чем генерировать их самим. Например, мне требуются месяцы или годы упорного труда, чтобы написать статью, но всего пара часов, чтобы понять, хороша ли написанная кем-то статья (хотя, возможно, больше, чтобы обнаружить мошенничество). У нас будут команды экспертов-людей, которые будут тратить много времени на оценку каждого примера RLHF, и они смогут «отметить» многие случаи неправильного поведения, даже если система ИИ будет несколько умнее их. Тем не менее, это не заведет нас далеко (GPT-2 или даже GPT-3 не смогли надежно обнаружить злонамеренный GPT-4, хотя оценка проще, чем генерация!)

Масштабируемый надзор. Мы можем использовать помощников ИИ, чтобы помочь людям контролировать другие системы ИИ — команда человек-ИИ может расширить надзор дальше, чем человек мог бы в одиночку. Например, представьте, что система ИИ генерирует 1 млн строк сложного кода. Человеку проще дважды проверить, есть ли ошибка в данной строке кода, если помощник ИИ указал, что (скажем) строка 394 894 выглядит подозрительно, чем человеку найти ту же ошибку с нуля. Модель, обученная критиковать код, написанный другой моделью, может, таким образом, помочь людям контролировать систему с едва ли не сверхчеловеческими способностями к кодированию.

Было предложено несколько масштабируемых стратегий надзора, включая дебаты , создание рынка , рекурсивное моделирование вознаграждения и игры доказывающий-проверяющий , а также упрощенные версии этих идей, такие как критика . Модели теперь достаточно сильны, чтобы можно было эмпирически проверить эти идеи, достигая прямого прогресса в масштабируемом надзоре.

Я ожидаю, что это очень поможет для «количественно» сверхчеловеческой части проблемы, такой как вышеупомянутый пример с миллионом строк кода. Но я менее оптимистичен в том, что масштабируемые методы надзора могут действительно помочь для «качественно» сверхчеловеческой части проблемы — представьте, что модель изобретает квантовую физику, когда вы понимаете только ньютоновскую физику.

Обобщение. Даже при масштабируемом надзоре мы не сможем контролировать системы ИИ на действительно сложных проблемах, проблемах за пределами человеческого понимания. Однако мы можем изучить: как системы ИИ будут обобщать человеческое наблюдение на простых проблемах (которые мы понимаем и можем контролировать) на поведение на сложных проблемах (которые мы не можем понять и больше не можем контролировать)? Например, возможно, контроль модели, чтобы она была честной в простых случаях, обобщает благосклонно на модель, которая просто честна в целом, даже в случаях, когда она делает чрезвычайно сложные вещи, которые мы не понимаем.

Здесь есть много причин для оптимизма: часть магии глубокого обучения заключается в том, что оно часто обобщает безвредными способами (например, RLHF с использованием только меток на английских примерах также имеет тенденцию вызывать хорошее поведение, когда он говорит на французском или испанском, даже если это не было частью обучения). Я довольно оптимистичен в том, что будут как довольно простые методы, которые помогут подтолкнуть обобщение моделей в нашу пользу, так и в том, что мы сможем разработать сильное научное понимание, которое поможет нам предсказать, когда обобщение будет работать, а когда нет. В большей степени, чем для масштабируемого надзора, есть надежда, что это поможет с выравниванием даже в «качественно» сверхчеловеческом случае.

Вот еще один способ размышления об этом: если сверхчеловеческая модель ведет себя неправильно, скажем, нарушает закон, интуитивно модель должна уже знать , что она нарушает закон. Более того, «нарушает ли это закон» — вероятно, довольно естественная концепция для модели, и она будет значима в пространстве репрезентации модели. Тогда возникает вопрос: можем ли мы «вызвать» эту концепцию из модели, имея лишь слабый надзор?

Я особенно предвзят к этому направлению (и, возможно, предвзят), потому что я помог ввести это в недавней работе с некоторыми коллегами из OpenAI. В частности, мы изучали аналогию с проблемой людей, контролирующих сверхчеловеческие системы — может ли маленькая модель выровнять большую (более умную) модель ? Мы обнаружили, что обобщение действительно позволяет вам преодолеть часть (но, конечно, не всю) пропасть в интеллекте между руководителем и контролируемым, и что в простых условиях вы можете многое сделать, чтобы улучшить ее.

Простая аналогия для изучения супервыравнивания: вместо того, чтобы человек контролировал сверхчеловеческую модель, мы можем изучать маленькую модель, контролирующую большую модель. Например, можем ли мы выравнивать GPT-4 только с контролем GPT-2? Приведет ли это к GPT-4, чтобы соответствующим образом обобщить «что GPT-2 имел в виду»? ИзОбобщение от слабого к сильному.

Интерпретируемость. Один интуитивно привлекательный способ, которым мы надеемся проверить и поверить, что наши системы ИИ согласованы, — это если мы сможем понять, о чем они думают! Например, если мы обеспокоены тем, что системы ИИ обманывают нас или замышляют против нас, доступ к их внутренним рассуждениям должен помочь нам это обнаружить.

По умолчанию современные системы ИИ — это непостижимые черные ящики. Тем не менее, похоже, что мы должны быть способны на удивительную «цифровую нейробиологию» — в конце концов, у нас есть идеальный доступ к внутренним компонентам моделей.

Здесь есть несколько разных подходов, от «самый амбициозный и «крутой», но будет очень сложно» до «более хакерские вещи, которые проще и могут просто сработать»:

Механистическая интерпретируемость . Попробуйте полностью реверсировать большие нейронные сети с нуля — полностью распутать непостижимые матрицы, так сказать.

Команда Криса Олаха в Anthropic проделала большую часть пионерской работы в этом направлении, начав с понимания простых механизмов в очень маленьких моделях. В последнее время наблюдается невероятно захватывающий прогресс , и я в восторге от общего уровня активности в этой области.

Тем не менее, я опасаюсь, что полная обратная разработка сверхчеловеческих систем искусственного интеллекта станет неразрешимой проблемой — подобной, скажем, «полной обратной разработке человеческого мозга» — и я бы отнес эту работу скорее к категории «амбициозных планов по обеспечению безопасности искусственного интеллекта», а не «стандартного плана для преодоления трудностей».

( 200 открытых проблем механистической интерпретируемости Нила Нанды также дают представление об этом виде исследований.)

Интерпретируемость «сверху вниз». Если механистическая интерпретируемость пытается провести обратную разработку нейронных сетей «снизу вверх», то другая работа использует более целенаправленный подход «сверху вниз», пытаясь найти информацию в модели без полного понимания того, как она обрабатывается.

Например, мы могли бы попытаться построить «детектор лжи ИИ», определив части нейронной сети, которые «загораются», когда система ИИ лжет. Это может быть гораздо более податливым (даже если это дает менее надежные гарантии).

За последние пару лет в этой области было много интересных работ. CCS способен определять «истинное направление» в моделях только с неконтролируемыми данными.

ROME способен идентифицировать часть модели, которая знает, что Эйфелева башня находится в Париже, а затем напрямую редактировать знания модели, чтобы поместить Эйфелеву башню в Рим. Инженерное представление и вмешательства во время вывода демонстрируют использование нисходящих методов для обнаружения лжи и галлюцинаций и хирургического управления поведением модели при побеге из тюрьмы, стремлении к власти, справедливости, правдивости и многом другом. Есть и другие творческие работы по обнаружению лжи, которые даже не требуют внутренних компонентов модели.

Я все больше склоняюсь к мысли, что методы интерпретации «сверху вниз» станут мощным инструментом, то есть мы сможем создать что-то вроде «детектора лжи на основе искусственного интеллекта», и для этого не потребуются фундаментальные прорывы в понимании нейронных сетей.

Интерпретируемость цепочки мыслей . Как упоминалось ранее, я думаю, вполне вероятно, что мы начнем свой путь к ИИОН с систем, которые «думают вслух» посредством цепочек мыслей. Даже если это не самый эффективный алгоритм в пределе (я был бы очень удивлен, если бы сверхразум все еще использовал английскую цепочку мыслей, а не думал бы посредством неких повторяющихся внутренних состояний), мы все равно можем извлечь выгоду из этого свойства для первых ИИОН. Это было бы невероятным благом для интерпретируемости: у нас был бы доступ к «внутреннему монологу» ИИОН! Это позволило бы относительно легко обнаруживать вопиющие ошибки выравнивания.

Однако здесь предстоит проделать массу работы, если мы хотим на это положиться. Как нам гарантировать, что CoT останется разборчивым ? (Он может просто перейти от понятного английского к непонятному модельному языку , в зависимости от того, как мы, например, используем RL для обучения моделей — можем ли мы добавить некоторые простые ограничения, чтобы гарантировать, что он останется разборчивым?) Как нам гарантировать, что CoT является верным , т. е. фактически отражает то, о чем думают модели? (Например, есть некоторые работы , которые показывают, что в определенных ситуациях модели просто придумывают постфактумные рассуждения в своем CoT, которые на самом деле не отражают их фактические внутренние рассуждения для ответа.)

Моя лучшая догадка заключается в том, что некоторые простые измерения разборчивости и верности, а также некоторые простые хаки для сохранения разборчивости и верности дольше, могли бы зайти довольно далеко. Да, это не сработает в некоторых мирах, и это немного простой хак, но это такой низко висящий фрукт; это направление преступно недооценено, на мой взгляд.

Состязательное тестирование и измерения . По пути будет критически важно проводить стресс-тестирование согласованности наших систем на каждом этапе — наша цель должна заключаться в том, чтобы столкнуться с каждым режимом отказа в лаборатории, прежде чем мы столкнемся с ним в реальных условиях. Это потребует существенного усовершенствования методов автоматизированного red-teaming . Например, если мы намеренно внедрим бэкдоры или несоответствия в модели, сможет ли наше обучение безопасности обнаружить и избавиться от них? (Ранние работы показывают, что « спящие агенты » могут выживать благодаря обучению безопасности, например.)

В более общем плане будет критически важно иметь хорошие измерения согласованности на этом пути. Имеет ли модель возможность быть несогласованной? Например, имеет ли она долгосрочные цели и какие виды движущих сил она изучает? И что такое четкие «красные линии»? Например, очень интуитивная граница может быть такой: «рассуждение модели (цепочка мыслей) всегда должно оставаться разборчивым и верным». (Как говорит Эрик Шмидт , в точке, в которой агенты ИИ могут разговаривать друг с другом на языке, который мы не можем понять, мы должны отключить компьютеры.) Другим может быть разработка лучших измерений для того, являются ли модели полностью честными.

Наука измерения выравнивания все еще находится в зачаточном состоянии; ее совершенствование будет иметь решающее значение для того, чтобы помочь нам сделать правильный компромисс в отношении риска во время взрыва интеллекта. Занятие наукой, которая позволяет нам измерять выравнивание и дает нам понимание того, «каких доказательств будет достаточно, чтобы гарантировать нам, что следующий OOM на сверхчеловеческую территорию безопасен?», является одной из самых приоритетных работ для исследования выравнивания сегодня (помимо просто работы, которая пытается расширить RLHF до «несколько сверхчеловеческих» систем).

См. также описание направлений исследований в области супервыравнивания для конкурса заявок на гранты Superalignment Fast Grants.

Автоматизация исследования выравнивания

В конечном итоге нам понадобится автоматизировать исследование выравнивания. Мы никак не сможем решить проблему выравнивания для настоящего сверхразума напрямую; покрытие такого огромного разрыва в интеллекте кажется чрезвычайно сложной задачей. Более того, к концу интеллектуального взрыва — после того, как 100 миллионов автоматизированных исследователей ИИ яростно прорвутся через десятилетие прогресса МО — я ожидаю гораздо больше инопланетных систем с точки зрения архитектуры и алгоритмов по сравнению с текущей системой (с потенциально менее благоприятными свойствами, например, по читаемости CoT, свойствам обобщения или серьезности несоответствия, вызванного обучением).

Но нам также не обязательно решать эту проблему самостоятельно. Если нам удастся выровнять несколько сверхчеловеческих систем настолько, чтобы доверять им, мы окажемся в невероятном положении: в нашем распоряжении будут миллионы автоматизированных исследователей ИИ, умнее лучших исследователей ИИ. Правильное использование этой армии автоматизированных исследователей для решения проблемы выравнивания для еще более сверхчеловеческих систем будет иметь решающее значение.

(Кстати, это применимо в более общем плане ко всему спектру рисков ИИ, включая нецелевое использование и т. д. Лучший путь — возможно, единственный путь — к безопасности ИИ во всех этих случаях будет включать правильное использование ранних ИИ для обеспечения безопасности; например, мы должны направить часть из них на автоматизированные исследования по улучшению безопасности против иностранных субъектов, вывозящих грузы, других — на укрепление защиты от наихудших вариантов биоатак и т. д.)

Получение правильного автоматизированного выравнивания во время взрыва интеллекта будет чрезвычайно высоким: мы пройдем через многие годы достижений ИИ всего за несколько месяцев, с небольшим количеством человеческого времени для принятия правильных решений, и мы начнем входить на территорию, где сбои выравнивания могут быть катастрофическими. Лаборатории должны быть готовы выделить большую часть своих вычислений на автоматизированные исследования выравнивания (в отличие от исследований автоматизированных возможностей) во время взрыва интеллекта, если это необходимо. Нам понадобятся надежные гарантии, которые позволят нам доверять производимым автоматизированным исследованиям выравнивания, и гораздо лучшие измерения, чем у нас сегодня, для рассогласования, чтобы знать, все ли мы еще в порядке. Для каждого OOM, который мы хотим поднять, нам нужно будет иметь чрезвычайно высокую уверенность в наших подходах к выравниванию для этого следующего OOM.

Прежде всего, чтобы сделать это правильно, потребуется чрезвычайная степень компетентности, серьезности и готовности идти на жесткие компромиссы. Как только мы приблизимся к настоящему сверхразуму, ставки станут очень реальными, и неудача — неконтролируемый ИИ — может оказаться катастрофической. Будут моменты с неоднозначными доказательствами, когда показатели будут поверхностно выглядеть нормально, но есть некоторые предупреждающие знаки, которые намекают на надвигающуюся опасность, и мы в основном больше не имеем ни малейшего представления о том, что происходит. Ответственное управление этой ситуацией потребует принятия очень дорогостоящих компромиссов. В конечном итоге решение дать зеленый свет следующему поколению сверхразума нужно будет воспринимать так же серьезно, как и решение начать военную операцию.

Суперзащита

«Правильное выравнивание» должно быть только первым из многих уровней защиты во время интеллектуального взрыва. Выравнивание будет трудным; на этом пути будут неудачи. Если это вообще возможно, нам нужно быть в положении, когда выравнивание может потерпеть неудачу, но неудача не будет катастрофической. Это может означать:

  • Безопасность. Кластер с воздушным зазором — это первый уровень защиты от сверхразума, пытающегося самовывести себя и наносящего ущерб в реальном мире. И это только начало; нам понадобится гораздо более экстремальная защита от самовыведения модели

    по всем направлениям, от аппаратного шифрования до многоключевой подписи.

    И как только наши ИИ смогут выполнять автоматизированные НИОКР, мы должны будем также направить их на дальнейшее укрепление безопасности.

  • Мониторинг. Если наши системы ИИ замышляют что-то подозрительное или злонамеренное — или мошенник-сотрудник пытается использовать их для несанкционированной деятельности — мы должны иметь возможность это поймать. Однако это нетривиальная задача: у нас будут миллионы экземпляров ИИ, работающих на нашем кластере, выполняющих сложный код и так далее. Нам понадобятся передовые системы мониторинга, которые используют сами модели, включая мониторинг выходных данных моделей, цепочек мыслей, кода, написанного на моделях, активности сервера/сети и взаимодействия с исследователями/другими людьми; по сути, использование некоторых систем ИИ для выслеживания других систем ИИ. Более того, мы захотим разработать и использовать сложные протоколы «контроля» , используя менее мощные, но надежные модели для защиты от подрывной деятельности со стороны более мощных, но менее надежных моделей. Это может потребовать, например, выделения того же объема вычислений для мониторинга экземпляров моделей, что и для вычислений для активных экземпляров моделей.
  • Ограничения целевых возможностей. Насколько это возможно, мы должны попытаться ограничить возможности модели целенаправленными способами, которые уменьшат последствия неудачи. Центральным примером этого может быть вычищение всего, что связано с биологией и химией, из обучения модели (или использование методов « отучения »); это помогает отрезать пути к катастрофическому ущербу в реальном мире, который происходит из-за биологического и химического оружия
  • Ограничения метода целевого обучения. Вероятно, есть некоторые способы обучения моделей, которые по своей сути более рискованны — с большей вероятностью приведут к серьезным несоответствиям — чем другие. Например, имитационное обучение кажется относительно безопасным (трудно понять, как это приведет к моделям с опасными долгосрочными внутренними целями), в то время как нам следует избегать долгосрочного RL на основе результатов (которое, по-видимому, с гораздо большей вероятностью приведет к тому, что модель научится нежелательным долгосрочным целям) как можно дольше. Нам также следует избегать обучения против наших методов интерпретируемости и нашей настройки мониторинга (таким образом, чтобы наши модели не просто обучались обходить их). Могут быть дополнительные желательные ограничения, например, поддержание четких и верных цепочек мыслей как можно дольше. Мы должны определить эти ограничения заранее, поддерживать их как можно дольше в течение всего интеллектуального взрыва и отбрасывать их только в случае крайней необходимости.
  • Вероятно, здесь возможно гораздо больше.

Будут ли они защищены от дурака? Вовсе нет. Настоящий суперинтеллект, вероятно, способен обойти большинство — любую схему безопасности, например. Тем не менее, они дают нам гораздо больше права на ошибку — и нам понадобится любое право на ошибку, которое мы сможем получить. Мы захотим использовать это право, чтобы оказаться в положении, когда у нас будет очень высокая уверенность в наших методах выравнивания, только ослабляя меры «суперзащиты» (например, развертывание суперинтеллекта в неизолированных средах) по мере нашей уверенности.

Все снова станет рискованным, как только мы перейдем к развертыванию этих систем ИИ в менее контролируемых условиях, например, в военных приложениях. Вероятно, обстоятельства заставят нас сделать это довольно быстро, но мы всегда должны стараться покупать как можно больше права на ошибку — например, вместо того, чтобы просто напрямую развертывать сверхразумы «в поле» для военных целей, используя их для проведения НИОКР в более изолированной среде и развертывая только конкретные технологии, которые они изобретают (например, более ограниченные автономные системы оружия, в которых мы более уверены, что можем доверять).

Почему я оптимист и почему я боюсь

Я невероятно оптимистичен в отношении технической разрешимости проблемы супервыравнивания. Такое ощущение, что в этой области полно низко висящих фруктов. В более широком смысле, эмпирические реалии глубокого обучения вытрясли больше в нашу пользу по сравнению с тем, что некоторые предполагали 10 лет назад. Например, глубокое обучение обобщает удивительно мягко во многих ситуациях: оно часто просто «делает то, что мы имели в виду», а не подхватывает какое-то заумное злонамеренное поведение.

Более того, хотя полное понимание внутренних механизмов модели будет сложным, по крайней мере для начальных ИИ у нас есть приличный шанс на интерпретируемость — мы можем заставить их рассуждать прозрачно с помощью цепочек мыслей, а хакерские методы, такие как инженерия представлений, на удивление хорошо работают в качестве «детекторов лжи» или чего-то подобного.

Я думаю, что есть вполне реальная вероятность того, что «план по умолчанию» по согласованию «несколько сверхчеловеческих» систем в основном сработает.

Конечно, одно дело — абстрактно говорить о «плане по умолчанию», и совсем другое, если команда, ответственная за выполнение этого плана, — это вы и ваши 20 коллег (это гораздо более напряженно!).

Все еще невероятно мало людей серьезно работают над решением этой проблемы, может быть, несколько десятков серьезных исследователей. Никто не в теме ! В этой области предстоит провести так много интересных и продуктивных исследований МО, и серьезность проблемы требует гораздо более согласованных усилий, чем те, которые мы сейчас прилагаем.

Но это только первая часть плана — то, что действительно не дает мне спать по ночам, это взрыв интеллекта. Выравнивание первых AGI, первых несколько сверхчеловеческих систем — это одно. Огромно сверхчеловеческий, инопланетный сверхинтеллект — это новая игра в мяч, и это страшная игра в мяч.

Взрыв интеллекта будет больше похож на ведение войны, чем на запуск продукта. Мы не на пути к суперзащите, к изолированному кластеру или чему-то подобному; я не уверен, что мы вообще осознаем, если модель сама себя выведет. Мы не на пути к разумной цепочке команд, чтобы принять любое из этих безумно высоко ставящих решений, чтобы настаивать на очень высокой уверенности, соответствующей суперинтеллекту, принимать сложные решения о том, чтобы взять дополнительное время перед запуском следующего тренировочного запуска, чтобы получить правильную безопасность или посвятить большую часть вычислений исследованиям выравнивания, распознавать опасность впереди и предотвращать ее, а не врезаться в нее прямо сейчас. Прямо сейчас ни одна лаборатория не продемонстрировала особой готовности идти на какие-либо дорогостоящие компромиссы, чтобы получить правильную безопасность (да, у нас много комитетов по безопасности, но они довольно бессмысленны). По умолчанию мы, вероятно, споткнемся о взрыв интеллекта и пройдем через несколько OOM, прежде чем люди даже поймут, во что мы вляпались.

Мы здесь слишком рассчитываем на удачу.

Следующий пост в серии:
IIId. Свободный мир должен победить


  1. Как не очень-вежливо сертифицировано главой-думера ! По крайней мере, я бы назвал себя убежденным оптимистом , что эта проблема разрешима. Я потратил немало сил на дебаты с пессимистами ИИ и решительно выступал против политики вроде паузы ИИ.
  2. Меня больше всего беспокоит, что вокруг суперинтеллекта творится полное безумие , включая такие вещи, как новое оружие массового поражения, разрушительные войны и неизвестные неизвестные. Более того, я думаю, что дуга истории советует нам не недооценивать авторитаризм, а суперинтеллект может позволить авторитарным режимам доминировать миллиарды лет.
  3. Как говорит Тайлер Коуэн, умение справляться с трудностями недооценено!
  4. По иронии судьбы, ребята из службы безопасности совершили самый большой прорыв в обеспечении коммерческого успеха ИИ, придумав RLHF! Базовые модели имели много сырых интеллектуальных функций, но были неуправляемыми и, следовательно, непригодными для большинства приложений. 
  5. Это подчеркивает важное различие: техническая возможность выравнивать (управлять/контролировать) модель отделена от вопроса ценностей о том, с чем выравнивать. По последнему вопросу было много политических споров. И хотя я согласен с оппозицией некоторым из этих наростов, это не должно отвлекать от основной технической проблемы. Да, методы выравнивания могут быть использованы не по назначению, но нам понадобятся лучшие методы выравнивания, чтобы гарантировать даже базовые ограничения для будущих моделей, такие как следование инструкциям или следование закону. См. также «Выравнивание ИИ отличается от его краткосрочных приложений ».
  6. «Мы оцениваем среднюю почасовую оплату примерно в 95 долларов в час», стр. 3 документа GPQA .
  7. Очень упрощенно представьте себе систему ИИ, которая пытается методом проб и ошибок максимизировать деньги в течение года, а окончательная обученная модель ИИ является результатом процесса отбора, в ходе которого выбираются системы ИИ, наиболее успешно справляющиеся с максимизацией денег.
  8. RL просто исследует стратегии для достижения цели. Если стратегия работает, она подкрепляется в модели. Так что если ложь, мошенничество, стремление к власти и т. д. (или шаблоны мышления, которые могут привести к такому поведению хотя бы в некоторых ситуациях) работают, они также будут подкреплены в модели.
  9. (или модели мониторинга времени вывода, обученные под наблюдением человека)
  10. Более того, даже недавний прогресс в механистической интерпретируемости для «распутывания признаков» моделей с редкими автоэнкодерами сам по себе не решает проблему того, как работать со сверхчеловеческими моделями. Во-первых, модель может просто «думать» в сверхчеловеческих концепциях, которые вы не понимаете. Более того, как вы узнаете, какой признак вам нужен? У вас по-прежнему нет меток истинности. Например, может быть множество различных признаков, которые кажутся вам «признаком истины», один из которых — «что модель на самом деле знает», а другие — «что бы подумал человек xyz» или «что люди-оценщики хотят, чтобы я думал» и т. д.Разреженные автокодировщики сами по себе не будут достаточны, но они станут инструментом — невероятно полезным инструментом! — который в конечном итоге должен принести пользу, помогая в таких вещах, как наука обобщения.
  11. По сути, нужны только свойства согласованности истины, а не сильные/основные истинные ярлыки истинности/ложи, которых у нас не будет для сверхчеловеческих систем.
  12. Меня все еще беспокоит масштабируемость многих из этих методов до сверхчеловеческих моделей — я думаю, что явно или неявно они в основном полагаются на ярлыки, основанные на земной истине, то есть на супервизоре, который умнее модели, и/или на благоприятном обобщении.
  13.  Модель, крадущая собственные веса, чтобы создавать свои копии за пределами исходного центра обработки данных.
  14. Защита от людей, обманутых или убежденных ИИ помочь ему скрыться
  15. Хотя, конечно, хотя это может быть применимо к текущим моделям и, возможно, системам человеческого уровня, нам следует быть осторожными, пытаясь экстраполировать доказательства из текущих моделей на будущие, значительно сверхчеловеческие модели.
  16. Если говорить точнее, учитывая ставки, я думаю, что «выкарабкиваться» — это в каком-то смысле ужасный план. Но это может быть все, что у нас есть.
  17. Мне вспоминается письмо Скотта Ааронсона к себе в молодости :«Есть компания, которая создает ИИ, который заполняет огромные комнаты, потребляет электричество целого города и недавно обрел поразительную способность общаться, как люди. Он может писать эссе или стихи на любую тему. Он может сдавать экзамены на уровне колледжа. Он ежедневно приобретает новые возможности, о которых инженеры, которые ухаживают за ИИ, пока даже не могут говорить публично. Однако эти инженеры сидят в кафетерии компании и обсуждают смысл того, что они создают. Чему он научится делать на следующей неделе? Какие работы он может сделать устаревшими? Должны ли они замедлиться или остановиться, чтобы не щекотать хвост дракона? Но не будет ли это означать, что кто-то другой, возможно, кто-то с меньшими принципами, первым разбудит дракона? Есть ли этическое обязательство рассказать миру об этом больше? Есть ли обязательство рассказать об этом меньше?Я — вы — работаю в этой компании год. Моя работа — ваша работа — разработать математическую теорию того, как не дать ИИ и его последователям сеять хаос. Где «сеять хаос» может означать что угодно: от турбонаддува пропаганды и академического мошенничества до раздачи советов по биотерроризму, и, да, уничтожения мира.

***************

IIId. Свободный мир должен восторжествовать

Суперинтеллект даст решающее экономическое и военное преимущество. Китай пока еще не вышел из игры. В гонке за ИИ на карту будет поставлено само выживание свободного мира. Сможем ли мы сохранить свое превосходство над авторитарными державами? И удастся ли нам избежать самоуничтожения на этом пути?


История человеческой расы — это Война. За исключением кратких и нестабильных интермедий, в мире никогда не было мира; и до начала истории смертоносная борьба была всеобщей и бесконечной. 

Разве не может оказаться, что бомба размером не больше апельсина обладает тайной силой, способной разрушить целый квартал зданий — нет, сконцентрировать силу тысячи тонн кордита и взорвать городок одним ударом?

Уинстон Черчилль, «Неужели мы все покончим жизнь самоубийством?»

Суперинтеллект станет самой мощной технологией и самым мощным оружием, которое когда-либо создавало человечество. Он даст решающее военное преимущество, возможно, сравнимое только с ядерным оружием. Авторитарные режимы могли бы использовать суперинтеллект для завоевания мира и для обеспечения тотального внутреннего контроля. Государства-изгои могли бы использовать его для угрозы уничтожения. И хотя многие их не принимают во внимание, как только КПК осознает наличие ОИИ, у нее появится четкий путь к тому, чтобы стать конкурентоспособной (по крайней мере, до тех пор, пока мы не улучшим радикально безопасность лабораторий ИИ в США).

Каждый месяц свинца также будет иметь значение для безопасности. Мы столкнемся с наибольшими рисками, если окажемся в тисках жесткой гонки, демократические союзники и авторитарные конкуренты, каждый из которых будет мчаться через и без того ненадежный взрыв интеллекта с головокружительной скоростью — вынужденные отбросить всякую осторожность в сторону, опасаясь, что другой получит суперинтеллект первым. Только если мы сохраним здоровое лидерство демократических союзников, у нас будет предел погрешности для навигации в чрезвычайно нестабильном и опасном периоде вокруг появления суперинтеллекта. И только американское лидерство является реалистичным путем к разработке режима нераспространения, чтобы предотвратить риски самоуничтожения суперинтеллекта, который развернется.

Наше поколение слишком легко принимает как должное то, что мы живем в мире и свободе. И те, кто возвещает о наступлении эры AGI в Сан-Франциско, слишком часто игнорируют слона в комнате: сверхинтеллект — это вопрос национальной безопасности, и Соединенные Штаты должны победить.

Тот, кто возглавит сверхразум, получит решающее военное преимущество.

Суперинтеллект — это не просто любая другая технология — гиперзвуковые ракеты, стелс и т. д. — где лидерство США и либеральных демократий весьма желательно, но не строго необходимо. Военный баланс сил может быть сохранен, если США отстают по одной или паре таких технологий; эти технологии имеют большое значение, но могут быть перевешены преимуществами в других областях.

Появление сверхразума поставит нас в ситуацию, невиданную со времен атомной эры: те, у кого он есть, будут обладать полным господством над теми, у кого его нет.

Я уже обсуждал огромную мощь сверхинтеллекта . Это будет означать наличие миллиардов автоматизированных ученых, инженеров и техников, каждый из которых намного умнее самых умных ученых-людей, яростно изобретающих новые технологии, днем ​​и ночью. Ускорение научного и технологического развития будет необычайным. Поскольку сверхинтеллект применяется к НИОКР в области военных технологий, мы могли бы быстро пройти через десятилетия военного технологического прогресса.

Война в Персидском заливе, или Что означает технологическое лидерство длиной в несколько десятилетий для военной мощи

Война в Персидском заливе является полезной иллюстрацией того, как 20-30-летнее преимущество в военных технологиях может быть решающим. В то время Ирак командовал четвертой по величине армией в мире. С точки зрения численности (войска, танки, артиллерия) коалиция под руководством США едва ли могла сравниться (или уступала) иракцам, при этом у иракцев было достаточно времени, чтобы укрепить свою оборону (ситуация, которая обычно требует 3:1 или 5:1 превосходства в живой силе для дезорганизации).

Но коалиция под руководством США уничтожила иракскую армию всего за 100 часов наземной войны. Потери коалиции составили всего 292 человека по сравнению с 20-50 тысячами убитых иракцев и сотнями тысяч раненых или пленных. Коалиция потеряла всего 31 танк по сравнению с уничтожением более 3000 иракских танков.

Разница в технологиях не была божественной или непостижимой, но она была совершенно и абсолютно решающей: управляемые и интеллектуальные боеприпасы, ранние версии малозаметности, улучшенные датчики, лучшие танковые прицелы (чтобы видеть дальше ночью и в пылевых бурях), лучшие истребители, преимущество в разведке и так далее.

(В качестве более недавнего примера можно вспомнить Иран, нанесший массированный удар по Израилю с использованием 300 ракет, « 99% » из которых были перехвачены превосходящей системой ПРО Израиля, США и союзников.)

Опережение в год, два или три по суперинтеллекту может означать такое же решающее военное преимущество, какое имела коалиция США против Ирака в войне в Персидском заливе. На кону будет полная перестройка военного баланса сил.

Представьте, если бы мы прошли через военные технологические разработки 20-го века менее чем за десятилетие. Мы бы перешли от лошадей, винтовок и траншей к современным танковым армиям за пару лет; к армадам сверхзвуковых истребителей, ядерного оружия и МБР еще через пару лет; к скрытности и точности, которые могут вывести противника из строя еще до того, как он узнает о вашем присутствии, еще через пару лет.

Вот с такой ситуацией мы столкнемся с появлением суперинтеллекта: военные технологические достижения столетия сжаты до менее чем десятилетия. Мы увидим сверхчеловеческий взлом, который может парализовать большую часть военной силы противника, робоармии и автономные рои дронов, но, что еще важнее, совершенно новые парадигмы, которые мы пока не можем себе представить, и изобретения нового ОМП с тысячекратным увеличением разрушительной силы (а также новые средства защиты от ОМП, такие как непроницаемая противоракетная оборона, которые быстро и многократно нарушают равновесие сдерживания).

И это будет не просто технологический прогресс. По мере того, как мы решим проблему робототехники , труд станет полностью автоматизированным, что также позволит осуществить более масштабный промышленный и экономический взрыв . Вполне вероятно, что темпы роста могут достичь десятков процентов в год; в течение максимум десятилетия ВВП тех, кто лидирует, превзойдет тех, кто отстает. Быстрое увеличение числа заводов по производству роботов будет означать не только радикальное технологическое преимущество, но и производственные мощности для доминирования в чистом материальном обеспечении. Подумайте о миллионах перехватчиков ракет; миллиардах беспилотников; и так далее.

Конечно, мы не знаем пределов науки и множества трений, которые могли бы замедлить ход событий. Но для решающего военного преимущества не нужны никакие богоподобные достижения. И миллиард сверхразумных ученых смогут сделать многое. Кажется очевидным, что в течение нескольких лет досуперразумные военные будут безнадежно отстали .

Военное преимущество будет решающим даже против ядерного сдерживания.

Чтобы быть еще яснее: кажется вероятным, что преимущество, предоставляемое сверхразумом, будет достаточно решающим даже для того, чтобы превентивно уничтожить ядерное сдерживание противника. Улучшенные сенсорные сети и анализ могут обнаружить даже самые тихие из нынешних атомных подводных лодок (аналогично для мобильных ракетных пусковых установок). Миллионы или миллиарды автономных дронов размером с мышь, с достижениями в области скрытности, могут проникнуть в тыл врага, а затем тайно обнаружить, саботировать и обезглавить ядерные силы противника. Улучшенные сенсоры, нацеливание и так далее могут значительно улучшить противоракетную оборону (подобно, скажем, примеру Ирана против Израиля выше); более того, если произойдет промышленный взрыв, роботизированные заводы могут штамповать тысячи перехватчиков для каждой противостоящей ракеты. И все это даже без учета совершенно новых научных и технологических парадигм (например, удаленной деактивации всех ядерных боеголовок).

Это было бы просто не соревнование. И не только не соревнование в ядерном смысле, когда «мы могли бы взаимно уничтожить друг друга», но и не соревнование в плане возможности уничтожить военную мощь противника без значительных потерь. Пара лет опережения в области сверхразума означали бы полное доминирование.

Если произойдет стремительный взрыв интеллекта , вполне вероятно, что преимущество в несколько месяцев может оказаться решающим: месяцы могут означать разницу между системами ИИ примерно человеческого уровня и существенно сверхчеловеческими системами ИИ. Возможно, обладание только этими начальными сверхразумами, даже до их широкого развертывания, будет достаточным для решающего преимущества, например, с помощью сверхчеловеческих хакерских способностей, которые могли бы отключить досуперразумные военные силы, более ограниченные рои дронов, которые угрожают мгновенной смертью каждому лидеру противника, чиновнику и их семьям, и передовое биологическое оружие, разработанное с помощью моделирования в стиле AlphaFold, которое может быть нацелено на определенные этнические группы, например, на кого угодно, кроме ханьцев (или просто не давать противнику лекарство).

Китай может быть конкурентоспособным

Многие, похоже, благодушно относятся к Китаю и AGI. Контроль за экспортом чипов кастрировал их, а ведущие лаборатории ИИ находятся в США и Великобритании — так что нам не о чем беспокоиться, верно? Китайские LLM хороши — они определенно способны обучать большие модели! — но они в лучшем случае сопоставимы со вторым уровнем американских лабораторий.

И даже китайские модели часто являются просто копией американских версий с открытым исходным кодом (например, архитектура Yi-34B, по сути, имеет архитектуру Llama2, с измененными всего несколькими строками кода ).

Раньше глубокое обучение в Китае было важнее, чем сейчас (например, Baidu опубликовала одну из первых современных статей по масштабированию закона), и хотя Китай публикует больше статей по ИИ, чем США, похоже, что за последние годы ему не удалось добиться каких-либо важных прорывов.

Однако это всего лишь прелюдия. Если и когда КПК осознает ИИ, нам следует ожидать экстраординарных усилий со стороны КПК, чтобы конкурировать. И я думаю, что у Китая есть довольно ясный путь, чтобы оказаться в игре: превзойти США и украсть алгоритмы.

1. Вычислить

1a. Чипы: Китай, похоже, продемонстрировал способность производить 7-нм чипы . Хотя выход за рамки 7 нм будет сложным (потребуется EUV), 7 нм достаточно! Для справки, 7 нм использовал Nvidia A100s. Отечественный Huawei Ascend 910B, основанный на платформе SMIC 7 нм, кажется, всего лишь в ~2-3 раза хуже по производительности/$, чем эквивалентный чип Nvidia.

Обсуждается выход продукции SMIC на уровне 7 нм и общая зрелость китайских возможностей .

и критически важным открытым вопросом является то, в каких количествах они смогут производить эти 7-нм чипы.

Тем не менее, похоже, что есть, по крайней мере, весьма разумный шанс, что через несколько лет им удастся сделать это в больших масштабах.

Большая часть достижений в области ИИ-чипов достигнута за счет улучшения конструкции чипов и их адаптации для сценариев использования ИИ (и Китай, вероятно, уже крадет разработки чипов Nvidia из тайваньской цепочки поставок).

7 нм против 3 нм или 2 нм, а также общая незрелость их производства, вероятно, делают все это более дорогим для Китая.

Но это, кажется, ни в коем случае не фатально; можно делать очень хорошие чипы ИИ поверх 7 нм процесса. Я бы не был уверен на данный момент, например, что они не могли бы просто потратить немного больше и получить достаточно вычислений для $100B+ и триллион долларовых обучающих кластеров за несколько лет.

1b. Превзойти США: Связывающим ограничением для крупнейших учебных кластеров будут не чипы, а промышленная мобилизация — возможно, в первую очередь 100 ГВт мощности для кластера стоимостью в триллион долларов . Но если есть что-то, что Китай может делать лучше, чем США, так это строительство.

За последнее десятилетие Китай построил примерно столько же новых мощностей по производству электроэнергии, сколько и все мощности США (в то время как мощности США в основном остались на прежнем уровне). В США эти вещи застревают в экологической экспертизе, выдаче разрешений и регулировании на десятилетие. Таким образом, кажется вполне правдоподобным, что Китай сможет просто превзойти США по крупнейшим учебным кластерам.

Наращивание мощности ИИ к 2030 году кажется гораздо более осуществимым для Китая, чем для США. На основе более ранних оценокГонка к кластеру в триллион долларов.

2. Алгоритмы

Как подробно обсуждалось в Counting the OOMs , масштабирование вычислений — это только часть истории: алгоритмические достижения, вероятно, вносят по крайней мере половину вклада в прогресс ИИ. Прямо сейчас мы разрабатываем ключевые алгоритмические прорывы для AGI (по сути, EUV алгоритмов из-за стены данных ).

По умолчанию я ожидаю, что западные лаборатории будут далеко впереди; у них есть большая часть ключевых талантов, и в последние годы они разработали все ключевые прорывы. Размер преимущества вполне может быть эквивалентен 10-кратному (или даже 100-кратному) увеличению кластера за несколько лет; это обеспечит Соединенным Штатам достаточно комфортное лидерство.

И все же, на текущем курсе мы полностью откажемся от этого преимущества: как подробно обсуждалось в разделе безопасности , текущее состояние безопасности по сути делает проникновение Китая в американские лаборатории тривиальным. И поэтому, если мы не заблокируем лаборатории очень скоро, я ожидаю, что Китай сможет просто украсть ключевые алгоритмические ингредиенты для AGI и сравняться с возможностями США.

(Хуже того, если мы не улучшим безопасность, у Китая появится еще более очевидный путь для конкуренции. Им даже не нужно будет обучать свой собственный ИИ: они просто смогут напрямую украсть веса ИИ. Как только они украдут копию автоматизированного исследователя ИИ , они выйдут на гонку и смогут запустить свой собственный взрыв интеллекта. Если они будут готовы проявить меньше осторожности — как хорошей осторожности, так и необоснованного регулирования и задержек — чем США, они смогут быстрее преодолеть взрыв интеллекта, обогнав нас в достижении сверхразума.)


На сегодняшний день американские технологические компании сделали гораздо большую ставку на ИИ и масштабирование, чем любые китайские усилия; следовательно, мы значительно впереди. Но сбрасывать со счетов Китай сейчас — это то же самое, что сбрасывать со счетов Google в гонке ИИ, когда ChatGPT вышел в конце 2022 года. Google еще не сосредоточил свои усилия на интенсивной ставке на ИИ, и казалось, что OpenAI был далеко впереди, — но как только Google проснулся, полтора года спустя, они начали очень серьезную борьбу. У Китая также есть четкий путь к очень серьезной борьбе. Если и когда КПК мобилизуется в гонке за AGI, картина может начать выглядеть совсем иначе.

Возможно, китайское правительство окажется некомпетентным; возможно, они решат, что ИИ угрожает КПК, и введут удушающее регулирование . Но я бы на это не рассчитывал.

Я, например, думаю, что нам нужно действовать, исходя из предположения, что мы столкнемся с полномасштабными усилиями Китая по AGI. Поскольку каждый год мы получаем резкие скачки в возможностях ИИ, поскольку мы начинаем видеть раннюю автоматизацию инженеров-программистов, поскольку доходы от ИИ резко растут, и мы начинаем видеть оценки в 10 трлн долларов и кластерные построения на триллионы долларов, поскольку начинает формироваться более широкий консенсус о том, что мы находимся на пороге AGI, КПК примет это к сведению. Как бы я ни ожидал, что эти скачки пробудят правительство США к AGI, я бы ожидал, что они пробудят КПК к AGI и пробудят то, что отставание в AGI будет означать для их национальной мощи.

Они будут грозным противником.

Авторитарная опасность

Диктатор, обладающий силой сверхразума, будет управлять концентрированной властью, не похожей ни на одну из тех, что мы когда-либо видели. Помимо возможности навязывать свою волю другим странам, они могли бы закрепить свою власть внутри страны. Миллионы роботизированных агентов правоохранительных органов, управляемых ИИ, могли бы контролировать свое население; массовое наблюдение было бы гипертрофировано; преданные диктатору ИИ могли бы индивидуально оценивать каждого гражданина на предмет инакомыслия, с помощью продвинутого почти идеального обнаружения лжи, искореняющего любую нелояльность.

Но самое главное, роботизированные военные и полицейские силы могли бы полностью контролироваться одним политическим лидером и быть запрограммированными на полное послушание — больше не будет риска переворотов или народных восстаний.

В то время как прошлые диктатуры никогда не были постоянными, суперинтеллект мог бы устранить практически все исторические угрозы правлению диктатора и закрепить его власть (ср. значение lock-in ). Если КПК получит эту власть, она могла бы полностью и всецело навязать концепцию «правды» партии.

Чтобы было ясно, я не просто беспокоюсь о том, что диктаторы получат сверхразум, потому что «наши ценности лучше». Я верю в свободу и демократию, сильно, потому что не знаю, какие ценности правильные. В долгой дуге истории « время расстроило многие воюющие веры ». Я считаю, что мы должны возложить свою веру на механизмы исправления ошибок , экспериментирования, конкуренции и адаптации.

Суперинтеллект даст тем, кто им владеет, силу сокрушить оппозицию, инакомыслие и закрепить свой грандиозный план для человечества. Трудно будет кому-либо устоять перед ужасным искушением использовать эту силу. Я искренне надеюсь, что вместо этого мы сможем положиться на мудрость Отцов-основателей — позволяя процветать радикально отличающимся ценностям и сохраняя бурный плюрализм, который определил американский эксперимент.

На кону в гонке AGI будет не только преимущество в какой-то далекой войне посредников, но и то, смогут ли свобода и демократия выжить в следующем столетии и далее. Ход человеческой истории столь же жесток, сколь и очевиден. Дважды в 20 веке тирания угрожала миру; мы не должны питать иллюзий, что эта угроза изгнана навсегда. Для многих моих молодых друзей свобода и демократия кажутся данностью, но это не так. Безусловно, самой распространенной политической системой в истории является авторитаризм.

Я действительно не знаю намерений КПК и ее авторитарных союзников. Но, в качестве напоминания: КПК — это режим, основанный на постоянном поклонении , возможно, величайшему тоталитарному массовому убийце в истории человечества («с оценками от 40 до 80 миллионов жертв из-за голода, преследований, тюремного труда и массовых казней»); режим, который недавно поместил миллион уйгуров в концентрационные лагеря и раздавил свободный Гонконг; режим, который систематически практикует массовую слежку для социального контроля, как новомодного ( отслеживание телефонов, базы данных ДНК, распознавание лиц и т. д.), так и старомодного ( вербовка армии граждан для доносов на своих соседей) вида; режим, который гарантирует, что все текстовые сообщения проходят через цензор, и который заходит так далеко в подавлении инакомыслия, что забирает семьи в полицейские участки, когда их ребенок за границей посещает протест; режим, который закрепил за Си Цзиньпином статус пожизненного диктатора; режим, который заявляет о своих целях военного подавления и « перевоспитания » свободной соседней страны; режим, который открыто стремится к мировому порядку, ориентированному на Китай.

Свободный мир должен одержать верх над авторитарными державами в этой гонке. Мы обязаны нашим миром и свободой американскому экономическому и военному превосходству. Возможно, даже наделенная суперинтеллектом, КПК будет вести себя ответственно на международной арене, предоставив каждого самому себе. Но история диктаторов такого рода некрасива. Если Америка и ее союзники не смогут выиграть эту гонку, мы рискуем всем.

Поддержание здорового лидерства будет иметь решающее значение для безопасности

Проклятая история науки и техники заключается в том, что по мере того, как они раскрывали свои чудеса, они также расширяли средства разрушения: от палок и камней до мечей и копий, винтовок и пушек, пулеметов и танков, бомбардировщиков и ракет, ядерного оружия. Кривая «уничтожение/$» последовательно снижалась по мере развития технологий. Мы должны ожидать, что быстрый технический прогресс после сверхразума будет следовать этой тенденции.

Возможно, драматические достижения в биологии дадут необычайно новое биологическое оружие, которое распространяется бесшумно, быстро, прежде чем убить с идеальной летальностью по команде (и которое можно сделать необычайно дешевым, доступным даже для террористических групп). Возможно, новые виды ядерного оружия позволят увеличить размер ядерных арсеналов на порядки, с новыми механизмами доставки, которые невозможно обнаружить. Возможно, беспилотники размером с комара, каждый из которых несет смертельный яд, можно будет направить на убийство каждого члена противостоящей страны. Трудно сказать, что принесет столетний технологический прогресс, но я уверен, что он откроет ужасающие возможности.

Человечество едва избежало самоуничтожения во время Холодной войны. С исторической точки зрения, наибольший экзистенциальный риск, который представляет собой ОИИ, заключается в том, что он позволит нам разрабатывать необычайно новые средства массового уничтожения. На этот раз эти средства могут даже распространиться и стать доступными для мошенников или террористов (особенно если, как в текущем курсе, суперинтеллектуальные веса недостаточно защищены и могут быть напрямую украдены Северной Кореей, Ираном и другими).

У Северной Кореи уже есть согласованная программа биологического оружия: США оценивают , что «У Северной Кореи есть специальная наступательная программа национального уровня» для разработки и производства биологического оружия. Кажется правдоподобным, что их основным ограничением является то, насколько далеко их небольшой круг ведущих ученых смог продвинуться в области (синтетической) биологии. Что произойдет, когда это ограничение будет снято, когда они смогут использовать миллионы сверхразумов для ускорения своих НИОКР в области биологического оружия? Например, США оценивают , что у Северной Кореи в настоящее время есть «ограниченные возможности» для генной инженерии биологических продуктов — что произойдет, когда они станут неограниченными? С помощью каких новых нечестивых измышлений они будут держать нас в заложниках?

Более того, как обсуждалось в разделе о супервыравнивании , будут существовать экстремальные риски безопасности вокруг и во время взрыва интеллекта — мы столкнемся с новыми техническими проблемами, чтобы гарантировать, что мы можем надежно доверять и контролировать сверхчеловеческие системы ИИ. Это вполне может потребовать от нас замедления в некоторые критические моменты, скажем, задержки на 6 месяцев в середине взрыва интеллекта, чтобы получить дополнительные гарантии безопасности, или использования большой доли вычислений для исследования выравнивания, а не прогресса возможностей.

Некоторые надеются на какой-то международный договор о безопасности. Мне это кажется фантастикой. Мир, в котором и КПК, и правительство США достаточно одержимы AGI, чтобы серьезно относиться к риску безопасности, — это также мир, в котором обе стороны понимают, что на карту поставлено международное экономическое и военное превосходство, что отставание на месяцы в AGI может означать постоянное отставание. Если гонка напряженная, любое равновесие в контроле над вооружениями, по крайней мере на ранней стадии вокруг суперинтеллекта, кажется крайне нестабильным. Короче говоря, «прорыв» слишком прост: стимул (и страх, что другие будут действовать в соответствии с этим стимулом) мчаться вперед с интеллектуальным взрывом, чтобы достичь суперинтеллекта и решающего преимущества, слишком велик.

По крайней мере, шансы, что мы получим здесь что-то достаточно хорошее, кажутся незначительными. (Как дела с этими климатическими соглашениями? Это кажется значительно более легкой проблемой по сравнению с этой.)

Главная, возможно, единственная, надежда, которая у нас есть, заключается в том, что альянс демократий имеет здоровое преимущество над противоборствующими державами. Соединенные Штаты должны лидировать и использовать это лидерство для обеспечения соблюдения норм безопасности в остальном мире. Это тот путь, который мы выбрали с ядерным оружием , предлагая помощь в мирном использовании ядерных технологий в обмен на международный режим нераспространения (в конечном счете, гарантированный американской военной мощью) — и это единственный путь, который, как было показано, работает.

Возможно, самое важное то, что здоровое опережение дает нам пространство для маневра: возможность «обналичить» часть опережения, если это необходимо для обеспечения безопасности, например, выделив дополнительную работу для согласования во время взрывного роста разведданных.

Проблемы безопасности суперинтеллекта станут чрезвычайно сложными для управления, если вы находитесь в гонке вооружений «ноздря в ноздрю». Преимущество в 2 года против 2 месяцев может легко иметь решающее значение. Если у нас будет преимущество всего в 2 месяца, у нас вообще не будет запаса для безопасности. В страхе перед взрывом интеллекта КПК мы почти наверняка ринемся вперед, не сдерживая себя, через наш собственный взрыв интеллекта — устремившись к системам ИИ, которые будут намного умнее людей за несколько месяцев, без какой-либо возможности замедлиться, чтобы принять правильные ключевые решения, со всеми рисками того, что суперинтеллект пойдет не так, как следует. Мы столкнемся с чрезвычайно нестабильной ситуацией, поскольку мы и КПК быстро разработали необычайно новые военные технологии, которые неоднократно дестабилизировали сдерживание. Если наши секреты и веса не будут засекречены , это может даже означать, что ряд других государств-изгоев также близки, каждое из которых использует суперинтеллект для обеспечения своего собственного нового арсенала супер-ОМП. Даже если бы нам удалось хоть немного продвинуться вперед, это, скорее всего, была бы пиррова победа: экзистенциальная борьба поставила бы мир на грань полного самоуничтожения.

Суперинтеллект выглядит совсем иначе, если у демократических союзников есть значительное преимущество, скажем, в 2 года.

Это дает нам время, необходимое для преодоления беспрецедентной серии проблем, с которыми нам придется столкнуться в период и после появления сверхразума, а также для стабилизации ситуации.

Если и когда станет ясно, что США решительно победят, тогда мы предложим сделку Китаю и другим противникам. Они будут знать, что не победят, и поэтому они будут знать, что их единственный вариант — сесть за стол переговоров; и мы бы предпочли избежать лихорадочного противостояния или отчаянных военных попыток с их стороны саботировать усилия Запада. В обмен на гарантию невмешательства в их дела и совместное использование мирных преимуществ сверхразума может родиться режим нераспространения, нормы безопасности и подобие стабильности после сверхразума.

В любом случае, углубляясь в эту борьбу, мы не должны забывать об угрозе самоуничтожения. То, что мы пережили Холодную войну целыми и невредимыми, потребовало слишком много удачи

— и разрушение может быть в тысячу раз более мощным, чем то, с чем мы столкнулись тогда. Здоровое лидерство возглавляемой Америкой коалиции демократий — и торжественное осуществление этого лидерства для стабилизации любой нестабильной ситуации, в которой мы окажемся — это, вероятно, самый безопасный путь к преодолению этой пропасти. Но в разгар гонки AGI нам лучше не облажаться.

Сверхразум — вопрос национальной безопасности

Ясно: AGI — это экзистенциальный вызов национальной безопасности США. Пора начать относиться к нему как к таковому.

Потихоньку USG начинает действовать. Экспортный контроль американских чипов — это огромное дело, и в свое время это был невероятно прозорливый шаг. Но нам нужно серьезно подойти к делу по всем направлениям.

У США есть лидерство. Нам просто нужно его сохранить. И мы сейчас его портим. Прежде всего, мы должны быстро и радикально заблокировать лаборатории ИИ , прежде чем мы раскроем ключевые прорывы в области ИИ в течение следующих 12-24 месяцев (или сами веса ИИ). Мы должны построить вычислительные кластеры в США, а не в диктатурах, которые предлагают легкие деньги. И да, американские лаборатории ИИ обязаны работать с разведывательным сообществом и военными. Лидерство Америки в области ИИ не обеспечит мир и свободу, просто создавая лучшие приложения для подружек ИИ. Это некрасиво, но мы должны создать ИИ для американской обороны.


Мы уже на пути к самой взрывоопасной международной ситуации за последние десятилетия. Путин на марше в Восточной Европе. Ближний Восток в огне. КПК рассматривает захват Тайваня как свою судьбу. Теперь добавьте гонку за AGI. Добавьте столетний опыт технологических прорывов, сжатый в годы после появления суперинтеллекта. Это будет одна из самых нестабильных международных ситуаций, когда-либо виденных, — и, по крайней мере, поначалу стимулы для нанесения первых ударов будут колоссальными.

Уже наблюдается жуткое совпадение временных линий AGI (~2027?) и временных линий вторжения на Тайвань наблюдателей за Тайванем ( готов ли Китай вторгнуться на Тайвань к 2027 году? ) — совпадение, которое, несомненно, только усилится, когда мир осознает AGI. (Представьте, что в 1960 году подавляющее большинство мировых месторождений урана каким-то образом было сосредоточено в Берлине!) Мне кажется, что есть реальный шанс, что финал AGI разыграется на фоне мировой войны. Тогда все ставки сделаны.

Следующий пост в серии IV. Проект
 


  1. Например, Yi-Large, судя по всему, является моделью класса GPT-4 на LMSys, но это произошло более чем через год после того, как OpenAI выпустила GPT-4.
  2. Аналогично, код Qwen Hugging Face часто ссылается на Mistral, и, похоже, зависимость китайских LLM от американского открытого исходного кода является явным поводом для беспокойства , которое дошло до китайского премьер-министра.
  3. Huawei Ascend 910B, похоже, стоит около 120 000 юаней за карту, или около $17 тыс. Она производится на узле SMIC 7 нм , при этом производительность аналогична A100. H100, возможно, примерно в ~3 раза лучше, чем A100, при этом стоят немного дороже ($20-25 тыс. ASP), что предполагает только ~2-3-кратное увеличение стоимости для эквивалентной производительности AI GPU для Китая прямо сейчас.
  4. Например, они все еще используют западную память HBM (которая по какой-то причине не подлежит экспортному контролю?), хотя говорят, что CXMT начнет пробовать HBM в следующем году.
  5. Хотя, поскольку они по-прежнему могут импортировать другие типы чипов с Запада, они могли бы просто направить весь свой 7-нм узел на чипы ИИ, компенсировав тем самым снижение общего объема производства.
  6. Примечательно, что даже киберпреступники смогли взломать Nvidia и получить ключевые секреты дизайна GPU . Более того, проекты TPUv6, по-видимому, были среди того, что было украдено недавно обвиненным гражданином Китая в Google.
  7. Например, они могут быть в 2 раза хуже по perf/$ или perf/Watt. В свою очередь, это также означает, что для достижения той же общей производительности центра обработки данных вам нужно больше мощности и нужно больше чипов, объединенных в сеть, что также делает вещи более хлопотными.
  8. Обратите внимание, что даже увеличение стоимости чипов в 3 раза будет намного меньше с точки зрения увеличения расходов на центр обработки данных. Фактические затраты на логические фабрики составляют <5% от стоимости графических процессоров Nvidia, и даже с учетом памяти и CoWoS это менее 20% от ценника Nvidia из-за их маржи. И даже сами графические процессоры, как правило, составляют всего 50-60% от стоимости центра обработки данных. Таким образом, увеличение стоимости чипов в 3 раза может означать гораздо, гораздо меньшее, чем трехкратное увеличение общей стоимости. Даже для чипов, которые дороже в 10 раз, Китай, похоже, сможет это переварить без значительного увеличения расходов на центр обработки данных.
  9.  Некоторые утверждают, что даже если Китай украдет эти секреты, они не смогут конкурировать, потому что для этого требуются неявные знания. Я не согласен. Я думаю, что это имеет два слоя. Нижний слой — это инженерное мастерство для крупномасштабных тренировочных запусков; эти тренировочные запуски могут быть хакерскими и деликатными и требуют неявных знаний. Но, как я расскажу позже , китайские усилия по искусственному интеллекту показали себя вполне способными обучать крупномасштабные модели, и я думаю, что они будут иметь эти неявные знания изначально. Верхний слой — это алгоритмический рецепт — такие вещи, как архитектура модели, правильные законы масштабирования и т. д. — которые можно передать за один часовой звонок. Эти вычислительные множители обычно являются дискретными изменениями, что означает, что базовые неявные знания для крупномасштабных тренировочных запусков должны передаваться. Я не думаю, что «неявные знания» станут решающим препятствием для китайских усилий по созданию AGI.
  10. (Преимущественно монархия.)
  11. Рассмотрим следующее сравнение нестабильных и стабильных равновесий контроля над вооружениями. Контроль над вооружениями 1980-х годов во время Холодной войны существенно сократил ядерное оружие, но был нацелен на стабильное равновесие. У США и Советского Союза все еще были тысячи единиц ядерного оружия. MAD был гарантирован, даже если один из участников пытался запустить ускоренную программу по созданию большего количества ядерного оружия; и страна-изгой могла попытаться создать некоторое количество собственного ядерного оружия, но не угрожать США или Советскому Союзу превосходством.Однако, когда разоружение осуществляется на очень низком уровне вооружений или происходит на фоне быстрых технологических изменений, равновесие нестабильно. Нечестный игрок или нарушитель договора может легко запустить программу ускорения и угрожать полностью превзойти других игроков. Отсутствие ядерного оружия не было бы стабильным равновесием; аналогично, в этой статье приводятся интересные исторические исследования случаев (такие как ограничения вооружений после Первой мировой войны и Вашингтонский морской договор), когда разоружение в схожих динамических ситуациях дестабилизировало, а не стабилизировало.Если всего лишь несколько месяцев лидерства в области AGI дадут совершенно решающее преимущество, это делает стабильное разоружение в области ИИ столь же сложным. Негодяй-выскочка или нарушитель договора может получить огромное преимущество, тайно запустив программу ускоренного выполнения; соблазн будет слишком велик, чтобы любое соглашение было стабильным.
  12. Стоит оценить, насколько значительны 2 года с точки зрения разницы в возможностях ИИ. Учитывая и без того быстрые темпы прогресса ИИ сегодня и еще более быстрые темпы, которые следует ожидать при взрыве интеллекта , а также более широкий технологический взрыв после появления сверхинтеллекта, «даже» 2-летнее опережение будет означать огромные различия в возможностях.
  13. Об этом захватывающе рассказывает Дэниел Эллсберг , один из планировщиков ядерной войны в RAND и в аппарате национальной безопасности того времени.
  14. Каждый будет мчаться к своему собственному сверхразуму, и будет ограниченное окно, прежде чем кто-то впереди необратимо оторвется. Будет большой стимул попытаться отключить кластеры сверхразума противника до того, как они получат достаточное физическое преимущество (например, используя сверхразум для разработки непроницаемой противоракетной обороны или роя беспилотников), что навсегда оставит всех остальных в пыли.

 

IV.Проект

По мере усиления гонки за AGI вмешается национальное государство безопасности. USG проснется ото сна, и к 27/28 мы получим некую форму государственного проекта AGI. Ни один стартап не справится со сверхразумом. Где-то в SCIF будет финальная игра.


«Нам должно быть любопытно узнать, как такой набор объектов — сотни электростанций, тысячи бомб, десятки тысяч людей, сосредоточенных в национальных учреждениях, — можно свести к нескольким людям, сидящим за лабораторными столами и обсуждающим своеобразное поведение одного типа атома».

Спенсер Р. Уэрт 

Внастоящее время выдвигается множество планов «управления ИИ» — от лицензирования передовых систем ИИ до стандартов безопасности и публичного облака с несколькими сотнями миллионов вычислений для академиков. Они кажутся благонамеренными, но мне кажется, что они совершают ошибку категории.

Я считаю безумным предложение, что правительство США позволит случайному стартапу из Сан-Франциско разработать суперинтеллект . Представьте, если бы мы разработали атомные бомбы, позволив Uber просто импровизировать.

Суперинтеллект — системы ИИ, намного более умные, чем люди, — будет обладать огромной силой, от разработки нового оружия до стимулирования взрыва экономического роста. Суперинтеллект станет средоточием международной конкуренции; преимущество в несколько месяцев может оказаться решающим в военном конфликте.

Это заблуждение тех, кто бессознательно усвоил нашу короткую передышку от истории, что это не вызовет больше первобытных сил. Как и многие ученые до нас, великие умы Сан-Франциско надеются, что они могут контролировать судьбу демона, которого они рождают. Прямо сейчас они все еще могут; поскольку они среди немногих, кто обладает ситуационной осведомленностью, кто понимает, что они создают. Но в ближайшие несколько лет мир проснется. То же самое произойдет и с государством национальной безопасности. История совершит триумфальное возвращение.

Как и много раз прежде — Covid, Вторая мировая война — будет казаться, что Соединенные Штаты спят за рулем — прежде чем, внезапно, правительство включит передачу самым необычным образом. Наступит момент — всего через несколько лет, всего через пару скачков «уровня 2023 года» в возможностях моделей и дискурсе ИИ — когда станет ясно: мы находимся на пороге AGI, а вскоре после этого и сверхинтеллекта. Хотя в точной механике много изменений, так или иначе, у руля будет правительство США; ведущие лаборатории («добровольно») объединятся; Конгресс выделит триллионы на чипы и электроэнергию; сформирована коалиция демократий.

Стартапы хороши для многих вещей, но сам по себе стартап просто не способен отвечать за самый важный проект национальной обороны Соединенных Штатов. Нам понадобится участие правительства, чтобы иметь хотя бы надежду на защиту от тотальной угрозы шпионажа, с которой мы столкнемся; частные усилия в области ИИ могли бы также напрямую поставлять суперинтеллект КПК. Нам понадобится правительство, чтобы обеспечить хотя бы подобие разумной цепочки командования; у вас не может быть случайных генеральных директоров (или случайных советов некоммерческих организаций) с ядерной кнопкой. Нам понадобится правительство, чтобы справиться с серьезными проблемами безопасности суперинтеллекта, чтобы управлять туманом войны взрыва разведки. Нам понадобится правительство, чтобы развернуть суперинтеллект для защиты от любых экстремальных угроз, чтобы пережить чрезвычайно нестабильную и дестабилизированную международную ситуацию, которая последует. Нам понадобится правительство, чтобы мобилизовать демократическую коалицию, чтобы выиграть гонку с авторитарными полномочиями и выработать (и обеспечить) режим нераспространения для остального мира. Я бы хотел, чтобы это было не так, но нам понадобится правительство. (Да, независимо от Администрации.)

В любом случае, моя главная претензия не нормативная, а описательная. Через несколько лет Проект будет запущен.

Путь к Проекту

Поворот событий, запечатлевшийся в моей памяти, — это конец февраля — середина марта 2020 года. В те последние недели февраля и первые дни марта я был в полном отчаянии: казалось, что мы находимся на экспоненциальном уровне по ковиду: чума вот-вот охватит страну, крах наших больниц был неизбежен — и все же почти никто не воспринимал это всерьез. Мэр Нью-Йорка по-прежнему отвергал страхи по поводу ковида как расизм и призывал людей ходить на бродвейские шоу. Все, что я мог сделать, это купить маски и сыграть на понижение рынка.

И все же всего за несколько недель вся страна закрылась, а Конгресс присвоил триллионы долларов (буквально >10% ВВП). Предвидеть, куда может пойти экспоненциальная шкала, было слишком сложно заранее, но когда угроза стала достаточно близкой, достаточно экзистенциальной, были высвобождены чрезвычайные силы. Ответ был запоздалым, грубым, резким — но он пришел, и он был драматичным.

Следующие несколько лет в области ИИ будут ощущаться похожими. Сейчас мы в середине игры. 2023 год уже был диким сдвигом. ИИ превратился из второстепенной темы, с которой вы бы не решились ассоциироваться, в предмет крупных слушаний в Сенате и саммитов мировых лидеров. Учитывая, насколько рано мы еще находимся, уровень участия правительства США был для меня впечатляющим. Еще пара «2023», и окно Овертона будет полностью открыто.

По мере того, как мы мчимся через OOM , скачки будут продолжаться. Примерно к 2025/2026 году я ожидаю следующих действительно шокирующих перемен; ИИ будет приносить более 100 млрд долларов годового дохода крупным технологическим компаниям и превзойдет докторов наук в области чистого интеллекта решения проблем. Подобно тому, как крах фондового рынка из-за COVID заставил многих серьезно отнестись к COVID, у нас будут компании стоимостью 10 трлн долларов, и мания ИИ будет повсюду. Если этого недостаточно, к 2027/28 году у нас будут модели, обученные на кластере стоимостью более 100 млрд долларов; полноценные агенты ИИ/удаленные работники начнут широко автоматизировать разработку программного обеспечения и другие когнитивные задачи. С каждым годом ускорение будет казаться головокружительным.

Хотя многие пока не видят возможности ОИИ, в конечном итоге консенсус сформируется. Некоторые, как Силард, увидели возможность атомной бомбы гораздо раньше других. Их тревога изначально не была хорошо принята; возможность бомбы была отвергнута как маловероятная (или, по крайней мере, считалось, что консервативным и правильным было бы преуменьшить эту возможность). Пылкие призывы Силарда к секретности были высмеяны и проигнорированы. Но многие ученые, изначально настроенные скептически, начали понимать, что бомба возможна, по мере поступления все большего количества эмпирических результатов. Как только большинство ученых пришли к убеждению, что мы находимся на пороге создания бомбы, правительство, в свою очередь, посчитало, что национальная безопасность слишком важна, и Манхэттенский проект был запущен.

По мере того, как OOM переходят от теоретической экстраполяции к (экстраординарной) эмпирической реальности, постепенно среди ведущих ученых, руководителей и правительственных чиновников сформируется консенсус: мы находимся на пороге, на пороге AGI, на пороге взрыва интеллекта, на пороге суперинтеллекта. И где-то здесь мы получим первые по-настоящему ужасающие демонстрации ИИ: возможно, часто обсуждаемая «помощь новичкам в создании биологического оружия», или автономный взлом критических систем, или что-то совсем другое. Станет ясно: нравится нам это или нет, эта технология станет совершенно решающей военной технологией . Даже если нам повезет и мы не будем втянуты в крупную войну, вполне вероятно, что КПК обратит на это внимание и начнет грозные усилия по AGI. Возможно, окончательное (неизбежное) раскрытие проникновения КПК в ведущие американские лаборатории ИИ вызовет большой переполох.

Где-то около 26/27 числа настроение в Вашингтоне станет мрачным. Люди начнут интуитивно чувствовать, что происходит; они будут напуганы . Из коридоров Пентагона и до кулуаров брифингов Конгресса будет звучать очевидный вопрос, вопрос, который у всех на уме: нужен ли нам проект AGI Manhattan? Сначала медленно, а потом все сразу станет ясно: это происходит, все становится диким , это самый важный вызов для национальной безопасности Соединенных Штатов с момента изобретения атомной бомбы. В той или иной форме государство национальной безопасности будет очень активно вовлечено. Проект будет необходимым, на самом деле единственно возможным ответом.

Конечно, это крайне сокращенный отчет — многое зависит от того, когда и как формируется консенсус, ключевые предупредительные выстрелы и так далее. DC печально известен своей недееспособностью. Как и в случае с Covid и даже с Манхэттенским проектом, правительство будет невероятно опаздывать и действовать неуклюже. После письма Эйнштейна президенту в 1939 году (составленного Силардом) был сформирован Консультативный комитет по урану. Но чиновники были некомпетентны, и поначалу мало что произошло. Например, Ферми получил всего 6 тыс. долларов (около 135 тыс. долларов в сегодняшних долларах) на поддержку своих исследований, и даже это не было дано легко и получено только после месяцев ожидания. Силард считал, что проект был отложен как минимум на год из-за близорукости и медлительности властей. В марте 1941 года британское правительство наконец пришло к выводу, что бомба неизбежна. Первоначально комитет США полностью игнорировал этот британский доклад в течение нескольких месяцев, пока в декабре 1941 года не были начаты полномасштабные работы по созданию атомной бомбы.

Есть много способов, которыми это можно было бы реализовать на практике. Чтобы было ясно, это не должно выглядеть как буквальная национализация, когда исследователи лабораторий ИИ теперь работают на военных или кого-то еще (хотя это может быть!).

Скорее, я ожидаю более обходительной оркестровки. Отношения с Министерством обороны могут выглядеть как отношения с Boeing или Lockheed Martin. Возможно, посредством оборонного контракта или чего-то подобного будет создано совместное предприятие между основными поставщиками облачных вычислений, лабораториями ИИ и правительством, что сделает его функционально проектом государства национальной безопасности. Подобно тому, как лаборатории ИИ «добровольно» взяли на себя обязательства перед Белым домом в 2023 году, западные лаборатории могут более или менее «добровольно» согласиться на слияние в национальных усилиях. И, вероятно, Конгрессу придется участвовать, учитывая триллионы вовлеченных инвестиций и для сдержек и противовесов.

Как все эти детали складываются — это уже другая история.

Но к концу 26/27/28 он будет запущен. Основная исследовательская группа AGI (несколько сотен исследователей) переедет в безопасное место; кластер стоимостью в триллион долларов будет построен с рекордной скоростью; Проект будет запущен.

Почему проект — единственный путь 

Я не питаю никаких иллюзий относительно правительства. Правительства сталкиваются со всевозможными ограничениями и слабыми стимулами. Я большой сторонник американского частного сектора и почти никогда не буду выступать за активное участие правительства в технологиях или промышленности.

Раньше я применял эту же структуру к AGI — пока не присоединился к лаборатории ИИ. Лаборатории ИИ очень хороши в некоторых вещах: они смогли вывести ИИ из академического научного проекта на большую коммерческую сцену, так, как это может сделать только стартап. Но в конечном итоге лаборатории ИИ — это все еще стартапы. Мы просто не должны ожидать, что стартапы будут оснащены всем необходимым для работы со сверхинтеллектом.

Здесь нет хороших вариантов, но я не вижу другого пути. Когда технология становится настолько важной для национальной безопасности, нам понадобится USG.

Суперинтеллект станет важнейшим национальным оборонным проектом США

Я обсуждал силу сверхразума в предыдущих статьях. В течение нескольких лет сверхразум полностью перевернет военный баланс сил . К началу 2030-х годов весь арсенал США (нравится вам это или нет, но это основа глобального мира и безопасности), вероятно, устареет. Это будет не просто вопрос модернизации, а всеобщей замены.

Проще говоря, станет ясно, что развитие AGI попадет в категорию, больше похожую на ядерное оружие, чем на интернет. Да, конечно, это будет двойное использование, но ядерные технологии тоже были двойными. Гражданские приложения получат свое время. Но в тумане эндшпиля AGI, к лучшему или к худшему, национальная безопасность будет основным фоном.

Нам нужно будет полностью перестроить силы США в течение нескольких лет, столкнувшись с быстрыми технологическими изменениями — или рисковать быть полностью превзойденными противниками, которые это сделают. Возможно, самым главным первоначальным приоритетом будет развертывание суперинтеллекта для оборонительных целей, разработка контрмер для выживания в неисчислимых новых угрозах: противники со сверхчеловеческими возможностями взлома, новые классы скрытных роев беспилотников, которые могли бы нанести упреждающий удар по нашему ядерному сдерживанию, распространение достижений в области синтетической биологии, которые могут быть превращены в оружие, бурные международные (и национальные) битвы за власть и неконтролируемые проекты суперинтеллекта.

Независимо от того, будет ли проект AGI номинально частным или нет, он должен будет и будет являться по сути оборонным проектом, и он потребует чрезвычайно тесного сотрудничества с органами национальной безопасности.

Разумная цепочка команд для сверхразума

Мощь — и проблемы — сверхинтеллекта попадут в совершенно иной класс ссылок, нежели все остальное, что мы привыкли видеть у технологических компаний. Кажется, это довольно ясно: это не должно быть под единоличным командованием случайного генерального директора. Действительно, в мире частных лабораторий, разрабатывающих сверхинтеллект, вполне вероятно, что отдельные генеральные директора будут иметь власть буквально переворотить в правительстве США .

Представьте себе, если бы Илон Маск имел окончательное командование ядерным арсеналом.

(Или если бы случайный совет некоммерческой организации решил взять под контроль ядерный арсенал.)

Возможно, это очевидно, но: как общество, мы решили, что демократические правительства должны контролировать армию;

суперинтеллект будет, по крайней мере, поначалу, самым мощным военным оружием. Радикальное предложение — это не Проект; радикальное предложение — сделать ставку на частных генеральных директоров ИИ, обладающих военной мощью и превращающихся в великодушных диктаторов.

(Действительно, в мире частных лабораторий ИИ ситуация, вероятно, была бы даже хуже, чем случайные генеральные директора с ядерной кнопкой — часть ужасающей безопасности лабораторий ИИ заключается в полном отсутствии внутреннего контроля. То есть случайные сотрудники лабораторий ИИ (без какой-либо проверки) могли бы стать мошенниками и остаться незамеченными.)

Нам понадобится разумная цепочка команд — вместе со всеми другими процессами и гарантиями, которые обязательно идут вместе с ответственным обладанием тем, что будет сопоставимо с ОМУ — и это потребует от правительства сделать это. В каком-то смысле это просто аргумент Берка: институты, конституции, законы, суды, сдержки и противовесы, нормы и общая преданность либерально-демократическому порядку (например, генералы, отказывающиеся выполнять незаконные приказы) и так далее, которые проверяют власть правительства, выдержали испытание сотнями лет. Между тем, специальные структуры управления лабораториями ИИ рухнули при первом же испытании. Американские военные уже могли бы убить практически каждого гражданского в Соединенных Штатах или захватить власть, если бы захотели, — и способ, которым мы держим под контролем государственную власть над ядерным оружием, заключается не в том, чтобы использовать множество частных компаний с их собственными ядерными арсеналами. Есть только одна цепочка команд и набор институтов, которые доказали свою пригодность для этой задачи.

Опять же, возможно, вы истинный либертарианец и не согласны с нормативной точки зрения (пусть Илон Маск и Сэм Альтман командуют своими собственными ядерными арсеналами!)

Но как только станет ясно, что сверхразум — это принципиальный вопрос национальной безопасности, я уверен, что именно так на него посмотрят мужчины и женщины в Вашингтоне.

Гражданское использование сверхразума

Конечно, это не означает, что гражданское применение суперинтеллекта будет доступно только правительству.

  • Ядерная цепная реакция была впервые использована в качестве государственного проекта, и ядерное оружие навсегда зарезервировано за правительством, но гражданская ядерная энергетика процветала как частные проекты (в 60-х и 70-х годах, пока экологи не закрыли ее).
  • Boeing создал B-29 (самый дорогой оборонный научно-исследовательский проект во время Второй мировой войны, более дорогой, чем Манхэттенский проект) и дальние бомбардировщики B-47 и B-52 в партнерстве с военными — прежде чем использовать эту технологию для Boeing 707, коммерческого самолета, который открыл эру реактивных самолетов. И сегодня, хотя Boeing может продавать правительству только истребители-невидимки, он может свободно разрабатывать и продавать гражданские самолеты в частном порядке.
  • То же самое происходило с радарами, спутниками, ракетами, генной инженерией, заводами времен Второй мировой войны и так далее.

Первоначальное развитие суперинтеллекта будет определяться необходимостью национальной безопасности выжить и стабилизировать невероятно нестабильный период. А военное использование суперинтеллекта останется зарезервированным для правительства, и будут введены нормы безопасности. Но как только первоначальная опасность минует, и мир стабилизируется, естественным путем для компаний, входящих в национальный консорциум (и других), будет частная реализация гражданских приложений.

Даже в мирах, где действует Проект, частная, плюралистическая, рыночная, процветающая экосистема гражданского применения сверхразума еще будет существовать.

Безопасность

Я подробно рассказывал об этом в предыдущей части серии . При текущем курсе мы можем также отказаться от любых американских усилий по созданию AGI; Китай может быстро украсть все алгоритмические прорывы и веса моделей (буквально копию суперинтеллекта) напрямую. Даже не ясно, дойдем ли мы до «защищенной от Северной Кореи» безопасности для суперинтеллекта при текущем курсе. В мире частных стартапов, разрабатывающих AGI, суперинтеллект распространится на десятки государств-изгоев. Это просто несостоятельно.

Если мы собираемся серьезно к этому относиться, нам, очевидно, нужно заблокировать это. Большинство частных компаний не отнеслись к этому серьезно. Но в любом случае, если мы в конечном итоге столкнемся со всей мощью китайского шпионажа (например, кража гирь является приоритетом №1 для MSS), частной компании, вероятно, невозможно обеспечить достаточно хорошую безопасность. На этом этапе потребуется обширное сотрудничество со стороны разведывательного сообщества США, чтобы в достаточной степени обезопасить AGI. Это будет включать в себя инвазивные ограничения для лабораторий ИИ и для основной группы исследователей AGI, от экстремальной проверки до постоянного мониторинга, работы в SCIF и ограниченной свободы выезда; и это потребует инфраструктуры, которую может предоставить только правительство, в конечном итоге включая физическую безопасность самих центров обработки данных AGI.

В каком-то смысле, одной лишь безопасности достаточно, чтобы сделать необходимым правительственный проект — и превосходство свободного мира, и безопасность ИИ обречены, если мы не сможем заблокировать эту штуку. (На самом деле, я думаю, что это, скорее всего, станет основным фактором в конечном итоге: как только проникновение китайцев в лаборатории ИИ станет очевидным, каждый сенатор, конгрессмен и сотрудник национальной безопасности… будет иметь твердое мнение по этому вопросу.)

Безопасность

Проще говоря: у нас есть много способов все испортить — от обеспечения надежного контроля и доверия миллиардам сверхразумных агентов, которые вскоре будут отвечать за нашу экономику и армию ( проблема сверхвыравнивания ), до контроля рисков нецелевого использования новых средств массового поражения .

Некоторые лаборатории ИИ заявляют, что привержены безопасности: признавая, что то, что они строят, если пойдет не так, может вызвать катастрофу, и обещая, что они сделают все необходимое, когда придет время. Я не знаю, можем ли мы доверять их обещанию настолько, чтобы рискнуть жизнью каждого американца. Что еще важнее, до сих пор они не продемонстрировали компетентности, надежности или серьезности, необходимых для того, что они сами признают, что строят.

По сути, это стартапы со всеми обычными коммерческими стимулами. Конкуренция может подтолкнуть их всех просто проскочить через взрыв интеллекта, и, по крайней мере, найдутся некоторые игроки, которые будут готовы отбросить безопасность в сторону. В частности, мы можем захотеть «потратить часть нашего лидерства», чтобы иметь время для решения проблем безопасности, но западным лабораториям нужно будет координировать свои действия, чтобы сделать это. (И, конечно, частные лаборатории уже потеряют свои веса AGI, так что их меры безопасности даже не будут иметь значения; мы будем во власти мер безопасности КПК и Северной Кореи.)

Один из ответов — регулирование. Это может быть уместно в мирах, где ИИ развивается медленнее, но я боюсь, что регулирование просто не будет соответствовать характеру проблемы взрыва интеллекта. Необходимо будет не столько потратить несколько лет на тщательные оценки и проталкивание некоторых стандартов безопасности через бюрократию. Это будет больше похоже на войну .

Нас ждет безумный год, в котором ситуация будет меняться чрезвычайно быстро каждую неделю, в котором жесткие решения, основанные на неоднозначных данных, будут вопросом жизни и смерти, в котором решения — даже сами проблемы — не будут полностью ясны заранее, а будут сводиться к компетентности в «тумане войны», что будет включать безумные компромиссы, такие как «некоторые из наших измерений выравнивания выглядят неоднозначными, мы больше не понимаем, что происходит, все может быть хорошо, но есть некоторые предупреждающие знаки, что следующее поколение сверхразума может пойти наперекосяк, стоит ли нам отложить следующий учебный запуск на 3 месяца, чтобы обрести больше уверенности в безопасности — но, о нет, последние отчеты разведки указывают на то, что Китай украл наши веса и мчится вперед благодаря своему собственному интеллектуальному взрыву, что нам делать?».

Я не уверен, что правительственный проект будет компетентен в решении этой проблемы, но альтернатива «сверхразум, разработанный стартапами» кажется гораздо ближе к «молитве о лучшем», чем обычно считается. Нам понадобится цепочка команд, которая сможет принести за стол переговоров всю серьезность, которая потребуется для принятия этих сложных компромиссов.

Стабилизация международной обстановки

Взрыв интеллекта и его немедленные последствия приведут к одной из самых нестабильных и напряженных ситуаций, с которыми когда-либо сталкивалось человечество. Наше поколение к этому не привыкло. Но в этот начальный период задача будет заключаться не в создании крутых продуктов. Она будет заключаться в том, чтобы как-то отчаянно пережить этот период.

Нам понадобится правительственный проект, чтобы выиграть гонку против авторитарных держав — и дать нам четкое лидерство и передышку, необходимые для преодоления опасностей этой ситуации. Мы можем также сдаться, если не сможем предотвратить мгновенную кражу весов моделей суперинтеллекта. Мы захотим объединить западные усилия: объединить наших лучших ученых, использовать все GPU, которые сможем найти, и гарантировать, что триллионы долларов на кластерные сборки будут сделаны в Соединенных Штатах. Нам нужно будет защитить центры обработки данных от саботажа противника или прямой атаки.

Возможно, больше всего, американское лидерство потребуется для разработки — и, если необходимо, обеспечения соблюдения — режима нераспространения. Нам нужно будет помешать России, Северной Корее, Ирану и террористическим группам использовать свой собственный суперинтеллект для разработки технологий и оружия, которые позволят им держать мир в заложниках. Нам нужно будет использовать суперинтеллект для укрепления безопасности нашей критической инфраструктуры, армии и правительства для защиты от экстремальных новых хакерских возможностей. Нам нужно будет использовать суперинтеллект для стабилизации баланса нападения/обороны достижений в области биологии или подобных областях. Нам нужно будет разработать инструменты для безопасного контроля суперинтеллекта и для отключения неконтролируемых суперинтеллектов, которые появляются из чужих неосторожных проектов. Системы искусственного интеллекта и роботы будут двигаться со скоростью в 10-100 раз больше человеческой; все начнет происходить чрезвычайно быстро. Нам нужно будет быть готовыми справиться с любыми другими потрясениями «шести сигм» и сопутствующими угрозами, которые возникнут в результате сжатия векового технологического прогресса в несколько лет.

По крайней мере, в этот начальный период мы столкнемся с самой чрезвычайной необходимостью национальной безопасности. Возможно, никто не готов к этой задаче. Но из имеющихся у нас вариантов Проект — единственный разумный.

Проект неизбежен; хорош он или нет — неважно.

В конечном счете, мое главное утверждение здесь носит описательный характер: нравится нам это или нет, сверхразум не будет выглядеть как стартап из Сан-Франциско, и в некотором роде будет в первую очередь в сфере национальной безопасности. Я много рассказывал о Проекте моим друзьям из Сан-Франциско в прошлом году. Возможно, больше всего меня удивило то, насколько большинство людей удивлены этой идеей. Они просто не рассматривали такую ​​возможность. Но как только они ее рассматривают, большинство соглашаются, что это кажется очевидным. Если мы хоть немного правы в том, что, как мы думаем, мы создаем, конечно, к концу это будет (в какой-то форме) правительственный проект. Если бы завтра лаборатория разработала настоящий сверхразум, конечно, вмешались бы федералы.

Одна важная свободная переменная — это не «если», а «когда» . Правительство не осознает, что происходит, пока мы не окажемся в центре интеллектуального взрыва, или оно осознает это за пару лет до этого? Если правительственный проект неизбежен, то раньше кажется лучше. Нам очень нужны эти пару лет, чтобы провести программу экстренной безопасности, ввести в курс дела и подготовить ключевых должностных лиц, построить функционирующую объединенную лабораторию и так далее. Будет гораздо более хаотично, если правительство вмешается только в самом конце (а секреты и веса уже будут украдены).

Еще одной важной свободной переменной является международная коалиция, которую мы можем сформировать: как более тесный альянс демократий для разработки сверхразума, так и более широкое предложение о совместном использовании выгод, сделанное остальному миру.

  • Первое может выглядеть как Квебекское соглашение : секретный пакт между Черчиллем и Рузвельтом об объединении ресурсов для разработки ядерного оружия, не используя его друг против друга или против других без взаимного согласия. Мы захотим привлечь Великобританию (Deepmind), восточноазиатских союзников, таких как Япония и Южная Корея (цепочка поставок чипов), а также НАТО/других основных демократических союзников (более широкая промышленная база). Объединенные усилия будут иметь больше ресурсов, талантов и контролировать всю цепочку поставок; позволят тесно координировать вопросы безопасности, национальной безопасности и военных задач; и обеспечат полезную систему сдержек и противовесов при использовании силы суперинтеллекта.
  • Последнее может выглядеть как Atoms for Peace , IAEA и NPT . Мы должны предложить поделиться мирными преимуществами суперинтеллекта с более широкой группой стран (включая недемократические) и взять на себя обязательство не использовать суперинтеллект в наступательных целях против них. Взамен они воздерживаются от реализации собственных проектов суперинтеллекта, берут на себя обязательства по безопасности при развертывании систем ИИ и принимают ограничения на приложения двойного назначения. Надежда состоит в том, что это предложение снижает стимулы для гонки вооружений и распространения и приводит широкую коалицию под зонтиком во главе с США для мирового порядка после суперинтеллекта.

Возможно, самая важная свободная переменная — это просто будет ли неизбежный правительственный проект компетентным. Как он будет организован? Как мы можем это сделать? Как будут работать сдержки и противовесы, и как выглядит разумная цепочка команд? Едва ли хоть какое-то внимание было уделено выяснению этого.

Почти все остальные политики ИИ-лабораторий и ИИ-управления — это второстепенные вещи. Это игра в мяч.

Эндшпиль

Итак, к 27/28 наступит финальная игра. К 28/29 начнется взрыв интеллекта; к 2030 году мы призовем сверхразум во всей его силе и мощи.

Оппенгеймер и Гроувс.

Кого бы они ни назначили ответственным за Проект, у него будет чертовски сложная задача: построить ИИ, и построить его быстро; поставить американскую экономику на военные рельсы, чтобы произвести сотни миллионов ГП; заблокировать все это, отсеять шпионов и отразить тотальные атаки КПК; каким-то образом управлять сотней миллионов ИИ, яростно автоматизирующих исследования ИИ, совершающих десятилетние скачки за год и вскоре производящих системы ИИ, намного умнее самых умных людей; каким-то образом удерживать все вместе, чтобы это не сошло с рельсов и не породило неконтролируемый сверхразум, который попытается захватить контроль у своих человеческих надзирателей; использовать этот сверхразум для разработки любых новых технологий, которые будут необходимы для стабилизации ситуации и опережения противников, быстро перестраивая вооруженные силы США для их интеграции; и все это при этом лавируя, вероятно, в самой напряженной международной ситуации, которую когда-либо видели. Я бы сказал, что им лучше быть хорошими.

Для тех из нас, кто получит призыв присоединиться к поездке, это будет… стрессом. Но это будет нашим долгом служить свободному миру — и всему человечеству. Если мы выживем и сможем оглянуться на те годы, это будет самое важное, что мы когда-либо делали. И хотя какое бы безопасное учреждение они ни нашли, оно, вероятно, не будет обладать приятными чертами сегодняшнего смехотворно-перегруженного-ИИ-образа жизни исследователя, это будет не так уж и плохо. SF уже ощущается как своеобразный-университетский-город-исследователя-ИИ; возможно, это не будет сильно отличаться. Это будет тот же странно-маленький кружок, потеющий над кривыми масштабирования днем ​​и тусующийся по выходным, давая ребяческие советы по поводу ИИ и лабораторной-политики-на-день.

За исключением того, что ставки будут слишком реальны.

Увидимся в пустыне, друзья.

Следующий пост в серии:
V. Прощальные мысли

Встреча учёных-атомщиков в четвёртую годовщину первой управляемой реакции деления ядра в Чикагском университете.

  1. Обратите внимание, что хотя частные компании помогают разрабатывать компоненты для ядерного оружия, им никогда не разрешается обладать завершенным и собранным ядерным оружием. Для сравнения, основная версия «правительственного проекта AGI», которую я здесь предлагаю, беспрецедентно приватизирована для эталонного класса ОМУ.
  2. Конгресс — даже вице-президент! — не знал о Манхэттенском проекте. Вероятно, нам не следует повторять это здесь; я бы даже предложил, чтобы ключевые должностные лица Проекта требовали утверждения Сенатом.
  3. На этом этапе даже не потребуется сотрудничество со стороны сотрудников лаборатории ИИ, поскольку к этому моменту они уже в основном будут автоматизированы.
  4. И как однажды сказал Сэм Альтман, с каждым годом, когда мы приближаемся к ИИОН, каждый получает +10 безумных очков.
  5. На самом деле, то, что правительство имело самые большие пушки, было огромным цивилизационным достижением ! Вместо средневековых сражений всех против всех, мы бы улаживали разногласия через суды, плюралистические институты и так далее.
  6. Или, возможно, вы скажете, просто откройте исходный код всего. Проблема с простым открытием исходного кода всего в том, что это не счастливый мир тысячи цветов, цветущих в США, а мир, в котором КПК имеет свободный доступ к разработанному в США суперинтеллекту и может превзойти его (и применять меньше осторожности/регулирования) и захватить мир. И другая проблема, конечно, это распространение супер-ОМП среди всех государств-изгоев и террористических групп в мире. Я не думаю, что это закончится хорошо. Это немного похоже на то, как полное отсутствие правительства скорее приведет к тирании (или разрушению), чем к свободе.В любом случае, люди переоценивают важность открытого исходного кода по мере приближения к AGI. Учитывая, что стоимость кластера растет до сотен миллиардов, а ключевые алгоритмические секреты теперь являются собственностью, а не публикуются, как это было пару лет назад, то AGI будут создавать 2-3 или около того ведущих игрока, а не счастливое сообщество децентрализованных кодеров.Я думаю, что другой вариант открытого исходного кода продолжит играть важную роль: модели, которые отстают на пару лет от открытого исходного кода, помогая широко распространять преимущества технологии.
  7. Моим братьям по Progress Studies: вам стоит подумать об этом, это будет кульминацией вашего интеллектуального проекта! Вы тратите все это время на изучение американских правительственных исследовательских институтов, их упадка за последние полвека и того, что нужно, чтобы снова сделать их эффективными. Скажите мне: как мы сделаем Проект эффективным?

 

V. Прощальные мысли

А что если мы правы?


«Я до сих пор помню весну 1941 года. Тогда я понял, что ядерная бомба не только возможна — она неизбежна. Рано или поздно эти идеи не могли быть чем-то особенным. Все вскоре задумаются о них, и какая-нибудь страна воплотит их в жизнь. […]

И не с кем было об этом поговорить, у меня было много бессонных ночей. Но я понял, насколько это может быть очень-очень серьезно. И мне пришлось тогда начать принимать снотворное. Это было единственное средство, с тех пор я не прекращал его принимать. Прошло 28 лет, и я не думаю, что я пропустил хотя бы одну ночь за все эти 28 лет».

Джеймс Чедвик (лауреат Нобелевской премии по физике и автор доклада британского правительства 1941 года о неизбежности создания атомной бомбы, который в конечном итоге подтолкнул Манхэттенский проект к действию)

До конца десятилетия мы построим сверхразум. Именно об этом и была большая часть этой серии. Для большинства людей, с которыми я общаюсь в SF, экран становится черным. Но следующее десятилетие — 2030-е — будет по крайней мере столь же насыщенным событиями. К его концу мир полностью, неузнаваемо изменится. Будет создан новый мировой порядок. Но, увы, это история для другого раза.

Мы должны подойти к концу, на данный момент. Позвольте мне сделать несколько заключительных замечаний.

Реализм ИИ

Все это требует размышлений, и многие не могут. «Глубокое обучение упирается в стену!» — провозглашают они каждый год. Это просто очередной технологический бум, уверенно говорят эксперты. Но даже среди тех, кто находится в эпицентре Сан-Франциско, дискурс поляризовался между двумя принципиально несерьезными призывами к объединению.

С одной стороны, есть обреченные. Они были одержимы ИИОН в течение многих лет; я отдаю им должное за их прозорливость. Но их мышление стало окостенелым, оторванным от эмпирических реалий глубокого обучения, их предложения наивны и неработоспособны, и они не в состоянии справиться с вполне реальной авторитарной угрозой. Бешеные заявления о 99% вероятности гибели, призывы на неопределенный срок приостановить ИИ — это явно не тот путь.

На другом конце находятся e/accs. В узком смысле, у них есть несколько хороших моментов: прогресс ИИ должен продолжаться. Но за их поверхностным дерьмопостингом в Twitter скрывается обман; дилетанты, которые просто хотят построить свои стартапы-обертки, а не смотреть в лицо ИИ. Они заявляют, что являются ярыми защитниками американской свободы, но не могут устоять перед песней сирен о деньгах сомнительных диктаторов. По правде говоря, они настоящие стагнаторы. В своей попытке отрицать риски они отрицают ИИ; по сути, все, что мы получим, — это крутые чат-боты, которые, конечно, не опасны. (Это немного разочаровывающий акселерационизм в моей книге.)

Но, как я вижу, самые умные люди в этой области сошлись на другой точке зрения, на третьем пути, который я назову AGI-реализмом. Основные принципы просты:

  1. Сверхразум — это вопрос национальной безопасности . Мы быстро создаем машины, которые умнее самых умных людей. Это не очередной крутой бум Кремниевой долины; это не какое-то случайное сообщество кодеров, пишущих невинный пакет программного обеспечения с открытым исходным кодом; это не веселье и игры. Сверхразум будет диким ; это будет самое мощное оружие, которое когда-либо создавало человечество. И для любого из нас, кто в этом участвует, это будет самое важное, что мы когда-либо сделаем.
  2. Америка должна лидировать . Факел свободы не переживет, если Си первым получит AGI. (И, реалистично, американское лидерство также является единственным путем к безопасному AGI.) Это означает, что мы не можем просто «остановиться»; это означает, что нам нужно быстро нарастить производство электроэнергии в США, чтобы построить кластеры AGI в США. Но это также означает, что любительская защита стартапов, поставляющих ядерные секреты КПК, больше не справится, и это означает, что основная инфраструктура AGI должна контролироваться Америкой, а не каким-то диктатором на Ближнем Востоке. Американские лаборатории ИИ должны поставить национальные интересы на первое место.
  3. Нам нужно не облажаться. Признание мощи сверхразума также означает признание его опасности. Существуют вполне реальные риски безопасности; вполне реальные риски, что все пойдет наперекосяк — будь то из-за того, что человечество использует разрушительную силу, созданную для нашего взаимного уничтожения, или потому, что, да, инопланетный вид, которого мы призываем, — это тот, который мы пока не можем полностью контролировать. Это управляемо — но импровизация не поможет. Чтобы справиться с этими опасностями, хорошим людям потребуется привнести уровень серьезности, который еще не был предложен.

По мере усиления ускорения я ожидаю, что дискурс станет только более резким. Но моя самая большая надежда в том, что найдутся те, кто почувствует тяжесть того, что грядет, и воспримет это как торжественный призыв к долгу.

А что если мы правы?

В этот момент вы можете подумать, что я и все остальные SF-шники совсем сумасшедшие. Но задумайтесь на мгновение: а что, если они правы? Это люди, которые изобрели и создали эту технологию; они думают, что AGI будет разработан в этом десятилетии; и, хотя существует довольно широкий спектр, многие из них очень серьезно относятся к возможности того, что путь к сверхразуму будет развиваться так, как я описал в этой серии.

Почти наверняка я неправильно понял важные части истории; если реальность окажется хоть немного близкой к такому безумию, погрешности будут очень большими. Более того, как я сказал в начале, я думаю, что существует широкий спектр возможностей. Но я думаю, что важно быть конкретным. И в этой серии я изложил то, что я в настоящее время считаю единственным наиболее вероятным сценарием на оставшуюся часть десятилетия — на оставшуюся часть этого десятилетия.

Потому что — это начинает казаться реальным, очень реальным. Несколько лет назад, по крайней мере для меня, я воспринимал эти идеи всерьез — но они были абстрактными, запертыми в моделях и оценках вероятности. Теперь это кажется крайне интуитивным. Я могу это увидеть . Я могу увидеть, как будет построен AGI. Речь больше не идет об оценках размера человеческого мозга, гипотезах и теоретических экстраполяциях и всем таком — я могу в основном сказать вам, на каком кластере AGI будет обучаться и когда он будет построен, грубое сочетание алгоритмов, которые мы будем использовать, нерешенные проблемы и путь к их решению, список людей, которые будут иметь значение. Я могу это увидеть . Это крайне интуитивный. Конечно, вложиться в долговую позицию Nvidia в начале 2023 года было здорово и все такое, но бремя истории тяжело. Я бы этого не выбрал.

Но самое страшное осознание заключается в том, что нет команды профессионалов, которая могла бы с этим справиться . В детстве у вас был этот восторженный взгляд на мир, что когда все становится реальностью, есть героические ученые, сверхкомпетентные военные, спокойные лидеры, которые находятся в деле, которые спасут положение. Это не так. Мир невероятно мал; когда фасад спадает, обычно за кулисами остаются всего несколько человек, которые являются живыми игроками, которые отчаянно пытаются не допустить, чтобы все развалилось.

Прямо сейчас, возможно, есть несколько сотен людей в мире, которые понимают, что нас вот-вот поразит, которые понимают, насколько безумными станут вещи, которые обладают ситуационной осведомленностью. Я, вероятно, лично знаю или нахожусь на расстоянии одной степени от всех, кто мог бы правдоподобно управлять Проектом. Несколько людей за кулисами, которые отчаянно пытаются не допустить развала, — это вы, ваши приятели и их приятели. Вот и все. Вот и все.

Когда-нибудь это выйдет из-под нашего контроля. Но сейчас, по крайней мере в течение следующих нескольких лет середины игры, судьба мира зависит от этих людей.

Победит ли свободный мир?

Укротим ли мы сверхразум или он укротит нас?

Избежит ли человечество еще раз самоуничтожения?

Ставки не меньше.

Это великие и достойные люди. Но они всего лишь люди. Скоро миром будут управлять ИИ, но нас ждет последнее родео. Пусть их последнее управление принесет честь человечеству.

 

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.