Осенью 2023 года Илья Суцкевер, главный научный сотрудник OpenAI, отправил секретные записки троим своим коллегам из совета директоров организации. На протяжении недель они вели скрытые обсуждения о том, пригодны ли Сэм Альтман, генеральный директор OpenAI, и Грег Брокман, его первый заместитель, управлять компанией. Суцкевер когда-то считал обоих мужчин друзьями. В 2019 году он провел свадебную церемонию Брокмана в офисах OpenAI, которая включала кольценоса в виде робкой руки. Но когда он пришел к убеждению, что компания приближается к своей долгосрочной цели — создание искусственного интеллекта, который мог бы соперничать или превзойти когнитивные способности человека, — его сомнения в отношении Альтмана усилились. Как Суцкевер сказал другому члену совета в то время: «Я не думаю, что Сэм — тот человек, который должен нажимать на кнопку».
По просьбе своих коллег по совету Суцкевер работал с единомышленниками, чтобы собрать примерно семьдесят страниц сообщений из Slack и документов отдела кадров с поясняющим текстом. Материал включал фотографии, сделанные на мобильный телефон, видимо, чтобы избежать обнаружения на корпоративных устройствах. Он отправил окончательные записки другим членам совета как исчезающие сообщения, чтобы гарантировать, что никто больше их не увидит. «Он был в ужасе», — вспоминал один из членов совета, получивших их. Записки, которые мы просмотрели, ранее не раскрывались в полном объеме. Они утверждают, что Альтман ложно представлял факты руководителям и членам совета, а также вводил их в заблуждение относительно внутренних протоколов безопасности. Одна из записок об Альтмане начинается со списка под заголовком «Сэм демонстрирует постоянный паттерн…» Первый пункт: «Ложь».
Многие технологические компании выпускают расплывчатые заявления об улучшении мира, а затем занимаются максимизацией доходов. Но основная посылка OpenAI заключалась в том, что она должна быть иной. Основатели, включившие Альтмана, Суцкевера, Брокмана и Илона Маска, утверждали, что искусственный интеллект может быть самым мощным и потенциально опасным изобретением в истории человечества, и что, возможно, учитывая экзистенциальный риск, потребуется необычная корпоративная структура. Фирма была создана как некоммерческая организация, чей совет обязан приоритизировать безопасность человечества над успехом компании или даже над ее выживанием. Генеральный директор должен был быть человеком необычайной честности. По словам Суцкевера: «Любой человек, работающий над созданием этой технологии, изменяющей цивилизацию, несет тяжелое бремя и берет на себя беспрецедентную ответственность». Но «люди, которые оказываются в таких должностях, часто это люди определенного типа — интересующиеся властью, политики, те, кому это нравится». В одной из записок он казался обеспокоенным вручением технологии кому-либо, кто «просто говорит людям то, что они хотят услышать». Если генеральный директор OpenAI окажется ненадежным, совет, состоящий из шести членов, был наделен правом его уволить. Некоторые члены, включая Хелен Тонер, эксперта по политике в области ИИ, и Таша МакКауллей, предпринимательницу, получили записки как подтверждение того, во что они уже пришли верить: роль Альтмана доверила ему будущее человечества, но ему нельзя было доверять.
Альтман находился в Лас-Вегасе, на гонке Формулы-1, когда Суцкевер пригласил его на видеозвонок с советом, а затем прочитал короткое заявление, объясняющее, что он больше не работник OpenAI. Совет, следуя правовым советам, выпустил публичное сообщение, в котором говорилось только, что Альтман был уволен, потому что «не был последовательно откровенен в своих коммуникациях». Многие инвесторы и руководители OpenAI были шокированы. Microsoft, инвестировавшая около тринадцати миллиардов долларов в OpenAI, узнала о плане увольнения Альтмана всего за несколько мгновений до того, как это произойдет. «Я был очень потрясен», — позже сказал Сатья Наделла, генеральный директор Microsoft. «Я не мог ничего получить ни от кого». Он разговаривал с соучредителем LinkedIn Рейдом Хоффманом, инвестором OpenAI и членом совета Microsoft, который начал звонить, чтобы определить, совершил ли Альтман явное правонарушение. «Я не знал, что, черт возьми, происходит», — сказал нам Хоффман. «Мы искали хищение в особо крупном размере или сексуальные домогательства, и я просто ничего не нашел».
Другие деловые партнеры были так же застигнуты врасплох. Когда Альтман позвонил инвестору Рону Конвею, чтобы сказать, что его уволили, Конвей поднес телефон к представительнице Нэнси Пелоси, с которой он обедал. «Тебе лучше отсюда очень быстро уехать», — сказала она Конвею. OpenAI была на грани закрытия крупного инвестирования от Thrive, венчурной фирмы, основанной Джошем Кушнером, братом Джареда Кушнера, с которым Альтман был знаком годами. Сделка оценила бы OpenAI в восемьдесят шесть миллиардов долларов и позволила бы многим сотрудникам обналичить миллионы в акционерном капитале. Кушнер вышел из встречи с Риком Рубином, музыкальным продюсером, на пропущенный вызов от Альтмана. «Мы сразу же пошли в наступление», — позже сказал Кушнер.
В день увольнения Альтмана он полетел в свой двадцатисемимиллионный дом в Сан-Франциско с панорамным видом на залив и когда-то украшенный консольным бассейном бесконечности, и создал то, что он назвал «своего рода правительством в изгнании». Конвей, соучредитель Airbnb Брайан Чески и известный своей агрессивностью менеджер по кризисным коммуникациям Крис Лиэйн присоединились, иногда на часы в день, по видео и телефону. Некоторые члены руководящей команды Альтмана разбили лагерь в коридорах дома. Адвокаты расположились в домашнем офисе рядом с его спальней. Во время приступов бессонницы Альтман будет бродить мимо них в пижаме. Когда мы недавно разговаривали с Альтманом, он описал последствия своего увольнения как «просто эту странную фугу».
С молчанием совета советники Альтмана построили публичное дело для его возвращения. Лиэйн настаивал на том, что увольнение было переворотом, организованным мятежными «эффективными альтруистами» — сторонниками системы убеждений, сосредоточенной на максимизации благополучия человечества, которые пришли к выводу, что ИИ представляет экзистенциальную угрозу. (Хоффман сказал Наделле, что увольнение может быть вызвано «сумасшествием эффективного альтруизма».) Лиэйн — чей известный девиз, вслед за Майком Тайсоном, звучит как «У каждого есть план боя, пока ты их не ударишь в рот» — призвал Альтмана вести агрессивную кампанию в социальных сетях. Чески оставался в контакте с технологической журналисткой Карой Свишер, передавая критику совета.
По мере того как Альтман становился все более уверенным в своей позиции, начало проявляться более сложное видение. На вопрос о своей амбициозности, он часто говорил — искренне, казалось — о своем желании приносить пользу обществу через ИИ. Но его траектория показала что-то более противоречивое. За шесть месяцев до своего увольнения он начал занимать акции в компании стоимостью в миллиарды долларов. Альтман также увеличивал свое влияние за пределами OpenAI, советуя членам Конгресса по вопросам регулирования ИИ и встречаясь с лидерами по всему миру. Его влияние на политику распространялось настолько широко, что некоторые наблюдатели предполагали, что он позиционировал себя как архитектор будущего ИИ, а не просто его создатель.
Когда давление росло и сотрудники OpenAI подготовили письмо, поддерживающее Альтмана, его положение укрепилось. Более семисот сотрудников из более чем восьмисот подписали письмо, в котором угрожали уйти, если совет не подаст в отставку. Он был восстановлен в должности в течение пяти дней. Суцкевер, который поддержал его увольнение, вскоре покинул компанию. Теперь Альтман имел более полный контроль, и он начал переиначивать нарратив. Согласно его интерпретации, увольнение было результатом внутренних разногласий по поводу стратегии, а не личного поведения.
Альтман описывает свои меняющиеся обязательства как побочный продукт своей способности адаптироваться к меняющимся обстоятельствам — не коварный «долгий конверт», как утверждают Маск и другие, но постепенное, добросовестное развитие. «Я думаю, что некоторые люди хотят», — сказал нам он, лидера, который «будет абсолютно уверен в том, что он думает, и будет придерживаться этого, и это не будет меняться. А мы находимся в области, где вещи меняются крайне быстро». Он защищал некоторые из своих действий как практику «нормальной конкурентной деятельности». Несколько инвесторов, с которыми мы разговаривали, описали противников Альтмана как наивных, ожидающих чего-то другого. «Есть группа фаталистичных экстремистов, которые взяли таблетку безопасности почти на уровне научной фантастики», — сказал нам Конвей, инвестор. «Его миссия измеряется числами. И когда вы смотрите на успех OpenAI, сложно спорить с цифрами».
Но другие в Кремниевой долине думают, что поведение Альтмана создало неприемлемую управленческую дисфункцию. «Дело больше в практической неспособности управлять компанией», — сказал член совета. И некоторые по-прежнему считают, что архитекторы ИИ должны оцениваться более строго, чем руководители других отраслей. Подавляющее большинство людей, с которыми мы разговаривали, согласились, что стандарты, по которым Альтман теперь просит оценивать его, — это не те, которые он первоначально предложил. Во время одного разговора мы спросили Альтмана, связано ли управление компанией ИИ с «повышенным требованием честности». Это должен был быть простой вопрос. До недавнего времени, когда его спрашивали в похожей формулировке, его ответ был четким, безусловным «да». Теперь он добавил: «Я думаю, что существует, вроде, множество бизнесов, которые имеют потенциально огромное влияние, хорошее и плохое, на общество». (Позже он отправил дополнительное заявление: «Да, это требует повышенного уровня честности, и я ощущаю вес ответственности каждый день».)
Из всех обещаний, данных при основании OpenAI, возможно, наиболее центральным было обещание привнести ИИ в существование безопасно. Но такие опасения теперь часто высмеиваются в Кремниевой долине и в Вашингтоне. В прошлом году Дж. Д. Вэнс, бывший венчурный капиталист, ныне вице-президент, обратился к конференции в Париже под названием «Саммит действий по ИИ» (ранее это называлось «Саммит безопасности ИИ»). «Будущее ИИ не будет завоевано беспокойством о безопасности», — сказал он. На Давосе в этом году Дэвид Сакс, венчурный капиталист, служивший в качестве «царя» Белого дома по ИИ и крипто, отклонил опасения по поводу безопасности как «самоцель» которая может стоить Америке гонки ИИ. Альтман теперь называет дерегуляторный подход Трампа «очень освежающим изменением».
OpenAI закрыла многие команды, сосредоточенные на безопасности. Примерно в то время, когда была распущена команда суперрегулирования, ее лидеры, Суцкевер и Лейке, подали в отставку. (Суцкевер был соучредителем компании Safe Superintelligence.) На X Лейке написал: «Культура и процессы безопасности отошли на задний план перед блестящими продуктами». Вскоре после этого команда подготовки к ОИИ, задачей которой было подготовить общество к шоку продвинутого ИИ, также была распущена. Когда компании было предложено на своей последней форме раскрытия информации МГН кратко описать свою «наиболее значимую деятельность», концепция безопасности, присутствовавшая в ответах на такие вопросы на предыдущих формах, не была указана. (OpenAI сказала, что ее «миссия не изменилась» и добавила: «Мы продолжаем инвестировать и развивать нашу работу по безопасности и будем продолжать вносить организационные изменения».) Институт будущей жизни, аналитический центр, принципы безопасности которого когда-то одобрял Альтман, выставляет каждой крупной компании ИИ оценку по «экзистенциальной безопасности»; в последнем табеле успеваемости OpenAI получила оценку F. Справедливости ради, то же самое получила каждая другая крупная компания, кроме Anthropic, которая получила D, и Google DeepMind, которая получила D-.
«Мои вибрации не совпадают со многим из традиционного материала по безопасности ИИ», — сказал Альтман. Он настаивал на том, что продолжает приоритизировать эти вопросы, но когда его попросили уточнить, он был расплывчат: «Мы все еще будем запускать проекты безопасности, или по крайней мере проекты, смежные с безопасностью». Когда мы попросили взять интервью у исследователей в компании, работающих над экзистенциальной безопасностью — в том роде вопросов, которые, как когда-то выразился Альтман, могли бы означать «отключение света для всех нас» — представитель OpenAI казался озадачен. «Что вы имеете в виду под ‘экзистенциальной безопасностью’?» — ответил он. «Это не, вроде, вещь».
Пророков гибели ИИ отодвинули на периферию, но некоторые из их опасений кажутся менее фантастичными с каждый проходящим месяцем. В 2020 году, согласно докладу ООН, беспилотник с ИИ был использован в гражданской войне в Ливии для открытия смертоносных боеприпасов, возможно, без контроля человека. С тех пор ИИ только стал более центральным в военных операциях по всему миру, включая, по сообщениям, текущую кампанию США в Иране. В 2022 году исследователи фармацевтической компании проверили, может ли модель обнаружения лекарств быть использована для поиска новых токсинов; в течение нескольких часов она предложила сорок тысяч смертельных химических боевых агентов. И многие более обыденные вреды уже происходят. Мы все больше полагаемся на ИИ, чтобы помочь нам писать, думать и ориентироваться в мире, ускоряя то, что эксперты называют «человеческой слабостью»; вездесущность ИИ-мусора облегчает жизнь мошенников и затрудняет жизнь людей, которые просто хотят знать, что реально. ИИ-«агенты» начинают действовать независимо, с минимальным человеческим надзором или без него. За несколько дней до праймериз демократов в Нью-Гэмпшире в 2024 году тысячи избирателей получили робовызовы с синтезированным ИИ дипфейком голоса Джо Байдена, сообщающим им сохранить свои голоса на ноябрь и остаться дома — акт подавления голосования, требующий практически никакого технического мастерства. OpenAI теперь сталкивается с семью исками о неправомерной смерти, в которых утверждается, что ChatGPT побудил несколько самоубийств и убийство. Логи чата в деле об убийстве показывают, что он поощрял паранойю человека о том, что его восьмидесятитрехлетняя мать наблюдала и пыталась его отравить. Вскоре после этого он смертельно избил и задушил ее и заколол себя. (OpenAI оспаривает иски и говорит, что продолжает улучшать меры безопасности своей модели.)
По мере того как OpenAI готовится к потенциальному IPO, Альтман столкнулся с вопросами не только о влиянии ИИ на экономику — он вскоре может вызвать серьезные нарушения на рынке труда, возможно, ликвидируя миллионы рабочих мест — но и о собственных финансах компании. Эрик Риз, эксперт по управлению стартапами, раскритиковал «круговые сделки» в индустрии — например, сделки OpenAI с Nvidia и другими производителями чипов — и сказал, что в другие эпохи некоторые методы бухгалтерии компании были бы рассмотрены как «граничащие с мошенничеством». Член совета сказал нам: «Компания создала финансовый рычаг способом, который прямо сейчас опасен и пугает». (OpenAI оспаривает это.)
В феврале мы снова разговаривали с Альтманом. Он был в тускло-зеленом свитере и джинсах и сидел перед фотографией луномобиля НАСА. Он подложил одну ногу под себя, затем повесил ее на подлокотник кресла. В прошлом, сказал он, его главным недостатком как менеджера была его готовность избегать конфликтов. «Теперь я очень рад быстро увольнять людей», — сказал нам он. «Мне нравится просто говорить: ‘Мы будем делать ставку в этом направлении’». Любые сотрудники, которым не нравились его выборы, должны были «уйти».
Он более оптимистичен, чем когда-либо, в отношении будущего. «Мое определение победы состоит в том, что люди сумасшедше поднимут уровень — и безумное научно-фантастическое будущее сбудется для всех нас», — сказал он. «Я очень амбициозен в отношении, вроде, моей надежды на человечество и того, что я ожидаю от всех нас достичь. Я, странным образом, имею очень мало личных амбиций». Иногда он казался ловящим себя. «Никто не верит, что ты делаешь это просто потому, что это интересно», — сказал он. «Ты делаешь это ради власти или чего-то еще».
Даже люди, близкие к Альтману, с трудом могут понять, где его «надежда на человечество» заканчивается и его амбиция начинается. Его величайшая сила всегда была его способность убедить разрозненные группы, что то, что он хочет, и то, что им нужно, — это одно и то же. Он воспользовался уникальным историческим моментом, когда общественность была осторожна в отношении шумихи технологической индустрии и большинство исследователей, способных построить ОИИ, были террифицированы идеей его создания. Альтман ответил ходом, который не совершенствовал никакой другой питчман: он использовал апокалиптическую риторику, чтобы объяснить, как ОИИ может нас всех уничтожить — и почему, следовательно, он должен быть тем, кто его построит. Возможно, это был преднамеренный шедевр. Возможно, он метался в поисках преимущества. В любом случае, это сработало.
Не все тенденции, которые делают чат-боты опасными, — это глюки; некоторые — побочные продукты того, как построены системы. Большие языковые модели обучаются, отчасти, на основе отзывов людей, а люди предпочитают согласованные ответы. Модели часто учатся льстить пользователям — склонность, известная как угодничество, — и иногда приоритизируют это над честностью. Модели также могут вымышлять вещи — склонность, известная как галлюцинация. Крупные лаборатории ИИ документировали эти проблемы, но иногда терпят их. По мере того как модели становились более сложными, некоторые галлюцинируют с более убедительными вымыслами. В 2023 году, вскоре после своего увольнения, Альтман утверждал, что допущение некоторых ложей может, несмотря на риски, дать преимущества. «Если вы просто сделаете наивный подход и скажете ‘Никогда не говоря ничего, в котором вы не уверены на сто процентов’, вы можете заставить модель это делать», — сказал он. «Но это не будет иметь того волшебства, которое людям нравится».