Получив доверие от Кремниевой долины, Safe Superintelligence (SSI), компания ИИ,( Соучредители Илья Суцкевер (ранее OpenAI), Дэниел Гросс (бывший Apple) и Дэниел Леви (бывший исследователь OpenAI) ) закрыла раунд финансирования на $2 млрд. Это событие увеличивает оценку компании более чем в шесть раз, с $5 млрд до $32 млрд, менее чем за год. Первый раунд финансирования SSI состоялся в сентябре 2024 года, когда она привлекла $1 млрд при оценке в $5 млрд.
Финансирование включает в себя сочетание акционерного капитала и партнерств: такие ведущие компании, как
Greenoaks Capital, выделят 500 миллионов долларов, а также дополнительную поддержку от таких крупных игроков, как Alphabet , NVIDIA , Andreessen Horowitz , Lightspeed Venture Partners и DST Global .
Примечательно, что Alphabet (материнская компания Google) не только является инвестором, но и заключила крупное инфраструктурное соглашение с SSI, предоставляя доступ к TPU (тензорным процессорам) Google Cloud — поскольку ранее Google зарезервировал эти чипы для внутреннего использования. Это партнерство позиционирует SSI для использования передового оборудования ИИ за пределами стандартных графических процессоров NVIDIA, которые доминируют более чем на 80% рынка чипов ИИ.
Финансирование будет использовано для быстрого масштабирования исследований и разработок SSI, расширения ее глобальных операций и углубления ее вычислительных ресурсов для разработки безопасных и мощных систем ИИ. Вместо того, чтобы продвигать коммерческие продукты, SSI намеренно направляет капитал в долгосрочные инновации, инвестируя в инфраструктуру суперкомпьютеров, исследования по выравниванию безопасности и высококлассную команду исследователей ИИ в своих центрах в США и Израиле.
Общий объем финансирования SSI в настоящее время составляет 3 миллиарда долларов, что делает его одним из самых высокооплачиваемых стартапов в области ИИ в мире еще до выпуска какого-либо продукта или публичной дорожной карты.
Невероятно, но в настоящее время это не кажется ни чрезвычайно крупным инвестиционным раундом, ни безумной оценкой.
Тем не менее:
Следовательно, эти цифры не являются чем-то из ряда вон выходящим. Однако закулисье этой сделки заключается в том, что эта компания не только имеет низкие доходы, как некоторые из вышеупомянутых компаний, у нее буквально нет ни доходов, ни продукта . Вообще ничего, кроме нескольких заявлений Ильи построить «безопасный сверхинтеллект» как свой единственный продукт, направив все ресурсы и исследования на эту цель. В настоящее время веб-сайт компании служит в качестве плейсхолдера, подчеркивая эту целенаправленную миссию! Что-то сомнительно, что дело в безопасности.
Это далеко не первый случай, когда венчурные капиталисты пытаются профинансировать «следующий OpenAI»:
Как и некоторые из вышеупомянутых стартапов, единственное, что есть у SSI, — это письмо из 246 слов на пустом веб-сайте .
Однако ни одна из вышеперечисленных компаний не приблизилась к цифрам SSI. Эти ребята бьют все инвестиционные рекорды, буквально собирая деньги по оценкам, сопоставимым с гигантами отрасли, но не имея продукта, который бы это оправдывал.
Что происходит?
Что ж, три вещи делают случай SSI особенно уникальным: его происхождение , его видение и его стратегическое значение для Израиля.
Илья Суцкевер, по всем параметрам, может сравниться, пожалуй, только с Алеком Рэдфордом из Thinking Machine, создателем Generative Pretrained Transformer , или сокращенно GPT, моделей, лежащих в основе ChatGPT (его творения), Gemini, Claude, Grok, Command-A, Llama, DeepSeek, Mistral и т. д.
Все они основаны на одной и той же модели, которую впервые применил Суцкевер; все они буквально опираются на видение этого человека.
Да, базовая архитектура, Transformer, была создана Google, но Google запустила ее как архитектуру для машинного перевода. Именно Илья Суцкевер увидел потенциал этой архитектуры стать основой современного ИИ.
Двое других соучредителей, Дэниел Гросс и Дэниел Леви, тоже не совсем ноунеймы.
Первый родился в Иерусалиме в 1991 году, является израильско-американским предпринимателем и инвестором. Он был соучредителем Cue, поисковой системы, купленной Apple в 2013 году, где он руководил инициативами в области ИИ и поиска до 2017 года. Затем Гросс стал партнером в Y Combinator, инициировав ее программу ИИ, а позже стал соучредителем Pioneer, удаленного стартап-акселератора.
Как инвестор, он поддержал множество стартапов, включая Instacart, Coinbase, GitHub, Airtable, Figma и Perplexity AI. Гросс известен своей влиятельной ролью в секторе ИИ и был назван одним из «Самых влиятельных людей в ИИ» по версии Time в 2023 году.
С другой стороны, Дэниел Леви — исследователь и инвестор в области искусственного интеллекта, ранее работавший в OpenAI, где он специализировался на обучении крупномасштабных моделей искусственного интеллекта.
Впечатляющий послужной список, но ничто по сравнению с Ильей. Однако нужно больше, как обещание чего-то совершенно нового .
И вот тут вступает в дело фактор Ильи, поскольку он считается крестным отцом неконтролируемого обучения (предварительное обучение).
Причина, по которой GPT, подобные тем, которые так важны в нашей жизни сегодня, оказались успешными, заключается в том, что их базовая архитектура соответствовала двум важнейшим ограничениям:
Что это значит? Искусственному интеллекту, точнее нейронным сетям (основа всего современного искусственного интеллекта — Трансформер — это нейронная сеть), для обучения нужны две вещи: большой объем данных и обучающий сигнал .
Другими словами, их обучающие данные должны быть достаточно велики, и нужен способ проверки обучения, правильности ответов в качестве способа обучения.
Для первого требуется быстрое оборудование, например, GPU, которое может обрабатывать много данных одновременно. В противном случае мы бы застряли на обучении этих моделей навечно, поскольку в настоящее время мы говорим о наборах данных для обучения в диапазоне 60 триллионов токенов (Llama 4) или 45 триллионов слов — естественно, мы даем им не только текст; это просто справка, чтобы оценить размер этих наборов данных для обучения.
Т.е. требуются данные, которые не требуют проверки ответов людьми. Представьте себе, сколько людей нам понадобится для проверки ответов моделей для таких наборов данных; это невыполнимо.
Поскольку эти модели обучаются, предсказывая следующее слово, истина (правильное следующее слово) — это буквально следующее слово в обучающем наборе. Таким образом, нам не нужны люди для измерения производительности модели; сами данные служат в качестве контрольного сигнала (отсюда и термин «неконтролируемое обучение»).
Следовательно, по крайней мере, на протяжении последнего десятилетия единственным рецептом обучения передовых моделей ИИ было включение в эти модели огромных объемов данных и обучение этих моделей на их основе, косвенно извлекая базовые знания.
Но несколько месяцев назад Илья назвал конец этой эпохи, утверждая, что предварительная подготовка зашла в тупик, и даже сравнивая эти модели с «ископаемым топливом» ИИ. Это важно, поскольку это четко закладывает основу для презентации его компании инвесторам:
«Мы знаем другой способ добиться прогресса в области ИИ, поэтому инвестиции в нас — это инвестиции в правильном направлении».
Мы понятия не имеем, что они строят, но это не только очень амбициозно (выходит за рамки того, что их конкуренты считают своей миссией), но и, что существенно, отличается от того, что мы видели до сих пор.
То есть эта компания не занимается тем, чем занимаются такие компании, как OpenAI, а именно созданием печально известного искусственного интеллекта общего назначения , ИИ, который был бы способен взять на себя подавляющее большинство экономически значимых видов деятельности; эта команда пытается создать искусственный суперинтеллект, или ИСИ, ИИ, который во всем мире намного превосходит интеллектуальные возможности человека.
Короче говоря, мы должны понимать, что первая особенность этой компании — создание «следующей вещи следующей вещи», или так они говорят. И единственный способ, которым эта подача звучит отдаленно возможной, — это если она исходит из уст этого парня.
Но давайте будем реалистами: даже этого явно недостаточно, чтобы объяснить безумие этой оценки.
Если вы спросите любого эксперта о создании образцовой компании на данном этапе, когда ваши основные конкуренты имеют доход свыше 1 миллиарда долларов и сотни миллионов пользователей, они скажут вам, что вы сошли с ума.
Но не тогда, когда будущее стратегии страны в области ИИ зависит от вас.
В настоящее время наличие лидера в области ИИ стало вопросом национальной безопасности для многих стран.
Примеры Франции и Канады особенно уместны для понимания уникального положения SSI.
И Cohere, и Mistral серьезно отстали от других крупных игроков в этой области с точки зрения доходов. При нормальных обстоятельствах обе компании просто ждали бы приобретения каким-нибудь Hyperscaler или другой лабораторией ИИ, или у них просто закончились бы деньги.
Но этого не произошло. И не произойдет.
В частности, случаи Cohere и HuggingFace особенно пугающие, поскольку обе компании собрали серьезные деньги по безумным оценкам, которые можно объяснить только с этой точки зрения: их страны просто не позволят им упасть, поскольку обе компании считаются «стратегическими» для усилий своих стран в области ИИ, несмотря на их «абсурдные» оценки .
Но почему SSI — чемпион Израиля по искусственному интеллекту?
Хотя это не официальная классификация (как и ни одна другая, но это очевидно), мы можем сделать такой вывод на основе двух простых фактов:
Можно предположить, что это преувеличение, поскольку там есть офисы и других лабораторий ИИ, но ни одна из них не считается « выращенной в Израиле » соотечественниками, за исключением SSI (лаборатории AI21, вероятно, тоже подходят под это описание).
Таким образом, если вы признаете важность наличия в вашей стране мощной лаборатории ИИ, особенно той, которая пытается создать ИСИ, то совершенно очевидно, что в интересах страны обеспечить ваш успех .
Итак, учитывая все факты, имеет ли это вообще какой-либо смысл?
Не принимая во внимание влияние Израиль, трудно понять, почему кто-то мог бы инвестировать в эту компанию по такой оценке .
Как однажды сказал Роберт Кийосаки: «Нет плохих возможностей для бизнеса и инвестиций, но есть плохие предприниматели и инвесторы». Вы вполне могли бы инвестировать в хоумраннера (инвестирование в Илью Суцкевера было невероятно прибыльным для всех, кто это делал). Однако ваши инвестиции все равно могут быть плохими, если нет возможности получить от них прибыль.
Но когда страна поддерживает компанию, в которую вы инвестируете, риски, связанные с вашими инвестициями, значительно снижаются , поскольку вы можете быть уверены, что компания будет иметь:
С другой стороны, когда вас считают национальным чемпионом, вы можете оказаться в сложном положении в случае конфликта:
А пока нам остается только ждать, что нам предложит SSI.
Но, судя по оценке, это должно быть не хорошо, а совершенно необыкновенно.