Это не такой уж простой вопрос.
Если вам нужны доказательства того, что хайп вокруг искусственного интеллекта выходит из-под контроля, просто взгляните на Маска.
Он заявлял, что FSD (полностью автономное вождение) вскоре сделает владение автомобилями бессмысленным, хотя после десятилетия разработки эта система всё ещё ведёт себя как близорукий двенадцатилетний подросток.
Совсем недавно он также сказал, что робот Tesla Optimus, который пока что лишь шаркает по идеально ровной поверхности так, словно испугался и его дёргают за ниточки, как диснеевского аниматроника 90-х годов, скоро будет приносить 80% выручки Tesla.
И, каким-то образом, несмотря на эти абсолютно нереалистичные и, мягко говоря, идиотские заявления, аналитики и инвесторы не называют Маска клоуном, а продолжают вкачивать деньги в его сомнительные проекты.
Неудивительно, что в СМИ на этой неделе активно обсуждают, что пузырь вокруг ИИ вот-вот лопнет. Но при этом из разговора выпадают ключевые моменты.
Ограниченность технологий ИИ
Во-первых, мы уже знаем, что ИИ — технология с серьёзными ограничениями, но индустрия делает вид, что это не так.
Например, граница эффективных вычислений известна уже несколько лет. Она показывает, что математика, лежащая в основе ИИ, выходит на стадию убывающей отдачи: генеративные модели уже достигли предела возможностей, и даже экспоненциальное увеличение их размеров не даст значительных улучшений. Это подтверждают ChatGPT-4 и 5: несмотря на то, что OpenAI значительно увеличила размер моделей и время обучения, улучшения оказались минимальными.
Существует также гипотеза Флориди, согласно которой математика, на которой основан ИИ, предполагает: система может обладать либо широким охватом, но низкой надёжностью, либо узким охватом, но высокой точностью. И, что принципиально, невозможно совместить и то, и другое. Это означает, что модели вроде LLM или Tesla FSD, претендующие на роль универсального интеллекта, по определению ненадёжны, так как их охват слишком велик. А вот в узко ограниченных задачах ИИ действительно может быть полезен и устойчив.
Практика применения: от провалов к разочарованиям
Эта неспособность работать надёжно в широких задачах хорошо видна в реальных проектах.
Все эти данные показывают очевидное: ИИ — крайне ограниченная технология, способная приносить пользу лишь в узких и, чаще всего, скучных областях.
Несоответствие обещаний и реальности
Тем не менее, компании вроде OpenAI обещают скорое появление «суперинтеллекта» и полную перестройку мировой экономики, где сотни миллионов людей лишатся работы. Эти заявления привлекли сотни миллиардов инвестиций в генеративные стартапы. Но это далеко от реальности.
И здесь возникает главная проблема: компании в сфере генеративного ИИ очень далеки от прибыльности.
Финансовая катастрофа
Возьмём OpenAI. Несмотря на самые высокие доходы среди ИИ-компаний, она всё равно теряет огромные деньги на каждом тарифе за $200 в месяц. Построение и поддержка их моделей слишком дороги. Даже более эффективные модели, вроде DeepSeek, не сделали бы их бизнес прибыльным.
Аналитики прогнозируют, что в 2026 году убытки OpenAI превысят $14 млрд — это больше, чем у многих банков, рухнувших в 2008-м. По собственным прогнозам компании, к 2029 году убытки могут составить сотни миллиардов долларов.
Даже дата-центры, инфраструктура ИИ, нерентабельны. Хэррис Купперман из Praetorian Capital отметил: новые дата-центры будут ежегодно обесцениваться на $40 млрд при выручке всего $15–20 млрд. А если учесть расходы на энергию, воду, сбор и подготовку данных, тестирование ИИ, то чтобы выйти в ноль, доходы нужно увеличить в десять раз.
Чтобы тариф OpenAI окупался, его нужно продавать не за $200, а за $2 000 в месяц. Об этом свидетельствует и утечка внутреннего меморандума компании, где рассматривалась именно такая цена.
Начало охлаждения рынка
Неудивительно, что после провала ChatGPT-5 и перестройки AI-подразделения в Meta рынок начал остывать.
Многие видят в ситуации прямую аналогию с дотком-пузырём 90-х. Тогда интернет казался революцией, и инвесторы заливали деньгами любые онлайн-компании, даже бесполезные. Стоимость фирм взлетела до небес, образовав пузырь, который вскоре лопнул. С ИИ происходит то же самое.
Разница в источнике денег.
Деньги и нефть
Дотком-пузырь подпитывался американскими деньгами и долгами. Когда подняли ставки и стало ясно, что прибыльности не будет, инвесторы массово начали распродажу, что и обрушило рынок.
А пузырь вокруг ИИ финансируется «нефтяными деньгами» — в первую очередь суверенным фондом Саудовской Аравии, который инвестирует нефтяные прибыли. Эти деньги вливаются в OpenAI, Microsoft, Softbank и далее — внутри этого замкнутого круга инвестиций. Поэтому высокие ставки не влияют на поток капитала так, как в 2000 году.
К слову, именно поэтому колоссальное энергопотребление ИИ — не ошибка, а особенность. Инвесторы сознательно повышают спрос на энергию, чтобы подорвать планы по «углеродной нейтральности» и сохранить зависимость мира от нефти.
Лопнет ли пузырь?
Значит, пузырь, скорее всего, будет расти дальше, прежде чем лопнет.
Некоторые аналитики считают: если спрос на ИИ сохранится, краха можно избежать. Но всё чаще пилотные проекты проваливаются, исследования показывают вред ИИ для продуктивности, а цены на услуги растут. Даже при продолжении нефтяных вливаний это может спровоцировать массовую распродажу.
Вопрос не в том, лопнет ли пузырь, а в том — когда.
И чем дольше это будет откладываться, тем сильнее последствия: финансовые институты, пенсионные фонды и вся экономика окажутся ещё более вовлечёнными, и удар от обвала станет разрушительнее.
Заключение
Так лопнет ли пузырь вокруг ИИ?
Чёрт возьми, я очень надеюсь, что да!