Українська правда

Экономика искусственного интеллекта: где возникает прибыль

- 20 марта, 12:30

Искусственный интеллект за последние три года прошел путь от технологического эксперимента до отдельной экономической категории. Если в 2023 году AI воспринимали как очередной этап развития программного обеспечения, то уже в 2026-м он формирует отдельную прослойку глобальных расходов, сопоставимую по потенциалу с публичными облачными сервисами или цифровой рекламой на ранних этапах их становления.

В то же время нынешний этап существенно отличается от периода начального энтузиазма. Рынок больше не оценивает только скорость роста моделей или количество параметров. Главный вопрос сместился в плоскость экономики: насколько стабильно вычислительные мощности превращаются в выручку, маржинальность и свободный денежный поток.

AI как источник измеримого роста

Для инвесторов искусственный интеллект остается одной из немногих тем, где сочетаются структурный рост, измеряемое влияние на маржу и масштабное корпоративное внедрение. Фокус постепенно смещается от формальной "AI-экспозиции" к оценке реальной отдачи от инвестиций - ROI от внедрения.

По данным Morgan Stanley, которые отдельно выделяют 3600 глобальных компаний с прямой связью бизнеса с AI, просмотры прибылей у компаний, классифицированных как AI Adopters, с конца 2023 года растут примерно вдвое быстрее, чем в среднем по рынку. Кроме того, EBIT-маржа таких компаний в 2024-2025 годах расширилась более чем на 3%, что существенно превышает динамику глобальных индексов.

Динамика OpenAI является наглядным показателем масштаба изменений. В период с 2023 по 2025 год годовая выручка компании выросла примерно с 2 млрд долл. до 20 млрд долл. За то же время развернутая вычислительная мощность увеличилась почти в десять раз - с около 0,2 ГВт до почти 1,9 ГВт.

Почти линейная зависимость между ростом вычислительных мощностей и доходов редко наблюдается в инфраструктурных циклах. Во время телекоммуникационного бума начала 2000-х сначала строились сети, а их загрузка растягивалась на годы. В случае AI мы видим другую логику: спрос почти в реальном времени формирует потребность масштабировать инфраструктуру.

Дефицит мощностей и новая модель спроса

В то же время рынок ограничен объемом вычислительных ресурсов. Современные дата-центры, способные обслуживать передовые AI-нагрузки, составляют небольшую часть глобальной инфраструктуры. Доступ к передовым графическим процессорам (GPU) остается дефицитным ресурсом.

В отличие от предыдущих циклов, когда избыточные инвестиции создавали длительное давление на маржу, нынешний этап характеризуется структурным дефицитом мощностей. Это формирует более устойчивую основу для монетизации инфраструктурного уровня.

Фундаментальные изменения происходят не только в инфраструктуре, но и в самой структуре спроса. OpenAI и Anthropic сформировали новую ценовую категорию - около 200 долл. в месяц за доступ к frontier-моделям и расширенным возможностям.

Такая цена уже не воспринимается как премиальный SaaS. Она все больше рассматривается как стоимость цифрового труда. Если система способна экономить 10-20 часов квалифицированной работы в месяц, ее стоимость сравнивают не с подпиской на инструмент, а с частью заработной платы.

В мире насчитывается около миллиарда работников интеллектуального труда. Из них 300 миллионов принадлежат к более высокооплачиваемой категории, которая потенциально может платить около 200 долл. в месяц за инструменты повышения производительности.

Даже если только часть этой аудитории перейдет на такой уровень потребления, это сформирует рынок объемом около 720 млрд долл. ежегодно. И эта оценка не учитывает корпоративные лицензии и usage-based модели, поэтому скорее отражает нижнюю границу потенциального масштаба.

Особую роль в формировании нового уровня затрат играют автономные агентные системы. Появление решений вроде OpenClaw продемонстрировало качественный переход от взаимодействия с AI через интерфейс к работе с AI как с полноценной действующей системой. Такие агенты не ограничиваются ответами на запросы. Они работают непрерывно: исследуют, планируют, управляют задачами, пишут код, ведут коммуникацию и оптимизируют собственную работу.

В этом контексте AI начинает восприниматься не как инструмент, а как младший сотрудник. Экономическая модель меняется: готовность платить определяется объемом замещенного труда и созданной добавленной стоимостью.

Скорость распространения AI только усиливает этот эффект. В отличие от традиционных корпоративных технологий, внедрение не требует длительных закупочных процессов. Один пользователь может начать работу мгновенно, без согласования с IT-службой. Исторически подобная динамика наблюдалась во время распространения мобильных устройств и роста продуктовых SaaS-моделей.

Однако в случае AI этот процесс происходит быстрее и с более высоким средним доходом на пользователя. Индивидуальное использование формирует "теневое" внедрение внутри компаний, после чего руководство вынуждено формализовать стратегию через инструменты безопасности, управления доступом и compliance.

Корпоративная практика уже подтверждает этот сценарий. Claude Code распространяется в крупных организациях не как ограниченный эксперимент, а как инструмент ежедневной работы инженерных и кроссфункциональных команд. Руководство поощряет сотрудников использовать AI для прототипирования, анализа и автоматизации процессов. Это означает, что корпоративное внедрение формируется снизу вверх, а не через традиционные procurement-процессы.

Как AI зарабатывает: новая модель монетизации

Финансовая модель AI постепенно диверсифицируется. Помимо подписок и корпоративных контрактов, растет роль usage-based оплаты за токены. Чем глубже AI интегрируется в рабочие процессы и чем больше задач передается агентам, тем выше становится потребление вычислительных ресурсов.

Кроме того, тестируются рекламные форматы внутри AI-платформ с премиальной стоимостью контакта - около 60 долл. за тысячу показов. Высокий уровень намерения пользователя при взаимодействии с AI создает принципиально новый рекламный инвентарь по сравнению с традиционным поиском или социальными сетями. В результате формируется трехкомпонентная модель доходов: подписки, потребление вычислительных мощностей и реклама.

Если рассматривать экосистему AI по уровням, то на базовом находятся производители чипов и вычислительной инфраструктуры. Этот сегмент остается наиболее капиталоемким и цикличным. Выше расположены специализированные AI-облака, обеспечивающие доступ к GPU и обслуживающие как training-, так и inference-нагрузки. Далее - поставщики моделей, где конкуренция усиливается, а дифференциация постепенно смещается от абсолютной производительности к цене, доступности и интеграции в экосистемы.

В то же время наибольшая долгосрочная устойчивость, вероятно, будет формироваться в AI-native приложениях, которые контролируют рабочие процессы, данные и взаимодействие с конечным пользователем.

Инвестиционная карта AI и главный риск и риск, который несет в себе

С точки зрения инвестора важно понимать, что AI-экосистема уже четко поделилась на несколько уровней.

Инфраструктура/Возможные средства

Производители чипов, дата-центры, hyperscalers. Это наиболее капиталоемкий уровень, который получает выгоду первым, но остается циклическим. Речь идет о компаниях, выигрывающих от дефицита вычислительных мощностей и роста капитальных затрат на AI: Samsung Electronics, SK Hynix, Cisco Systems, Western Digital.

Здесь инвестиционная логика базируется на масштабировании инфраструктуры и долгосрочном спросе на GPU, серверные решения и облачные мощности.

AI Adopters с revenue-апсайдом

Это компании, где AI усиливает продукт и монетизацию - ритейл, финтех, маркетплейсы, health-tech. Ключевым активом становятся собственные данные (proprietary data) и способность удерживать pricing power. В таких бизнесах AI не только снижает расходы, но и непосредственно повышает доходность, улучшает пользовательский опыт и увеличивает lifetime value клиента.

Среди примеров - Microsoft (интеграция AI в корпоративные продукты и облачные сервисы), ServiceNow, Salesforce, Uber, Walmart, Intuitive Surgical, LSEG (London Stock Exchange Group).

AI Adopters с маржинальным эффектом (cost efficiency)

Это самая недооцененная группа. Около 75-90% ожидаемого эффекта от AI в ближайшие один-два года связано именно со снижением затрат, а не с ростом выручки. Банки, страховые компании, healthcare и корпоративные сервисы могут демонстрировать стабильное расширение маржи благодаря автоматизации и оптимизации процессов.

С точки зрения соотношения риска и доходности эта категория может быть наиболее привлекательной. По оценкам, до 80% краткосрочного эффекта AI приходится именно на сокращение расходов. Среди компаний, где AI уже влияет на операционную модель, - Bank of America, Citigroup, UnitedHealth, CVS Health, Experian.

Но фундаментальный риск сохраняется. Чтобы оправдать текущие рыночные оценки, рост вычислительных мощностей должен и в дальнейшем трансформироваться в стабильное повышение маржинальности. Если капитальные затраты начнут опережать способность генерировать денежный поток, рынок неизбежно пересмотрит оценки.

Нынешняя динамика выручки, готовности платить (willingness-to-pay) и скорости внедрения технологий свидетельствует о формировании новой самостоятельной категории расходов, а не о краткосрочном спекулятивном всплеске.

AI постепенно становится новой инфраструктурой труда. Если в течение ближайших пяти-семи лет расходы на персональные и корпоративные AI-инструменты приблизятся к сотням миллиардов или даже триллиону долларов ежегодно, нынешний этап будет рассматриваться как ранняя фаза формирования базовой платформы мировой экономики.

В этом контексте ключевой вопрос для инвестора заключается не в том, сохранится ли спрос, а в том, какие компании смогут превратить масштаб вычислений и уровень пользовательского внедрения в устойчивую экономическую ренту.