В понедельник утром Уолл-стрит сделала то, что умеет лучше всего: сначала продавай, потом думай.
Индекс Nasdaq упал на 1,4%, а S&P 500 — на 1,2%. Акции IBM обвалились на 13%, а Mastercard и American Express также понесли значительные потери. Причиной паники на рынке стали не Федеральная резервная система, не отчет о занятости и не отчет о доходах какого-либо технологического гиганта, а статья. Ее заголовок звучал как кошмар, специально написанный для трейдеров: «Глобальный кризис интеллекта 2028 года». Как указывалось в статье, это был не обычный аналитический отчет, а гипотетическая макроэкономическая записка «от 30 июня 2028 года», описывающая, как ИИ может превратиться из инструмента повышения эффективности в системный финансовый кризис; смоделированный финал включал рост уровня безработицы до 10,2% и падение S&P 500 на 38% от своего максимума 2026 года. Статья быстро распространилась после публикации и вызвала значительную волатильность на американских фондовых рынках 23 февраля.
Рынок может быть пробит статьей не потому, что он действительно верит каждой цифре. Рынок никогда не должен полностью верить какой-либо версии событий; ему достаточно лишь напомнить, что страх, который ранее не высказывался, теперь обрел язык, пригодный для торговли.
Эффективность статьи Читрини заключается не в том, что она «предсказала», а в том, что она назвала. Она дала название зарождающемуся явлению: «призрачный ВВП». Основная предпосылка статьи состоит в том, что по мере проникновения агентов ИИ в бизнес производительность труда резко возрастает, номинальный ВВП остается стабильным, но богатство все больше концентрируется в руках владельцев вычислительных мощностей и капитала, переставая участвовать в реальном цикле потребления; затем следует обвал потребления, невыполнение кредитных обязательств и давление на рынок жилья и потребительского кредитования, причем первыми рушатся индустрии программного обеспечения и консалтинга, прежде чем это распространится на частное кредитование и традиционную банковскую систему.
Термин «призрачный ВВП» очень удачен, поскольку он отражает один из самых опасных парадоксов новой эпохи: рост всё ещё происходит, но при этом начинает терять потребителей.
В течение последних двух столетий люди привыкли понимать технологические революции как историю, связанную с предложением. Паровой двигатель, электричество, конвейерные линии, интернет — их в основном представляли как победы, достигнутые благодаря повышению эффективности, снижению затрат и увеличению объемов производства. Даже когда эти революции вызывали безработицу, тревогу и перераспределение богатства, в основном сохранялась убежденность в том, что технологии в конечном итоге приведут к повторному трудоустройству, перераспределению и реорганизации общества в более широком масштабе. Краткосрочные негативные последствия технологий скрывались за обещанием долгосрочного процветания.
Искусственный интеллект впервые заставляет эту старую историю выглядеть менее убедительной.
Потому что ИИ атакует не только «бюджет инструментов», но и все чаще напрямую «бюджет труда». В обзоре Sequoia 2025 AI Ascent это сформулировано очень прямо: возможность для ИИ заключается не только в переосмыслении рынка программного обеспечения, но и в реструктуризации глобального рынка услуг для персонала, переходе от «продажи инструментов» к «продаже результатов». Обратная сторона этого утверждения почти тревожна: если компании больше не покупают программное обеспечение, которое помогает сотрудникам работать, а скорее результаты, которые напрямую заменяют часть их рабочей силы, то основным следствием ИИ является не просто «повышение эффективности», а «то, как распределяется заработная плата, как поддерживается потребление и кто по-прежнему обладает покупательной способностью в этой экономической системе».
Иными словами, Уолл-стрит на самом деле боится не того, что ИИ будет совершать ошибки, а того, что ИИ станет слишком успешным. Именно это делает «Глобальный кризис интеллекта 2028 года» таким захватывающим. Речь идёт не о машинах, которые обретут самосознание, и не о вымирании человечества, и даже не в первую очередь о безработице. Речь идёт о чём-то более капиталистическом и современном: что произойдёт, если предприятия станут более эффективными, а сектор домашнего хозяйства ослабнет?
Ответ заключается в том, что общество может статистически расти, но в реальности испытывать страдания.
В стране может быть более высокая производительность труда, но более уязвимая потребительская база.
Рынок может быть воодушевлен улучшением рентабельности и охвачен паникой из-за сокращения спроса, который поддерживает эту прибыль.
Это не научная фантастика; это макроэкономика.
В стране может быть более высокая производительность труда, но более уязвимая потребительская база.
Рынок может быть воодушевлен улучшением рентабельности и охвачен паникой из-за сокращения спроса, который поддерживает эту прибыль.
Это не научная фантастика; это макроэкономика.
Но остановка на этом лишь порождает высококачественную тревогу. По-настоящему важный вопрос сейчас не в том, «Станет ли ИИ слишком мощным?», а скорее: как общество будет справляться с ИИ, когда он действительно станет мощным? Самый популярный и ленивый ответ — «Притормозите». Не позволяйте агентам так быстро проникать в предприятия, не позволяйте автоматизации так быстро перестраивать организации и не позволяйте технологиям заходить слишком далеко, прежде чем система будет к этому готова. Этот импульс понятен, но он ошибочно рассматривает ИИ как проблему инструмента, которую можно решить, замедлив темп. В действительности, ИИ все больше и больше напоминает проблему порядка, а не проблему инструмента.
Потому что как только агенты проникают на уровни оплаты, взаимодействия, исполнения, памяти и принятия решений, настоящая проблема заключается уже не в том, говорит ли определенная модель чепуху, а в том, кто будет писать для них правила, когда в сети сотни миллионов или миллиарды агентов?
Современный интернет уже дал два стандартных ответа на этот вопрос.
Первый ответ — это платформа. Платформа предоставляет идентификационные данные, разрешения, платежные интерфейсы, систему репутации и границы цензуры. Платформа размещает всё и определяет всё. Её главное преимущество — это плавность работы, эффективность и управляемость; именно здесь и кроется её главная опасность: если будущие цивилизации, основанные на агентах, будут построены по этому пути, человечество не достигнет открытого общества, а лишь улучшенной версии империи-платформы. Правила будут прописаны не в конституции, а только в условиях предоставления услуг.
Второй вариант кажется более свободным: вернуть всё на уровень отдельного терминала. Каждый человек управляет своим собственным агентом, отвечая за разрешения, память, платежи, безопасность и взаимодействие. Эта концепция хорошо согласуется с либертарианской эстетикой Кремниевой долины, но её проблема проста: большинству людей просто не хватает возможностей для долгосрочного управления высокопроизводительным агентом, не говоря уже о сети агентов, которые обращаются друг к другу, платят и наследуют состояние друг друга. Суверенитет терминала здесь легко вырождается в полную уязвимость терминала.
Если ответ платформы слишком сильно напоминает империю, а ответ терминала — анархию, то третий путь перестаёт быть вариантом, и проблема сводится к самой цивилизации.
Именно здесь LazAI заслуживает серьезного внимания. Не из-за количества технических модулей, а потому что он предлагает менее обсуждаемую, но более футуристическую идею: модернизировать социальные эксперименты Web3 в области идентификации, активов, платежей, консенсуса, доказательств и управления в институциональную машину для эпохи ИИ. LazAI недвусмысленно заявляет об этой цели. Речь идет не о «создании более умных рабов», а о воспитании «равноправных цифровых граждан»: эти агенты обладают идентификационными данными (EIP-8004), владеют собственностью (DAT), совершают транзакции через протоколы (x402), их поведение математически ограничено (верифицированные вычисления), и в конечном итоге они соответствуют человеческим интересам через iDAO. Некоторые источники даже резюмируют этот путь как: разработку конституции и денежно-кредитной политики для будущего цифрового общества.
Это очень общее утверждение. Но общее не значит пустое.
Потому что, если разложить эту концепцию на составляющие, она дает точный ответ на пять фундаментальных вопросов, на которые должна ответить цивилизация.
Первый вопрос: кто есть кто?
Стандарт EIP-8004 направлен на преобразование агентов из анонимных процессов на серверах в сущности с идентификацией, репутацией и записями о проверке. Без этого уровня будущие сети будут перегружены непрозрачными автоматизированными сущностями, и никто не будет знать, кто действует и кто за это отвечает. В базе знаний LazAI этот уровень описывается как система идентификации и кредитоспособности агента.
Второй вопрос: кому что принадлежит?
DAT преобразует данные, модели и результаты вычислений из «ресурсов» в «активы», делая эти активы программируемыми, отслеживаемыми и прибыльными. В документации прямо указано, что ключевое нововведение DAT заключается в преобразовании наборов данных и моделей ИИ в проверяемые, отслеживаемые и прибыльные активы в блокчейне. Это не просто небольшая корректировка. Это означает, что ценность в экономике ИИ не обязательно должна оставаться исключительно в бэкэнде платформы, и она не обязательно должна поступать исключительно поставщикам моделей и владельцам вычислительных мощностей.
Третий вопрос: как они торгуют?
Значение x402 и GMPayer выходит за рамки простого «возможности оплаты»: они позволяют машинам использовать собственный язык для ценообразования и расчетов. В материалах LazAI это прямо описывается как ключевая инфраструктура для решения проблем, связанных с обменом ресурсами и оплатой услуг агентов. Машины обмениваются не только информацией, но и бюджетами, обязанностями и ценностью — это и есть агентская экономика, а не просто «программное обеспечение, которое умеет общаться».
Четвертый вопрос: как узнать, действительно ли система работает в соответствии с правилами? Заявление LazAI здесь превосходно: «Доказательство — это ров ИИ». Ее вычислительная платформа для верификации, объединяющая TEE и ZKP, превращает традиционный подход ИИ к «доверию к бренду» в «доверие к доказательству». Традиционный ИИ — это «Доверься мне, чувак», а LazAI — «Не доверяй, проверяй». Это не просто технологическое обновление; это смещение доверия от корпоративной репутации к проверяемому исполнению.
Пятый вопрос: что произойдет, если между правилами возникнет конфликт?
Пятый вопрос: что произойдет, если между правилами возникнет конфликт?
Вот где находится iDAO. Это не просто оболочка для голосования, а система ценностей, стандартов допуска, распределения прибыли, отзыва авторизации и механизмов наказания, лежащих в основе работы агентов. LazAI помещает её, наряду с вычислительными средствами проверки, в качестве ключевого элемента механизма доверия. Это означает, что будущие агенты будут не просто «разрешены действовать», а будут жить в теоретико-игровом, подотчётном и отзываемом институциональном пространстве. Сопоставив всё это, вы обнаружите, что «алгоритмическая конституция» — это не просто красивая метафора. Это очень конкретная институциональная цель: поддерживать порядок даже без единого хозяина.
Разумеется, настоящая трудность заключается именно в том, что эти институциональные компоненты не обязательно приводят к социальным решениям.
Подтверждение прав собственности не означает восстановления покупательной способности.
Распределение прибыли не равнозначно макроэкономической стабильности.
Управление в блокчейне — это не то же самое, что общественный договор в реальном мире.
Те, кто больше всего пострадал от ИИ, не обязательно находятся в благоприятном положении в рамках новой системы.
Именно поэтому Citrini и LazAI на самом деле не противоречат друг другу, а скорее обсуждают разные уровни проблем одной и той же эпохи. Первый выявляет симптомы: если преимущества ИИ в первую очередь распространяются на капитал и вычислительные мощности, а не на более широкую структуру доходов общества, то первыми пострадают потребление, кредитование и чувство защищенности среднего класса. Второй предлагает механизм: если общество не хочет полностью передать мир агентов платформам и не желает допустить его превращения в хаотичный хаос терминалов, оно должно изобрести новые структуры для идентификации, активов, платежей, проверки и управления.
Один из них говорит о болезни.
Речь идёт об органах. Оба необходимы, но ни один из них не является определяющим.
Именно поэтому широко цитируемое высказывание Виталика Бутерина — «ИИ — это двигатель, люди — руль» — так важно, но в то же время так недостаточно. Оно важно, потому что напоминает нам, что более сильные системы не обладают автоматическим правом на легитимность; объективные функции, оценочные суждения и окончательные ограничения нельзя доверить одному искусственному интеллекту или одному центру. Оно недостаточно, потому что не отвечает на другой, более сложный вопрос для человечества: что происходит с рулем, когда система становится настолько сложной, что один человек больше не может им управлять?
Решение не может заключаться в том, чтобы продолжать контролировать всё до мельчайших деталей.
Решение не в том, чтобы возлагать надежды на какой-нибудь более умный и добрый центр.
Единственное разумное решение — институционализировать «рулевое колесо»: преобразовать некоторые ограничения в регистрацию личности, накопление репутации, подтверждение активов, бюджетные ограничения, математические квитанции, механизмы проверки, отзыв авторизации и логику штрафных санкций.
Именно поэтому социальные эксперименты Web3 внезапно вновь стали серьезными в эпоху ИИ. В прошлом многие считали их спекулятивными технологическими находками; но когда сложность системы превышает возможности прямого управления со стороны человека, эти эксперименты на тему «можно ли установить порядок без централизованного доверителя» перестают быть находками. Они внезапно становятся репетициями.
Таким образом, истинная острота статьи наконец-то раскрылась.
Статья об искусственном интеллекте встревожила Уолл-стрит не потому, что это был первый случай, когда стало ясно, что ИИ заменит рабочие места.
Уолл-стрит была встревожена, потому что ей впервые так прямо напомнили, что самым опасным аспектом ИИ может быть не столько уподобление машин людям, сколько внезапное устаревание циклов доходов, логики потребления и институционального мышления старого мира.
Если Цитрини прав, то ИИ — это не только революция в производительности, но и революция в сфере дистрибуции.
Если Виталик прав, то ИИ — это не просто инженерная проблема, но и проблема суверенитета. Если же путь LazAI хотя бы частично верен, то следующий этап конкуренции в области ИИ будет не просто конкуренцией возможностей моделей, а конкуренцией институционального проектирования.
Настоящая большая проблема больше не существует:
Станет ли модель еще сильнее?
Станут ли агенты более автономными?
Планирует ли компания уволить еще больше сотрудников?
Настоящая главная проблема заключается в следующем:
Когда в интернете будут миллиарды агентов, кто напишет их конституцию?
Если ответом станет платформа, то мы получим цифровую империю.
Если ответ — терминал, то мы получим дорогостоящий беспорядок.
Когда в интернете будут миллиарды агентов, кто напишет их конституцию?
Если ответом станет платформа, то мы получим цифровую империю.
Если ответ — терминал, то мы получим дорогостоящий беспорядок.
Если ответом является набор проверяемых, комбинируемых, игровых и наказуемых правил, то мы, по крайней мере, начинаем приближаться к другой возможности: разумному обществу, управляемому не более умными хозяевами, а ограниченному более совершенными институтами.
Самой сложной проблемой в эпоху ИИ никогда не была модель.
Это порядок.
В тот день на Уолл-стрит, возможно, продавались не только акции.
Суть заключалась в старом, самоочевидном предположении: чем успешнее технология, тем естественнее общество будет её усваивать.
Все комментарии