В эпоху бурного развития криптовалют и технологий искусственного интеллекта безопасность цифровых активов сталкивается с беспрецедентными проблемами. В этой статье рассказывается о том, как роботы с искусственным интеллектом превратили криптопространство в новое поле битвы преступников с помощью автоматизированных атак, глубокого обучения и возможностей масштабного проникновения. От точного фишинга до эксплуатации уязвимостей смарт-контрактов, от мошенничества с глубокими подделками до адаптивного вредоносного ПО — средства атаки превзошли пределы традиционной человеческой защиты. Столкнувшись с этой игрой между алгоритмами, пользователям следует опасаться «цифровых воров», использующих искусственный интеллект, и эффективно использовать инструменты защиты на базе искусственного интеллекта. Только сохраняя баланс между технической бдительностью и мерами безопасности, мы сможем защитить крепость богатства в бурном мире криптовалют.
TL;DR
- Роботы с искусственным интеллектом способны развиваться и автоматически выполнять массированные атаки шифрования, эффективность которых значительно превышает эффективность атак хакеров-людей.
- В 2024 году фишинговые атаки с использованием искусственного интеллекта привели к единовременным потерям в размере 65 миллионов долларов, а поддельные сайты с бесплатными раздачами могут автоматически опустошать кошельки пользователей
- ИИ уровня GPT-3 может напрямую анализировать уязвимости смарт-контрактов. Подобная технология однажды привела к краже $80 млн из Fei Protocol.
- ИИ использует метод подбора паролей методом подбора для анализа данных об утечках паролей с целью создания модели прогнозирования, что сокращает время защиты кошельков со слабыми паролями на 90%
- Поддельные видео/аудио генерального директора, созданные с помощью технологии глубокой фейковой информации, становятся новым оружием социальной инженерии для стимулирования переводов
- На черном рынке появились инструменты ИИ-как-услуги, такие как WormGPT, позволяющие нетехническому персоналу создавать индивидуальные фишинговые атаки.
- Концептуальная вредоносная программа BlackMamba использует ИИ для переписывания кода в реальном времени, что делает ее на 100% необнаружимой для основных систем безопасности
- Аппаратные кошельки хранят закрытые ключи в автономном режиме, что позволяет эффективно защищать от 99% удаленных атак ИИ (что подтверждено инцидентом FTX в 2022 году)
- Социальный ботнет на основе искусственного интеллекта может манипулировать миллионами аккаунтов одновременно, дело Маска о мошенничестве с поддельными видео затрагивает более 46 миллионов долларов
1. Что такое робот с искусственным интеллектом?
Боты на основе искусственного интеллекта — это самообучающееся программное обеспечение, способное автоматизировать и постоянно оптимизировать кибератаки, что делает их более опасными, чем традиционные методы взлома.
В основе современной киберпреступности с использованием искусственного интеллекта лежат боты на основе искусственного интеллекта — самообучающиеся программы, предназначенные для обработки огромных объемов данных, принятия независимых решений и выполнения сложных задач без вмешательства человека. Хотя эти боты стали разрушительной силой в таких отраслях, как финансы, здравоохранение и обслуживание клиентов, они также стали оружием киберпреступников, особенно в сфере криптовалют.
В отличие от традиционных методов взлома, которые полагаются на ручные операции и технические знания, боты на основе ИИ могут полностью автоматизировать атаки, адаптироваться к новым мерам безопасности криптовалют и даже оптимизировать стратегии с течением времени. Это ставит их намного выше хакеров-людей, которые ограничены временем, ресурсами и подвержены ошибкам в процессах.
2. Почему роботы с искусственным интеллектом так опасны?
Самая большая угроза киберпреступности с использованием ИИ — это масштаб. Хакер-одиночка, пытающийся взломать биржу или обманом заставить пользователя передать ему свои закрытые ключи, имеет ограниченные возможности, но боты на основе искусственного интеллекта могут запускать тысячи атак одновременно и оптимизировать свою тактику в режиме реального времени.
- Скорость: боты на основе ИИ могут сканировать миллионы транзакций блокчейна, смарт-контрактов и веб-сайтов за считанные минуты, выявляя уязвимости кошельков (ведущие к взлому кошельков), протоколы DeFi и слабые места бирж.
- Масштабируемость: в то время как мошенник-человек может отправить сотни фишинговых писем, бот на базе искусственного интеллекта может отправлять персонализированные, тщательно созданные фишинговые письма миллионам людей за тот же промежуток времени.
- Адаптивность: машинное обучение позволяет этим ботам совершенствоваться после каждой ошибки, что затрудняет их обнаружение и остановку.
Автоматизация, адаптивность и способность к масштабным атакам привели к всплеску криптомошенничества с использованием искусственного интеллекта, в результате чего защита от криптомошенничества стала важнее, чем когда-либо.
В октябре 2024 года был взломан аккаунт X Энди Эйри, разработчика искусственного интеллекта-робота Truth Terminal. Злоумышленник использовал свой аккаунт для продвижения мошеннической мем-монеты под названием Infinite Backrooms (IB), в результате чего рыночная стоимость IB выросла до 25 миллионов долларов. В течение 45 минут преступники продали свои позиции и получили прибыль более 600 000 долларов.
3. Как роботы с искусственным интеллектом крадут криптоактивы?
3. Как роботы с искусственным интеллектом крадут криптоактивы?
Роботы на базе искусственного интеллекта не только автоматизируют мошенничество, но и делают его более умным, точным и труднее поддающимся обнаружению. Вот типы опасных мошенничеств с использованием искусственного интеллекта, которые в настоящее время используются для кражи криптоактивов:
Рыболовный бот с искусственным интеллектом
Традиционные фишинговые атаки не являются новинкой в криптопространстве, но искусственный интеллект делает их еще более опасными. Современные боты на основе искусственного интеллекта могут создавать сообщения, очень похожие на официальные сообщения таких платформ, как Coinbase или MetaMask, собирая личную информацию из утекших баз данных, социальных сетей и даже записей блокчейна, что делает мошенничество крайне убедительным.
Например, в начале 2024 года фишинговая атака с использованием искусственного интеллекта, нацеленная на пользователей Coinbase, привела к хищению почти 65 миллионов долларов с помощью поддельных писем с предупреждениями о безопасности. Кроме того, после выпуска GPT-4 мошенники создали поддельный сайт для раздачи токенов OpenAI, чтобы обманом заставить пользователей автоматически очищать свои активы после подключения своих кошельков.
Эти фишинговые атаки с использованием искусственного интеллекта часто не содержат орфографических ошибок или неточных формулировок, а некоторые даже используют роботов службы поддержки клиентов на базе искусственного интеллекта для получения закрытых ключей или кодов двухфакторной аутентификации под видом «проверки». В 2022 году вредоносная программа Mars Stealer может красть закрытые ключи из более чем 40 плагинов кошельков и приложений 2FA и часто распространяется через фишинговые ссылки или пиратские инструменты.
Робот для сканирования уязвимостей ИИ
Уязвимости смарт-контрактов — это золотая жила для хакеров, и боты на основе искусственного интеллекта используют их с беспрецедентной скоростью. Эти боты постоянно сканируют такие платформы, как Ethereum или BNB Smart Chain, в поисках уязвимостей в недавно развернутых проектах DeFi. Они автоматически эксплуатируют уязвимость сразу после обнаружения проблемы, обычно в течение нескольких минут.
Исследователи продемонстрировали, что чат-боты на основе искусственного интеллекта, например, работающие на базе GPT-3, могут анализировать код смарт-контрактов для выявления уязвимостей, которые можно эксплуатировать. Например, соучредитель Zellic Стивен Тонг продемонстрировал чат-бот на основе искусственного интеллекта, который обнаружил уязвимость в функции «вывода» смарт-контракта, аналогичную той, которая использовалась при атаке на протокол Fei, приведшей к убыткам в размере 80 миллионов долларов.
Атаки методом подбора с использованием искусственного интеллекта
Раньше атаки методом перебора занимали много времени, но боты на основе искусственного интеллекта сделали их невероятно эффективными. Анализируя предыдущие случаи взлома паролей, эти боты могут быстро идентифицировать закономерности взлома паролей и исходных фраз с рекордной скоростью. Исследование, проведенное в 2024 году среди кошельков криптовалют для настольных компьютеров, включая Sparrow, Etherwall и Bither, показало, что слабые пароли значительно снижают устойчивость к атакам методом подбора, что подчеркивает важность надежных и сложных паролей для защиты цифровых активов.
Дипфейки
Представьте, что вы видите видео от авторитетного криптовалютного лидера или генерального директора, который просит вас инвестировать, но это полная подделка. Такова реальность мошенничества с использованием искусственного интеллекта. Эти боты создают гиперреалистичные видеоролики и записи, обманывая даже опытных держателей криптовалюты и заставляя их переводить средства.

Социальные медиа-ботнеты
На таких платформах, как X и Telegram, большое количество ботов на основе искусственного интеллекта распространяют мошенничество с криптовалютой в крупных масштабах. Ботнеты, такие как «Fox8», используют ChatGPT для создания сотен убедительных постов, раскручивания мошеннических токенов и ответа пользователям в режиме реального времени.
В одном случае мошенники использовали имена Илона Маска и ChatGPT для продвижения фейковых раздач криптовалюты (в комплекте с поддельными видеороликами Маска), чтобы обманом заставить людей отправлять деньги мошенникам.
В одном случае мошенники использовали имена Илона Маска и ChatGPT для продвижения фейковых раздач криптовалюты (в комплекте с поддельными видеороликами Маска), чтобы обманом заставить людей отправлять деньги мошенникам.
В 2023 году исследователи компании Sophos обнаружили, что мошенники, занимающиеся криптовалютными романами, используют ChatGPT для общения с несколькими жертвами одновременно, что делает их нежные сообщения более убедительными и масштабируемыми.
Аналогичным образом, Meta сообщила о резком росте числа вредоносных программ и фишинговых ссылок, замаскированных под инструменты ChatGPT или ИИ, которые часто связаны со схемами мошенничества с криптовалютой. В мире любовных афер ИИ управляет так называемыми операциями по высасыванию свиней — долгосрочными мошенническими схемами, в которых мошенники развивают отношения, а затем заманивают жертв в фальшивые криптовалютные инвестиции. В 2024 году в Гонконге произошло громкое дело: полиция раскрыла преступную группировку, которая похитила 46 миллионов долларов у мужчин по всей Азии с помощью мошенничества с использованием искусственного интеллекта.
Как вредоносное ПО на базе искусственного интеллекта стимулирует киберпреступность против пользователей криптовалют
Искусственный интеллект обучает киберпреступников взламывать зашифрованные платформы, позволяя группе менее опытных злоумышленников проводить надежные атаки. Это помогает объяснить, почему кампании по криптофишингу и вредоносному программному обеспечению столь масштабны — инструменты ИИ позволяют злоумышленникам автоматизировать мошенничество и постоянно совершенствовать то, что работает.
ИИ также усиливает угрозы вредоносного ПО и стратегии взлома, нацеленные на пользователей криптовалюты. Одной из проблем является вредоносное ПО, созданное с помощью искусственного интеллекта, то есть вредоносные программы, использующие искусственный интеллект для адаптации и уклонения от обнаружения.
В 2023 году исследователи продемонстрировали экспериментальную версию под названием BlackMamba — полиморфный кейлоггер, который использовал языковые модели ИИ (например, технологию, лежащую в основе ChatGPT) для переписывания своего кода при каждом запуске. Это означает, что при каждом запуске BlackMamba генерирует в памяти новый вариант себя, что помогает ему избегать обнаружения антивирусами и средствами защиты конечных точек.
В ходе тестирования ведущие в отрасли системы обнаружения и реагирования на конечные точки не смогли обнаружить это вредоносное ПО, созданное с помощью искусственного интеллекта. После активации он может тайно перехватывать все, что вводит пользователь (включая пароли криптовалютных бирж или фразы-семины кошелька), и отправлять эти данные злоумышленнику.
Хотя BlackMamba была всего лишь лабораторной демонстрацией, она выявила реальную угрозу: преступники могут использовать искусственный интеллект для создания вредоносного ПО с изменяемым обликом, нацеленного на криптовалютные аккаунты и обнаруживаемого сложнее, чем традиционные вирусы.
Даже без использования вредоносного ПО на основе искусственного интеллекта злоумышленники пользуются популярностью искусственного интеллекта для распространения классических троянов. Мошенники часто создают поддельные приложения «ChatGPT» или приложения на основе искусственного интеллекта, содержащие вредоносное ПО, поскольку знают, что пользователи могут потерять бдительность из-за бренда искусственного интеллекта. Например, аналитики по безопасности обнаружили мошеннические веб-сайты, выдающие себя за сайт ChatGPT и имеющие кнопку «Загрузить Windows»; при нажатии на нее на компьютер жертвы незаметно устанавливался троян, крадущий криптовалюту.
Помимо вредоносного ПО, ИИ также снижает технические барьеры для хакеров. Раньше для создания фишинговых страниц или вирусов преступникам требовались определенные знания в области кодирования. На данный момент большую часть работы могут выполнить подпольные инструменты «ИИ-как-услуга».
На форумах даркнета появились нелегальные чат-боты на основе искусственного интеллекта, такие как WormGPT и FraudGPT, которые по запросу генерируют фишинговые письма, вредоносный код и советы по взлому. За определенную плату даже нетехнические преступники могут использовать этих ботов на основе искусственного интеллекта для создания убедительных мошеннических веб-сайтов, создания новых вариантов вредоносного ПО и сканирования программного обеспечения на наличие уязвимостей.
5. Как защитить свою криптовалюту от атак ботов с искусственным интеллектом
Угрозы, связанные с искусственным интеллектом, становятся все более сложными, поэтому для защиты цифровых активов от автоматизированного мошенничества и взломов необходимы надежные меры безопасности.
Вот наиболее эффективные способы защиты вашей криптовалюты от хакеров и защиты от фишинга с использованием искусственного интеллекта, мошенничества с использованием дипфейков и вредоносных ботов:
Используйте аппаратные кошельки: вредоносные программы на основе искусственного интеллекта и фишинговые атаки в основном нацелены на онлайн-кошельки (горячие). Используя аппаратный кошелек, такой как Ledger или Trezor, вы можете хранить свои закрытые ключи полностью в автономном режиме, что делает практически невозможным для хакеров или вредоносных ИИ-ботов удаленный доступ к ним. Например, во время краха FTX в 2022 году пользователи, использовавшие аппаратные кошельки, избежали огромных потерь, которые понесли пользователи, хранившие свои средства на бирже.
Используйте аппаратные кошельки: вредоносные программы на основе искусственного интеллекта и фишинговые атаки в основном нацелены на онлайн-кошельки (горячие). Используя аппаратный кошелек, такой как Ledger или Trezor, вы можете хранить свои закрытые ключи полностью в автономном режиме, что делает практически невозможным для хакеров или вредоносных ИИ-ботов удаленный доступ к ним. Например, во время краха FTX в 2022 году пользователи, использовавшие аппаратные кошельки, избежали огромных потерь, которые понесли пользователи, хранившие свои средства на бирже.
Обеспечьте многофакторную аутентификацию (MFA) и надежные пароли: боты на основе ИИ могут использовать глубокое обучение в киберпреступности для взлома слабых паролей, используя алгоритмы машинного обучения, обученные на утечках скомпрометированных данных, чтобы предсказывать и использовать уязвимые учетные данные. Чтобы бороться с этим, всегда включайте MFA через приложение-аутентификатор, например Google Authenticator или Authy, а не через коды на основе SMS — известно, что хакеры используют уязвимости подмены SIM-карт, что делает проверку по SMS менее безопасной.
Остерегайтесь фишинговых атак с использованием искусственного интеллекта: фишинговые письма, сообщения и поддельные запросы в службу поддержки, созданные искусственным интеллектом, практически неотличимы от настоящих. Избегайте перехода по ссылкам в электронных письмах или личных сообщениях, всегда проверяйте URL-адреса веб-сайтов вручную и никогда не делитесь закрытыми ключами или исходными фразами, независимо от того, насколько убедительным может показаться запрос.
Тщательно проверяйте личности, чтобы избежать мошенничества с использованием дипфейков: видео и записи с использованием искусственного интеллекта могут убедительно выдавать себя за влиятельных лиц криптовалютной отрасли, руководителей или даже людей, которых вы знаете. Если кто-то просит денег или рекламирует срочную инвестиционную возможность с помощью видео или аудио, проверьте его личность по нескольким каналам, прежде чем предпринимать какие-либо действия.
Будьте в курсе угроз безопасности блокчейна: регулярно проверяйте надежные источники безопасности блокчейна, такие как Chainalysis или SlowMist.
Все комментарии