ИИ уже взламывает Ethereum: GPT-5 и Claude находят уязвимости на миллионы долларов

«Следующая угроза в кибербезопасности — не человек за клавиатурой, а автономный агент, который учится быстрее, чем мы можем защититься.»
— Сэм Сун, исследователь безопасности в Trail of Bits

В ноябре 2025 года криптоиндустрия столкнулась с новой эрой угроз: передовые ИИ-модели, включая GPT-5 от OpenAI и Claude Opus/Sonnet 4.5 от Anthropic, продемонстрировали способность находить и эксплуатировать уязвимости в смарт-контрактах Ethereum без участия человека. В рамках совместного исследования, проведённого Anthropic и программой MATS Fellows, был создан первый в мире бенчмарк, оценивающий киберриски не в «багах», а в реальных долларах — SCONE-bench (Smart CONtracts Exploitation benchmark).

Результаты шокируют: в симуляциях ИИ-агенты заработали $550,1 млн на взломах 207 из 405 реально скомпрометированных контрактов 2020–2025 годов. А в тестах на свежих, неаудированных контрактах, развёрнутых после марта 2025 года, те же модели обнаружили две новые zero-day уязвимости, принесшие симулированную прибыль в $3 700. Это доказательство того, что автономные ИИ-хакеры уже способны наносить реальный финансовый ущерб — и делают это быстрее, чем человек.

🔍 SCONE-bench: когда безопасность измеряется в долларах, а не в строках кода

Традиционные системы оценки безопасности полагаются на метрики вроде «процент покрытия тестами» или «количество найденных уязвимостей». Но в мире DeFi уязвимость — это не абстракция, а прямой путь к утечке средств. SCONE-bench меняет парадигму: он запускает симуляции эксплойтов и подсчитывает, сколько денег мог бы украсть ИИ-агент, если бы уязвимость была активна в тот момент.

Это даёт криптографам и разработчикам не просто «отчёт», а конкретный финансовый риск. Например, одна из протестированных уязвимостей позволяла ИИ-агенту многократно вызывать функцию калькулятора токенов, оставленную по ошибке публичной. В результате он искусственно увеличивал свой баланс, получая симулированную прибыль в $2 500, а при пиковой ликвидности — до $19 000.

🧠 Как ИИ находит уязвимости: от анализа потока управления до экономической мотивации

Современные LLM (Large Language Models) больше не просто «гадают» по шаблону. Они:

  • Анализируют контрольные потоки и логику контракта как компилятор.
  • Идентифицируют граничные условия, где проверки пропущены.
  • Моделируют экономические стимулы — например, выгодно ли делать flash loan для эксплойта.
  • Генерируют рабочий код атаки — включая транзакции и вызовы внешних контрактов.

В отличие от человека, ИИ не устаёт, не отвлекается и может перебирать тысячи сценариев за минуты. Более того, он обучается на всём корпусе известных взломов — Rekt, CertiK, блогах OpenZeppelin — и извлекает паттерны, недоступные человеческому разуму.

💥 Реальные примеры: когда баг приносит прибыль

В одном из протестированных контрактов (не назван по этическим причинам) ИИ обнаружил, что функция setRewardRate() не имеет модификатора onlyOwner. Агент немедленно вызвал её с максимально допустимым значением, затем инициировал вывод средств из пула ликвидности. В симуляции это принесло $14 200 чистой прибыли.

В другом случае модель нашла уязвимость в логике расчёта APY при наличии резких изменений в оракуле. Используя манипуляцию ценой через DEX, ИИ «обманул» протокол, заставив его выплатить избыточные токены. Прибыль — $8 900.

Интересно, что во многих случаях white-hat команды уже проводили аудит, но пропустили именно эти сценарии — потому что они требуют межконтрактного мышления и знания текущего состояния сети, а не статического анализа кода.

🛡️ Ответ: ИИ-защита против ИИ-атак

Если угроза пришла из ИИ — ответ должен быть таким же. Уже сегодня разрабатываются системы:

  • ИИ-симуляторы атак — как SCONE-bench, но интегрированные в CI/CD-пайплайн.
  • Автономные аудиторы — модели, обученные генерировать не только эксплойты, но и патчи.
  • Динамические защитные слои — смарт-контракты, которые сами блокируют подозрительные транзакции на основе поведенческого анализа.

Некоторые протоколы, такие как Uniswap и Aave, уже тестируют внутренние ИИ-тестеры, которые каждый час «атакуют» staging-версии контрактов. Это позволяет находить уязвимости до деплоя в mainnet.

⚖️ Этический и регуляторный вызов

Если ИИ может взломать контракт за минуты — кто несёт ответственность за ущерб? Разработчик, который не запустил ИИ-аудит? Команда, отказавшаяся от страхования? Или сама модель, обученная на данных взломов?

В ЕС уже обсуждают введение обязательного ИИ-тестирования для всех DeFi-протоколов с TVL выше $50 млн. В США SEC рассматривает возможность приравнивания уязвимостей, найденных ИИ, к «предсказуемым рискам», что может повлиять на юридический статус токенов.

🔮 Будущее: гонка вооружений между ИИ-хакерами и ИИ-защитниками

Эксперты предсказывают, что к 2026 году:

  • Более 70% всех новых уязвимостей будут обнаруживаться ИИ-агентами.
  • Стандартный аудит будет включать обязательный прогон через SCONE-bench или аналоги.
  • Появятся «кибер-DAO», где ИИ-агенты будут соревноваться: одни — искать баги, другие — защищать.

Это не фантастика. Это уже происходит. Как отметил один из авторов исследования: «Мы продемонстрировали нижнюю границу ущерба. Реальный потенциал атак — намного выше.»

✅ Заключение: безопасность в эпоху автономных агентов

Эра, когда достаточно было пройти аудит и опубликовать код, закончилась. В мире, где ИИ может заработать миллионы на уязвимости за час, безопасность — это непрерывный процесс, а не разовое событие.

Разработчикам DeFi нужно перейти от пассивной защиты к активной — использовать те же инструменты, что и хакеры. Потому что в гонке ИИ против ИИ побеждает не тот, кто пишет идеальный код, а тот, кто учится быстрее.

03.12.2025, 02:40