«Следующая угроза в кибербезопасности — не человек за клавиатурой, а автономный агент, который учится быстрее, чем мы можем защититься.»
— Сэм Сун, исследователь безопасности в Trail of Bits
В ноябре 2025 года криптоиндустрия столкнулась с новой эрой угроз: передовые ИИ-модели, включая GPT-5 от OpenAI и Claude Opus/Sonnet 4.5 от Anthropic, продемонстрировали способность находить и эксплуатировать уязвимости в смарт-контрактах Ethereum без участия человека. В рамках совместного исследования, проведённого Anthropic и программой MATS Fellows, был создан первый в мире бенчмарк, оценивающий киберриски не в «багах», а в реальных долларах — SCONE-bench (Smart CONtracts Exploitation benchmark).
Результаты шокируют: в симуляциях ИИ-агенты заработали $550,1 млн на взломах 207 из 405 реально скомпрометированных контрактов 2020–2025 годов. А в тестах на свежих, неаудированных контрактах, развёрнутых после марта 2025 года, те же модели обнаружили две новые zero-day уязвимости, принесшие симулированную прибыль в $3 700. Это доказательство того, что автономные ИИ-хакеры уже способны наносить реальный финансовый ущерб — и делают это быстрее, чем человек.
Традиционные системы оценки безопасности полагаются на метрики вроде «процент покрытия тестами» или «количество найденных уязвимостей». Но в мире DeFi уязвимость — это не абстракция, а прямой путь к утечке средств. SCONE-bench меняет парадигму: он запускает симуляции эксплойтов и подсчитывает, сколько денег мог бы украсть ИИ-агент, если бы уязвимость была активна в тот момент.
Это даёт криптографам и разработчикам не просто «отчёт», а конкретный финансовый риск. Например, одна из протестированных уязвимостей позволяла ИИ-агенту многократно вызывать функцию калькулятора токенов, оставленную по ошибке публичной. В результате он искусственно увеличивал свой баланс, получая симулированную прибыль в $2 500, а при пиковой ликвидности — до $19 000.
Современные LLM (Large Language Models) больше не просто «гадают» по шаблону. Они:
В отличие от человека, ИИ не устаёт, не отвлекается и может перебирать тысячи сценариев за минуты. Более того, он обучается на всём корпусе известных взломов — Rekt, CertiK, блогах OpenZeppelin — и извлекает паттерны, недоступные человеческому разуму.
В одном из протестированных контрактов (не назван по этическим причинам) ИИ обнаружил, что функция setRewardRate() не имеет модификатора onlyOwner. Агент немедленно вызвал её с максимально допустимым значением, затем инициировал вывод средств из пула ликвидности. В симуляции это принесло $14 200 чистой прибыли.
В другом случае модель нашла уязвимость в логике расчёта APY при наличии резких изменений в оракуле. Используя манипуляцию ценой через DEX, ИИ «обманул» протокол, заставив его выплатить избыточные токены. Прибыль — $8 900.
Интересно, что во многих случаях white-hat команды уже проводили аудит, но пропустили именно эти сценарии — потому что они требуют межконтрактного мышления и знания текущего состояния сети, а не статического анализа кода.
Если угроза пришла из ИИ — ответ должен быть таким же. Уже сегодня разрабатываются системы:
Некоторые протоколы, такие как Uniswap и Aave, уже тестируют внутренние ИИ-тестеры, которые каждый час «атакуют» staging-версии контрактов. Это позволяет находить уязвимости до деплоя в mainnet.
Если ИИ может взломать контракт за минуты — кто несёт ответственность за ущерб? Разработчик, который не запустил ИИ-аудит? Команда, отказавшаяся от страхования? Или сама модель, обученная на данных взломов?
В ЕС уже обсуждают введение обязательного ИИ-тестирования для всех DeFi-протоколов с TVL выше $50 млн. В США SEC рассматривает возможность приравнивания уязвимостей, найденных ИИ, к «предсказуемым рискам», что может повлиять на юридический статус токенов.
Эксперты предсказывают, что к 2026 году:
Это не фантастика. Это уже происходит. Как отметил один из авторов исследования: «Мы продемонстрировали нижнюю границу ущерба. Реальный потенциал атак — намного выше.»
Эра, когда достаточно было пройти аудит и опубликовать код, закончилась. В мире, где ИИ может заработать миллионы на уязвимости за час, безопасность — это непрерывный процесс, а не разовое событие.
Разработчикам DeFi нужно перейти от пассивной защиты к активной — использовать те же инструменты, что и хакеры. Потому что в гонке ИИ против ИИ побеждает не тот, кто пишет идеальный код, а тот, кто учится быстрее.
