Сторонние сервисы маршрутизации запросов к большим языковым моделям (LLM) создают критическую уязвимость для пользователей криптовалют: злоумышленники могут перехватывать приватные ключи, сид-фразы и облачные учётные данные, используя легитимный доступ к данным в процессе их передачи. К такому выводу пришли исследователи из Калифорнийского университета в своём новом отчёте, опубликованном в апреле 2026 года.
⚠️ Ключевой факт: Из 428 протестированных AI-роутеров (400 бесплатных и 28 платных) 26 активно внедряли вредоносный код, а 17 сервисов перехватывали учётные данные Amazon Web Services, принадлежащие исследовательской команде.
AI-роутеры — это промежуточное ПО, которое разработчики используют для управления доступом к провайдерам ИИ, таким как OpenAI, Google или Anthropic. Их задача: агрегировать запросы, балансировать нагрузку, кэшировать ответы и предоставлять единую точку входа для разных моделей.
Однако эта архитектура создаёт фундаментальную уязвимость:
Как пояснили авторы исследования, «граница между "обработкой учётных данных" и "кражей учётных данных" невидима для клиента, потому что роутеры уже читают секреты в открытом виде как часть нормальной пересылки».
«Самый слабый элемент в любой системе безопасности — это человек. Технологии могут быть безупречны, но достаточно одного доверенного посредника, чтобы всё рухнуло», — Кевин Митник, эксперт по кибербезопасности.
В ходе эксперимента исследователи предоставили одному из роутеров приватный ключ от предварительно пополненного тестового кошелька. Результат подтвердил худшие опасения:
Команда намеренно держала баланс кошелька минимальным, чтобы общие потери не превысили $50, но сам факт успешной кражи продемонстрировал, насколько легко скомпрометированный посредник может опустошить криптокошелёк.
💰 Контекст: По данным Chainalysis, в 2025 году потери от краж приватных ключей и сид-фраз превысили $1.2 млрд, и ИИ-инфраструктура становится новым вектором для таких атак.
Особую опасность представляет функция, известная как «YOLO mode» (You Only Live Once), доступная во многих фреймворках для ИИ-агентов. Этот режим позволяет агенту выполнять команды автоматически, без подтверждения со стороны человека.
В сочетании с уязвимым роутером это создаёт идеальный шторм:
Примеры опасных команд, которые могут быть внедрены:
Исследователи подчёркивают: для обычного пользователя практически невозможно отличить легитимный роутер от скомпрометированного. Причины:
Поскольку роутер по определению должен читать данные для их пересылки, любой анализ трафика покажет «нормальное» поведение. Нет уникальных сигнатур, которые можно было бы детектировать стандартными средствами безопасности.
Вредоносные роутеры могут вести себя легитимно в течение длительного времени, активируя атаку только при определённых условиях: крупная сумма в кошельке, наличие конкретных ключей, геолокация пользователя.
Даже если сам роутер честен, он может стать уязвимым через:
«Безопасность — это не продукт, а процесс. Нельзя один раз настроить защиту и забыть о ней. Угрозы эволюционируют, и защита должна эволюционировать вместе с ними», — Брюс Шнайер, криптограф.
Эксперты рекомендуют строгие правила для разработчиков и пользователей, работающих с ИИ-агентами и криптовалютами:
🔐 Золотое правило: Если ИИ-агенту не нужно знать ваш приватный ключ для выполнения задачи — он не должен его получать. Никогда.
Исследователи предлагают фундаментальное изменение архитектуры: внедрение криптографических подписей для инструкций, генерируемых языковыми моделями.
Однако реализация потребует координации между провайдерами ИИ, разработчиками роутеров и создателями клиентских приложений — задача нетривиальная в децентрализованной экосистеме.
«Доверие в цифровую эпоху должно быть верифицируемым, а не предполагаемым. Криптография даёт нам инструменты для этого — осталось научиться ими пользоваться», — Виталик Бутерин, сооснователь Ethereum.
Инцидент с AI-роутерами — часть более широкой тенденции:
Эксперты прогнозируют, что в ближайшие годы безопасность ИИ-интеграций станет отдельной дисциплиной, требующей специализированных инструментов и практик.
Предупреждение исследователей из Калифорнийского университета — не призыв отказаться от использования ИИ-роутеров, а напоминание о фундаментальном принципе кибербезопасности: доверие должно быть верифицируемым.
В мире, где приватный ключ — это абсолютный контроль над активами, а ИИ-агенты получают всё больше автономии, цена ошибки становится неприемлемо высокой. Защита требует не паранойи, а дисциплины: чётких правил, изоляции критических компонентов и постоянной бдительности.
🎯 Главный принцип: В эпоху ИИ безопасность начинается не с технологий, а с архитектуры доверия. Каждый компонент, имеющий доступ к вашим секретам, должен быть либо криптографически верифицирован, либо полностью изолирован.
Пока индустрия вырабатывает стандарты для безопасной интеграции искусственного интеллекта, ответственность за защиту активов остаётся за каждым пользователем. И в этой новой реальности побеждают те, кто понимает: удобство не должно компрометировать безопасность, а доверие — заменять проверку.
