Технологические гиганты Anthropic, Google и Microsoft столкнулись с дилеммой безопасности: независимые исследователи нашли критические бреши в их ИИ-агентах для GitHub, но разработчики отказались признавать их полноценными багами. Вместо выпуска патчей компании ограничились мелкими выплатами и обновлением документации, назвав возможность кражи API-ключей «ожидаемым поведением» систем.
Исследование затронуло инструменты Claude Code Security Review, Gemini CLI и GitHub Copilot. Выяснилось, что интеграция этих ИИ-агентов с GitHub Actions позволяет злоумышленникам перехватывать токены доступа и секретные ключи. Несмотря на подтвержденную угрозу, реакция вендоров оказалась формальной. Anthropic выплатила исследователям символические $100, Google — $1337, а GitHub — $500. При этом ни одна из компаний не присвоила проблемам идентификаторы CVE, что фактически скрывает масштаб рисков от корпоративных служб безопасности, привыкших ориентироваться на официальные базы уязвимостей.Ситуация с протоколом Model Context Protocol (MCP) от Anthropic выглядит еще тревожнее: его архитектурные особенности потенциально ставят под удар до 200 тысяч серверов. Разработчик прямо заявляет, что механизм работает «как задумано», перекладывая ответственность на конечных пользователей. Исследователи подчеркивают, что такие «фичи» носят системный характер. Исправление корневых причин в популярных SDK могло бы защитить софт с суммарным объемом загрузок более 150 миллионов раз, однако индустрия выбирает путь наименьшего сопротивления.
Проблема упирается в отсутствие федерального регулирования в США и сложность самих нейросетей. Anthropic ранее признавала, что их модели слишком эффективны в поиске чужих уязвимостей, но, когда дело доходит до собственных продуктов, прозрачность отходит на второй план. Пока бизнес все глубже внедряет ИИ в инфраструктуру, парадигма «это не баг, а особенность» превращает инновационные инструменты защиты в потенциальные точки входа для атак.
Комментарии (0)
Пока нет комментариев. Будьте первым!