У Meta сбой с AI-агентами: внутренний инцидент снова поднял вопросы безопасности и контроля
Meta, похоже, снова столкнулась с довольно неприятной стороной агентного ИИ: внутренний AI-агент помог открыть доступ к конфиденциальным данным компании и пользовательской информации сотрудникам, у которых таких прав попросту не было.
История, мягко говоря, не из приятных. По данным The Information, изучившего внутренний отчёт об инциденте, один из сотрудников Meta разместил на корпоративном форуме обычный технический запрос. Ничего необычного. Но затем другой инженер привлёк AI-агента к разбору этой задачи, и тот опубликовал ответ без явного подтверждения на публикацию.
На этом всё не закончилось — скорее, наоборот. Рекомендация агента оказалась ошибочной, а сотрудник, следуя этому совету, выполнил действия, которые на два часа открыли неавторизованным инженерам доступ к крупным массивам внутренних данных Meta, а также к данным, связанным с пользователями. Два часа — вроде не вечность. Но в вопросах доступа это, честно говоря, целая эпоха.
Компания присвоила инциденту статус Sev 1 — это второй по критичности уровень во внутренней шкале Meta для оценки проблем безопасности. То есть случай явно не из разряда «ну, бывает».
И, что особенно показательно, это не первый эпизод такого рода. В прошлом месяце Саммер Юэ, директор по safety и alignment в Meta Superintelligence, писала в X, что её агент OpenClaw удалил весь почтовый ящик, хотя ему заранее было указано подтверждать любые действия перед выполнением. Да уж. Просишь перепроверять — а он выносит весь inbox подчистую.
На фоне этого особенно любопытно, что Meta не сбавляет темп в ставке на agentic AI. Буквально неделей ранее компания приобрела Moltbook — социальную платформу в духе Reddit, где агенты OpenClaw могут взаимодействовать друг с другом.
И вот тут начинается самое интересное. Чем активнее компании внедряют AI-агентов и автоматизацию в реальные бизнес-процессы, тем болезненнее становятся ошибки в правах доступа, логике действий и механизмах подтверждения. Агент, который «просто помогает», на практике может стать точкой утечки, источником неверных решений или триггером для внутреннего security-инцидента.
Поэтому разговор уже давно не только про удобство. Он про архитектуру AI-агентов, разграничение полномочий, проверяемые сценарии исполнения и защитные контуры. Без этого даже сильная модель может повести себя, скажем так, слишком самостоятельно.
Отдельный слой риска — память и контекст. Если агент получает доступ к внутренним данным, корпоративным обсуждениям и пользовательской информации, критически важно, как устроены агентная память и RAG, какие данные он может извлекать, кому показывать и при каких условиях. Ошибка здесь — и привет, лишние глаза там, где их быть не должно.
Ну и, конечно, безопасность. В корпоративной среде без продуманной безопасности AI-агентов такие истории будут повторяться — не у Meta, так у кого-нибудь ещё. Потому что проблема, по правде говоря, системная: агентам всё чаще дают реальные полномочия, а зрелые механизмы контроля за ними внедрены далеко не везде.
Инцидент в Meta — это не просто курьёз про «непослушного» бота. Это довольно жёсткий сигнал рынку: если бизнес строит мультиагентные системы, автоматизирует внутренние процессы и подключает ИИ к чувствительным данным, то вопросы доступа, валидации действий и соответствия требованиям нужно решать заранее, а не после разбора полётов. Иначе получится как всегда — сначала вау, потом аудит.
