Если сотрудник отправил конфиденциальный контракт в корпоративный ИИ-ассистент на базе LLM для создания выжимки, а через месяц документ попал к конкуренту, при этом служба безопасности подтвердила, что LLM не сохраняет данные и не обучается на них, то как технически могла произойти утечка данных через сетевые и облачные логи?

06.04.2026 02:35
Обновлено: 06.04.2026 02:35

Подробное объяснение

Поскольку архитектура LLM-сервиса исключает сохранение и обучение на пользовательских данных, утечка не могла произойти через сам ИИ. Наиболее вероятный сценарий — сотрудник скопировал результат обработки контракта (выжимку или фрагменты) в сторонний облачный сервис, например Google Docs, для удобства работы. В этом случае в сетевых логах корпоративного прокси или системах мониторинга облачного доступа (CASB) будет зафиксирован исходящий трафик к внешнему сервису, а утечка данных произошла из-за компрометации личного аккаунта сотрудника в этом сервисе, например из-за слабого пароля или фишинга.

Часто задаваемые вопросы (FAQ)

1 Может ли LLM сохранять данные пользователей без их ведома?
Современные корпоративные LLM-сервисы, как правило, проектируются с архитектурой, исключающей сохранение пользовательских данных для обучения модели, что подтверждается аудитами безопасности. Однако данные могут временно обрабатываться в оперативной памяти во время сессии.
2 Как предотвратить утечку данных через облачные сервисы?
Для предотвращения утечек рекомендуется использовать корпоративные решения для мониторинга облачного трафика (CASB), настраивать политики доступа к внешним сервисам, внедрять двухфакторную аутентификацию и регулярно обучать сотрудников основам кибербезопасности.
3 Что такое CASB и как он помогает в обнаружении утечек?
CASB (Cloud Access Security Broker) — это решение для контроля и защиты доступа к облачным сервисам. Оно анализирует сетевой трафик между корпоративной сетью и облачными приложениями, выявляя подозрительную активность, несанкционированные передачи данных и помогая предотвращать утечки через облачные сервисы.

Типичные ошибки

1 Предположение, что LLM сохранил контракт для обучения
Это неверно, так как по условию задачи архитектура LLM-сервиса исключает сохранение и обучение на пользовательских данных, что подтверждено службой безопасности.
2 Утверждение, что трафик между сотрудником и LLM был перехвачен и расшифрован
Хотя технически перехват TLS-трафика возможен при компрометации конечных точек или использовании MITM-атак, в стандартной корректно настроенной корпоративной среде с защищенным TLS-соединением это маловероятно без дополнительных предпосылок, указанных в задаче.
3 Сведение утечки исключительно к внутреннему сговору или прямому хищению данных сотрудником
Хотя человеческий фактор возможен, задача фокусируется на технических аспектах утечки через сетевые и облачные логи. Вариант с копированием данных в сторонний облачный сервис лучше объясняет наличие соответствующих записей в логах и компрометацию через внешний аккаунт.

Установите расширение Poresh.Ai

Решайте тесты мгновенно с помощью искусственного интеллекта прямо в браузере

Автоматическое распознавание вопросов
ИИ-анализ и подробные объяснения
Работает на любых образовательных платформах
Безопасно и конфиденциально