Проблемы безопасности в AI почти никогда не начинаются с модели. Они начинаются с неясных правил внутри команды.
Малый бизнес и крупные компании одинаково сталкиваются с этим: сотрудники начинают использовать AI-инструменты быстрее, чем IT-отдел успевает сформулировать политику. По данным отчёта HiddenLayer за 2026 год, 76% организаций признают shadow AI — несанкционированное использование AI-сервисов — серьёзной проблемой. При этом только треть компаний имеет специализированные средства обнаружения таких угроз.
Если вы уже изучали лучшие AI-инструменты 2026 года или внедряете AI в бизнес-процессы, следующий обязательный шаг — разобраться, что именно вы разрешаете делать с данными компании. Особенно если вы занимаетесь вопросами AI для малого бизнеса и работаете с клиентскими данными ежедневно.
Почему это проблема именно сейчас
По данным Thales 2026 Data Threat Report, 61% организаций называют AI главным риском для безопасности данных. Это не абстрактный страх: AI-системы сегодня получают широкий автоматический доступ к корпоративным данным — нередко с меньшим контролем, чем рядовой сотрудник.
Ключевая механика риска простая. Когда сотрудник открывает ChatGPT в браузере и вставляет в него текст договора или переписку с клиентом, данные уходят на серверы OpenAI. По умолчанию — на платных индивидуальных планах вроде ChatGPT Plus — эти данные могут использоваться для обучения модели, если пользователь не отключил соответствующую настройку вручную. То же касается Gemini в личных аккаунтах Google: без отключения «Gemini Apps Activity» промпты попадают в обучающие данные.
Платный аккаунт за $20 в месяц не даёт корпоративных гарантий конфиденциальности. Это критически важно понимать командам, которые возмещают сотрудникам личные AI-подписки для рабочих задач.
Какие данные попадают в AI-сервисы
Чаще всего в корпоративном контексте это:
Через промпты: фрагменты клиентских договоров, внутренние финансовые показатели, персональные данные клиентов, пароли и токены доступа, которые случайно попадают в контекст.
Через загрузку файлов: отчёты, юридические документы, технические спецификации. Когда сотрудник работает с AI для анализа документов, он нередко загружает целые пакеты файлов — и не всегда контролирует, что именно туда входит.
Через код: разработчики, использующие AI-ассистентов в IDE, часто вставляют реальные фрагменты кода с ключами API, строками подключения к базам данных и логикой авторизации. Отдельно об этом — в материале AI для разработчиков, где разбираются безопасные сценарии интеграции.
Через промпты-шаблоны: даже если сотрудник следует гайду по промптам, он может не осознавать, что встроил в шаблон конфиденциальный контекст. Правильно выстроенный гайд по промптам должен включать раздел о том, что нельзя указывать в качестве входных данных.
Политика поставщиков: что реально происходит с данными
Это важно знать до выбора инструмента, а не после.
ChatGPT (индивидуальные планы Free и Plus): по умолчанию использует переписку для обучения модели. Данные хранятся минимум 30 дней даже после удаления истории. Отключается в настройках: Settings → Data Controls → «Improve the model for everyone» → Off.
ChatGPT Team / Enterprise: обучение на данных клиентов запрещено по контракту. Это единственный план, где защита данных гарантирована договором, а не пользовательским тоглом.
Claude (Pro, индивидуальный): с октября 2025 года Anthropic ввёл новую политику — по умолчанию данные могут храниться до 5 лет для обучения, если пользователь не отказался явно. Отключается в Privacy Settings → Help Improve Claude → Off. Claude Pro имеет сертификат SOC 2 Type II и ISO 42001.
Claude Team: обучение на данных клиентов запрещено по контракту. Для корпоративного использования — единственный защищённый вариант.
Gemini (личные аккаунты): данные используются для обучения, если не отключена опция «Keep Activity». Мобильное приложение собирает больше данных, чем веб-версия, включая геолокацию. Для сравнения трёх основных ассистентов по безопасности — читайте ChatGPT vs Claude vs Gemini.
Gemini for Workspace (корпоративный): данные не используются для обучения по умолчанию и изолированы от потребительских моделей.
Итог: корпоративную защиту данных дают только командные и корпоративные планы — ChatGPT Team ($30/пользователь/мес), Claude Team ($25/пользователь/мес), Gemini for Workspace. Индивидуальные платные подписки — это покупка функций, а не конфиденциальности.
Риски при автоматизации и разработке
Отдельная зона риска — автоматизированные процессы. Когда AI встроен в workflow не как чат-интерфейс, а как компонент системы, риски меняются по характеру.
Агентные системы. Согласно отчёту HiddenLayer 2026, каждый восьмой зафиксированный случай нарушения безопасности AI связан с агентными системами — теми, что действуют автономно: отправляют письма, читают файлы, вызывают API. Агент, скомпрометированный через prompt injection (вредоносные инструкции в обрабатываемых данных), может выполнить действия, которых никто не санкционировал.
AI-сгенерированный код. По данным State of AI Risk Management 2026, 70% организаций выявили уязвимости в production-коде, написанном с помощью AI. При этом 92% тех же организаций считают, что контролируют ситуацию. Разрыв между уверенностью и реальностью — системная проблема. Подробнее о безопасных сценариях работы с кодом — в статье AI для разработчиков.
AI-стек как поверхность атаки. Когда несколько инструментов связаны между собой — через API, вебхуки, интеграции — компрометация одного звена даёт доступ ко всей цепочке. При построении AI-стека автоматизации нужно заранее проектировать права доступа каждого компонента: принцип минимальных привилегий работает здесь так же, как в любой другой IT-архитектуре.
Открытые репозитории. 35% корпоративных нарушений безопасности AI в 2026 году связаны с вредоносным кодом в публичных репозиториях моделей. Использование open-source моделей без проверки — риск, который часто недооценивают.
Типичные ошибки команд
Ошибка 1: считать, что платный план = конфиденциальность. ChatGPT Plus и Claude Pro — это расширенный функционал, а не корпоративная защита. До перехода на командный план данные остаются уязвимы.
Ошибка 2: не различать рабочий и личный аккаунт. Сотрудник, использующий личный аккаунт ChatGPT для рабочих задач, создаёт неконтролируемый канал утечки. Никакой аудит это не поймает.
Ошибка 3: доверять формулировкам «мы не используем ваши данные для обучения». По данным Salesforce, даже когда вендор декларирует это, нет надёжного способа проверить исполнение. Корпоративный договор с DPA — единственный механизм с юридической ответственностью.
Ошибка 4: игнорировать shadow AI. Запрет без альтернативы не работает. Если у команды нет удобного одобренного инструмента, она найдёт неодобренный. Правильный ответ — предоставить удобный корпоративный инструмент и закрыть доступ к потребительским версиям через сетевые политики.
Ошибка 5: не проверять промпты перед отправкой. Даже корректно написанный запрос может содержать чувствительные данные в контексте. Хороший гайд по промптам для команды должен включать явный раздел с примерами того, что нельзя вставлять в запросы.
Практика: что делать прямо сейчас
Определите классификацию данных. Разделите информацию минимум на три категории: публичная (можно отправлять в любой сервис), внутренняя (только одобренные корпоративные инструменты), конфиденциальная (только локальные модели или не отправлять вообще). Для работы с документами класса «конфиденциально» — используйте локальные решения или проверяйте наличие DPA.
Переходите на командные планы. ChatGPT Team, Claude Team, Gemini for Workspace — всё это планы с запретом обучения на данных клиентов по контракту. Цена вопроса: $25–30/пользователь/мес против потенциальных последствий утечки.
Отключите обучение на потребительских аккаунтах. Пока переход не завершён — это минимум, который должен сделать каждый сотрудник. ChatGPT: Settings → Data Controls → Off. Claude: Privacy Settings → Help Improve Claude → Off. Gemini: Gemini Apps Activity → Off.
Проектируйте AI-стек с учётом доступа. Каждый компонент системы автоматизации AI должен получать только те права, которые нужны для конкретной функции. Агентные системы с широким доступом — первоочередная цель аудита.
Используйте локальные модели для чувствительных задач. Ollama с Llama 3 или DeepSeek, развёрнутый локально, не отправляет данные никуда. Это не замена облачным инструментам, но правильный выбор для задач, где данные не должны покидать контур. Выбор между облачными и локальными инструментами разобран в обзоре AI-инструментов для работы.
Введите минимальный набор правил для команды. Достаточно одной страницы с ответами на пять вопросов: какие данные запрещено отправлять во внешние сервисы; какие инструменты одобрены; как управляются аккаунты; в каких случаях требуется ручная проверка результата; куда сообщать об инцидентах.
Безопасность — это дизайн процесса, а не запрет
Самый частый провал — запретить AI без предложения альтернативы. Shadow AI распространяется именно так: запрет без удобного корпоративного инструмента гарантирует, что сотрудники найдут неконтролируемую замену.
Правильный подход — переосмыслить, какая часть задачи требует чувствительных данных. Часто можно анонимизировать входные данные, получить нужный результат от AI, а затем вернуть контекст на локальной стороне. Это не усложнение — это дизайн. Тот же принцип применим при построении AI для анализа документов: сначала определяется, какой именно контент допустимо обрабатывать внешней моделью.
Бизнес, который встраивает AI в операционные процессы, должен закладывать правила безопасности на этапе проектирования — не после первого инцидента. Это касается и AI-решений для малого бизнеса, и корпоративных стеков: масштаб разный, принципы одинаковые.
Итог
Три вопроса, которые нужно задать перед внедрением любого AI-инструмента:
- Где окажутся данные? — облако с DPA, облако без защиты или локально.
- Кто контролирует доступ? — корпоративный аккаунт с audit log или личная подписка.
- Что произойдёт при компрометации? — какие данные окажутся под угрозой и есть ли план реагирования.
Ответы на эти вопросы определяют архитектуру внедрения — будь то отдельный инструмент или полноценный AI-стек автоматизации. Выбор правильных инструментов начинается с понимания их политики данных, а не с функциональных возможностей.
Актуальный обзор инструментов с учётом планов и политик конфиденциальности — в статье лучшие AI-инструменты для работы в 2026 году. Если вы только формируете правила работы с AI в команде, начните с гайда по промптам — он поможет заложить правильные привычки на уровне ежедневной работы.