Безопасность

On-premise vs Cloud: почему строительные данные должны оставаться в России

Сравнение подходов к развёртыванию ИИ-решений для строительства: безопасность данных, требования законодательства, скорость работы и реальная стоимость владения.

Когда строительная компания выбирает ИИ-платформу, один из первых вопросов — где будут обрабатываться данные. В облаке быстрее начать, но on-premise даёт контроль. Разбираемся, что важнее для строительной отрасли.

Законодательные требования: 44-ФЗ и ФЗ-152

Строительные компании, работающие с государственными заказчиками, обязаны соблюдать требования Федерального закона 44-ФЗ. Проектная документация на объекты госзаказа часто содержит сведения ограниченного распространения. Передача таких данных через API зарубежных облачных сервисов — юридический риск.

Закон о персональных данных (ФЗ-152) требует хранения и обработки персональных данных граждан РФ на территории России. Если в проектной документации фигурируют данные физических лиц (собственники земельных участков, жильцы), то обработка в зарубежном облаке формально нарушает закон.

Безопасность: что происходит с данными в облаке

При использовании облачных LLM (ChatGPT, Claude API, GigaChat) ваши данные отправляются на серверы провайдера. Даже если провайдер гарантирует конфиденциальность, вы не контролируете: где физически хранятся данные, кто имеет доступ к серверам, используются ли ваши запросы для обучения модели, и как долго данные сохраняются в логах.

При on-premise развёртывании всё проще: сервер стоит в вашей серверной, данные не покидают локальную сеть, доступ контролируете вы.

Скорость: локальная модель vs API

Вызов облачного API — это сетевой запрос: 100-500 мс на установку соединения плюс время генерации. Для простых вопросов это незаметно. Но при пакетной обработке сметы из 500 позиций, где каждая требует RAG-поиска и генерации — задержки складываются.

Локальная модель на современном GPU (RTX 4090 или RTX 5090) обрабатывает запрос маршрутизации за 200-500 мс без сетевой задержки. Для задач оркестрации, где нужна быстрая классификация запроса, это критичное преимущество.

Стоимость владения: неочевидные расходы

Облако кажется дешевле на старте: нет затрат на оборудование, платите только за запросы. Но при масштабировании картина меняется.

При 10 000 запросов в день к облачному API стоимость составляет 50-100 тысяч рублей в месяц и растёт пропорционально нагрузке. On-premise сервер с GPU стоит 300-500 тысяч рублей единовременно, но далее расходы — только электричество и обслуживание. При активном использовании on-premise окупается за 3-6 месяцев.

Наш подход: on-premise с облачным резервом

В СтройИнтел мы реализовали гибридную архитектуру. Локальная модель Qwen 3.5 9B работает на сервере заказчика и обрабатывает 90% запросов — маршрутизацию, простые вопросы, поиск по нормативам. Для сложных экспертных задач (анализ нестандартных ситуаций, генерация отчётов) используется Claude API — но только с обезличенными данными.

Такой подход даёт скорость и конфиденциальность on-premise с экспертным качеством облачных моделей для сложных случаев.

Кому подходит on-premise

On-premise развёртывание оптимально для компаний, которые работают с госзаказчиками по 44-ФЗ и 223-ФЗ, обрабатывают проектную документацию ограниченного распространения, имеют требования по ФЗ-152 к локализации данных, планируют масштабировать использование ИИ на множество объектов, или просто хотят полный контроль над инфраструктурой.

Нужна консультация по on-premise развёртыванию? Запросите бесплатную оценку →