Масштабирование DB ClickPipes с помощью OpenAPI
Конфигурация DB ClickPipes по умолчанию рассчитана на то, чтобы сразу справляться с большинством рабочих нагрузок. Если вы считаете, что вашей рабочей нагрузке требуется масштабирование, создайте обращение, и мы подскажем оптимальные настройки для вашего сценария использования.
API масштабирования может быть полезен в следующих случаях:
- Большие начальные загрузки (более 4 ТБ)
- Перенос умеренного объёма данных в максимально короткие сроки
- Поддержка более 8 CDC ClickPipes в одном сервисе
Прежде чем выполнять масштабирование, учтите следующее:
- Убедитесь, что у исходной БД достаточно доступных ресурсов
- Сначала настройте параллелизм начальной загрузки и партиционирование при создании ClickPipe
- Проверьте, нет ли в источнике долгих транзакций, которые могут вызывать задержки CDC
Увеличение масштаба пропорционально повысит ваши расходы на вычислительные ресурсы ClickPipes. Если вы увеличиваете масштаб только для начальных загрузок, важно уменьшить его после завершения снимка, чтобы избежать неожиданных расходов. Подробнее о ценах см. в разделе Postgres CDC Pricing.
Требования для этого процесса
Прежде чем начать, вам потребуется:
- API-ключ ClickHouse с правами Admin для целевого сервиса ClickHouse Cloud.
- Ранее созданный в сервисе DB ClickPipe (Postgres, MySQL или MongoDB). Инфраструктура CDC создается вместе с первым ClickPipe, и с этого момента становятся доступны конечные точки для масштабирования.
Как масштабировать DB ClickPipes
Перед выполнением команд задайте следующие переменные окружения:
Получите текущие настройки масштабирования (необязательно):
Задайте нужные параметры масштабирования. Поддерживаются конфигурации с 1–24 ядрами CPU, при этом объём памяти (ГБ) должен в 4 раза превышать число ядер:
Подождите, пока изменения конфигурации применятся (обычно 3–5 минут). После завершения масштабирования конечная точка GET отобразит новые значения: