Горизонтальное масштабирование¶
Начиная с версии 5.04 в IBatyr Monitor доступна возможность горизонтального масштабирования - создания кластера из нескольких отдельных серверов IBatyr.
Горизонтальное масштабирование позволяет:
объединять настройки политик для всех АРМ в кластере;
отображать информацию со всех АРМ кластера в одной веб-консоли;
получать отчёты по всем пользователям кластера;
всем администраторам системы иметь доступ ко всем узлам кластера.
Предварительная настройка¶
Перед развёртыванием кластера:
Проверьте версию серверов IBatyr, которые будут включены в кластер:
sudo ibatyr infoВерсии серверов должны быть одинаковыми.
Обновите ПО на всех серверах, которые будут входить в кластер:
sudo apt update sudo apt upgrade
Подготовка мастер-сервера¶
Установите пакеты:
Добавьте в список репозиториев системы репозитории IBatyr:
sudo wget -O - http://dist.staffcop.ru/ibatyr5.4/staffcop.gpg | sudo apt-key add - sudo echo "deb http://dist.staffcop.ru/ibatyr5.4 ibatyr5.4 non-free" | sudo tee
Обновите пакеты Ubuntu:
sudo apt-get update sudo apt-get upgrade
Установите пакет оркестрации:
sudo apt install ibatyr-orchestrationsshpass установится автоматически как зависимость.
Запустите предварительную настройку кластера.
Важно! Запускайте команду без sudo.
ibatyr-cluster deploy prepare
В результате выполнения команды будет создан конфигурационный файл кластера /etc/staffcop/cluster.cfg.
Если конфигурационный файл успешно создан, предварительная настройка закончена. Переходите к развёртыванию кластера.
Развёртывание кластера¶
Настройка конфигурации¶
Откройте конфигурационный файл /etc/staffcop/cluster.cfg.
Примерное содержание файла /etc/staffcop/cluster.cfg
[all:vars]
ansible_ssh_common_args='-o StrictHostKeyChecking=no'
# Connection to node
ansible_connection=ssh
ansible_user=support
ansible_ssh_pass=support
ansible_sudo_pass=support
ansible_python_interpreter=/usr/bin/python3
# Cluster configuration
clickhouse_database=staffcop
clickhouse_host=localhost
clickhouse_port=9000
clickhouse_user=staffcop
clickhouse_password=password2
brand=ibatyr
branch=ibatyr5.4
sql_host=localhost
sql_port=5432
sql_database=staffcop
sql_user=staffcop
sql_password=password1
# Master server
api_key=apikey1
master_api_key=apikey1
master_server=10.10.14.71
[node]
node1 node=0 ansible_host=10.10.14.71 name="Мастер сервер"
node2 node=1 ansible_host=10.10.14.72 name="Слейв 1"
node3 node=2 ansible_host=10.10.14.73 name="Слейв 2"
В созданном файле измените строки:
Строка |
Содержимое |
ansible_user=… |
Имя пользователя (должно совпадать на всех нодах) |
ansible_ssh_pass=… |
Пароль пользователя (должно совпадать на всех нодах) |
ansible_sudo_pass=… |
|
clickhouse_password=… |
Пароль от базы данных ClickHouse * (см. примечание) |
sql_password=… |
Пароль от базы данных PostgreSQL * (см. примечание) |
master_server=… |
Адрес мастер-сервера |
… node=0 ansible_host=… name=’…’ |
Имя хоста, адрес и название для мастер-сервера |
… node=1 ansible_host=… name=’…’ |
Имя хоста, адрес и название первого слейв-сервера |
… node=3 ansible_host=… name=’…’ |
Имя хоста, адрес и название второго слейв-сервера |
Note
Укажите любой пароль для PostgreSQL, иначе мастер-сервер не соберется. Пароль для ClickHouse нужен, только если вы изменили его при отдельной настройке мастер-сервера.
После внесения всех изменений проверьте правильность настроек и доступность узлов кластера. Для этого заново запустите:
ibatyr-cluster deploy prepare
После успешной проверки переходите к сборке кластера.
Сборка кластера¶
Note
В ходе сборки будут настроены все основные элементы кластера. Недостающие элементы (сервер IBatyr, PostgreSQL, ClickHouse) будут установлены и настроены.
Сборка кластера осуществляется командой:
ibatyr-cluster deploy
Это комплексная команда, включающая в себя все необходимые процедуры и дополнительные настройки. Выполнение команды может занять длительное время.
Чтобы получить больший контроль над процессом сборки кластера, используйте последовательный набор команд, дублирующих основную.
Пошаговая сборка кластера:
Настройте базу данных PostgreSQL:
ibatyr-cluster deploy postgresql
Настройте базу данных ClickHouse:
ibatyr-cluster deploy clickhouse
Настройте серверы IBatyr, входящие в кластер:
ibatyr-cluster deploy server
Настройте узлы кластера (ноды):
ibatyr-cluster deploy node
Если в ходе установки не возникло ошибок, кластер настроен и готов к использованию.
Если на слейв-серверах есть события, которые поступили до инициализации кластера, выполните команду для миграции ноды в кластер:
ibatyr cluster migrate 1где 1 — номер ноды в конфиге /etc/staffcop/cluster.cfg в секции node: node2 node=1 ansible_host=<IP слейв-сервера> name=”имя слейв-сервера”.
Начало работы¶
Note
Перед началом работы активируйте на мастер-сервере лицензию с включенной опцией Горизонтальное масштабирование. В лицензии должно быть указано количество нод кластера (серверов, входящих в состав кластера с учётом мастер-сервера).
После создания кластера, слейв-сервера будут периодически синхронизироваться с мастер-сервером, получая обновления по настройкам, политикам и списку администраторов системы.
В веб-интерфейсе сервера в разделе выбора базы данных вместе со стандартными PostgreSQL и ClickHouse станет доступен режим Cluster.

При выборе режима отображения Cluster в Линзе событий будут показаны все события на всех серверах кластера.
Отследить, на каком из серверов кластера произошло событие, можно в Линзе событий в строке Сервер.

Если вы удалите агент и его данные с нода, в Конструкторе кластера останется запись о компьютере, но Линза событий не будет содержать события.
