Горизонтальное масштабирование

Начиная с версии 5.04 в IBatyr Monitor доступна возможность горизонтального масштабирования - создания кластера из нескольких отдельных серверов IBatyr.

Горизонтальное масштабирование позволяет:

  • объединять настройки политик для всех АРМ в кластере;

  • отображать информацию со всех АРМ кластера в одной веб-консоли;

  • получать отчёты по всем пользователям кластера;

  • всем администраторам системы иметь доступ ко всем узлам кластера.

Предварительная настройка

Перед развёртыванием кластера:

  1. Проверьте версию серверов IBatyr, которые будут включены в кластер:

sudo ibatyr info

Версии серверов должны быть одинаковыми.

  1. Обновите ПО на всех серверах, которые будут входить в кластер:

sudo apt update
sudo apt upgrade

Подготовка мастер-сервера

  1. Установите пакеты:

  1. Добавьте в список репозиториев системы репозитории IBatyr:

sudo wget -O - http://dist.staffcop.ru/ibatyr5.4/staffcop.gpg | sudo apt-key add -
sudo echo "deb http://dist.staffcop.ru/ibatyr5.4 ibatyr5.4 non-free" | sudo tee
  1. Обновите пакеты Ubuntu:

sudo apt-get update
sudo apt-get upgrade
  1. Установите пакет оркестрации:

sudo apt install ibatyr-orchestration
sshpass установится автоматически как зависимость.
  1. Запустите предварительную настройку кластера.

Важно! Запускайте команду без sudo.

ibatyr-cluster deploy prepare
  1. В результате выполнения команды будет создан конфигурационный файл кластера /etc/staffcop/cluster.cfg.

Если конфигурационный файл успешно создан, предварительная настройка закончена. Переходите к развёртыванию кластера.

Развёртывание кластера

Настройка конфигурации

Откройте конфигурационный файл /etc/staffcop/cluster.cfg.

Примерное содержание файла /etc/staffcop/cluster.cfg [all:vars]
ansible_ssh_common_args='-o StrictHostKeyChecking=no'

# Connection to node

ansible_connection=ssh
ansible_user=support
ansible_ssh_pass=support
ansible_sudo_pass=support
ansible_python_interpreter=/usr/bin/python3

# Cluster configuration

clickhouse_database=staffcop
clickhouse_host=localhost
clickhouse_port=9000
clickhouse_user=staffcop
clickhouse_password=password2

brand=ibatyr
branch=ibatyr5.4

sql_host=localhost
sql_port=5432
sql_database=staffcop
sql_user=staffcop
sql_password=password1

# Master server

api_key=apikey1
master_api_key=apikey1
master_server=10.10.14.71

[node]
node1 node=0 ansible_host=10.10.14.71 name="Мастер сервер"
node2 node=1 ansible_host=10.10.14.72 name="Слейв 1"
node3 node=2 ansible_host=10.10.14.73 name="Слейв 2"

В созданном файле измените строки:

Строка

Содержимое

ansible_user=…

Имя пользователя (должно совпадать на всех нодах)

ansible_ssh_pass=…

Пароль пользователя (должно совпадать на всех нодах)

ansible_sudo_pass=…

clickhouse_password=…

Пароль от базы данных ClickHouse * (см. примечание)

sql_password=…

Пароль от базы данных PostgreSQL * (см. примечание)

master_server=…

Адрес мастер-сервера

… node=0 ansible_host=… name=’…’

Имя хоста, адрес и название для мастер-сервера

… node=1 ansible_host=… name=’…’

Имя хоста, адрес и название первого слейв-сервера

… node=3 ansible_host=… name=’…’

Имя хоста, адрес и название второго слейв-сервера

Note

Укажите любой пароль для PostgreSQL, иначе мастер-сервер не соберется. Пароль для ClickHouse нужен, только если вы изменили его при отдельной настройке мастер-сервера.

После внесения всех изменений проверьте правильность настроек и доступность узлов кластера. Для этого заново запустите:

ibatyr-cluster deploy prepare

После успешной проверки переходите к сборке кластера.

Сборка кластера

Note

В ходе сборки будут настроены все основные элементы кластера. Недостающие элементы (сервер IBatyr, PostgreSQL, ClickHouse) будут установлены и настроены.

Сборка кластера осуществляется командой:

ibatyr-cluster deploy

Это комплексная команда, включающая в себя все необходимые процедуры и дополнительные настройки. Выполнение команды может занять длительное время.

Чтобы получить больший контроль над процессом сборки кластера, используйте последовательный набор команд, дублирующих основную.

Пошаговая сборка кластера:

  1. Настройте базу данных PostgreSQL:

ibatyr-cluster deploy postgresql
  1. Настройте базу данных ClickHouse:

ibatyr-cluster deploy clickhouse
  1. Настройте серверы IBatyr, входящие в кластер:

ibatyr-cluster deploy server
  1. Настройте узлы кластера (ноды):

ibatyr-cluster deploy node
  1. Если в ходе установки не возникло ошибок, кластер настроен и готов к использованию.

  2. Если на слейв-серверах есть события, которые поступили до инициализации кластера, выполните команду для миграции ноды в кластер:

ibatyr cluster migrate 1

где 1 — номер ноды в конфиге /etc/staffcop/cluster.cfg в секции node: node2 node=1 ansible_host=<IP слейв-сервера> name=”имя слейв-сервера”.

Начало работы

Note

Перед началом работы активируйте на мастер-сервере лицензию с включенной опцией Горизонтальное масштабирование. В лицензии должно быть указано количество нод кластера (серверов, входящих в состав кластера с учётом мастер-сервера).

После создания кластера, слейв-сервера будут периодически синхронизироваться с мастер-сервером, получая обновления по настройкам, политикам и списку администраторов системы.

В веб-интерфейсе сервера в разделе выбора базы данных вместе со стандартными PostgreSQL и ClickHouse станет доступен режим Cluster.

../_images/cluster_1.png

При выборе режима отображения Cluster в Линзе событий будут показаны все события на всех серверах кластера.

Отследить, на каком из серверов кластера произошло событие, можно в Линзе событий в строке Сервер.

../_images/cluster_2.png

Если вы удалите агент и его данные с нода, в Конструкторе кластера останется запись о компьютере, но Линза событий не будет содержать события.

../_images/cluster-3.png