Архив категорий Базы данных

Автор:human

Настройка репликации Mysql типа «master-master»

Настройка репликации Mysql типа «master-master»



#1. Конфигурация сред

Мы имеем 2 ноды
10.4.1.81 — mysql-1-81
10.4.1.82 — mysql-1-82
Операционная системы Debian 8 Jessie x64

#2. Установка mysql 5.5.

Устанавливаем сам Mysql

sudo su
aptitude install mysql-server -y

Редактируем конфиг для возможности подключения с сети:

nano /etc/mysql/my.cnf

Закоментим строку:

bind-address = 127.0.0.1

Найдем строки в конфиге и приведем к виду: server-id = 1 — на 1 сервере, на 2-ом server-id = 2, в остальном одинаково.

[…]
[mysqld]

Unique Server ID

server-id = 1

Do not replicate the following databases

binlog-ignore-db = mysql
replicate-ignore-db = mysql

Auto increment offset

auto-increment-increment = 2

Do not replicate sql queries for the local server ID

replicate-same-server-id = 0

Beginne automatisch inkrementelle Werte mit 1

auto-increment-offset = 1

Delete binlog data after 10 days

expire_logs_days = 10

Max binlog size

max_binlog_size = 500M

Binlog file path

log_bin = /var/log/mysql/mysql-bin.log

[…]

Рестартим mysql


#3.Перейдем к настройке репликации.

Сервер № 1 Подключаемся к Mysql.
mysql -u root -p
create user ‘replicator’@’%’ identified by ‘password’;
create database example_DB;
grant replication slave on . to ‘replicator’@’%’;
FLUSH PRIVILEGES;
show master status;
Запишем себе
+——————+———-+—————+——————+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+——————+———-+—————+——————+
| mysql-bin.000010 | 1034 | | mysql |
+——————+———-+—————+——————+
1 row in set (0.00 sec)
quit
Не забываем поменять password на свой пароль.


Сервер № 2 Подключаемся к Mysql.
mysql -u root -p
create user ‘replicator’@’%’ identified by ‘password’;
create database example_DB;
grant replication slave on . to ‘replicator’@’%’;
FLUSH PRIVILEGES;
show master status;
+——————+———-+—————+——————+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+——————+———-+—————+——————+
| mysql-bin.000011 | 514 | | mysql |
+——————+———-+—————+——————+
1 row in set (0.00 sec)
slave stop;
CHANGE MASTER TO MASTER_HOST = ‘10.4.1.81’, MASTER_USER = ‘replicator’, MASTER_PASSWORD = ‘password’, MASTER_LOG_FILE = ‘mysql-bin.000010’, MASTER_LOG_POS = 1034;
slave start;
quit
Не забываем поменять password на свой пароль.


Сервер № 1 Подключаемся к Mysql.
mysql -u root -p
slave stop;
CHANGE MASTER TO MASTER_HOST = ‘10.4.1.82’, MASTER_USER = ‘replicator’, MASTER_PASSWORD = ‘password’, MASTER_LOG_FILE = ‘mysql-bin.000011’, MASTER_LOG_POS = 514;
slave start;
Проверим статус репликации
show slave status\G
Получим

*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 10.4.1.82
Master_User: replicator
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysql-bin.000012
Read_Master_Log_Pos: 107
Relay_Log_File: mysqld-relay-bin.000003
Relay_Log_Pos: 253
Relay_Master_Log_File: mysql-bin.000012
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
Replicate_Do_DB:
Replicate_Ignore_DB: mysql
Replicate_Do_Table:
Replicate_Ignore_Table:
Replicate_Wild_Do_Table:
Replicate_Wild_Ignore_Table:
Last_Errno: 0
Last_Error:
Skip_Counter: 0
Exec_Master_Log_Pos: 107
Relay_Log_Space: 556
Until_Condition: None
Until_Log_File:
Until_Log_Pos: 0
Master_SSL_Allowed: No
Master_SSL_CA_File:
Master_SSL_CA_Path:
Master_SSL_Cert:
Master_SSL_Cipher:
Master_SSL_Key:
Seconds_Behind_Master: 0
Master_SSL_Verify_Server_Cert: No
Last_IO_Errno: 0
Last_IO_Error:
Last_SQL_Errno: 0
Last_SQL_Error:
Replicate_Ignore_Server_Ids:
Master_Server_Id: 2
1 row in set (0.00 sec)

На другом сервере будет похожий вывод.

На этом репликация законцена.

#4.Замечания.
****Мы предполагаем что репликация настраивается на «чистые сервера» без баз данных. В противном случае перед настройко необходимо остановить первый серврер, слить с него бузу в дамп и импортировать на 2-й сервер. Важно: не разблокирывайте базу данных пока репликация не настроена. Ниже представлены несколько команд, которые помогут вам скопировать все данные с сервера на новый сервер, если на вашем сервере были данные.**

FLUSH TABLES WITH READ LOCK;
SET GLOBAL read_only = ON;
Дампим данные в all_databases.sql.

mysqldump —defaults-file=/etc/mysql/debian.cnf -cCeQ —hex-blob —quote-names —routines —events —triggers —all-databases -r all_databases.sql

Теперь импортируем полученные данные на 2-й серврер

mysql —defaults-file=/etc/mysql/debian.cnf < all_databases.sql

Если что-то пошло нетак смотрим логи /var/log/syslog.

#Переходим к настройке балансировки и mysql-proxy.



На серверах mysql-proxy1 и mysql-proxy2 устанавливаем необходимые компоненты (здесь и далее, все команды выполняются от имени суперпользователя).

sudo su
apt-get install mysql-proxy

nano /etc/default/mysql-proxy

ENABLED=»true»
OPTIONS=»—proxy-lua-script=/usr/share/mysql-proxy/rw-splitting.lua —proxy-address=10.4.1.81:3306 —proxy-backend-addresses=10.4.1.81:3306,10.4.1.82:3306″

$ sudo chmod 0660 /etc/mysql/mysql-proxy.cnf

启动mysql-proxy

$ sudo /etc/init.d/mysql-proxy start
* Starting MySQL Proxy daemon… [ OK ]

测试3307端口

$ mysql -hlocalhost -P3307 -uroot -p

mysql-proxy 软件包所含文件如下:

$ dpkg -L mysql-proxy
/.
/etc
/etc/default
/etc/default/mysql-proxy
/etc/init.d
/etc/init.d/mysql-proxy
/usr
/usr/share
/usr/share/mysql-proxy
/usr/share/mysql-proxy/active-queries.lua
/usr/share/mysql-proxy/active-transactions.lua
/usr/share/mysql-proxy/admin-sql.lua
/usr/share/mysql-proxy/admin.lua
/usr/share/mysql-proxy/analyze-query.lua
/usr/share/mysql-proxy/auditing.lua
/usr/share/mysql-proxy/commit-obfuscator.lua
/usr/share/mysql-proxy/histogram.lua
/usr/share/mysql-proxy/load-multi.lua
/usr/share/mysql-proxy/ro-balance.lua
/usr/share/mysql-proxy/ro-pooling.lua
/usr/share/mysql-proxy/rw-splitting.lua
/usr/share/mysql-proxy/xtab.lua
/usr/share/doc
/usr/share/doc/mysql-proxy
/usr/share/doc/mysql-proxy/README.TESTS.gz
/usr/share/doc/mysql-proxy/README
/usr/share/doc/mysql-proxy/copyright
/usr/share/doc/mysql-proxy/changelog.Debian.gz
/usr/lib
/usr/lib/libmysql-chassis-glibext.so.0.0.0
/usr/lib/libmysql-chassis-timing.so.0.0.0
/usr/lib/libmysql-chassis.so.0.0.0
/usr/lib/libmysql-proxy.so.0.0.0
/usr/lib/mysql-proxy
/usr/lib/mysql-proxy/lua
/usr/lib/mysql-proxy/lua/proxy
/usr/lib/mysql-proxy/lua/proxy/auto-config.lua
/usr/lib/mysql-proxy/lua/proxy/balance.lua
/usr/lib/mysql-proxy/lua/proxy/commands.lua
/usr/lib/mysql-proxy/lua/proxy/parser.lua
/usr/lib/mysql-proxy/lua/proxy/tokenizer.lua
/usr/lib/mysql-proxy/lua/proxy/test.lua
/usr/lib/mysql-proxy/lua/admin.lua
/usr/lib/mysql-proxy/lua/lfs.so
/usr/lib/mysql-proxy/lua/glib2.so
/usr/lib/mysql-proxy/lua/chassis.so
/usr/lib/mysql-proxy/lua/mysql.so
/usr/lib/mysql-proxy/lua/lpeg.so
/usr/lib/mysql-proxy/lua/posix.so
/usr/lib/mysql-proxy/plugins
/usr/lib/mysql-proxy/plugins/libadmin.so
/usr/lib/mysql-proxy/plugins/libproxy.so
/usr/lib/mysql-proxy/plugins/libreplicant.so
/usr/lib/mysql-proxy/plugins/libdebug.so
/usr/lib/pkgconfig
/usr/lib/pkgconfig/mysql-proxy.pc
/usr/lib/pkgconfig/mysql-chassis.pc
/usr/bin
/usr/bin/mysql-binlog-dump
/usr/bin/mysql-myisam-dump
/usr/bin/mysql-proxy
/usr/include
/usr/include/network-mysqld.h
/usr/include/network-mysqld-lua.h
/usr/include/network-mysqld-proto.h
/usr/include/network-mysqld-binlog.h
/usr/include/network-mysqld-packet.h
/usr/include/network-mysqld-masterinfo.h
/usr/include/network-conn-pool.h
/usr/include/network-conn-pool-lua.h
/usr/include/network-queue.h
/usr/include/network-socket.h
/usr/include/network-socket-lua.h
/usr/include/network-address.h
/usr/include/network-address-lua.h
/usr/include/sys-pedantic.h
/usr/include/chassis-plugin.h
/usr/include/chassis-log.h
/usr/include/chassis-keyfile.h
/usr/include/chassis-mainloop.h
/usr/include/chassis-path.h
/usr/include/chassis-filemode.h
/usr/include/chassis-limits.h
/usr/include/chassis-event-thread.h
/usr/include/chassis-gtimeval.h
/usr/include/glib-ext.h
/usr/include/glib-ext-ref.h
/usr/include/string-len.h
/usr/include/lua-load-factory.h
/usr/include/lua-scope.h
/usr/include/lua-env.h
/usr/include/network-injection.h
/usr/include/network-injection-lua.h
/usr/include/chassis-shutdown-hooks.h
/usr/include/chassis-exports.h
/usr/include/network-exports.h
/usr/include/network-backend.h
/usr/include/network-backend-lua.h
/usr/include/disable-dtrace.h
/usr/include/lua-registry-keys.h
/usr/include/chassis-stats.h
/usr/include/chassis-timings.h
/usr/include/chassis-frontend.h
/usr/include/chassis-options.h
/usr/include/chassis-win32-service.h
/usr/include/chassis-unix-daemon.h
/usr/include/my_rdtsc.h
/usr/lib/libmysql-chassis-glibext.so.0
/usr/lib/libmysql-chassis-glibext.so
/usr/lib/libmysql-proxy.so
/usr/lib/libmysql-chassis-timing.so.0
/usr/lib/libmysql-chassis-timing.so
/usr/lib/libmysql-proxy.so.0
/usr/lib/libmysql-chassis.so.0
/usr/lib/libmysql-chassis.so

Автор:human

Команды и скрипты postgres

Создадим тестовую базу данных и тестового пользователя:

Для выхода из оболочки введите команду \q.

Теперь попробуем поработать с созданной базой данных от имени test_user:

Создадим новую таблицу:

Удаление пользователя

Чтобы удалить пользователя необходимо передать его права другому, а затем только удалить

— повторить предыдущие команды для каждой базы в кластере

DROP ROLE doomed_role;

Скрипт по табличного бэкапа postgres.

Исполнять из под user’a — postgres. Если в кронах — то также из под юзера postgresql.

Скрипт по табличного бэкапа postgres. написан на perl

Исполнять из под user’a — postgres. Если в кронах — то также из под юзера postgresql.

Словари полнотекстового поиска в postgresql

Скачать с сайта

Бэкап базы с удаленной машины

Бекап и восстановление таблиц

В PostgreSQL есть две утилиты для бекапа pg_dump и pg_dumpall. pg_dump используется для бекапа одной базы, pg_dumpall для бекапа всех баз и сервера в целом (необходимо запускать под postgresql-суперпользователем).

Создание бекапа базы mydb, в сжатом виде

Создание бекапа базы mydb, в виде обычного текстового файла, включая команду для создания БД

Создание бекапа базы mydb, в сжатом виде, с таблицами которые содержат в имени payments

Дамп данных только одной, конкретной таблицы. Если нужно создать резервную копию нескольких таблиц, то имена этих таблиц перечисляются с помощью ключа -t для каждой таблицы.

Создание резервной копии с сжатием в gz

Список наиболее часто используемых опций:

-h host — хост, если не указан то используется localhost или значение из переменной окруженияPGHOST.

-p port — порт, если не указан то используется 5432 или значение из переменной окружения PGPORT.

-u — пользователь, если не указан то используется текущий пользователь, также значение можно указать в переменной окружения PGUSER.

-a, --data-only — дамп только данных, по-умолчанию сохраняются данные и схема.

-b — включать в дамп большие объекты (blog’и).

-s, --schema-only — дамп только схемы.

-C, --create — добавляет команду для создания БД.

-c — добавляет команды для удаления (drop) объектов (таблиц, видов и т.д.).

-O — не добавлять команды для установки владельца объекта (таблиц, видов и т.д.).

-F, --format {c|t|p} — выходной формат дампа, custom, tar, или plain text.

-t, --table=TABLE — указываем определенную таблицу для дампа.

-v, --verbose — вывод подробной информации.

-D, --attribute-inserts — дамп используя команду INSERT с списком имен свойств.

Бекап всех баз данных используя команду pg_dumpall.

В PostgreSQL есть две утилиты для восстановления базы из бекапа.

  • psql — восстановление бекапов, которые хранятся в обычном текстовом файле (plain text);
  • pg_restore — восстановление сжатых бекапов (tar);

Восстановление базы данных и применение прав

Восстановление всего бекапа с игнорированием ошибок

Восстановление всего бекапа с остановкой на первой ошибке

Для восстановления из tar-арихива нам понадобиться сначала создать базу с помощью CREATE DATABASE mydb; (если при создании бекапа не была указана опция -C) и восстановить

Восстановление резервной копии БД, сжатой gz

Начиная с версии 9.2 можно восстановить только структуру таблиц с помощью опции --section

Обслуживание таблицы

Перенос директории с данным (data directory)

Узнать текущий путь

Создадим новую директорию, назначим пользователя и инициализируем

Теперь надо подправить файл с сервисом, который стартует postgresql

Очищение таблицы

Очищение таблицы tablename и обнуление счетчика с ID.

CASCADE нужен на случай если tablename связана с другой таблицей.

Удаление NULL у поля

Утилиты

pgcli утилита командной строки с авто-дополнениям и подсветкой синтаксиса.

Установка

Запуск

 

Скрипт изменения владельца базы данных и таблиц postgresql

Отправка postgresql в rsyslog > fluentd > kibana

Макет для rsyslog.d

Postgres pgpool2 presentation

pgpool-ii-3-5-presentation

Запуск pgbouncer

Отсоединить пользователей от базы данных

Postgres перезагрузка конфига без рестарта

Автор:human

Установка postgresql 9.5 debian 8

# настраиваем репозиторий
wget -O — https://apt.postgresql.org/pub/repos/apt/ACCC4CF8.asc | apt-key add —
echo «deb https://apt.postgresql.org/pub/repos/apt/ jessie-pgdg main» >> /etc/apt/sources.list.d/pgdg.list
aptitude update
apt-get install pgdg-keyring

# устанавливаем postgresql 9.5, postgis, repmgr
aptitude install postgresql-9.5 postgresql-9.5-repmgr
aptitude install postgresql-9.5-postgis-2.2 postgresql-9.5-postgis-scripts

# и на всякий случай ntp
aptitude install ntp

# и может быть понадобится zerofree
aptitude install zerofree

# меняем пароль postgres
su — postgres
psql postgres postgres
ALTER USER postgres WITH PASSWORD ‘tmppassword’;

# Исправляем в /etc/postgresql/9.5/main/postgresql.conf listen_addresses на ‘*’
listen_addresses = ‘*’

# В /etc/postgresql/9.5/main/pg_hba.conf прописываем права доступа
host all all 10.4.1.0/16 md5

# правим ~/.pgpass — потенциальная ДЫРА!!!
#hostname:port:database:username:password
#pghost:5432:postgres:postgres:passw0rd

# Создаём нужных пользователей
createuser -U postgres -h pghost newusername

Автор:human

Postgresql 9.5 репликация-pgpool+keepalived на debian/ubuntu

Postgresql 9.5 репликация-pgpool+keepalived на debian/ubuntu

Postgresql 9.5 репликация-pgpool+keepalived на debian_ubuntu-4
Postgresql 9.5 репликация-pgpool+keepalived на debian_ubuntu-3 Postgresql 9.5 репликация-pgpool+keepalived на debian_ubuntu-2 Postgresql 9.5 репликация-pgpool+keepalived на debian_ubuntu-1

1. Конфигурация.

ОС — DEBIAN SERVER 8 MINIMAL
10.4.1.173 — Виртуальный ip адрес за счет keepalived
НОДЫ:
PGPOOL1 10.4.1.171 — нода с pgpool+keepalived
PGPOOL1 10.4.1.172 — нода с pgpool+keepalived
pg1 10.4.1.161 — master postgresqldatabase
pg2 10.4.1.162 — master postgresqldatabase

2. Установка и настройка.

2.1 Тюнинг операционных систем.

Обязательно устанавливаем ntp для синхронизации времени.

sudo apt-get install ntp  iptables-persistent -y

Настраиваем sysctk.conf

sudo nano /etc/sysctl.conf

Вставляем в конце

kernel.shmmni = 4096

kernel.sem = 50100 64128000 50100 1280

fs.file-max = 7672460

net.ipv4.ip_local_port_range = 9000 65000

net.core.rmem_default = 1048576

net.core.rmem_max = 4194304

net.core.wmem_default = 262144

net.core.wmem_max = 1048576

net.ipv4.tcp_tw_recycle = 1

net.ipv4.tcp_max_syn_backlog = 4096

net.core.netdev_max_backlog = 10000

vm.overcommit_memory = 0

net.ipv4.ip_conntrack_max = 655360

fs.aio-max-nr = 1048576

net.ipv4.tcp_timestamps = 0

Применяем

sysctl -p

Настраиваем ограничения

nano /etc/

Настраиваем фаервол:

Создадим пользователя postgres на нодах

adduser postgres —home /home/postgres
sudo chown postgres /home/postgres
sudo chgrp postgres /home/postgres

Настроим  доступ по ssh ключам. Как это сделать смотрим в этой статье

Все теперь наши pg1 и pg2 могут свободно заходить по ssh ключам через пользователся postgres. Проверьте, например с pg1 сделайте.

ssh postgres@10.4.1.162

Идем далее.

 

О кластеризации и репликации мною было уже много сказано, но вот опять наткнулся на старые грабли — нужен кластер PostgreSQL. Решил решить данную задачку посредством Pgpool-II, только вот проблема — документации на офф. сайте сего продукта японской мысли оказалось с гулькин нос, да и та вся либо на японском, либо на англицком. Итак, предположим что данное чудо-юдо, ровно как и слоняры у нас уже установлены на всех узлах (у меня узлов будет 2, поэтому из соображений High Availablity pgpool установлен будет на обоих), слоновьи сервера уже настроены.

* Настройки идентичны для обоих узлов. На обеих машинах стоит RHEL 6.2.

pcp.conf У pgpool-II есть интерфейс для административных целей — получить информацию об узлах базы данных, остановить pgpool-II и т.д. — по сети.
Чтобы использовать команды PCP, необходима идентификация пользователя. Эта идентификация отличается от идентификации пользователей в PostgreSQL. Имя пользователя и пароль нужно указывать в файле pcp.conf. В этом файле имя пользователя и пароль указываются как пара значений, разделенных двоеточием (:). Одна пара в строке.
Пароли зашифрованы в формате хэша md5.

Код:
# cat /etc/pgpool-II/pcp.conf
postgres:e8a48653851e28c69d0506508fb27fc5

При установке pgpool-II автоматически создается файл pcp.conf.sample. Его необходимо скопировать его в файл pcp.conf и отредактировать. Для шифрования пароля в хэш md5 используется команда pg_md5 (один из компонентов pgpool-II). pg_md5 принимает текст в параметре командной строки и отображает текст его md5 хэша.
Например:

Код:
# pg_md5 postgres
e8a48653851e28c69d0506508fb27fc5

Этот хэш вставляем в pcp.conf.

Команды PCP выполняются по сети, так что в файле pgpool.conf нужно будет задать номер порта в параметре pcp_port. Я заюзал стандартные.

Код:
pcp_port = 9898

pgpool.conf — Основной конфиг программы. У меня он приведен к сл. виду:

Код:
# cat /etc/pgpool-II/pgpool.conf
listen_addresses = ‘*’ # Слушаем все адреса, ибо слушать localhost смысла нет, а тут либо он, либо все
port = 5432 # Вешаем на стандартный порт pgsql. Слоняры будут у меня слушать порт 5433

socket_dir = ‘/tmp’
pcp_port = 9898  # Cм. выше
pcp_socket_dir = ‘/tmp’

enable_pool_hba = off # Отключаем встроеный механизм авторизации — она будет происходить на серверах баз данных
authentication_timeout = 60
ssl = off
#ssl_key = ‘./server.key’
#ssl_cert = ‘./server.cert’
#ssl_ca_cert = »
#ssl_ca_cert_dir = »

#——————————————————————————
# Настройки пулов
#——————————————————————————
num_init_children = 32
max_pool = 4
child_life_time = 300
child_max_connections = 0
connection_life_time = 0
client_idle_limit = 0

#——————————————————————————
# Логи
#——————————————————————————
log_destination = ‘syslog’
print_timestamp = on
log_connections = on
log_hostname = on
log_statement = on
log_per_node_statement = on
log_standby_delay = ‘always’

syslog_facility = ‘LOCAL0’
syslog_ident = ‘pgpool’
debug_level = 1

#——————————————————————————
# Что куда кладем
#——————————————————————————

pid_file_name = ‘/var/run/pgpool-II/pgpool.pid’
logdir = ‘/var/log/pgpool-II’

#——————————————————————————
# Пулинг соединений
#——————————————————————————

connection_cache = on
reset_query_list = ‘ABORT; DISCARD ALL’
#reset_query_list = ‘ABORT; RESET ALL; SET SESSION AUTHORIZATION DEFAULT’

#——————————————————————————
# Режим репликации — его и будем использовать. В данном
# режиме все модифицирующие запросы типа UPDATE,
# DELETE, INSERT отправляются сразу на все узлы баз даных,
# а запросы SELECT рулятся исходя из настроек ниже
#——————————————————————————

replication_mode = on # Включаем
replicate_select = off # Реплицировать-ли SELECT?
# Мне это не нужно, я буду юзать режим LB (см. ниже)
insert_lock = on
lobj_lock_table = »
replication_stop_on_mismatch = off
failover_if_affected_tuples_mismatch = off

#——————————————————————————
# Распределение нагрузки
#——————————————————————————

load_balance_mode = on #  распределяем SELECT между узлами базы данных.
ignore_leading_white_space = on
white_function_list = »
black_function_list = ‘nextval,setval’

#——————————————————————————
# MASTER/SLAVE — Горизонтальная репликация
#——————————————————————————

master_slave_mode = off # Нам оно не нужно
master_slave_sub_mode = ‘slony’
sr_check_period = 0
sr_check_user = ‘nobody’
sr_check_password = »
delay_threshold = 0
follow_master_command = »

#——————————————————————————
# Параллельные запросы и кэширование
#——————————————————————————

parallel_mode = off
enable_query_cache = off
pgpool2_hostname = »
system_db_hostname = ‘localhost’
system_db_port = 5432
system_db_dbname = ‘pgpool’
system_db_schema = ‘pgpool_catalog’
system_db_user = ‘pgpool’
system_db_password = »

#——————————————————————————
# Проверка состояния.
#——————————————————————————

health_check_period = 0
health_check_timeout = 20
health_check_user = ‘nobody’
health_check_password = »

#——————————————————————————
# Фэйловеры
#——————————————————————————

failover_command = »
# Executes this command at failover
# Special values:
#   %d = node id
#   %h = host name
#   %p = port number
#   %D = database cluster path
#   %m = new master node id
#   %H = hostname of the new master node
#   %M = old master node id
#   %P = old primary node id
#   %% = ‘%’ character
failback_command = »
# Executes this command at failback.
# Special values:
#   %d = node id
#   %h = host name
#   %p = port number
#   %D = database cluster path
#   %m = new master node id
#   %H = hostname of the new master node
#   %M = old master node id
#   %P = old primary node id
#   %% = ‘%’ character

fail_over_on_backend_error = off

#——————————————————————————
# Автовосстановление — тоже не наш случай
#——————————————————————————

recovery_user = ‘nobody’
recovery_password = »

recovery_1st_stage_command = »

recovery_2nd_stage_command = »

recovery_timeout = 90

client_idle_limit_in_recovery = 0

#——————————————————————————
# Узлы — тут думаю все понятно :)
#——————————————————————————

relcache_expire = 0

backend_hostname0 = ‘192.168.50.1’
backend_port0 = 5433
backend_weight0 = 1
backend_flag0= ‘ALLOW_TO_FAILOVER’
backend_hostname1 = ‘192.168.50.3’
backend_port1 = 5433
backend_weight1 = 1
backend_flag1= ‘ALLOW_TO_FAILOVER’

Файлик pool_hba.conf оставляем нетронутым, поскольку в конфиге выше мы отключили его использование, однако стоит сказать, что синтаксис его идентичен pg_hba.conf от PostgreSQL. Кстати, пора им заняться

Код:
# cat /var/lib/pgsql/data/pg_hba.conf
# PostgreSQL Client Authentication Configuration File
# ===================================================
#
# Refer to the «Client Authentication» section in the PostgreSQL
# documentation for a complete description of this file.  A short
# synopsis follows.
#
# This file controls: which hosts are allowed to connect, how clients
# are authenticated, which PostgreSQL user names they can use, which
# databases they can access.  Records take one of these forms:
#
# local      DATABASE  USER  METHOD  [OPTIONS]
# host       DATABASE  USER  ADDRESS  METHOD  [OPTIONS]
# hostssl    DATABASE  USER  ADDRESS  METHOD  [OPTIONS]
# hostnossl  DATABASE  USER  ADDRESS  METHOD  [OPTIONS]
#
# (The uppercase items must be replaced by actual values.)
#
# The first field is the connection type: «local» is a Unix-domain
# socket, «host» is either a plain or SSL-encrypted TCP/IP socket,
# «hostssl» is an SSL-encrypted TCP/IP socket, and «hostnossl» is a
# plain TCP/IP socket.
#
# DATABASE can be «all», «sameuser», «samerole», «replication», a
# database name, or a comma-separated list thereof. The «all»
# keyword does not match «replication». Access to replication
# must be enabled in a separate record (see example below).
#
# USER can be «all», a user name, a group name prefixed with «+», or a
# comma-separated list thereof.  In both the DATABASE and USER fields
# you can also write a file name prefixed with «@» to include names
# from a separate file.
#
# ADDRESS specifies the set of hosts the record matches.  It can be a
# host name, or it is made up of an IP address and a CIDR mask that is
# an integer (between 0 and 32 (IPv4) or 128 (IPv6) inclusive) that
# specifies the number of significant bits in the mask.  A host name
# that starts with a dot (.) matches a suffix of the actual host name.
# Alternatively, you can write an IP address and netmask in separate
# columns to specify the set of hosts.  Instead of a CIDR-address, you
# can write «samehost» to match any of the server’s own IP addresses,
# or «samenet» to match any address in any subnet that the server is
# directly connected to.
#
# METHOD can be «trust», «reject», «md5», «password», «gss», «sspi»,
# «krb5», «ident», «peer», «pam», «ldap», «radius» or «cert».  Note that
# «password» sends passwords in clear text; «md5» is preferred since
# it sends encrypted passwords.
#
# OPTIONS are a set of options for the authentication in the format
# NAME=VALUE.  The available options depend on the different
# authentication methods — refer to the «Client Authentication»
# section in the documentation for a list of which options are
# available for which authentication methods.
#
# Database and user names containing spaces, commas, quotes and other
# special characters must be quoted.  Quoting one of the keywords
# «all», «sameuser», «samerole» or «replication» makes the name lose
# its special character, and just match a database or username with
# that name.
#
# This file is read on server startup and when the postmaster receives
# a SIGHUP signal.  If you edit the file on a running system, you have
# to SIGHUP the postmaster for the changes to take effect.  You can
# use «pg_ctl reload» to do that.

# Put your actual configuration here
# ———————————-
#
# If you want to allow non-local connections, you need to add more
# «host» records.  In that case you will also need to make PostgreSQL
# listen on a non-local interface via the listen_addresses
# configuration parameter, or via the -i or -h command line switches.

# TYPE  DATABASE        USER            ADDRESS                 METHOD

# «local» is for Unix domain socket connections only
local   all             all                                     peer
# IPv4 local connections:
host    all             all             127.0.0.1/32            ident
# IPv6 local connections:
host    all             all             ::1/128                 ident
# Allow replication connections from localhost, by a user with the
# replication privilege.
#local   replication     postgres                                peer
#host    replication     postgres        127.0.0.1/32            ident
#host    replication     postgres        ::1/128                 ident
host     all             all             192.168.50.1/32         ident
host     all             all             192.168.50.3/32         ident

Обратите внимание на последние 2 строки — в них сказано что пользователей приходящих с машин 192.168.50.1 и 192.168.50.3 необходимо пропускать через авторизацию. Если вы не такой параноик как я можете выставить trust, тогда пользователи БД будут выполнять запросы без авторизации

У меня PostgreSQL 9.1.3 и pgpool-II соответствующей ему версии (а это поверьте мне важно) установлены из моего локального репозитория для RHEL (собственной сборки), поэтому учтите, что пути могут отличаться от стандартных.

High Availablity
Для того, чтобы при выпадении одного из узлов базы оставались доступными нам необходимо настроить heartbeat (кто-то может воспользоваться ucarp — дело вкуса).
Конфиг его у меня выглядит сл. образом на обоих узлах:

Код:
# cat /etc/ha.d/ha.cf
debugfile /var/log/ha-debug
logfile /var/log/ha-log

#logfacility    local0
keepalive 2
deadtime 30
warntime 10
initdead 120
udpport 694
baud    19200

bcast   eth1

auto_failback on

node    host1.domain.tld
node    host2.domain.tld

max_rexmit_delay 1000
deadping 30
debug 0

Тут думаю не составит труда разобраться используя официальную документацию. Все самое интересное — в следующем файле:

Код:
# cat /etc/ha.d/haresources
#node-name resource1 resource2 … resourceN
host1.domain.tld IPaddr::192.168.50.254/24/eth1 pgpool

Как видите присваиваем интерфейсу алиас в виде адреса 192.168.50.254 и основным владельцем назначаем хост1. В случае выпадения его поднимет у себя хост2 и запустит pgpool.

Вносим правки в /etc/hosts

Код:
# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain mx1.torrents.kg
192.168.50.254    pgpool.domain.tld
192.168.50.1    host1.domain.tld
192.168.50.3    host2.domain.tld

Проводим последние приготовления (на обоих узлах):

Код:
# chkconfig postgresql on
# chkconfig pgpool off
# chkconfig heartbeat on

Ну и стартуем:

Код:
# service postgresql start && ssh 192.168.50.3 /etc/init.d/postgresql start
# service heartbeat start && ssh 192.168.50.3 /etc/init.d/heartbeat start

Если с настройками все верно, на 1-м хосте должен будет запуститься pgpool

Код:
# netstat -nltp | grep pgpool
tcp        0      0 0.0.0.0:9898                0.0.0.0:*                   LISTEN      685/pgpool: wait fo
tcp        0      0 0.0.0.0:5432                0.0.0.0:*                   LISTEN      685/pgpool: wait fo

и добавиться алиас к интерфейсу eth1

Код:
# ip addr show
2: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN qlen 10000
link/ether bc:30:5b:68:e1:71 brd ff:ff:ff:ff:ff:ff
inet 192.168.50.1/24 brd 192.168.50.255 scope global eth1
inet 192.168.50.254/24 brd 192.168.50.255 scope global eth1:0
inet6 fe80::be30:5bff:fe68:e171/64 scope link
valid_lft forever preferred_lft forever

Тестируем.

Код:
#su postgres
$ createdb -p 5432 -h pgpool.domain.tld test # выполнить только на одной машине
$ psql -p 5433 -d test

Если последняя команда вам выдала что-то вроде

Код:
psql: СБОЙ:  база данных «test» не существует

это повод для пересмотра конфигов и глубокого изучения логов.

Если все верно и на обоих машинах psql без проблем подключается к базе test

Код:
psql (9.1.3)
Введите «help», чтобы получить справку.

test-# \q

Яндекс.Метрика