
もくじ
GitHub ManageRds
ジョブサーバの
/root/manageRds
に設置したアプリを利用してバックアップを行うのが良いでしょう。
バックアップしているもの
- dumpファイル
- binlogファイル
S3のバケット作成
- {プロジェクト名}-backup-develop
- {プロジェクト名}-backup-staging
- {プロジェクト名}-backup-production
IAMの作成
Terraformで作成してください
ご参考
variable.tf
variable ENV_VALUE_ENVIRONMENT {}
variable ENV_VALUE_PROJECT_NAME {}
iam.tf
# S3へバックアップする為のユーザ
resource "aws_iam_user" "s3_sync" {
name = "s3-sync-${var.ENV_VALUE_ENVIRONMENT}"
# Accessキーの削除・更新ができるようにする
force_destroy = true
}
resource "aws_iam_policy" "s3_sync" {
name = "s3-sync-${var.ENV_VALUE_ENVIRONMENT}-policy"
policy = jsonencode({
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"s3:PutObject",
"s3:GetObject",
"s3:DeleteObject"
],
"Resource": [
"arn:aws:s3:::${var.ENV_VALUE_PROJECT_NAME}-backup-${var.ENV_VALUE_ENVIRONMENT}/*"
],
},
{
"Effect": "Allow",
"Action": [
"s3:ListBucket"
],
"Resource": [
"arn:aws:s3:::${var.ENV_VALUE_PROJECT_NAME}-${var.ENV_VALUE_ENVIRONMENT}"
]
}
]
})
description = "S3へファイルをアップロードする"
}
resource "aws_iam_user_policy_attachment" "s3_sync_policy_attach_s3_sync" {
user = aws_iam_user.s3_sync.name
policy_arn = aws_iam_policy.s3_sync.arn
}
# RDS モニタリング用
resource "aws_iam_role" "rds_monitoring_role" {
name = "rds-monitoring-role-${var.ENV_VALUE_ENVIRONMENT}"
assume_role_policy = file("${path.module}/policy/assume-rds.json")
}
resource "aws_iam_policy" "rds_monitoring_policy" {
name = "rds-monitoring-policy-${var.ENV_VALUE_ENVIRONMENT}"
policy = file("${path.module}/policy/rds-monitoring.json")
}
resource "aws_iam_role_policy_attachment" "rds_monitoring_role_attach_policy" {
role = aws_iam_role.rds_monitoring_role.name
policy_arn = aws_iam_policy.rds_monitoring_policy.arn
}
/policy/rds-monitoring.json
{
"Version": "2012-10-17",
"Statement": [
{
"Sid": "EnableCreationAndManagementOfRDSCloudwatchLogGroups",
"Effect": "Allow",
"Action": [
"logs:CreateLogGroup",
"logs:PutRetentionPolicy"
],
"Resource": [
"arn:aws:logs:*:*:log-group:RDS*"
]
},
{
"Sid": "EnableCreationAndManagementOfRDSCloudwatchLogStreams",
"Effect": "Allow",
"Action": [
"logs:CreateLogStream",
"logs:PutLogEvents",
"logs:DescribeLogStreams",
"logs:GetLogEvents"
],
"Resource": [
"arn:aws:logs:*:*:log-group:RDS*:log-stream:*"
]
}
]
}
RDSのパラメータグループ
resource "aws_rds_cluster_parameter_group" "xxx_db" {
name = "${var.console_db_identifier_prefix}-parameter-group-aurora8-${var.ENV_VALUE_ENVIRONMENT}"
family = "aurora-mysql8.0"
description = "Cluster parameter group"
parameter {
name = "character_set_client"
value = "utf8mb4"
apply_method = "immediate"
}
parameter {
name = "character_set_connection"
value = "utf8mb4"
apply_method = "immediate"
}
parameter {
name = "character_set_database"
value = "utf8mb4"
apply_method = "immediate"
}
parameter {
name = "character_set_filesystem"
value = "utf8mb4"
apply_method = "immediate"
}
parameter {
name = "character_set_results"
value = "utf8mb4"
apply_method = "immediate"
}
parameter {
name = "character_set_server"
value = "utf8mb4"
apply_method = "immediate"
}
parameter {
name = "collation_connection"
value = "utf8mb4_general_ci"
apply_method = "immediate"
}
parameter {
name = "collation_server"
value = "utf8mb4_general_ci"
apply_method = "immediate"
}
parameter {
name = "time_zone"
value = "Asia/Tokyo"
apply_method = "immediate"
}
# binlogのフォーマット設定 // Auroraのデフォルトはnullで指定することで有効化
parameter {
name = "binlog_format"
value = "MIXED"
apply_method = "pending-reboot"
}
# 最大接続数 アプリケーションサーバー台数 * 最大スレッド数 を見て調整するのがセオリー。特に台数の制御なくオートスケールするので最大にしておく
parameter {
name = "max_connections"
value = "16000"
}
# binlogを利用してリストアするのに必要
parameter {
name = "log_bin_trust_function_creators"
value = "1"
apply_method = "immediate"
}
# slow_queryの出力を有効化
parameter {
name = "slow_query_log"
value = "1"
apply_method = "immediate"
}
# 一般ログの出力を有効化
parameter {
name = "general_log"
value = "1"
apply_method = "immediate"
}
# slow_queryの閾値。この場合は1秒
parameter {
name = "long_query_time"
value = "1"
apply_method = "immediate"
}
# 監査ログ 有効化
parameter {
name = "server_audit_logging"
value = "1"
apply_method = "immediate"
}
# 監査ログ CloudWatch Logsへの出力
parameter {
name = "server_audit_logs_upload"
value = "1"
apply_method = "immediate"
}
# 監査ログ 監査させるIAM ROLE
parameter {
name = "aws_default_logs_role"
value = var.rds_monitoring_role_arn
apply_method = "immediate"
}
# 監査ログ イベント対象
parameter {
name = "server_audit_events"
value = "CONNECT,QUERY,QUERY_DCL,QUERY_DDL,QUERY_DML,TABLE"
apply_method = "immediate"
}
# デッドロックをエラーログに出力
parameter {
name = "innodb_status_output"
value = "1"
apply_method = "immediate"
}
parameter {
name = "innodb_status_output_locks"
value = "1"
apply_method = "immediate"
}
# 行データのデッドロック default: 50秒 -> 5秒
parameter {
name = "innodb_lock_wait_timeout"
value = "5"
apply_method = "immediate"
}
# idle timeout defalt: 28800 -> 600
parameter {
name = "wait_timeout"
value = "600"
apply_method = "immediate"
}
}
AWS CLIの設定
developの場合 # aws configure --profile s3-sync-develop AWS Access Key ID [None]: AKIARxxxxxxxxxxxxx AWS Secret Access Key [None]: xxxxxxxxxx Default region name [None]: ap-northeast-1 Default output format [None]: json stagingの場合 # aws configure --profile s3-sync-staging (略) productionの場合 # aws configure --profile s3-sync-production (略)
管理アプリのインストール
git cloneする
# git clone https://github.com/yuukanehiro/ManageRds.git # cd ManageRds
ウィザードを実行
# sh createProfile.sh
実行例
root@ip-172-xxx-xxx-242:~/ManageBinlog# sh createProfile.sh
DB接続の設定ファイル作成ウィザード Start
まずDBをダンプバックアップバッチを作ります。
プロジェクト名(サービス名)を教えてください。S3バケットの名前に使います。${PJ_NAME}-backup-${ENV}
sampleapp
環境を教えて下さい
develop/staging/production
staging
DBの接続先はreader(slave)ですか、それともwriter(master)かを教えて下さい。readerインスタンスとreaderエンドポイントが存在する場合はreaderをお勧めします。
reader/writer
reader
DBの名前を入力してください。例) sampledb
yuu3
DBのuser名を入力してください。例) admin
sampledb
DBのreader_endpoint(host)を入力してください。例) sample-db.cluster-ro-xxxxx.ap-northeast-1.rds.amazonaws.com
sampleapp-sampledb-staging-v1-1.cluster-ro-xxxxx.ap-northeast-1.rds.amazonaws.com
DBのpasswordを入力してください。例) p@sSw0rd
xxxxx
こちらで正しいですか?設定ファイルが既に存在する場合は上書きされます。
PJ_NAME:sampleapp
ENV:staging
READER_OR_WRITER:reader
DB_NAME:sampledb
DB_USER:yuu3
DB_HOST:sampleapp-sampledb-staging-v1-1.cluster-ro-xxxxx.ap-northeast-1.rds.amazonaws.com
DB_PASSWORD:xxxxx
----------------------------
yes/no
yes
./profiles/sampledb_reader.conf
MySQL接続ファイルを作成しました! ./profiles/sampleapp_reader.conf
----------------------------
DBダンプバッチを作成しました! ./batches/sampledb/dumpdb.sh
WriterインスタンスからbinlogをS3にバックアップするバッチを作成しますか?
yes/no
yes
DBのwriter_endpoint(host)を入力してください。例) sample-db.cluster-xxxxx.ap-northeast-1.rds.amazonaws.com
sampleapp-sampledb-staging-v1-1.cluster-xxxxx.ap-northeast-1.rds.amazonaws.com
./profiles/sampleapp_writer.conf
MySQL接続ファイルを作成しました! ./profiles/sampledb_writer.conf
----------------------------
binlogバックアップバッチを作成しました! ./batches/sampleapp/backupBinlogToS3.sh
バックアップ先のS3からbinlogをダウンロードするバッチを作成しますか?
yes/no
yes
DB接続の設定ファイル作成ウィザード End
ウィザード生成されるバッチファイル
- mysqldumpによるダンプデータをS3に退避するバッチ
dumpdb.sh - binlogをS3に退避するバッチ
backupBinlogToS3.sh - S3に退避されたbinlogをダウンロードするバッチ
downloadBinlogFromS3.sh
S3からdumpファイルを1つダウンロードする場合
stagingのdumpファイルをダウンロードする例
# s3 scp --profile s3-sync-staging s3://sampleapp-backup-staging/database/sampledb/dump/${DAY}/{ダンプファイル名} .
プロフィール情報を利用した接続
# mysql --defaults-extra-file=~/ManageRds/profiles/sampledb_staging_writer.conf
Cron設定
/etc/crontabファイルにて設定されています。
/etc/crontab
・・・ ## sample DB # DB binlog * * * * * root sh /root/ManageRds/batches/sampledb/develop_backupBinlogToS3.sh * * * * * root sh /root/ManageRds/batches/sampledb/staging_backupBinlogToS3.sh * * * * * root sh /root/ManageRds/batches/sampledb/production_backupBinlogToS3.sh # DB dump 00 * * * * root sh /root/ManageRds/batches/sampledb/develop_dumpdb.sh 00 * * * * root sh /root/ManageRds/batches/sampledb/staging_dumpdb.sh 00 * * * * root sh /root/ManageRds/batches/sampledb/production_dumpdb.sh
設定を行ったら反映させてください
# systemctl restart cron
監視設定
関連
binlogのリストアなどは下記をご参考にしてください。
- AWS RDS PITR+ロールフォワードによるリカバリ 【下準備編】
- AWS RDS PITR+ロールフォワードによるリカバリ 【汎用 RDSのディスク障害からの復旧】
- AWS RDS PITR+ロールフォワードによるリカバリ 【誤ったクエリ発行からの復旧】




