目录

一:MySQL主从复制

mysql的复制类型

mysql主从复制的工作过程

工作过程:

MySQL的四种同步方式

问:MySQL集群和主从复制分别适合什么场景下使用?

用途及条件

MYSQL主从复制存在的问题

MySQL主从复制延迟

二:MySQL读写分离

读写分离基本原理

为什么要读写分离

什么时候要读写分离

主从复制与读写分离

MySQL读写分离的俩种实现方式

三:MySQL主从复制和读写分离实验部署

实验环境准备

初始环境准备

搭建MySQL主从复制

搭建时间同步(主服务器:192.168.10.20)

​编辑 搭建时间同步(从服务器:192.168.10.21、192.168.10.22) 

开始配置主服务器(192.168.10.20)

开启二进制日志

配置从服务器(192.168.10.21/192.168.10.22)

从mysql服务器192.168.10.21

​编辑

验证主从同步

搭建MySQL读写分离

安装java环境

下载安装包

 把jdk复制到/usr/local下

​编辑  赋予jdk权限并执行

把jdk改个名字

 配置环境并刷新

配置amoeba 

在/usr/local目录下创建amoeba目录并解压amoeba

​编辑 给目录/usr/local/amoeba赋予执行权限并运行amoeba

 配置amoeba读写分离

先在master、slave1、slave2的mysql上开放权限给amoeba访问

备份amoeba配置

 修改amoeba配置

 启动amoeba,并测试

进行测试 

这边就把amoeba机器当成客户机进行测试(也可以使用另一台机器当客户端)

 登入并查看数据库

测试同步 

 在主从服务器上查看

测试读写分离  

 扩展(主从复制在添加一台从服务器)

配置master服务器

配置从服务器

进行验证

主从同步原理

如何查看主从同步状态是否成功

如果I/O和SQL不是yes,如何排查

show slave status能看到哪些信息(重要的)

 主从复制慢(延迟)有哪些可能?如何解决?

总结


前言

在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份。
 

一:MySQL主从复制

MySQL 的主从复制和 MySQL 的读写分离两者有着紧密联系,首先要部署主从复制,只有主从复制完成了,才能在此基础上进行数据的读写分离。

mysql的复制类型

  • 基于语句的复制(STATEMENT):在主服务器上执行的 SQL 语句,在从服务器上执行同样的语句。MySQL 默认采用基于语句的复制,效率比较高。
  • 基于行的复制(ROW):把改变的内容复制过去,而不是把命令在从服务器上执行一遍。
  • 混合类型的复制(MIXED):默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。

mysql主从复制的工作过程

主MySQL服务器:Master
从MySQL服务器:Slave

重点:

两日志:二进制日志和中继日志

三线程:master的dump和slave的I/O、sql

 dump Thread:为每个Slave的I/O Thread启动一个dump线程,用于向其发送binary log events

I/O Thread:向Master请求二进制日志事件,并保存于中继日志中

SQL Thread:从中继日志中读取日志事件,在本地完成重放

工作过程:

(1)Master节点将数据的改变记录成二进制日志(bin log),当Master上的数据发生改变时,则将其改变写入二进制日志中

(2)Slave节点会在一定时间间隔内对Master的二进制日志进行探测其是否发生改变,如果发生改变,则开始一个I/O线程请求 Master的二进制事件

(3)同时Master节点为每个I/O线程启动一个dump线程,用于向其发送二进制事件,并保存至Slave节点本地的中继日志(Relay log)中

(4)Slave节点将启动SQL线程从中继日志中读取二进制日志,在本地存放,即解析成 sql 语句逐一执行,使得其数据和 Master节点的保持一致,最后I/O线程和SQL线程将进入睡眠状态,等待下一次被唤醒

注意:

中继日志通常会位于 OS 缓存中,所以中继日志的开销很小

复制过程有一个很重要的限制,即复制在slave上是串行化的,也就是说Master上的并行更新操作不能在slave上并行操作

MySQL的四种同步方式

异步复制(Async Replication)
主库将更新写入Binlog日志文件后,不需要等待数据更新是否已经复制到从库中,就可以继续处理更多的请求。Master将事件写入binlog,但并不知道Slave是否或何时已经接收且已处理。在异步复制的机制的情况下,如果Master宕机,事务在Master上已提交,但很可能这些事务没有传到任何的Slave上。假设有Master->Salve故障转移的机制,此时Slave也可能会丢失事务。MySQL复制默认是异步复制异步复制提供了最佳性能。

同步复制(Sync Replication)
主库将更新写入Binlog日志文件后,需要等待数据更新已经复制到从库中,并且已经在从库执行成功,然后才能返回继续处理其它的请求。同步复制提供了最佳安全性,保证数据安全,数据不会丢失,但对性能有一定的影响。

半同步复制(Semi-Sync Replication)
主库提交更新写入二进制日志文件后,等待数据更新写入了从服务器中继日志中,然后才能再继续处理其它请求。该功能确保至少有1个从库接收完主库传递过来的binlog内容已经写入到自己的relay log里面了,才会通知主库上面的等待线程,该操作完毕。
半同步复制,是最佳安全性与最佳性能之间的一个折中。
MySQL 5.5版本之后引入了半同步复制功能,主从服务器必须安装半同步复制插件,才能开启该复制功能。如果等待超时,超过rpl_semi_sync_master_timeout参数设置时间(默认值为10000,表示10秒),则关闭半同步复制,并自动转换为异步复制模式。当master dump线程发送完一个事务的所有事件之后,如果在rpl_semi_sync_master_timeout内,收到了从库的响应,则主从又重新恢复为增强半同步复制。
ACK (Acknowledge character)即是确认字符。

增强半同步复制(lossless Semi-Sync Replication、无损复制)
增强半同步是在MySQL 5.7引入,其实半同步可以看成是一个过渡功能,因为默认的配置就是增强半同步,所以,大家一般说的半同步复制其实就是增强的半同步复制,也就是无损复制。
增强半同步和半同步不同的是,等待ACK时间不同
rpl_semi_sync_master_wait_point = AFTER_SYNC(默认)
半同步的问题是因为等待ACK的点是Commit之后,此时Master已经完成数据变更,用户已经可以看到最新数据,当Binlog还未同步到Slave时,发生主从切换,那么此时从库是没有这个最新数据的,用户看到的是老数据。
增强半同步将等待ACK的点放在提交Commit之前,此时数据还未被提交,外界看不到数据变更,此时如果发送主从切换,新库依然还是老数据,不存在数据不一致的问题

问:MySQL集群和主从复制分别适合什么场景下使用?

集群和主从复制是为了应对高并发、大访问量的情况,如果网站访问量和并发量太大了,少量的数据库服务器是处理不过来的,会造成网站访问慢,数据写入会造成数据表或记录被锁住,锁住的意思就是其他访问线程暂时不能读写要等写入完成才能继续,这样会影响其他用户读取速度,采用主从复制可以让一些服务器专门读,一些专门写可以解决这个问题

用途及条件

MYSQL主从复制用途:实时灾备,用于故障切换      读写分离,提供查询服务        备份,避免影响服务 

必要条件:主库开启binlog日志    主从server-id不同     从库服务器能够连通主库

MYSQL主从复制存在的问题

  • 主库宕机后,数据可能丢失
  • 从库只有一个SQL Thread,主库写压力大,复制很可能延时

解决办法:

半同步复制——解决数据丢失的问题

并行复制——解决从库复制延迟的问题

MySQL主从复制延迟

  • master服务器高并发,形成大量事务
  • 网络延迟
  • 主从硬件设备导致——cpu主频、内存io、硬盘io
  • 本来就不是同步复制、而是异步复制

    从库优化Mysql参数。比如增大innodb_buffer_pool_size,让更多操作在Mysql内存中完成,减        少磁盘操作

     从库使用高性能主机,包括cpu强悍、内存加大。避免使用虚拟云主机,使用物理主机,这样         提升了i/o方面性

     从库使用SSD磁盘

     网络优化,避免跨机房实现同步

二:MySQL读写分离

读写分离基本原理

 读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库

为什么要读写分离

因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的

但是数据库的“读”(读10000条数据可能只要5秒钟)

所以读写分离,解决的是,数据库的写入,影响了查询的效率

什么时候要读写分离

1、数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。

2、利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能

主从复制与读写分离

在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。
有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份
 

MySQL读写分离的俩种实现方式

目前较为常见的mysql读写分离分为以下俩种:

基于程序代码内部实现
在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的
优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;缺点是需要开发人员来实现,运维人员无从下手
但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大
 

基于中间代理层实现
代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序

(1)MySQL-Proxy:MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。
(2)Atlas:是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,
对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。
(3)Amoeba:由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。

注:由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层
 

三:MySQL主从复制和读写分离实验部署

实验环境准备

master服务器: 192.168.10.20   mysql5.7
slave1服务器: 192.168.10.21   mysql5.7
slave1服务器: 192.168.10.22  mysql5.7
Amoeba服务器: 192.168.10.19  jdk1.6、Amoeba

初始环境准备

#4台服务器上都初始化systemctl stop firewalldsystemctl disable firewalldsetenforce 0

搭建MySQL主从复制

搭建时间同步(主服务器:192.168.10.20)

1.#安装时间同步服务器yum install ntp -y 2.#修改配置文件vim /etc/ntp.confserver 127.127.10.0 #设置本地时钟源fudge 127.127.10.0 stratum 8#设置时间层级为8 限制在15 以内 3.#开启服务service ntpd start

安装时间同步服务器

#安装时间同步服务器yum install ntp -y

 修改配置文件

#修改配置文件vim /etc/ntp.confserver 127.127.10.0 #设置本地时钟源fudge 127.127.10.0 stratum 8#设置时间层级为8 限制在15 以内

开启时间同步服务

#开启服务service ntpd start

 搭建时间同步(从服务器:192.168.10.21、192.168.10.22) 

1.#安装时间同步服务器、同步服务yum install ntp -yyum install ntpdate -y 2. #开启服务service ntpd start 3. #执行同步/usr/sbin/ntpdate 192.168.10.20 4.#计划定时任务crontab -e*/30 * * * */usr/sbin/ntpdate 192.168.10.20 ###########slave2:192.168.10.22与以上操作相同######

 从mysql服务器192.168.10.21

安装时间同步服务器、同步服务

#安装时间同步服务器、同步服务yum install ntp -yyum install ntpdate -y

 开启服务

#开启服务service ntpd start

执行同步

#执行同步/usr/sbin/ntpdate 192.168.10.20

计划定时任务

#计划定时任务crontab -e*/30 * * * */usr/sbin/ntpdate 192.168.10.20

从mysql服务器192168.10.22上的配置与21机器相同

我自己做了,不描述了,快速截图了,做的时候记得,两台从服务器哦

 

 这里两个从服务器的时间同步服务就啊好了

开始配置主服务器(192.168.10.20)

1. #开启二进制日志vim /etc/my.cnf log-bin=master-bin#开启二进制日志binlog_format=MIXED #二进制日志格式log-slave-updates=true#开启从服务器同步 2. #重启服务systemctl restart mysqld.service3. #登入mysql,给从服务器在网段授权mysql -uroot -p123456grant replication slave on *.* to 'myslave'@'192.168.10.%' identified by '123456'; #刷新数据库flush privileges; #查看主服务器二进制文件show master status;

开启二进制日志

#开启二进制日志vim /etc/my.cnf server-id = 1 #修改server-id,主从服务器的server-id都不能重复log-bin=master-bin#开启二进制日志binlog_format=MIXED #二进制日志格式log-slave-updates=true#开启从服务器同步

 

重启服务

重启服务systemctl restart mysqld.service

 登入mysql,给从服务器在网段授权

mysql -uroot -p123456GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.10.%' IDENTIFIED BY '123456';#给从服务器授权 flush privileges; #刷新数据库 show master status; #查看主服务器二进制文件

 

配置从服务器(192.168.10.21/192.168.10.22)

1.#开启二进制日志vim /etc/my.cnfserver-id = 2 #slave1和slave2的id不能相同,slave2设置的3relay-log=relay-log-binrelay-log-index=slave-relay-bin.indexrelay_log_recovery = 1 2.#重启服务systemctl restart mysqld.service3. #登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致mysql -uroot -p123456change master to master_host='192.168.10.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=755; 4.#启动同步,如果报错,执行restart slave试试start slave;show slave status\G;##以下两个必须要是YES#Slave_IO_Running: Yes#Slave_SQL_Running: Yes#########slave2:192.168.10.22与以上操作相同######

从mysql服务器192.168.10.21

开启二进制日志

vim /etc/my.cnfserver-id = 2#修改,注意id与Master的不同,两个Slave的id也要不同relay-log=relay-log-bin#添加,开启中继日志,从主服务器上同步日志文件记录到本地relay-log-index=slave-relay-bin.index#添加,定义中继日志文件的位置和名称relay_log_recovery = 1#选配项#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log,并且重新从 master 上获取日志,这样就保证了relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启


 

重启服务

systemctl restart mysqld.service

 登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致

mysql -u root -pchange master to master_host='192.168.10.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=755;#配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致,这里的是例子,每个人的都不一样

启动同步

start slave;#启动同步,如有报错执行 reset slave;show slave status\G#查看 Slave 状态//确保 IO 和 SQL 线程都是 Yes,代表同步正常。Slave_IO_Running: Yes#负责与主机的io通信Slave_SQL_Running: Yes#负责自己的slave mysql进程

一般 Slave_IO_Running: Connecting/No 的可能性:
1、网络不通
2、my.cnf配置有问题
3、密码、file文件名、pos偏移量不对
4、防火墙没有关闭

从mysql服务器192.168.10.22操作和21机器一样,我直接截图了,请欣赏

vim /etc/my.cnfserver-id = 3 #slave1和slave2的id不能相同,slave2设置的3relay-log=relay-log-binrelay-log-index=slave-relay-bin.indexrelay_log_recovery = 1

重启服务

登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致 

mysql -u root -pchange master to master_host='192.168.10.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=755;#配置同步,注意 master_log_file 和 master_log_pos 的值要与Master查询的一致,这里的是例子,每个人的都不一样

启动同步

start slave;#启动同步,如有报错执行 reset slave;show slave status\G#查看 Slave 状态//确保 IO 和 SQL 线程都是 Yes,代表同步正常。Slave_IO_Running: Yes#负责与主机的io通信Slave_SQL_Running: Yes#负责自己的slave mysql进程

验证主从同步

#在主服务器上创建一个库create database class; #在从服务器上查看show databases;

注:如果需要新加入从服务器,需要先锁住主服务器(防止别人写入数据造成数据丢失),然后将主服务器的数据全部备份到新的从服务器上,然后在新添加的从服务器上 master_log_file 和 master_log_pos 的值是最新的。

锁库flush tables with read lock;解锁unlock tables;

搭建MySQL读写分离

安装java环境

################安装 Java 环境###############1.#下载安装包:jdk-6u14-linux-x64.bin、amoeba-mysql-binary-2.2.0.tar.gz cd /opt 2.#把jdk复制到/usr/local下cp jdk-6u14-linux-x64.bin /usr/local/ 3.#赋予jdk权限并执行chmod +x /usr/local/jdk-6u14-linux-x64.bincd /usr/local/./jdk-6u14-linux-x64.bin#一路回车到底,最后输入yes 自动安装 4.#jdk改个名字mv jdk1.6.0_14/ jdk1.6 5.#配置环境并刷新vim /etc/profileexport JAVA_HOME=/usr/local/jdk1.6export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/binexport AMOEBA_HOME=/usr/local/amoebaexport PATH=$PATH:$AMOEBA_HOME/bin source /etc/profile#刷新配置文件java -version

下载安装包

 把jdk复制到/usr/local下

cp jdk-6u14-linux-x64.bin /usr/local/

  赋予jdk权限并执行

chmod +x /usr/local/jdk-6u14-linux-x64.bincd /usr/local/./jdk-6u14-linux-x64.bin#一路回车到底,最后输入yes 自动安装

把jdk改个名字

mv jdk1.6.0_14/ jdk1.6

 配置环境并刷新

配置环境并刷新vim /etc/profileexport JAVA_HOME=/usr/local/jdk1.6export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/binexport AMOEBA_HOME=/usr/local/amoebaexport PATH=$PATH:$AMOEBA_HOME/bin source /etc/profile#刷新配置文件java -version

 

配置amoeba 

############## 安装amoeba ########### 1.#在/usr/local目录下创建amoeba目录mkdir /usr/local/amoeba 2.#切换至opt解压amoebacd /opt/tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba cd /usr/local/ 切换至目录查看3.#给目录/usr/local/amoeba赋予执行权限chmod -R 755 /usr/local/amoeba/ 4.#运行amoeba/usr/local/amoeba/bin/amoeba

在/usr/local目录下创建amoeba目录并解压amoeba

mkdir /usr/local/amoeba切换至opt解压amoebacd /opt/tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba cd /usr/local/ 切换至目录查看

 给目录/usr/local/amoeba赋予执行权限并运行amoeba

给目录/usr/local/amoeba赋予执行权限chmod -R 755 /usr/local/amoeba/运行amoeba/usr/local/amoeba/bin/amoeba

 配置amoeba读写分离

###########配置 Amoeba读写分离 ####1.#先在Master、slave1、slave2mysql上开放权限给 Amoeba 访问grant all on *.* to test@'192.168.10.%' identified by '123456';flush privileges; 2.#备份amoeba配置cd /usr/local/amoeba/conf/cp amoeba.xml amoeba.xml.bakcp dbserver.dtd dbserver.dtd.bak 3.#修改amoeba配置vim amoeba.xml30 amoeba#设置登录用户名32123456#设置密码 115master#设置默认池为master118master#设置写池119slaves#设置读池 vim dbServers.xml 23 <!-- test -->#23行注释26test#设置登录用户28 #删除29123456#解决28注释,添加密码 45#服务池名48192.168.10.20#添加地址 5255192.168.10.21复制6行 添加另一从节点5962192.168.10.22 66#定义池名72slave1,slave2#写上从节点名 4.#启动amoeba,并测试amoeba startnetstat -ntap |grep java

先在master、slave1、slave2的mysql上开放权限给amoeba访问

grant all on *.* to test@'192.168.10.%' identified by '123456';flush privileges;

 

 

备份amoeba配置

cd /usr/local/amoeba/conf/cp amoeba.xml amoeba.xml.bakcp dbserver.dtd dbserver.dtd.bak

 

应该是cp d    xmj     db ,bak,这人 

 修改amoeba配置

vim amoeba.xml30 amoeba#设置登录用户名32123456#设置密码 115master#设置默认池为master118master#设置写池119slaves#设置读池 vim dbServers.xml 23 <!-- test -->#23行注释26test#设置登录用户28 #删除29123456#解决28注释,添加密码 45#服务池名48192.168.137.20#添加地址 5255192.168.137.15复制6行 添加另一从节点5962192.168.137.10 66#定义池名72slave1,slave2#写上从节点名

 

 

 

 启动amoeba,并测试

amoeba start或amoeba start或/usr/local/amoeba/bin/amoeba start &netstat -ntap |grep java

 

进行测试 

这边就把amoeba机器当成客户机进行测试(也可以使用另一台机器当客户端)

yum install mariadb mariadb-server.x86_64 -y

 

 登入并查看数据库

mysql -uamoeba -p123456 -h 192.168.10.19 -P8066

 

测试同步 

在主服务器服务器上新建表use class;create table zmj(id int(10),name char(20));show tables;

 

在客户机上,插入数据会同步到所有数据库中 use class; insert into zmj values(1,'今天');

 

 在主从服务器上查看

 

测试读写分离  

两台从服务器上stop slave;#关闭同步在从服务器 上insert into zmj values(2,'小明');insert into zmj values(3,'小红');在主服务器上insert into zmj values(4,'张张');

 从1

 从2

 主服务器

 

 

 

 

 

 扩展(主从复制在添加一台从服务器)

配置master服务器

1、全局读锁定:FLUSH TABLES WITH READ LOCK ;2. 备份master 数据库中的所有的数据 mysqldump -uroot -p123456 --all-databases > /home/all.sql3. 使用scp 把备份的数据上传到新的从服务器上scp -r /home/all.sql 192.168.10.20:/home/

配置从服务器

1. 编辑配置文件vim /etc/my.cnflog-bin=mysql-binbinlog_format = MIXEDserver-id = 4relay-log=relay-log-binrelay-log-index=slave-relay-bin.indexrelay_log_recovery = 12. 重启mysql 服务systemctl restart mysqld.service3. 把all.sql文件重定向到MySQL数据库中mysql -uroot -p123456  change master to-> master_host='192.168.10.20',-> master_user='myslave',-> master_password='123456',-> master_log_file='master-bin.000003', #最新的二进制文件-> master_log_pos=604; #最新的偏移量5. 开启slavestart slave;6. 查看 slave的状态show slave status\G

进行验证

在master 服务器上修改数据1. 解锁UNLOCK TABLES ;2. 修改数据insert into jiuchang values (5,'皇帝');---------#####------------------3. 在从服务器上查看select * from class.zmj;

主从同步原理

1)首先client端(tomcat)将数据写入到master节点的数据库中,master节点会通知存储引擎提交事务,同时会将数据以(基于行、基于sql、基于混合)的方式保存在二进制日志中
(2)SLAVE节点会开启I/O线程,用于监听master的二进制日志的更新,一旦发生更新内容,则向master的dump线程发出同步请求
(3)master的dump线程在接收到SLAVE的I/O请求后,会读取二进制文件中更新的数据,并发送给SLAVE的I/O线程
(4)SLAVE的I/O线程接收到数据后,会保存在SLAVE节点的中继日志中
(5)同时,SLAVE节点钟的SQL线程,会读取中继日志中的数据,更新在本地的mysql数据库中
(6)最终,完成slave——>复制master数据,达到主从同步的效果

如何查看主从同步状态是否成功

在从服务器内输入命令 show slave status\G,查看主从信息进行查看,里面有IO线程的状态信息,还有master服务器的IP地址、端口、事务开始号,

当 slave_io_running 和 slave_sql_running 都显示为yes时,表示主从同步状态成功

 

 我这里是因为关闭了同步,所以显示no 

如果I/O和SQL不是yes,如何排查

(1)排除网络问题,使用ping命令查看从服务是否能与主服务器通信

(2)查看防火墙和核心防护是否关闭

(3)查看从服务器内的slave是否开启

(4)两个从服务器的 server-id 是否相同导致只能连上一台

(5)master_log_file 和 master_log_pos 的值要是否与Master查询的一致

show slave status能看到哪些信息(重要的)

IO线程的状态信息

master服务器的IP地址、端口、事务开始位置

最近一次的报错信息和报错位置等

master_log_file: slave中的IO线程正在读取的主服务器二进制日志文件的名称

read_master_log_pos: 在当前的主服务器二进制日志中,slave中的IO线程已经读取的位置

relay_log_file: sql线程当前正在读取和执行的中继日志文件的名称

relay_log_pos: 在当前的中继日志中,sql线程已经读取和执行的位置

relay_master_log_file: 由sql线程执行的包含多数近期事件的主服务器二进制日志文件的名称

slave_io_running: IO线程是否被启动并成功的连接到主服务器上

slave_sql_running: sql线程是否被启动

 主从复制慢(延迟)有哪些可能?如何解决?

(1)问题:主服务器的负载过大,被多个睡眠或者僵尸线程占用,导致系统负载过大

解决方法:杀死不用的睡眠或僵尸进程

(2)问题:从库硬件性能比主库差,导致复制延迟

解决方法:查看Master和Slave的系统配置,可能会因为机器配置不当,包括磁盘I/O,CPU,内存等各方面因素造成复制的延迟

(3)问题:主从复制的设计问题,主从复制单线程,如果主库写并发太大,来不及传送到从库,就会导致延迟。

解决方法:更高版本的MySQL可以支持多线程复制,门户网站则会自己开发多线程同步功能

(4)问题:慢SQL语句过多

解决方法:优化sql语句,不断的进行监控和优化,如果单个SQL的写入时间长,可以修改后分多次写入。通过查看慢查询日志或show full processlist命令,找出执行时间长的查询语句或大的事务

(5)问题:主从库之间的网络延迟

解决方法:主从库的网卡,网线,连接的交换机等网络设备都可能成为复制的瓶颈,导致复制延迟

(6)问题:主库的从库太多,导致复制延迟

解决方法:从库数量以3到5个最好,要复制的从节点数量过多,会导致复制延迟
 

总结

mysql的主从复制原理和读写分离的原理

ySQL有四种同步方式:异步复制(Async Replication)、同步复制(sync Replication)、半同步复制(Async Replication)、增强半同步复制(lossless Semi-Sync Replication);MySQL读写分离的俩种实现方式:基于程序代码内部实现、基于中间代理层实现。