分享IT技术,分享生活感悟,热爱摄影,热爱航天。
对于动态的页面内容,我们可以保存一份静态页面用于在不能提供动态服务时,例如应用服务出现故障或事进行维护等情况时使用保存的静态页面提供一个降级的服务,以降低故障或维护时产生的影响,使网站一只可以处于能够访问的状态。这一过程会涉及两个事情,首先是如果保存一份静态化的网站,另外就是如何利用静态化的网站提供服务以及进行自动的切换。
对于生成网站静态化镜像,最为简单的方法就是使用wget进行递归的页面抓取,使用方式大致如下
wget -r http://www.sina.com.cn
wget会分析页面中的地址,并生成一个www.sina.com.cn的目录,里面会按照页面地址的url生成目录结构和对应的文件,理论上只要存在引用关系的页面都可以被收录。操作非常简便,但缺点就是不能够做增量的更新,在网站内容较多时完整生成一次需要较长的时间。
另外的方法就是使用CDN保存网站的镜像,总体操作也是比较简单的,但涉及的一些细节处理会稍微麻烦一些,如我们只能够将匿名用户访问的结果作为静态化的结果,在CDN上作这些处理会比较难实施一些。这里尝试使用Nginx的proxy_cache功能将从后端获得的页面在本地保存一份。
由于只能将匿名用户访问的结果作为静态化的结果,则需要对用户身份进行分流,只对匿名用户的请求作静态化存储。一般的网站都会用Cookie来标示用户的身份,将含有合法Cookie的用户认定为某个特定的用户,因此简单的判断就可以是将没有身份认证Cookie的用户认为是匿名用户,这样虽然不能做到准确分流,但总是不会有错误的。对应的Nginx配置如下
location / { if ($cookie_auth != "") { rewrite ^ /direct last; } #缓存文件的配置 } location /direct { internal; rewrite ^ $request_uri break; proxy_pass http://backend; }
将可能是登录用户的请求重定向到一个直接访问,不进行静态化的location中。
存储静态化页面主要是用Nginx proxy模块中的proxy_cache指令,这里主要是需要处理当访问的是一个目录时需要将文件保存成对应的目录下的index.html文件,并且由于有些页面中包含请求参数,不同的请求参数可能会对应两个完全不同的页面,因此需要将请求参数也作为文件名的一部分进行保存。另外由于动态内容没有Last-Modified头,会导致每次都会覆盖之前的文件,如果不需要这样的行为可以进行一下文件存在的判断,如果存在则和登录用户一样处理,其大致的配置如下
set $store_uri $host$request_uri; if ($request_uri ~ "/$") { set $store_uri $host$request_uri/index.html; } if (-f $document_root/$store_uri) { rewrite ^ /direct last; } proxy_set_header Accept-Encoding ""; proxy_pass http://backend; proxy_store $document_root/$store_uri;
由于同一个server可能会对应多个域名,这里将域名也作为存储目录的一部分进行保存,同时由于存在压缩的问题,这里进行一个proxy的gzip hack,即强制获得一个不压缩的页面,然后再根据用户的请求需求进行压缩处理。
使用静态化文件时需要注意,如果直接将缓存的目录作为对应的根目录,则当有请求参数时,Nginx会忽略请求参数查找对应的文件,会导致保存的带有参数的文件不起作用,这里需要使用try_files指令制定查找带有参数的文件,其配置如下
error_page 500 502 504 = @error; location @error { try_files /$host$request_uri /$host$request_uri/index.html = 404; }
同时将错误页面指向这里就可以在出错时自动使用静态化的网站进行临时的服务,待到服务恢复时切换会正常的服务。
最终完整的配置如下
server { listen 8088; server_name localhost; charset utf-8; root data; location / { if ($cookie_auth != "") { rewrite ^ /direct last; } set $store_uri $host$request_uri; if ($request_uri ~ "/$") { set $store_uri $host$request_uri/index.html; } if (-f $document_root/$store_uri) { rewrite ^ /direct last; } proxy_set_header Accept-Encoding ""; proxy_pass http://backend; proxy_store $document_root/$store_uri; } location /direct { rewrite ^ $request_uri break; proxy_pass http://backend; } error_page 500 502 504 = @error; location @error { try_files /$host$request_uri /$host$request_uri/index.html = 404; } }
MySQL 5.7终于要发布正式版本了,相比MySQL 5.6,MySQL 5.7除了提升性能外增加了非常多的新功能,具体可以参考官方手册,其中主要有在线DDL(相比5.6增加了索引重命名),空间数据类型索引,原生JSON数据类型,多源复制,多线程复制等。
新版本中对老版本的一些特性进行了调整,有些不再支持,有些则不建议再使用,以下只列出一些比较常见的,具体可以参考手册。
1) mysql_install_table
mysql_install_table命令不建议在使用,建议改用mysqld –initialize,运行时会有以下提示
[WARNING] mysql_install_db is deprecated. Please consider switching to mysqld --initialize
使用方式基本没有变化,其命令格式大致如下
mysqld --initialize --user=mysql \ --basedir=/opt/mysql/mysql \ --datadir=/opt/mysql/mysql/data
2) InnoDB不能被禁用
由于系统表已经改用InnoDB,因此不能再禁用InnoDB引擎,–skip-innodb,–disable-innodb等配置将被忽略。
3) YEAR(2)类型将不再支持
YEAR(2)类型不再支持,需要升级为YEAR(4),如果使用会提示以下错误
ERROR 1818 (HY000): Supports only YEAR or YEAR(4) column.
4) 配置参数变化
参数storage_engine变量替换为default_storage_engine 参数innodb_use_sys_malloc 和innodb_additional_mem_pool_size不再支持
多源复制是一个非常好用的特性,可以用在做数据的汇总——将多个MySQL的数据汇总到一个MySQL中,同时也可以利用多源复制提升MySQL复制的性能,在MySQL 5.7之前一只使用Mariadb 10的多源复制特性,其两者在使用和语法上稍有区别,这里只介绍MySQL 5.7中的多源复制语法。具体细节可以参考官方手册
在使用多源复制特性前需要先修改MySQL存储master-info和relay-info的方式,即从文件存储改为表存储,修改配置文件如下
master_info_repository=TABLE relay_log_info_repository=TABLE
同时也可以在线修改
STOP SLAVE; SET GLOBAL master_info_repository = 'TABLE'; SET GLOBAL relay_log_info_repository = 'TABLE';
添加一个新的复制源与直接使用CHANGE MASTER TO命令基本相同,只是需要给当前的MASTER使用FOR CHANNEL语句分配一个CHANNEL名字即可,例如以下的CHANGE MASTER TO语句
CHANGE MASTER TO MASTER_HOST='master1', MASTER_USER='rpl', MASTER_PORT=3451, MASTER_PASSWORD='' MASTER_LOG_FILE='master1-bin.000006', MASTER_LOG_POS=628 FOR CHANNEL 'master-1'; #启动全部的复制 START SLAVE; #启动某一个复制源的复制 START SLAVE FOR CHANNEL 'master-1'; #查看某个复制源的复制状态 SHOW SLAVE STATUS FOR CHANNEL 'master-1'; #通过performance_schema的相关表监控复制状态 SELECT * FROM replication_connection_status;
MySQL 5.7中提供了对JSON数据类型的支持,并且其不仅是能够对JSON数据的格式进行验证,还可以支持一些类似与MongoDB的操作方式,以及对JSON数据进行索引。
例如建立一个包含JSON数据类型的表
CREATE TABLE JsonData( id int NOT NULL AUTO_INCREMENT PRIMARY KEY, data json NOT NULL ) ENGINE = InnoDB;
向其中插入几行数据,并进行查询
INSERT INTO JsonData (data) VALUES ('{"id":1, "name":"Fred"}'), ('{"id":2, "name":"Wilma"}'), ('{"id":"3", "name":"Barney"}'), ('{"id":"4", "name":"Betty"}'); SELECT * FROM JsonData;
结果如下
+----+-------------------------------+ | id | data | +----+-------------------------------+ | 1 | {"id": 1, "name": "Fred"} | | 2 | {"id": 2, "name": "Wilma"} | | 3 | {"id": "3", "name": "Barney"} | | 4 | {"id": "4", "name": "Betty"} | +----+-------------------------------+ 4 rows in set (0.00 sec)
同时还可以查询JSON字段中的某个属性,例如以下查询
SELECT id, JSON_EXTRACT(data, '$.id') FROM JsonData WHERE JSON_EXTRACT(data, '$.name') = 'Fred'; #5.7.9以后的版本JSON_EXTRACT可以简写成 SELECT id, data->'$.id' FROM JsonData WHERE data->'$.name' = 'Fred';
结果如下
+----+----------------------------+ | id | JSON_EXTRACT(data, '$.id') | +----+----------------------------+ | 1 | 1 | +----+----------------------------+ 1 row in set (0.00 sec)
另外可以对JSON数据的进行类似MongoDB中修改操作,如进行以下修改
UPDATE JsonData SET data = JSON_SET(data, '$.name', 'longlong') WHERE id = 1; SELECT * FROM JsonData WHERE id = 1;
结果如下
+----+-------------------------------+ | id | data | +----+-------------------------------+ | 1 | {"id": 1, "name": "longlong"} | +----+-------------------------------+ 1 row in set (0.00 sec)
此外还有JSON_INSERT,JSON_REPLACE,JSON_APPEND,JSON_REMOVE等(insert replace set的语意与Memcache的add replace set类似)可以对JSON数据进行修改而不需要从客户端修改后覆盖原来的数据,可以节约很多数据传输,提升操作的速度
另外还可以对JSON的某个属性建立索引,进行检索,对表进行以下的修改,注意只有InnoDB支持对于VIRTUAL列增加索引
ALTER TABLE JsonData ADD name varchar(64) GENERATED ALWAYS AS (JSON_UNQUOTE(JSON_EXTRACT(data, '$.name'))) VIRTUAL; ALTER TABLE JsonData ADD INDEX(name);
表结构变为
CREATE TABLE `JsonData` ( `id` int(11) NOT NULL AUTO_INCREMENT, `data` json NOT NULL, `name` varchar(64) GENERATED ALWAYS AS (JSON_UNQUOTE(JSON_EXTRACT(data, '$.name'))) VIRTUAL, PRIMARY KEY (`id`), KEY `name` (`name`) ) ENGINE=InnoDB
分析以下语句的执行计划
EXPLAIN SELECT * FROM JsonData WHERE name = 'longlong';
结果如下,看到可以使用到索引
*************************** 1. row *************************** id: 1 select_type: SIMPLE table: JsonData partitions: NULL type: ref possible_keys: name key: name key_len: 67 ref: const rows: 1 filtered: 100.00 Extra: NULL
InnoDB类型的表的VARCHAR字段可以增加其最大长度而不需要重建整个表,但也存在一些限制,最大长度小于255的VARCHAR最多能够直接增加到255,最大长度大于等于256则可以直接增大到更大的值,例如以下表
CREATE TABLE `CodeData` ( `id` int(11) NOT NULL AUTO_INCREMENT, `code` varchar(32) NOT NULL, PRIMARY KEY (`id`) ) ENGINE=InnoDB
如果直接增加code字段的长度到64,例如
ALTER TABLE CodeData MODIFY code varchar(64) NOT NULL;
DDL操作会瞬间完成,并会得到以下提示
Query OK, 0 rows affected (0.07 sec) Records: 0 Duplicates: 0 Warnings: 0
如果再将code字段的长度增加到256,例如
ALTER TABLE CodeData MODIFY code varchar(256) NOT NULL;
DDL相比之前需要执行一段时间,并得到以下提示
Query OK, 10000 rows affected (0.67 sec) Records: 10000 Duplicates: 0 Warnings: 0
说明增加到256后,表进行了重建操作,影响的记录数时10000行,而不再是0,而再继续增大其长度到1024
ALTER TABLE CodeData MODIFY code varchar(1024) NOT NULL;
DDL操作会瞬间完成,并会得到以下提示
Query OK, 0 rows affected (0.07 sec) Records: 0 Duplicates: 0 Warnings: 0
说明长度超过256后,增加长度再次不需要重建整个表。因此在MySQL 5.7中,VARCHAR的长度如果接近255则最好设定为256,这样如果以后需要增加长度则不需要重建整个表,而代价只是多用一个字节来存储列的长度而已还是比较划算的。
在MySQL 5.7中InnoDB中使用空间数据类型也可以像MyISAM一样建立索引进行查询了。创建如下表
CREATE TABLE GeomData ( id int NOT NULL AUTO_INCREMENT PRIMARY KEY, g geometry NOT NULL ) ENGINE = InnoDB;
写入一行数据,并查看写入的数据
INSERT INTO GeomData (g) VALUES (Point(1, 2)); SELECT ST_ASTEXT(g) FROM GeomData;
+--------------+ | ST_ASTEXT(g) | +--------------+ | POINT(1 2) | +--------------+ 1 row in set (0.00 sec)
随机导入一些数据后,为空间类型列增加一个索引,并分析以下语句的执行计划
ALTER TABLE GeomData ADD SPATIAL INDEX(g); EXPLAIN SELECT id FROM GeomData WHERE MBREquals(ST_GeomFROMTEXT('POINT(1 2)'), g);
会得到以下结果
*************************** 1. row *************************** id: 1 select_type: SIMPLE table: GeomData partitions: NULL type: range possible_keys: g key: g key_len: 34 ref: NULL rows: 619 filtered: 100.00 Extra: Using where
其它空间相关的函数可以参考官方手册
通常情况下MySQL复制只有两个线程,即IO线程和SQL线程,而在MySQL 5.6中可以支持开启多个Worker线程执行复制过来的binlog,但限制是只有不同数据库的binlog才会在多个Worker线程之间并行执行,而在MySQL 5.7中增加了对于同一个时间点的binlog也可以并行执行(应该是基于Group Commit机制)。相关的配置如下
slave_parallel_type=LOGICAL_CLOCK slave_parallel_workers=5
增加配置后,可以在Slave上看到启动的Worker线程
| 3 | system user | Connect | 9 | Waiting for an event from Coordinator | | 4 | system user | Connect | 9 | Waiting for an event from Coordinator | | 5 | system user | Connect | 9 | Waiting for an event from Coordinator | | 6 | system user | Connect | 9 | Waiting for an event from Coordinator | | 8 | system user | Connect | 9 | Waiting for an event from Coordinator |
在并发较高的情况下可以在一定程度上提高复制的性能。