0 效果
通过访问nginx,实现负载均衡,可以以某种算法交替访问部署的多台tomcat服务器。
例如:访问 ,会交替跳转到 和
1 准备工作
1.1 使用docker启动两台tomcat服务
docker run -d -p 8001:8080 --name tomcat01 tomcatdocker run -d -p 8002:8080 --name tomcat02 tomcat
1.2 在各tomcat容器中添加edu项目文件夹,并且在里面写入html文件用于测试负载均衡效果
# 配置第一台tomcat服务docker exec -it tomcat01 bashcd webappsmkdir educd edutouch test.htmlecho "8001 tomcat
" > test.htmlexit# 配置第二台tomcat服务docker exec -it tomcat02 bashcd webappsmkdir educd edutouch test.htmlecho "
8002 tomcat
" > test.htmlexit
1.3 测试通过本地浏览器是否可以正常访问两个tomcat项目
http://62.234.149.220:8001/edu/test.html http://62.234.149.220:8002/edu/test.html
2 具体配置
2.1 使用docker启动nginx服务
docker run -d -p 80:80 --name mynginx nginx
2.3 进入nginx容器并修改配置文件
- 进入容器的配置文件目录
docker exec -it mynginx bashcd /etc/nginxvim nginx.config
- 修改配置文件,实现负载均衡
#user nobody;worker_processes 1;#error_log logs/error.log;#error_log logs/error.log notice;#error_log logs/error.log info;#pid logs/nginx.pid;events { worker_connections 1024;}http { include mime.types; default_type application/octet-stream; #log_format main '$remote_addr - $remote_user [$time_local] "$request" ' # '$status $body_bytes_sent "$http_referer" ' # '"$http_user_agent" "$http_x_forwarded_for"'; #access_log logs/access.log main; sendfile on; #tcp_nopush on; #keepalive_timeout 0; keepalive_timeout 65; ########################################################## upstream myserver{ server 62.234.149.220:8001; server 62.234.149.220:8002; } # another virtual host using mix of IP-, name-, and port-based configuration server { listen 80; server_name 62.234.149.220; location / { proxy_pass http://myserver; } } ########################################################## # HTTPS server # #server { # listen 443 ssl; # server_name localhost; # ssl_certificate cert.pem; # ssl_certificate_key cert.key; # ssl_session_cache shared:SSL:1m; # ssl_session_timeout 5m; # ssl_ciphers HIGH:!aNULL:!MD5; # ssl_prefer_server_ciphers on; # location / { # root html; # index index.html index.htm; # } #}}
- 退出docker容器,并重启nginx
docker restart mynginx
2.4 测试
- 在本地的浏览器中输入url地址访问nginx,实现负载均衡。默认为轮询算法。8001和8002端口的tomcat会交替执行
http://62.234.149.220/edu/test.html
3 常用的负载均衡算法
3.1 轮询算法
nginx的负载均衡默认使用轮询算法,实现交替接收请求。
3.2 权重算法 weight
weight代表权重,weight与访问比例正相关。多用于后端服务器性能不均的情况。weight的值越高说明权重越大。
具体配置片段:说明8002的服务器的权重是8001的两倍
upstream myserver{ server 62.234.149.220:8001 weight=5; server 62.234.149.220:8002 weight=10; }
3.3 ip哈希的算法 ip_hash
每个请求按照访问ip的hash结果分配。可以使得每个固定的ip访问后端的固定服务器。解决了session共享的问题。
具体配置片段:
upstream myserver{ ip_hash; server 62.234.149.220:8001; server 62.234.149.220:8002;}
3.4 第三方算法 fair
按照后端服务器的响应时间来分配请求。响应时间端的优先分配。
具体配置片段:
upstream myserver{ server 62.234.149.220:8001; server 62.234.149.220:8002; fair;}