【Nginx】nginx入门学习笔记(二)
发布日期:2021-06-29 21:37:57 浏览次数:2 分类:技术文章

本文共 6752 字,大约阅读时间需要 22 分钟。

本文主要涉及nginx中一些基础实战:nginx反向代理、负载均衡、动静分离。

文章目录

一、反向代理

准备工作

准备两个Tomcat 服务器,一个 8080 端口,一个 8081 端口,修改tomcat端口之类的就不说了吧,自行百度。
分别为两个Tomcat服务器创建简单Web应用user、getPage,应用包含简单页面,页面内容表明哪个端口号被访问。
反向代理实例
1.在 windows 系统的 host 文件进行域名和 ip 对应关系的配,在C:\Windows\System32\drivers\etc\hosts文件末添加

nginx服务器IP地址 www.tonghua.com如:192.168.135.66 www.tonghua.com

提示:确保本地能ping通服务器,其实这里配这个就是在本地能够使用域名www.tonghua.com请求nginx服务器时候,dns能够首先解析这个域名为服务器ip,其实就是显得高大上一点。

2.在 nginx 进行请求转发的配置(反向代理配置)
在上篇文章中我们使用docker来安装的nginx,我们这儿,进入到/root/conf/nginx.conf添加如下即可。

server{
listen 80; //监听端口 charset utf-8; //字符集 server_name 192.168.135.74; //监听地址(nginx所在服务器ip) location /user {
//请求的url过滤 proxy_pass http://192.168.135.66:8080; //代理跳转地址 proxy_redirect default; #index index.html index.htm; } location /getPage {
//请求的url过滤 proxy_pass http://192.168.135.66:8081; //代理跳转地址 }}

在这里插入图片描述

地址栏输入http://192.168.135.74/user则返回http://192.168.135.66:8080/user的页面。

地址栏输入http://192.168.135.74/getPage则返回http://192.168.135.66:8081/getPage的页面。
nginx常用正则表达式及文件目录匹配判断

= = : 等值比较;~:与指定正则表达式模式匹配时返回“真”,判断匹配与否时区分字符大小写;~*:与指定正则表达式模式匹配时返回“真”,判断匹配与否时不区分字符大小写;!~:与指定正则表达式模式不匹配时返回“真”,判断匹配与否时区分字符大小写;!~*:与指定正则表达式模式不匹配时返回“真”,判断匹配与否时不区分字符大小写;-f, !-f:判断指定的路径是否为存在且为文件;-d, !-d:判断指定的路径是否为存在且为目录;-e, !-e:判断指定的路径是否存在,文件或目录均可;-x, !-x:判断指定路径的文件是否存在且可执行;例:静态动态分离,除了静态资源以外的请求都交给Tomcat处理.location / {
proxy_pass http://localhost:8080} location ^~ /static/ {
root /webroot/static/; } location ~* \.(html|htm|gif|jpg|jpeg|bmp|png|ico|txt|js|css)$ {
root /webroot/res/; }

二、负载均衡

Nginx配置实例(负载均衡)

浏览器地址栏输入地址http://192.168.135.74/user,负载均衡效果,平均 8081和 8082 端口中。
准备工作
·1、准备两台 tomcat 服务器,一台 8080,一台 8081。
2、在两台 tomcat 里面 webapps 目录中,创建名称是 user简单应用。
修改配置文件
进入到/root/conf/nginx.conf对Nginx 的配置文件中进行负载均衡的配置即可。

# 负载用到的配置,创建一个负载服务upstream myserver{
server 192.168.135.66:8080; server 192.168.135.66:8081;}server {
listen 80; server_name 192.168.135.74; #charset koi8-r; #access_log logs/host.access.log main; location / {
# 负载用到的配置,就是上面我们创建那个负载服务 proxy_pass http://myserver; root html; index index.html index.htm; }}

2.1 负载均衡分配策略

负载均衡(load balance)即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。

快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎,nginx 就是其中的一个,在 linux 下有 Nginx、 LVS、 Haproxy 等等服务可以提供负载均衡服务,而且 Nginx 提供了几种分配方式(策略)

轮询

这是Ngnix负载均衡默认分配策略。每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

加权

weight 代表权,重默认为 1,权重越高被分配的客户端越多。指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。例如:

upstream myserver{
server 127.0.0.1:8081 weight=8; server 127.0.0.1:8082 weight=2;}

ip_hash

每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。 例如:

upstream myserver{
ip_hash; server 127.0.0.1:8081; server 127.0.0.1:8082;}

fair

这是Ngnix负载均衡第三方分配策略。按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream myserver{
server 127.0.0.1:8081; server 127.0.0.1:8082; fair;}

三、动静分离

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面, Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种:

一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;

另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开
通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用 Expires 来缓存)

若将其设置 3d,表示在这 3 天之内访问这个 URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码 200。

准备工作

新建一个目录路径C:/image
准备一个tomcat服务器,访问端口为8081
修改配置文件

server {
listen 80; server_name 192.168.135.74; # 主要配置内容 location /image {
alias /var/image/; //或者配置root /var/image/; autoindex on; } location ~ /user{
proxy_pass http://192.168.135.66:8080; }}

运行结果

在浏览器地址栏输入
http://192.168.135.74/image/test.png将会显示test.png图片文件。
http://192.168.135.74/user将会显示Tomcat的应用页面
http://192.168.135.74/image/可查阅var/image/目录下的文件列表。
关于alias和root

  • 1)alias指定的目录是准确的,即location匹配访问的path目录下的文件直接是在alias目录下查找的;
  • 2)root指定的目录是location匹配访问的path目录的上一级目录,这个path目录一定要是真实存在root指定目录下的
  • 3)使用alias标签的目录块中不能使用rewrite的break(具体原因不明);另外,alias指定的目录后面必须要加上"/"符号!!
  • 4)alias虚拟目录配置中,location匹配的path目录如果后面不带"/",那么访问的url地址中这个path目录后面加不加"/“不影响访问,访问时它会自动加上”/";但是如果location匹配的path目录后面加上"/",那么访问的url地址中这个path目录必须要加上"/",访问时它不会自动加上"/"。如果不加上"/",访问就会失败!
  • 5)root目录配置中,location匹配的path目录后面带不带"/",都不会影响访问。

四、nginx高可用

从上面我们可以看出,我们完全依赖于一台nginx服务器,如果nginx服务器挂掉了那岂不是凉凉,和redis一样,nginx也会有高可用技术,采用横向扩展加机器就可以了。

准备工作

  • 需要两台 nginx 服务器
  • 需要 keepalived
  • 需要虚拟 ip

例如:在这里插入图片描述

  • 需要两台服务器 192.168.17.129 和 192.168.17.131
  • 在两台服务器安装 Nginx
  • 在两台服务器安装 keepalived
    使用 yum 命令进行安装yum install keepalived –y
    安装之后,在 etc 里面生成目录 keepalived,有文件 keepalived.conf
    高可用配置文件详解
    修改/etc/keepalived/keepalivec.conf配置文件
global_defs {
notification_email {
acassen@firewall.loc failover@firewall.loc sysadmin@firewall.loc } notification_email_from Alexandre.Cassen@firewall.loc smtp_server 192.168.17.129 smtp_connect_timeout 30 router_id LVS_DEVEL}vrrp_script chk_http_port {
script "/usr/local/src/nginx_check.sh" interval 2 #(检测脚本执行的间隔) weight 2}vrrp_instance VI_1 {
state BACKUP # 备份服务器上将 MASTER 改为 BACKUP interface ens33 //网卡 virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同 priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小 advert_int 1 authentication {
auth_type PASS auth_pass 1111 } virtual_ipaddress {
192.168.17.50 // VRRP H 虚拟地址 }}

在/usr/local/src 添加检测脚本

#!/bin/bashA=`ps -C nginx – no-header |wc -l`if [ $A -eq 0 ];then	/usr/local/nginx/sbin/nginx	sleep 2	if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then		killall keepalived	fifi

把两台服务器上 Nginx 和 keepalived 启动

启动 Nginx: ./nginx   ,docker版本的话参见我上篇文章吧启动 keepalived: systemctl start keepalived.service

最终测试

在浏览器地址栏输入虚拟 ip 地址 192.168.17.50

把主服务器(192.168.17.129) Nginx 和 keepalived 停止,再输入 192.168.17.50
nginx的原理解析
在这里插入图片描述
在这里插入图片描述
master-workers 的机制的好处
首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及问题查找时,也会方便很多。

其次,采用独立的进程,可以让互相之间不会影响,一个进程退出后,其它进程还在工作,服务不会中断, master 进程则很快启动新的worker进程。

当然, worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。

需要设置多少个 worker

Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。

所以 worker 数和服务器的cpu数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

#设置 worker 数量。worker_processes 4#work 绑定 cpu(4 work 绑定 4cpu)。worker_cpu_affinity 0001 0010 0100 1000#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。worker_cpu_affinity 0000001 00000010 00000100 00001000

连接数 worker_connection

这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于HTTP请求本地资源来说,能够支持的最大并发数量是worker_connections * worker_processes

如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是:worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代理来说,最大并发数量应该是worker_connections * worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接。

来源:

转载地址:https://dh-butterfly.blog.csdn.net/article/details/112258562 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:【Java基础】Comparable和Comparator两种比较器的区别(原理+实现)
下一篇:【Java】Java高级开发的50个性能优化的细节

发表评论

最新留言

关注你微信了!
[***.104.42.241]2024年04月18日 10时52分07秒