Nginx

Nignx

1、Nginx简介及安装

Nginx 简介

Nginx ("engine x")是一个高性能的HTTP和反向代理服务器,特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好
Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、 php等。但是不支持 java。 Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高达 50,000 个并发连接数。
https://lnmp.org/nginx.html

  • 代理 a. 正向代理 在客户端(浏览器)配置代理服务器,通过代理服务器进行互联网访问。如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

    在这里插入图片描述

    b. 反向代理

    反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器IP地址。

    在这里插入图片描述

在这里插入图片描述

  • 负载均衡

    单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡

在这里插入图片描述

  • 动静分离 为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。

在这里插入图片描述

Nginx 安装

下面的操作是以Centos7为例

  1. 使用远程连接工具连接Centos7操作系统
  2. 安装nginx相关依赖
gcc
pcre
openssl
zlib

① 安装 nginx 需要先将官网下载的源码进行编译,编译依赖 gcc 环境,如果没有 gcc 环境,则需要安装:

$ yum install gcc-c++

② PCRE(Perl Compatible Regular Expressions) 是一个Perl库,包括 perl 兼容的正则表达式库。nginx 的 http 模块使用 pcre 来解析正则表达式,所以需要在 linux 上安装 pcre 库,pcre-devel 是使用 pcre 开发的一个二次开发库。nginx也需要此库。命令:

$ yum install -y pcre pcre-devel

③ zlib 库提供了很多种压缩和解压缩的方式, nginx 使用 zlib 对 http 包的内容进行 gzip ,所以需要在 Centos 上安装 zlib 库。

$ yum install -y zlib zlib-devel

④ OpenSSL 是一个强大的安全套接字层密码库,囊括主要的密码算法、常用的密钥和证书封装管理功能及 SSL 协议,并提供丰富的应用程序供测试或其它目的使用。 nginx 不仅支持 http 协议,还支持 https(即在ssl协议上传输http),所以需要在 Centos 安装 OpenSSL 库。

$ yum install -y openssl openssl-devel

  1. 安装Nginx

① 下载nginx,两种方式 a. 直接下载.tar.gz安装包,地址:https://nginx.org/en/download.html b. 使用wget命令下载(推荐)。确保系统已经安装了wget,如果没有安装,执行 yum install wget 安装。

$ wget -c https://nginx.org/download/nginx-1.19.0.tar.gz

② 依然是直接命令:

$ tar -zxvf nginx-1.19.0.tar.gz
$ cd nginx-1.19.0

③ 配置: 其实在 nginx-1.12.0 版本中你就不需要去配置相关东西,默认就可以了。当然,如果你要自己配置目录也是可以的。 1.使用默认配置

$ ./configure

2.自定义配置(不推荐)

$ ./configure \
--prefix=/usr/local/nginx \
--conf-path=/usr/local/nginx/conf/nginx.conf \
--pid-path=/usr/local/nginx/conf/nginx.pid \
--lock-path=/var/lock/nginx.lock \
--error-log-path=/var/log/nginx/error.log \
--http-log-path=/var/log/nginx/access.log \
--with-http_gzip_static_module \
--http-client-body-temp-path=/var/temp/nginx/client \
--http-proxy-temp-path=/var/temp/nginx/proxy \
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
--http-scgi-temp-path=/var/temp/nginx/scgi

注:将临时文件目录指定为/var/temp/nginx,需要在/var下创建temp及nginx目录

④ 编辑安装

$ make && make install

查看版本号(使用nginx操作命令前提条件:必须进入nginx的目录/usr/local/nginx/sbin.)

$ ./nginx -v

查看开放的端口号

firewall-cmd --list-all

设置开放的端口号

firewall-cmd --add-service=http –permanent sudo firewall-cmd --add-port=80/tcp --permanent

重启防火墙

firewall-cmd –reload

⑤ 启动,停止nginx

$ cd /usr/local/nginx/sbin/
$ ./nginx 
$ ./nginx -s stop
$ ./nginx -s quit
$ ./nginx -s reload

查询nginx进程:

$ ps aux|grep nginx

启动成功后,在浏览器可以看到这样的页面:

在这里插入图片描述

nginx.conf 配置文件

​ nginx 安装目录下,其默认的配置文件都放在这个目录的 conf 目录下,而主配置文件nginx.conf 也在其中,后续对 nginx 的使用基本上都是对此配置文件进行相应的修改

在这里插入图片描述

配置文件中有很多#, 开头的表示注释内容,我们去掉所有以 # 开头的段落,精简之后的内容如下:

在这里插入图片描述

根据上述文件,我们可以很明显的将 nginx.conf 配置文件分为三部分:

第一部分:全局块

从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数, 进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。

比如上面第一行配置的: 在这里插入图片描述

这是 Nginx 服务器并发处理服务的关键配置, worker_processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约

第二部分: events 块 比如上面的配置:

在这里插入图片描述

events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等

上述例子就表示每个 work process 支持的最大连接数为 1024. 这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

第三部分: http 块

在这里插入图片描述

这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。需要注意的是: http 块也可以包括 http 全局块、 server 块

①、 http 全局块

http 全局块配置的指令包括文件引入、 MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

②、 server 块

这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。

每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。

而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

1、全局 server 块

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

2、 location 块一个 server 块可以配置多个 location 块。

这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

2、Nginx反向代理

访问nginx,代理 tomcat

  • 修改nginx配置文件, nginx.conf

在这里插入图片描述

反向代理

1、实现效果

使用nginx反向代理,根据访问的路径跳转到不同端口的服务中。 nginx.监听端口为9001,。

访问http://127.0.0.1:9001/edu/ 直接跳转到127.0.0.1:8081 访问http://127.0.0.1:9001/vod/ 直接跳转到127.0.0.1:8082

2、准备工作 (1) 准备两个tomcat服务器,一个8080端口,一个8081端口 (2) 创建文件夹和测试页面。

3、具体nginx配置

$ vi /usr/local/nginx/conf/nginx.conf

(1) 找到nginx配置文件,进行反向代理配置。 (2) 开放对外访问的端口号9001 (3) 重启nginx服务器,使配置文件生效

在这里插入图片描述

4、最终测试

在这里插入图片描述

5、补充location部分 location指令说明。 该指令用于匹配URL。。 语法如下:

location [ = | ~ | ~* | ^~] uri {
}

1、=: 用于不含正则表达式的uri前,要求请求字符串与uri严格匹配,如果匹配成功,
	就停止继续向下搜索并立即处理该请求
2、~: 用于表示uri包含正则表达式,并且区分大小写
3、~*: 用于表示uri包含正则表达式,并且不区分大小写
4、^~: 用于不含正则表达式的uri前,要求Nginx服务器找到标识uri和请求字
	符串匹配度最高的location后,立即使用此location处理请求,而不再使用location
	块中的正则uri和请求字符串做匹配
注意: 如果uri包含正则表达式,则必须要有~或者~*标识。

反向代理实例一

实现效果:使用 nginx 反向代理,访问 www.123.com 直接跳转到 127.0.0.1:8080

实验代码 1、实现效果 (1)打开浏览器,在浏览器地址栏输入地址 www.123.com,跳转到 liunx 系统 tomcat 主页面中。

2、准备工作

(1)在 liunx 系统安装 tomcat, 使用默认端口 8080

  • tomcat 安装文件放到 liunx 系统中,解压
  • 进入 tomcat 的 bin 目录中, ./startup.sh 启动 tomcat 服务器

(2)对外开放访问的端口

firewall-cmd --add-port=8080/tcp --permanent firewall-cmd –reload

查看已经开放的端口号 firewall-cmd --list-all

3)在 windows 系统中通过浏览器访问 tomcat 服务器 在这里插入图片描述

3、访问过程的分析 在这里插入图片描述

4、具体配置 第一步 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置 在这里插入图片描述

(1)添加内容在 host 文件中 在这里插入图片描述

第二步 在 nginx 进行请求转发的配置(反向代理配置) 在这里插入图片描述 5、最终测试

在这里插入图片描述

Nginx 配置实例-反向代理实例 2

1、实现效果 使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中 nginx 监听端口为 9001, 访问 http://192.168.17.129:9001/edu/ 直接跳转到 127.0.0.1:8080 访问 http:// 192.168.17.129:9001/vod/ 直接跳转到 127.0.0.1:8081

2、准备工作 (1)准备两个 tomcat 服务器,一个 8080 端口,一个 8081 端口 (2)创建文件夹和测试页面

3、具体配置 (1)找到 nginx 配置文件,进行反向代理配置 在这里插入图片描述

location 指令说明 该指令用于匹配 URL。 语法如下:

在这里插入图片描述

= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。 ~:用于表示 uri 包含正则表达式,并且区分大小写。 ~:用于表示 uri 包含正则表达式,并且不区分大小写。 ^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location块中的正则 uri 和请求字符串做匹配。 注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~ 标识。(2)开放对外访问的端口号 9001 8080 8081

4、最终测试 在这里插入图片描述

3、Nginx负载均衡

负载均衡

1、实现效果 (1) 浏览器地址栏输入地址http://192.168.xxx.xxx/edu/index.html, 负载均衡效果,平均到8080和8081端口中。 2、准备工作

(1) 准备两台tomcat服务器,一 台8080, 一台8081 (2) 在两台tomcat里面webapps目录中,创建名称是edu文件夹,在edu文件夹中创建 页面index.html,用于测试。

3、在nginx的配置文件中进行负载均衡的配置

在这里插入图片描述

4、效果

在这里插入图片描述

在这里插入图片描述

在 nginx 的配置文件中进行负载均衡的配置(另一个文档中的配置demo) 在这里插入图片描述

负载分配策略

在linux下有Nginx、LVS、 Haproxy 等等服务可以提供负载均衡服务,而且Nginx提供了几种分配方式(策略):。

  • 1、轮询(默认)

    每个请求按时间顺序逐一分配到不 同的后端服务器,如果后端服务器down掉,能自动剔除

  • 2、weight

    weight代表权重默认为1,权重越高被分配的客户端越多。

    指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。

    在这里插入图片描述

  • 3、ip hash

    每个请求按访问ip的hash结果分配, 这样每个访客固定访问一个后端服务器,可以解诀session的问题。例如:

upstream server pool{
  ip_ hash
  server 192.168.5.21:80
  server 192.168.5.22:80
}

  • 4、fair (第三方) 按后端服务器的响应时间来分配请求,响应时间短的优先分配
upstream server_pool {
	server 192.168.5.21:80;
	server 192.168.5.22:80;
	fair;
}

4、Nginx动静分离

在这里插入图片描述

通过location指定不同的后缀名实现不同的请求转发。通过expires参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。
具体Expires定义: 是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。
此种方法非常适合不经常变动的资源。(如果经常更新文件,不建议使用Expires来缓存),如果设置3d, 表示在这3天之内访问这个URL, 
发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态304,如果有修改,则直接从服务器重新下载,返回状态码200。

1、准备工作 (1) 在liunx系统中准备静态资源,用于进行访问 /data/image 图片文件夹 /data/www html文件夹

在这里插入图片描述

2、具体配置 (1) 在nginx配置文件中进行配置

在这里插入图片描述

4、实际测试

http://192.168.1.112/www/index.html http://192.168.1.112/image/1.jpg

在这里插入图片描述

上图是因为autoindex on这个设置生效的

在浏览器地址栏输入地址 http://192.168.17.129/www/a.html 在这里插入图片描述

5、Nginx配置高可用集群

1、什么是nginx高可用 在这里插入图片描述

(1) 需要两台nginx服务器。 (2) 需要keepalived (3) 需要虚拟ip 2、配置高可用的准备工作

(1) 需要两台服务器192.168.17.129 和192.168.17.131 (2) 在两台服务器安装nginx. (3) 在两合服务器安装keepalived.

3、在两台服务器安装keepalived 使用yum命令进行安装

$ yum install keepalived

$ rpm -q -a keepalived    #查看是否已经安装上

默认安装路径: /etc/keepalived 安装之后,在etc里面生成目录keepalived, 有配置文件keepalived.conf

4、完成高可用配置(主从配置)

  • 在 192.168.17.129 主机上,修改keepalived的配置文件keepalived.conf为:
global_defs {
	notification_email {
	  acassen@firewall.loc
	  failover@firewall.loc
	  sysadmin@firewall.loc
	}
	notification_email_from Alexandre.Cassen@firewall.loc
	smtp_ server 192.168.17.129
	smtp_connect_timeout 30
	router_id LVS_DEVEL	# LVS_DEVEL这字段在/etc/hosts文件中看;通过它访问到主机
}

vrrp_script chk_http_ port {
	script "/usr/local/src/nginx_check.sh"
	interval 2   # (检测脚本执行的间隔)2s
	weight 2  #权重,如果这个脚本检测为真,服务器权重+2
}

vrrp_instance VI_1 {
	state BACKUP   # 备份服务器上将MASTER 改为BACKUP
	interface ens33 //网卡名称
	virtual_router_id 51 # 主、备机的virtual_router_id必须相同
	priority 100   #主、备机取不同的优先级,主机值较大,备份机值较小
	advert_int 1	#每隔1s发送一次心跳
	authentication {	# 校验方式, 类型是密码,密码1111
        auth type PASS
        auth pass 1111
    }
	virtual_ipaddress { # 虛拟ip
		192.168.17.50 // VRRP H虛拟ip地址
	}
}

  • 在路径/usr/local/src/ 下新建检测脚本 nginx_check.sh
#! /bin/bash
A=`ps -C nginx -no-header | wc - 1`
if [ $A -eq 0];then
	/usr/local/nginx/sbin/nginx
	sleep 2
	if [`ps -C nginx --no-header| wc -1` -eq 0 ];then
		killall keepalived
	fi
fi

  • 在 192.168.17.131 从机上,修改keepalived的配置文件keepalived.conf为:
global_defs {
	notification_email {
	  acassen@firewall.loc
	  failover@firewall.loc
	  sysadmin@firewall.loc
	}
	notification_email_from Alexandre.Cassen@firewall.loc
	smtp_ server 192.168.17.131
	smtp_connect_timeout 30
	router_id LVS_DEVEL	# LVS_DEVEL这字段在/etc/hosts文件中看;通过它访问到主机
}

vrrp_script chk_http_ port {
	script "/usr/local/src/nginx_check.sh"
	interval 2   # (检测脚本执行的间隔)2s
	weight 2  #权重,如果这个脚本检测为真,服务器权重+2
}

vrrp_instance VI_1 {
	state BACKUP   # 备份服务器上将MASTER 改为BACKUP
	interface ens33 //网卡名称
	virtual_router_id 51 # 主、备机的virtual_router_id必须相同
	priority 90   #主、备机取不同的优先级,主机值较大,备份机值较小
	advert_int 1	#每隔1s发送一次心跳
	authentication {	# 校验方式, 类型是密码,密码1111
        auth type PASS
        auth pass 1111
    }
	virtual_ipaddress { # 虛拟ip
		192.168.98.50 // VRRP H虛拟ip地址
	}
}

  • 在路径/usr/local/src/ 下新建检测脚本 nginx_check.sh

nginx_check.sh

#! /bin/bash
A=`ps -C nginx -no-header | wc - 1`
if [ $A -eq 0];then
	/usr/local/nginx/sbin/nginx
	sleep 2
	if [`ps -C nginx --no-header| wc -1` -eq 0 ];then
		killall keepalived
	fi
fi

  • 把两台服务器上nginx和keepalived启动

启动 nginx: ./nginx 启动 keepalived: systemctl start keepalived.service

$ systemctl start keepalived.service		#keepalived启动

$ ps -ef I grep keepalived

5、最终测试 (1) 在浏览器地址栏输入虚拟ip地址192.168.17.50

在这里插入图片描述

在这里插入图片描述

(2) 把主服务器(192.168.17.129) nginx和keealived停止,再输入192.168.17.50.

$ systemctl stop keepalived.service  #keepalived停止

在这里插入图片描述

6、Nginx原理解析

1、master和worker

在这里插入图片描述

在这里插入图片描述 2、worker如何进行工作的

在这里插入图片描述

3、一个master和多个woker的好处 (1) 可以使用nginx -s reload热部署。

首先,对于每个worker进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,
同时在编程以及问题查找时,也会方便很多。其次,采用独立的进程,可以让互相之间不会
影响,一个进程退出后,其它进程还在工作,服务不会中断,master进程则很快启动新的
worker进程。当然,worker进程的异常退出,肯定是程序有bug了,异常退出,会导致当
前worker.上的所有请求失败,不过不会影响到所有请求,所以降低了风险。

4、设置多少个woker合适

Nginx同redis类似都采用了io多路复用机制,每个worker都是一个独立的进程, 但每个进
程里只有一个主线程,通过异步非阻塞的方式来处理请求,即使是 千上万个请求也不在话
下。每个worker的线程可以把一个cpu的性能发挥到极致。所以worker数和服务器的cpu
数相等是最为适宜的。设少了会浪费cpu,设多了会造成cpu频繁切换上下文带来的损耗


2
3
4
5
6
7
8
# 设置worker数量
worker.processes 4 

# work绑定cpu(4work绑定4cpu)
worker_cpu_affinity 0001 0010 0100 1000

# work绑定cpu (4work绑定8cpu中的4个)
worker_cpu_affinity 0000001 00000010 00000100 00001000


5、连接数worker_ connection

这个值是表示每个worker进程所能建立连接的最大值,所以,一个nginx 能建立的最大连接数,应该是worker.connections * worker processes。当然,这里说的是最大连接数,对于HTTP 请求本地资源来说,能够支持的最大并发数量是worker.connections * worker processes,如果是支持http1.1的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是: worker.connections * worker.processes / 2, 而如果是HTTP作为反向代理来说,最大并发数量应该是worker.connections * worker_proceses/4. 因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接.

第一个: 发送请求,占用了woker的几个连接数? 答案: 2或者4个。

第二个: nginx有一个master,有四个woker,每个woker支持最大的连接数1024,支持的最大并发数是多少? 答案:普通的静态访问最大并发数是: worker connections * worker processes /2, 而如果是HTTP作为反向代理来说,最大并发数量应该是worker connections * worker processes/4 在这里插入图片描述

end
  • 作者:AWhiteElephant(联系作者)
  • 发表时间:2022-04-16 16:24
  • 版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证)
  • 转载声明:如果是转载栈主转载的文章,请附上原文链接
  • 评论