Nginx配置参数中文说明详解(负载均衡与反向代理)
PS:最近在看<<高性能Linux服务器构建实战>>的Nginx章节,对其nginx介绍的非常详细,现把经常用到的Nginx配置参数中文说明摘录和nginx做负载均衡的本人真实演示实例抄录下来以便以后查看!
Nginx配置参数中文详细说明
#定义Nginx运行的用户和用户组
user www www;
#
#nginx进程数,建议设置为等于CPU总核心数.
worker_processes 8;
#
#全局错误日志定义类型,[ debug | info | notice | warn | error | crit ]
error_log /var/log/nginx/error.log info;
#
#进程文件
pid /var/run/nginx.pid;
#
#一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(系统的值ulimit -n)与nginx进程数相除,但是nginx分配请求并不均匀,所以建议与ulimit -n的值保持一致.
worker_rlimit_nofile 65535;
#
#工作模式与连接数上限
events
{
#参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型是Linux 2.6以上版本内核中的高性能网络I/O模型,如果跑在FreeBSD上面,就用kqueue模型.
use epoll;
#单个进程最大连接数(最大连接数=连接数*进程数)
worker_connections 65535;
}
#
#设定http服务器
http
{
include mime.types; #文件扩展名与文件类型映射表
default_type application/octet-stream; #默认文件类型
#charset utf-8; #默认编码
server_names_hash_bucket_size 128; #服务器名字的hash表大小
client_header_buffer_size 32k; #上传文件大小限制
large_client_header_buffers 4 64k; #设定请求缓
client_max_body_size 8m; #设定请求缓
#
#开启目录列表访问,合适下载服务器,默认关闭.
autoindex on; #显示目录
autoindex_exact_size on; #显示文件大小 默认为on,显示出文件的确切大小,单位是bytes 改为off后,显示出文件的大概大小,单位是kB或者MB或者GB
autoindex_localtime on; #显示文件时间 默认为off,显示的文件时间为GMT时间 改为on后,显示的文件时间为文件的服务器时间
#
sendfile on; #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载.注意:如果图片显示不正常把这个改成off.
tcp_nopush on; #防止网络阻塞
tcp_nodelay on; #防止网络阻塞
#
keepalive_timeout 120; #(单位s)设置客户端连接保持活动的超时时间,在超过这个时间后服务器会关闭该链接
#
#FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度.下面参数看字面意思都能理解.
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;
#
#gzip模块设置
gzip on; #开启gzip压缩输出
gzip_min_length 1k; #允许压缩的页面的最小字节数,页面字节数从header偷得content-length中获取.默认是0,不管页面多大都进行压缩.建议设置成大于1k的字节数,小于1k可能会越压越大
gzip_buffers 4 16k; #表示申请4个单位为16k的内存作为压缩结果流缓存,默认值是申请与原始数据大小相同的内存空间来存储gzip压缩结果
gzip_http_version 1.1; #压缩版本(默认1.1,目前大部分浏览器已经支持gzip解压.前端如果是squid2.5请使用1.0)
gzip_comp_level 2; #压缩等级.1压缩比最小,处理速度快.9压缩比最大,比较消耗cpu资源,处理速度最慢,但是因为压缩比最大,所以包最小,传输速度快
gzip_types text/plain application/x-javascript text/css application/xml;
#压缩类型,默认就已经包含text/html,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn.
gzip_vary on;#选项可以让前端的缓存服务器缓存经过gzip压缩的页面.例如:用squid缓存经过nginx压缩的数据
#
#开启限制IP连接数的时候需要使用
#limit_zone crawler $binary_remote_addr 10m;
#
##upstream的负载均衡,四种调度算法(下例主讲)##
#
#虚拟主机的配置
server
{
#监听端口
listen 80;
#域名可以有多个,用空格隔开
server_name wangying.sinaapp.com;
index index.html index.htm index.php;
root /data/www/;
location ~ .*.(php|php5)?$
{
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
include fastcgi.conf;
}
#图片缓存时间设置
location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$ {
expires 10d;
}
#JS和CSS缓存时间设置
location ~ .*.(js|css)?$ {
expires 1h;
}#日志格式设定
log_format access '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $http_x_forwarded_for';
#定义本虚拟主机的访问日志
access_log /var/log/nginx/access.log access;
#
#设定查看Nginx状态的地址.StubStatus模块能够获取Nginx自上次启动以来的工作状态,此模块非核心模块,需要在Nginx编译安装时手工指定才能使用
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file conf/htpasswd;
#htpasswd文件的内容可以用apache提供的htpasswd工具来产生.
}
}
}
Nginx多台服务器实现负载均衡
Nginx负载均衡服务器:
IP:192.168.1.1
Web服务器列表:
Web1:192.168.1.2
Web2:192.168.1.3
实现目的:用户访问192.168.1.1服务器时,通过Nginx负载均衡到Web1和Web2服务器
http { ##upstream的负载均衡,四种调度算法## #调度算法1:轮询.每个请求按时间顺序逐一分配到不同的后端服务器,如果后端某台服务器宕机,故障系统被自动剔除,使用户访问不受影响 upstream webhost { server 192.168.1.2:80 ; server 192.168.1.3:80 ; } #调度算法2:weight(权重).可以根据机器配置定义权重.权重越高被分配到的几率越大 upstream webhost { server 192.168.1.2:80 weight=2; server 192.168.1.3:80 weight=3; } #调度算法3:ip_hash. 每个请求按访问IP的hash结果分配,这样来自同一个IP的访客固定访问一个后端服务器,有效解决了动态网页存在的session共享问题 upstream webhost { ip_hash; server 192.168.1.2:80 ; server 192.168.1.3:80 ; } #调度算法4:url_hash(需安装第三方插件).此方法按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,可以进一步提高后端缓存服务器的效率.Nginx本身是不支持url_hash的,如果需要使用这种调度算法,必须安装Nginx 的hash软件包 upstream webhost { server 192.168.1.2:80 ; server 192.168.1.3:80 ; hash $request_uri; } #调度算法5:fair(需安装第三方插件).这是比上面两个更加智能的负载均衡算法.此种算法可以依据页面大小和加载时间长短智能地进行负载均衡,也就是根据后端服务器的响应时间来分配请求,响应时间短的优先分配.Nginx本身是不支持fair的,如果需要使用这种调度算法,必须下载Nginx的upstream_fair模块 # #虚拟主机的配置(采用调度算法3:ip_hash) server { listen 80; server_name wangying.sinaapp.com; #对 "/" 启用反向代理 location / { proxy_pass http://webhost; proxy_redirect off; proxy_set_header X-Real-IP $remote_addr; #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #以下是一些反向代理的配置,可选. proxy_set_header Host $host; client_max_body_size 10m; #允许客户端请求的最大单文件字节数 client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数, proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时) proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时) proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时) proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小 proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的设置 proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2) proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传 } } }
测试篇
域名:wangying.sinaapp.com
分别解析到192.168.1.1
客户访问这三个站点的时候,Nginx根据客户访问的ip_hash值,负载均衡到Web1和Web2服务器上
虚拟主机的配置
本地单台服务器实现动静分离多端口反向代理配置
Nginx负载均衡服务器:
IP:192.168.1.1:80
Web服务器(同台机器)列表:
Web1:192.168.1.1:8080
Web1:192.168.1.1:8081
Web1:192.168.1.1:8082
实现目的:
用户访问http://wangying.sinaapp.com,将其负载均衡到本地服务器的8080、8081、8082端口
http { #因为服务器负载均衡到本地的8080、8081、8082端口,所以本地要增开8080,8081,8082端口作脚本解析 server { listen 8080; server_name wangying.sinaapp.com; root /mnt/hgfs/vmhtdocs/fastdfs/; location ~ .php$ { fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; include fastcgi_params; } #由于下面80端口可知,8080,8081,8082只负责php动态程序解析,所以静态文件配置就不用设置了 } server { listen 8081; server_name wangying.sinaapp.com; root /mnt/hgfs/vmhtdocs/fastdfs/; index index.php index.html index.htm; location ~ .php$ { fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; include fastcgi_params; } } #8082的可仿照上面的server配置只是修改listen即可 # #本地多端口负载均衡配置# #因为是一台服务器,所以可以127.0.0.1代替其内网ip #upstream 后面的主机名只是一个标识而已,可以是某个词语,也可以是域名,它与 proxy_pass http://webhost 相对应相同即可 upstream webhost { server 127.0.0.1:8080; server 127.0.0.1:8081; server 127.0.0.1:8082; } #本地80端口,接受请求做负载均衡 server { listen 80; server_name wangying.sinaapp.com; #本地动静分离反向代理配置 #所有php的页面均交由本地fastcgi处理 location ~ .php$ { proxy_pass http://webhost; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } #所有静态文件由nginx直接读取 #图片缓存时间设置 location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$ { expires 10d; } #JS和CSS缓存时间设置 location ~ .*.(js|css)?$ { expires 1h; } }
下面是其他网友的补充
一、主配置段
1、正常运行必备的配置
#运行用户和组,组身份可以省略
user nginx nginx;
#指定nginx守护进程的pid文件
pid path/to/nginx.pid;
#指定所有worker进程所能打开的最大文件句柄数
worker_rlimit_nofile 100000;
2、性能优化相关的配置
#worker进程的个数,通常应该略少于CPU物理核心数,也可以使用auto自动获取
worker_processes auto;
#CPU的亲缘性绑定(同样是无法避免CPU的上下文的切换的)
#优点:提升缓存的命中率
#context switch:会产生CPU不必要的消耗
#http://blog.chinaunix.net/uid-20662363-id-2953741.html
work_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;
#计时器解析度(请求到达nginx,nginx相应用户请求后,要获取系统时间并记录日志,高并发的时候可能每秒钟获取很多很多次)
#降低此值,可以减少gettimeofday()系统调用的次数
timer_resolution 100ms;
#指明worker进程的nice值:数字越小,优先级越高
#nice值范围:-20,19
#对应的优先级:100,139
worker_priority number;
二、事件相关的配置
events {
#master调度用户请求至个worker进程时使用的负载均衡锁:on表示能让多个worker轮流地、序列化的响应新请求
accept_mutex {off|on}
#延迟等待时间,默认为500ms
accept_mutex_delay time;
#accept_mutex用到的锁文件路径
lock_file file;
#指明使用的时间模型:建议让Nginx自行选择
use [epoll|rtsig|select|poll];
#单个worker进程打开的最大并发连接数,worker_processes*worker_connections
worker_connections 2048;
#告诉nginx收到一个新链接通知后接受尽可能多的链接
multi_accept on;
}
三、用于调试、定位问题
#是否以守护进程方式运行nginx;调试时应该设置为off
daemon {on|off}
#是否以master/worker模型来运行;调试时可以设置为off
master_process {on|off}
#error_log 位置 级别,若要使用debug,需要在编译nginx时使用--with-debug选项
error_log file | stderr | syslog:server=address[,parameter=value] | memory:size [debug|info|notice|warn|error|crit|alert|emerg];
总结:常需要调整的参数:worker_processes, worker_connections,work_cpu_affinity,worker_priority
新改动配置生效方式:
nginx -s reload其他参数stop,quit,reopen也可以使用nginx -h查看到
四、nginx作为web服务器使用的配置
http {}:由ngx_http_core_module模块所引入
配置框架:
http {
upstream {
...
}
server {
location URL {
root "/path/to/somedir"
...
}#类似于httpd中的<Location>,用于定义URL与本地文件系统的映射关系
location URL {
if ... {
...
}
}
}#每个server类似于httpd中的一个<VirtualHost>
server {
...
}
}
注意:与http相关的额指令仅能够防止与http、server、location、upstream、if上下文,但有些指令仅应用于这5种上下文的某些种。
http {
#打开或关闭错误页面中的nginx版本号
server_tokens on;
#!server_tag on;
#!server_info on;
#优化磁盘IO设置,指定nginx是否调用sendfile函数来输出文件,普通应用设为on,下载等磁盘IO高的应用,可设为off
sendfile on;
#设置nginx在一个数据包里发送所有头文件,而不是一个接一个的发送
tcp_nopush on;
#设置nginx不要缓存数据,而是一段一段的发送,
#长连接的超时时长,默认为75s
keepalive_timeout 30;
#在一个长连接所能够允许请求的最大资源数
keepalive_requests 20;
#为制定类型的User Agent禁用长连接
keepalive_disable [msie6|safari|none];
#是否对长连接使用TCP_NODELAY选项,不将多个小文件合并传输
tcp_nodelay on;
#读取http请求报文首部的超时时长
client_header_timeout #;
#读取http请求报文body部分的超时时长
client_body_timeout #;
#发送响应报文的超时时长
send_timeout #;
#设置用户保存各种key的共享内存的参数,5m指的是5兆
limit_conn_zone $binary_remote_addr zone=addr:5m;
#为给定的key设置最大的连接数,这里的key是addr,设定的值是100,就是说允许每一个IP地址最多同时打开100个连接
limit_conn addr 100;
#include指在当前文件中包含另一个文件内容
include mime.types;
#设置文件使用默认的mine-type
default_type text/html;
#设置默认字符集
charset UTF-8;
#设置nginx采用gzip压缩的形式发送数据,减少发送数据量,但会增加请求处理时间及CPU处理时间,需要权衡
gzip on;
#加vary给代理服务器使用,针对有的浏览器支持压缩,有个不支持,根据客户端的HTTP头来判断是否需要压缩
gzip_vary on;
#nginx在压缩资源之前,先查找是否有预先gzip处理过的资源
#!gzip_static on;
#为指定的客户端禁用gzip功能
gzip_disable "MSIE[1-6].";
#允许或禁止压缩基于请求和相应的响应流,any代表压缩所有请求
gzip_proxied any;
#设置对数据启用压缩的最少字节数,如果请求小于10240字节则不压缩,会影响请求速度
gzip_min_length 10240;
#设置数据压缩等级,1-9之间,9最慢压缩比最大
gzip_comp_level 2;
#设置需要压缩的数据格式
gzip_types text/plain text/css text/xml text/javascript application/json application/x-javascript application/xml application/xml+rss;
#开发缓存的同时也指定了缓存文件的最大数量,20s如果文件没有请求则删除缓存
open_file_cache max=100000 inactive=20s;
#指多长时间检查一次缓存的有效信息
open_file_cache_valid 60s;
#文件缓存最小的访问次数,只有访问超过5次的才会被缓存
open_file_cache_min_uses 5;
#当搜索一个文件时是否缓存错误信息
open_file_cache_errors on;
#允许客户端请求的最大单文件字节数
client_max_body_size 8m;
#冲区代理缓冲用户端请求的最大字节数
client_header_buffer_size 32k;
#引用/etc/nginx/vhosts下的所有配置文件,如果主机名众多的情况下可以每个主机名建立一个文件,以方便管理
include /etc/nginx/vhosts/*;
}
五、虚拟主机设定模块
#负载均衡服务器列表(本人通常把负载均衡类别配置在相应的虚拟主机的配置文件中)
upstream fansik {
#后端服务器访问规则
ip_hash;
#weight参数表示权重值,权值越高被分配到的几率越大
server 192.168.1.101:8081 weight=5;
server 192.168.1.102:8081 max_fails=3 fail_timeout=10s;
}
server {
#监听80端口
listen 80;
#定义主机名,主机名可以有多个,名称还可以使用正则表达式(~)或通配符
#(1)先做精确匹配检查
#(2)左侧通配符匹配检查:*.fansik.com
#(3)右侧通配符匹配检查:mail.*
#(4)正则表达式匹配检查:如~^.*.fansik.com$
#(5)detault_server
server_name www.jb51.net;
#设定本虚拟主机的访问日志
access_log logs/www.jb51.net.access.log;
location [=|~|~*|^~] uri {...}
功能:允许根据用户请求的URI来匹配定义的个location,匹配到时,此请求将被相应的location配置块中的配置所处理
=:表示精确匹配检查
~:正则表达式模式匹配检查,区分字符大小写
~*:正则表达式模式匹配检查,不区分字符大小写
^~:URI的前半部分匹配,不支持正则表达式
!~:开头表示区分大小写的不匹配的正则
!~*:开头表示不区分大小写的不匹配的正则
/:通用匹配,任何请求都会被匹配到
location / {
#定义服务器的默认网站根目录位置
root html;
#定义首页索引文件的名称
index index.html index.htm;
#引用反向代理的配置,配置文件目录根据编译参数而定
#如果编译时加入了--conf-path=/etc/nginx/nginx.conf指定了配置文件的路径那么就把proxy.conf放在/etc/nginx/目录下
#如果没有制定配置文件路径那么就把proxy.conf配置放到nginx的conf目录下
include proxy.conf;
#定义后端负载服务器组
proxy_pass http://fansik;
}
alias path和root path的区别;
location /images/ {
root "/data/images"
}
//www.jb51.net/images/a.jpg <-- /data/images/images/a.jpg
location /images/ {
alias "/data/images/"
}
//www.jb51.net/images/a.jpg <-- /data/images/a.jpg
#定义错误提示页面
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
#设定查看Nginx状态的地址
#只能定义在location中
#htpasswd -c -m /etc/nginx/.htpasswd fansik(-c 参数第一次创建时使用)
location /Status {
stub_status on;
allow all;
#access_log off;
#allow 192.168.1.0/24;
#deny all;
#auth_basic "Status";
#auth_basic_user_file /etc/nginx/.htpasswd;
}
status结果实例说明:
Active connections: 1 (当前所有处于打开状态的连接数)
server accepts handled requests
174(已经接受进来的连接) 174(已经处理过的连接) 492(处理的请求,在保持连接模式下,请求数可能会多于连接数量)
Reading: 0 Writing: 1 Waiting: 0
Reading:正处于接受请求状态的连接数
Writing:请求接受完成,正处于处理请求或发送相应的过程中的连接数
Waiting:保持连接模式,且处于活动状态的连接数
#基于IP的访问控制
allow IP/Netmask
deny IP/Netmask
location ~ /.ht {
deny all;
}
}
六、反向代理的配置(反向代理的配置通常放在单独的配置文件中proxy.conf,通过include引用)
proxy_redirect off;
#后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#nginx跟后端服务器连接超时时间(代理连接超时)
proxy_connect_timeout 60;
#连接成功后,后端服务器响应时间(代理接收超时)
proxy_read_timeout 120;
#后端服务器数据回传时间(代理发送超时)
proxy_send_timeout 20;
#设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffer_size 32k;
#proxy_buffers缓冲区,网页平均在32k以下的设置
proxy_buffers 4 128k;
#高负荷下缓冲大小(proxy_buffers*2)
proxy_busy_buffers_size 256k;
#设定缓存文件夹大小,大于这个值,将从upstream服务器传
proxy_temp_file_write_size 256k;
#1G内存缓冲空间,3天不用删除,最大磁盘缓冲空间2G
proxy_cache_path /data/nginx/cache levels=1:2 keys_zone=cache_one:1024m inactive=3d max_size=2g;
七、https服务的配置
server {
listen 443 ssl;
server_name test.fansik.cn;
ssl_certificate 100doc.cn.crt;
ssl_certificate_key 100doc.cn.key;
ssl_session_cache shared:SSL:1m;
ssl_protocols SSLv2 SSLv3 TLSv1;
ssl_session_timeout 5m;
ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP;
ssl_prefer_server_ciphers on;
location / {
root /data/app
index index.html index.htm;
}
}
八、url地址重写
rewrite regex replacment flag
例如:rewrite ^/images/(.*.jpg)$ /imgs/$1 break;#$1是前面括号中的内容哦
//www.jb51.net/images/a/1.jpg --> //www.jb51.net/imgs/a/1.jpg
flag:
last:一旦此rewrite规则重写完成后,不再被后面其他的rewrite规则进行处理,
而是由User Agent重新对重写后的URL再一次发起请求,并从头开始执行类似的过程。
break:一旦此rewrite规则重写完成之后,由User Agent对新的URL重新发起请求,
且不会被当前location内的任何rewrite规则过检查
redirect:以302响应码(临时重定向)返回新的URL
permanent:以301响应码(永久重定向)返回新的URL
九、if判断
语法:if (condition) {...}
应用环境:server,location
condition:
(1)变量名:
变量值为空串,或者以"0"开始,则为false,其他的均为true
(2)以变量为操作数构成的比较表达式
可以使用=,!=类似的比较操作符进行测试
(3)正则表达式的模式匹配操作
~:区分大小写的模式匹配检查
~*:不区分大小写的模式匹配检查
!~和!~*:对上面两种测试取反
(4)测试路径为文件可能性:-f ,~-f
(5)测试制定路径为目录的可能性:-d,!-d
(6)测试文件存在性:-e,!-e
(7)检查文件是否有执行权限:-x,!-x
例如:
if($http_user_agent ~* MSIE){
rewrite ^(.*)$ /msie/$1 break;
}
十、防盗链
location ~* .(jpg|gif|jpeg|png)$ {
valid_referer none blocked www.jb51.net;
if ($invalid_referer) {
rewrite ^/ //www.jb51.net/403.html;
}
}
总结:
最后推荐一个深入学习Nginx的网站:
到此这篇关于Nginx配置参数中文说明详解(负载均衡与反向代理)的文章就介绍到这了,更多相关Nginx参数中文解释内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!