有的时候我们部署的项目并发人数一旦增加,单体项目很容易挂掉,不是我们的服务器配置不够,因为每一个 tomcat 的能力是有限的,导致了拖慢访问速度,这个时候我们就可以使用负载均衡
1、负载均衡简介
负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
负载均衡(Load Balance)其意思就是分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。
2、原始配置文件如下
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 80;
server_name localhost;
location / {
root html;
index index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
3、搭建负载均衡
worker_processes 1;
events {
worker_connections 1024;
}
http {
# 三台服务主机
upstream test {
server 127.0.0.1:8081;
server 127.0.0.1:8082;
server 127.0.0.1:8083;
}
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 80;
server_name localhost;
location / {
root html;
index index.html index.htm;
}
# 代理转发
location /test {
proxy_pass http://test;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
到 sbin 目录,执行命令重启 nginx
./nginx -s reload
这里我们使用 upstream 搭建了三台服务主机参与负载均衡,对应端口分别为:8081,8082,8083,这里还可以配置 weight 参数,权重表示谁的优先级较高,都不配置的话,表示拥有相同的权重,最后使用代理转发,分别调用这三台服务主机,我们服务的响应速度就很快了
如您在阅读中发现不足,欢迎留言!!!
今天的文章Nginx搭建负载均衡实现高并发分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/32648.html