基于Nginx的高并发访问服务器的研究与应用

来源 :中国科学院大学 | 被引量 : 48次 | 上传用户:crypt2074
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着互联网的发展,移动互联网的成熟,用户量不断增大,用户的需求也变得多样化,传统的服务器架构已经不能承受住来自海量用户的并发请求了。本文通过对Nginx服务器进行研究,掌握了Nginx的系统架构,分析了Nginx能够处理海量高并发的原因。通过对商品抢购场景进行需求分析,总结了高并发访问产生的客观原因,并分析了影响服务器并发能力的因素,提出了提高服务器并发能力的策略和算法。商品抢购这个需求在中国的应用非常广泛,不管是火车票抢购还是抢红包都是其应用场景。造成高并发量的原因是多方面的,降低并发量的手段也是多种多样的。影响并发量提升的因素也是有很多的,有设计问题,有软硬件性能问题,有算法性能问题,这些都是可以提升的。本文通过研究现有的负载均衡技术和机器学习技术,提出一种基于预测模型和独立训练节点的负载均衡算法。该算法使用机器学习技术,通过对历史数据进行训练得到响应时间预测模型,来预测新请求的响应时间;根据每个服务器节点的预估响应时间,将请求分配给具有最少响应时间的服务器节点,从而提高集群中请求分配的均衡性,提高集群的效率。为了降低机器学习算法对负载均衡器的性能压力,本文采用独立节点来训练预测模型,并通过降低特征参数的数量级来降低机器学习过程的运算量。本文尽可能的从算法层面减少集群内部的网络通信量,进一步降低响应时间。本文通过对三种机器学习算法的对比实验,均表明本算法能降低中小集群高并发场景中系统的平均响应时间。
其他文献
随着Internet的发展和普及,搜索引擎已经发展的比较成熟,利用搜索引擎在网络上搜索信息成为越来越多用户的选择。但是对于一般用户而言,面对着呈指数级增加的网络信息,想要快速、