网络均衡(精选十篇)
网络均衡 篇1
为了为上网用户提供一个目标服务或同时提供多个目标服务, 我们在七层交换机上通过IP地址与TCP/UDP端口的不同组合, 来为每一个目标服务设置一个不同的虚拟IP地址;正因为如此, 七层交换机可以同时为若干个基于TCP/IP协议的各类业务应用提供服务器系统的负载均衡服务;七层交换机可以持续不停地对用户需要访问的服务器系统资源进行合理性检查, 检查范围限定在交换机的四层到七层范围内, 当上网用户向目标服务器系统发出访问请求信息时, BIG/IP协议会依照目标服务器之间的网络健康状态以及运行性能状态, 自动挑选性能状态处于最优效果的服务器系统来应答用户的上网请求信息, 这样不但可以充分利用每一台服务器系统的资源, 而且也会平均分配数据流量到每一台服务器系统中, 避免了单台代理服务器传输性能的瓶颈以及系统故障的影响。通过增加七层交换机, 我们可以对局域网的数据流量以及访问内容进行灵活的管理与分配, 利用七层交换机自带的12种与众不同的数据算法, 将局域网中的访问数据流按需转发分配给它想要访问的服务器组, 而对于上网用户来说, 我们看到的只是一台虚拟的服务器。这个时候, 上网用户只需要记住虚拟服务器的访问地址, 而不需要同时记住整个服务器组的其他服务器地址, 用户向虚拟服务器发出的数据流会自动被七层交换机灵活地平均分配给所有的服务器系统。七层交换机所采用的12种与众不同的数据算法, 主要有:
一、优先权算法:这种算法主要就是对所有的服务器系统进行分组, 同时对这些分组设置合适的访问优先权, BIG/IP协议会把上网用户的数据请求, 优先分配给优先权级别最高的服务器分组, 一旦优先权级别最高的服务器分组工作状态不正常的时候, 第二优先权级别的服务器分组会自动递补上来, 负责处理上网用户的数据请求;如果第二优先权级别的服务器分组也遇到了故障无法正常工作的话, 那么其他服务器分组会依次进行递补;显然这种数据算法, 为上网用户提供了一种热备份的功能。
二、比率算法:这种算法是为整个服务器组中的每一台服务器系统事先设置一个加权值比例, 同时依照这个加权值比例, 自动将上网用户的数据请求信息分配给每一台服务器系统;一旦整个服务器中的某一台服务器系统在第二层到第七层范围内遇到故障无法正常工作的时候, BIG/IP协议会自动将这台故障服务器系统从整个服务器组中临时剔除出来, 确保它不会参加下一次上网用户请求的分配任务, 直到它的故障被成功排除为止。
三、轮询算法:这种算法是比较常用的一种算法, 它主要是将上网用户的数据请求按照顺序进行循环, 依次发送给整个服务器组中的每一台服务器系统进行处理;如果整个服务器组中有某台服务器系统在第二层到第七层范围内遇到故障无法正常工作的时候, BIG/IP协议会自动将这台故障服务器系统从循环队列中临时剔除出来, 确保它不会参与轮询算法, 直到它的故障被成功排除为止。
四、除了上面几种主要的数据算法外, 七层交换机的算法还包括服务类型算法、服务质量算法、观察模式算法、最快模式算法、最少的连接方式算法、预测模式算法、动态服务器补充算法、规则模式算法、动态性能分配算法等等。
通过上述升级、改造方案, 我们可以轻而易举地对整个服务器组实现流量均衡分配, 这样解决了单台服务器性能瓶颈的缺点, 提升了整个局域网服务器系统的运行稳定性和运行可靠性;上述升级改造方案可以帮助我们非常轻松地同步服务器提供的数据内容, 并且方便我们对其中的数据内容进行监控, 保证上网用户能从局域网服务器中访问得到准确、可靠的信息;通过对服务器系统的负载均衡改造, 我们能够对运行在服务器系统中的各个网络应用程序进行运行状态的实时监控, 并且对那些存在故障的应用系统进行自动屏蔽;此外, 这种负载均衡升级改造方案, 还为网络管理员在线调试、维护服务器系统带来了便利。
参考文献
[1]于洪伟.基于多核处理器高效入侵检测技术研究与实现[D].成都:电子科技大学, 2009.
[2]林闯, 单志广, 任丰原.计算机网络服务质量 (QoS) [M].清华大学出版社, 2006, 04.
网络负载均衡功能的体现 篇2
目前企业使用的所谓“负载均衡服务器”,实际上它是应用系统的一种控制服务器,所有用户的请求都首先到此服务器,然后由此服务器根据各个实际处理服务器状态将请求具体分配到某个实际处理服务器中,对外公开的域名与IP地址都是这台服务器。负载均衡控制与管理软件安装在这台服务器上,这台服务器一般只做网络负载均衡功能的任务分配,但不是实际对网络请求进行处理的服务器。
一、企业实现Web服务器负载均衡
为了将负载均匀的分配给内部的多个服务器上,就需要应用一定的负载均衡策略。通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。
对于WEB服务应用,同时有几台机器提供服务,每台机器的状态可以设为regular(正常工作)或backup(备份状态),或者同时设定为regular状态。负载均衡设备根据管理员事先设定的负载算法和当前网络的实际的动态的负载情况决定下一个用户的请求将被重定向到的服务器。而这一切对于用户来说是完全透明的,用户完成了对WEB服务的请求,并不用关心具体是哪台服务器完成的。
二、使用网络地址转换实现多服务器负载均衡
支持网络负载均衡功能的地址转换网关中可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择、根据服务器的连接数量或者响应时间进行选择的负载均衡策略来分配负载。然而硬件实现的负载控制器灵活性不强,不能支持更优化的负载均衡策略和更复杂的应用协议。
基于网络地址转换的负载均衡器可以有效的解决服务器端的CPU和磁盘I/O负载,然而负载均衡器本身的性能受网络I/O的限制,在一定硬件条件下具有一定的带宽限制,但可以通过改善算法和提高运行负载均衡程序的硬件性能,来提高这个带宽限制。不同的服务类型对不同的服务器资源进行占用,我们使用的负载衡量策略是使用同一个负载进行评估,这对于大多数条件是适合的,然而最好的办法是针对不同的资源,如CPU、磁盘I/O或网络I/O等,分别监视服务器负载,由中心控制器选择最合适的服务器分发客户请求。
三、使用DNS服务器实现负载均衡
访问企业网服务器的用户急剧增加,一台服务器难以满足用户的访问需要,那么如何才能保证用户的正常访问呢?解决方法有很多,如使用Windows 或Windows Server 提供网络负载均衡功能,但该服务的设置非常复杂,
而通过DNS服务器实现网络负载均衡功能则是一种比较简单的方法。
企业网通常由很多子网构成,为了降低网络中的数据流量,客户机最好能访问处于同一子网内的Web服务器。虽然实现了网络负载均衡功能,但并不能保证客户访问的是本子网的Web服务器。其实这个问题也很好解决,只要启用DNS服务器的“启用网络掩码排序”功能即可。在DNS管理器窗口中,右键点击DNS服务器,在弹出的菜单中选择“属性”,然后在属性对话框中切换到“高级”选项卡,勾选“服务器选项”列表框中的“启用网络掩码排序”选项即可。这样客户机每次都能访问到本子网内的Web服务器了。完成以上设置后,就使DNS服务器实现了网络负载均衡功能,把客户的访问分担到每个Web服务器上,并且还减少了跨子网的网络通信流量,大大降低了企业网的通信负担。
四、企业实现SQL Server数据库服务器负载均衡
MS SQL Server数据库服务器可以说是应用范围最广的数据库产品,并且越来越多地在大型和比较关键的应用系统中提供服务。当企业应用越来越复杂、数据量越来越大的时候,SQL Server数据库要不停的进行处理、存储、查询的工作,这个时候企业就要考虑SQL Server数据库服务器的性能和速度及安全性了。然而,长期以来,SQL SERVER数据库服务器都只有“热备”的解决方案,而没有“负载均衡”和“集群”的解决方案。
随着数据库路由器软件ICX的出现,为基于MS SQL Server的数据库系统提供了一种更优秀的集群解决方案。它可以真正的实现SQL Server数据库服务器的动态负载均衡,提高性能和速度;它可以真正的保证SQL Server数据库服务器不间断的提供服务,在服务器发生故障的时候实时切换到其他服务器上继续提供服务,切换时间为“零”。数据库路由器是实时并发数据库事务处理同步复制器和负载平衡器。
网络均衡 篇3
[关键词]网络;远程协作;师生均衡发展
基于网络同步的平台,通过实践活动这一学习形式,可让城乡学生在同一话题、活动中围绕同一知识点进行“同化”“顺应”,从而不断完善自身的知识结构,达到教育质量的“同步”。我们通过计算机等多媒体硬件设备开展基于项目的学习,开展了一系列的理论学习和实践探索,在项目论证、项目实施、合作交流、经验总结等方面做了大量的工作,进行了深入研究。
一、探索出具有学科特点的网络教学应用模式
精心设计项目学习的选题,既立足于课堂,又不局限于课堂,努力做到课堂向课前延伸和向课后拓展,向社会和家庭开放,向大自然开放,既立足于教材,又不局限于教材,努力促进多种教学资源的开发和利用。
为了使教学模式、资源多元化,且灵活地为教学服务,最好的形式是网络交流的形式。把主体教学过程分成“搜集资料——协商讨论——制作文稿——展示成果——补充指导——得出结论”这6个环节进行实施。如在实施项目“你了解火灾吗”时,为了便于学生在有限的时间内更有效地利用资源,事先制作好一个网页,集中了与问题相关的一些图片及文字说明,帮助学生阐述问题。对于一些能力较强的学生,他们可以通过应用专题网站,到互联网上查找更多的资料,补充课堂所学内容。这样,以学生为主体,师生互动,生生互动,使每一个学习者都经历了一个主动获取知识、应用知识、解决问题、完善情感的自主学习过程,轻松地实现了自主学习、自主发展。与此同时,更锻炼了学生应用网络搜集资料,从资料中提取有效信息的能力,培养了学生的团结协作精神。使用这种模式教学,有着传统教学手段不可比拟的优势。
二、网络交流促进学生全面发展
1.学会学习,学会操作。在项目活动的过程中,学生的能力得到了提高。以“七色光”为例,互动式网络学习拉近了师生、生生之间的距离,教师能够根据实际的学习进程灵活调整活动目标,学习变得更加灵活,大量资源的提供, 方便了资料搜集,便捷的计算机成为资料整理、成果展示的有效工具。通过“自学—指导”的互动的学习法,让学生自己搜集资料,可以锻炼他们的动手操作能力、分析问题和判断问题的能力。通过制作、演示电子文稿,培养了他们运用所学知识解决问题的能力以及归纳概况和口头表达能力等。这样他们将受益终身,也达到了教育的目的。
2.质疑问难,创新思维。如在完成“我们身边的自然保护区”这项活动时,学生在寻访、调查身边的自然保护区时,提出了“自然保护区内外的动植物的生活情况,活动有什么差异,两者有什么不一样” “它们愿意在怎样的环境中生活”等一系列问题。随后学生提出在实验探究中发现的新问题,并通过头脑风暴的形式对新问题进行归纳、梳理、总结,提炼出具有共性的、大家最感兴趣的问题进一步探究。两地学生利用互联网进行远程讨论,确定具有共性有价值的问题,为后续的实验研究奠定基础。并于新浪微博、好看簿等平台开展共同写作活动,分享各地学生对寻访身边的各类自然保护区的过程、发现和思考。
3.学会观察,善于思考。“月季花用什么水养殖更好”是根据现行小学科学教材,围绕植物这一大知识领域开展课题研究,将课堂资源应用于项目中,为学生提供支持探究性学习的素材,提起学生对一些在日常生活、学习中较难发现的现象或问题,引发学生对这些问题的思考与探究。项目实施的过程不仅是对学生美的熏陶,更让学生感受到来自生命的力量。学生在惊叹之余,不免产生种种困惑,使学生的观察活动更为有效。经过教师有目的、有计划的引导,学生的观察探究活动从无序到有序,从细节到整体、从片面到全面、从局部到全局,循序渐进,良好的观察思考能力逐步形成。
三、同课异构多层次提高教师的能力
“同课异构”教学研讨为教师们提供了一个面对面交流互动的平台。在这个平台中,我们共同探讨教学中的热点、难点问题,交流彼此的经验、多维的角度、迥异的风格、不同策略在交流中碰撞、升华。这种多层面、全方位的合作、探讨,有利于整体提升教师的教学教研水平,提高教学质量,营造一种积极向上的现代教育技术教学的氛围。如我们就小学科学课题“美国人登月是否造假”,构成了同一内容用不同的风格、方法进行教学的课。课程设计是教材认识月球部分的扩展,是对以往所学的科学知识的应用,其目标是培养学生的批判性思维和媒介素养,融合网络工具来推动探究性学习,提高学生对科学本质的认识。教学设计了三个层面的活动:一是学生自由猜测美国登月是否造假的假说,二是通过网络查询相关的月球知识及阿波罗登月资料,三是根据掌握的知识和证据对猜测作出解释和分析。
中小企业网络负载均衡设计 篇4
1 中小企业网络架构介绍
企业网络是企业信息化的主体,是网络负载均衡引入的基础,下面介绍企业网络的逻辑架构。
1.2 中小企业网络逻辑架构
鉴于市场价格和服务的影响,一般中小企业内部建网基本采用层次设计模型,网络设计的层次模型如图1所示。
大约10年前,Cisco曾经提出层次设计模型,并且将其作为网络设计人员进行网络设计的工具,该模型能够从物理、逻辑和功能等多角度出发进行设计。层次模型将网络规划分为接入层、汇聚层和核心层。
接入层为用户提供网络设备的接入。在企业网络中,接入层通常包括实现LAN设备(例如工作站和服务器)互连的第二层交换机。在WAN环境中,通过使用WAN技术,例如宽带和帧中继,接入层为站点提供到企业网络的接入。
汇聚层汇集了配线架,并且使用第二层和第三层交换进行工作组分段、实施安全策略,限制带宽和隔离网络故障等。这些措施能够防止汇聚层和接入层的异常事件影响核心层。
核心层被描述为高速主干,核心层的主要功能是尽可能快地交换数据。因为核心层是连通的关键环节,所以它提供了高可靠性,并且能够快速地适应路由选择和拓扑的变更。
为了保证企业网络的稳定性和健壮性,理想情况下,可以在每个功能区域都引入网络负载均衡,这样搭建起来的网络是完全冗余和高效的。但是,考虑到信息化投入所产生的收益,在现实情况中,中小企业往往只会愿意在某些关键应用区域引入负载均衡,那么应该如何为中小企业设计带负载均衡功能的网络呢?我们应该对网络负载均衡技术有一个全面的认识。
2 网络负载均衡介绍
2.1 网络负载均衡概念及含义
网络负载均衡,英文名为Network Load Balance,其意思是将负载(数据流量)进行平衡、分摊到多个网络节点上进行转发,例如交换机、路由器、企业关键应用服务器和其他关键任务服务器等,从而共同完成工作任务。通常,负载均衡会根据网络的不同层次(网络七层)进行划分。
网络负载均衡有2个方面的含义:一是把大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;二是其中某个节点设备出现故障时,其余节点能够智能地承接流量信息的转发职责,使得网络系统的稳定性大大提高,减少了单点故障。
2.2 网络负载均衡的主要任务
网络负载均衡的主要任务有以下几个方面:解决网络拥塞问题,就近提供服务,实现地理位置无关性;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率。
在用户端进行优化和在服务器端采用负载均衡策略可以最大限度地确保网络信息的顺畅流通。
2.3 网络负载均衡技术分类
不同的网络负载均衡技术用以满足不同的应用需求,下面从负载均衡所应用的网络层次(指OSI参考模型或TCP/IP体系结构)进行分类。
2.3.1 数据链路层负载均衡技术
基于数据链路层的负载均衡技术常见的有应用于交换机的LACP、PAgP、MSTP技术及应用于服务器网卡的FEC技术等,下面分别对这几种技术进行介绍。
LACP:基于IEEE802.3ad标准的链路汇聚控制协议(Link Aggregation Control Protocol,LACP)是一种实现链路动态汇聚的协议。该协议通过将多个物理以太网适配器聚集到单独的虚拟适配器,以提供更高的带宽并防止单点故障。目前,市场上的主流二层交换机均支持该项功能。
PAgP:端口聚集协议(PAgP)通过发送PAgP分组在多个需要形成聚合的快速以太端口上协商形成链路通道,实现流量的负载均衡,实现原理和LACP基本类似。需要注意的是,PAgP是Cisco的专有协议,仅被Cisco公司的交换机支持。
MSTP:多实例生成树协议(Multiple Spanning Tree Protocol,MSTP)是把IEEE802.1w的快速生成树(RST)算法扩展而得到的。采用多生成树(MST),能够通过干道(trunks)建立多个生成树,关联VLANs到相关的生成树进程,每个生成树进程具备单独于其他进程的拓扑结构;MSTP将环路网络修剪成为一个无环的树型网络,避免报文在环路网络中的增生和无限循环,同时还提供了数据转发的多个冗余路径,在数据转发过程中实现VLAN数据的负载均衡。值得注意的是,MSTP是以实例为单位来进行STP计算的,因此在设计时要特别考虑清楚。
FEC:快速以太通道(Fast Ether Channel,FEC)是针对Web浏览及Intranet等对吞吐量要求较大的应用而开发的一种增大带宽的新技术,可为重要应用的客户机/服务器网络系统提供高可靠性和高速度。
2.3.2 网络层负载均衡技术
基于网络层的负载均衡技术常见的有VRRP、HSRP及GLBP,还有一类是基于路由协议的负载均衡技术,下面分别进行介绍。
虚拟路由器冗余协议(Virtual Router Redundancy Protocol,VRRP)是一种选择协议,它可以把一个虚拟路由器的责任动态分配到局域网上的VRRP路由器中的一台。控制虚拟路由器IP地址的VRRP路由器称为主路由器,它负责转发数据包到这些虚拟1P地址。一旦主路由器不可用,这种选择过程就提供了动态的故障转移机制,这就允许虚拟路由器的IP地址可以作为终端主机的默认第一跳路由器。VRRP组网结构如图2所示。
图2所示的ISP1路由器和ISP2路由器开启VRRP功能以后会虚拟一个路由器来转发用户数据,所有用户配置默认网关时只需配置虚拟路由的IP即可。虽然VRRP规定在同一时间,只能由主用路由器来转发数据,备用路由器处于空闲状态,但是通过VRRP组的概念,可以将不同的用户划分在不同的VRRP组内来实现负载均衡。继续以图2为例,假如将user1-3分配在VRRP组1中,将user4-6分配在VRRP组2中,并且设定ISP1路由器为组1的主用路由器和组2的备用路由器,同时设定ISP2路由器为组2的主用路由器和组1的备用路由器,那么在正常情况下,2组用户分别使用各自的主用路由器进行数据转发,就实现了网络流量的负载均衡,流量转发示意图如图3所示。
HSRP:热备份路由器协议(Hot Standby Router Protocol,HSRP)设计目标是支持特定情况下IP流量失败转移不会引起混乱、并允许主机使用单路由器,以及即使在实际第一跳路由器使用失败的情形下仍能维护路由器间的连通性。换句话说,当源主机不能动态知道第一跳路由器的IP地址时,HSRP协议能够保护第一跳路由器不出故障。该协议中含有多种路由器,对应一个虚拟路由器。HSRP协议只支持一个路由器代表虚拟路由器实现数据包转发过程。终端主机将它们各自的数据包转发到该虚拟路由器上。
负责转发数据包的路由器称为主动路由器(Active Router)。一旦主动路由器出现故障,HSRP将激活备份路由器(Standby Routers)取代主动路由器。HSRP协议提供了一种决定使用主动路由器还是备份路由器的机制,并指定一个虚拟的IP地址作为网络系统的缺省网关地址。如果主动路由器出现故障,备份路由器(Standby Routers)承接主动路由器的所有任务,并且不会导致主机连通中断现象。HSRP实现原理和VRRP类似,但是属于Cisco私有协议,仅被Cisco设备支持。
2.3.3 基于路由协议的负载均衡技术
路由协议通过路由信息创建了路由表,描述了网络拓扑结构,然后根据路由表执行路由选择和数据包转发功能。目前,企业网络使用最多的路由协议有EIGRP、OSPF及PBR等,这些路由协议通过计算到达目标网络的开销来衡量路由的优劣,并在具有同样开销的路径上实现等价负载均衡。
EIGRP:EIGRP是Cisco专有的路由协议,属于混合型路由协议,兼有链路状态路由协议和距离矢量路由协议的优点,通过调整它的“变化因子”参数实现非等价负载均衡。
OSPF是基于链路状态算法的路由选择协议,默认情况下,路由器会首先计算到达目标网络的每条链路的开销,开销相同的路由都会被安装到路由表中,这样就实现了等价负载均衡。OSPF仅支持等价负载均衡。
最后介绍一种基于PBR的负载均衡方式,PBR (Policy Based Routing)称为策略路由,它不属于路由协议,是一种比基于目标网络进行路由更加灵活的数据包路由转发机制。应用了策略路由,路由器将通过路由图决定如何对需要路由的数据包进行处理,路由图决定了一个数据包的下一跳转发路由器。应用策略路由,必须要指定策略路由使用的路由图(Route-map),并且要创建路由图。一个路由图由很多条策略组成,每个策略都定义了1个或多个匹配规则和对应操作。一个接口应用策略路由后,将对该接口接收到的所有包进行检查,不符合路由图任何策略的数据包将按照通常的路由转发进行处理,符合路由图中某个策略的数据包就按照该策略中定义的操作进行处理。通过预先设定好的路由图,就可以实现网络流量的负载均衡。目前,应用在企业边缘的多WAN口路由器就是利用了策略路由的功能,最新的第三代策略路由还加入了带宽识别、抖动检测等特性,无需人工干预即可实现负载均衡。
2.3.4 第四层交换的负载均衡技术
传输层是OSI模型的第四层。传输层负责端对端通信,即在网络源和目标系统之间协调通信。在IP协议栈中这是TCP(传输控制协议)和UDP (用户数据报协议)所在的协议层。在第四层中,TCP和UDP标题包含端口号(port number),它们可以唯一区分每个数据包包含哪些应用协议(例如HTTP、FTP等)。四层交换技术利用第三层和第四层包头中的信息来识别应用数据流会话,这些信息包括TCP/UDP端口号、标记应用会话开始与结束的“SYN/FIN”位及IP源/目的地址。利用这些信息,四层交换机可以做出向何处转发会话传输流的智能决定。对于使用多种不同系统来支持一种应用的大型企业数据中心、Internet服务提供商或内容提供商,以及在很多服务器上进行复制功能的时候,四层交换的作用就尤为重要。
2.4 网络负载均衡策略
在实际应用中,我们不能仅把客户端的服务请求平均地分配给内部交换机,而不管交换机是否满负荷。而是想使一台处理流量转发请求较少的交换机能分配到更多的请求,出现故障的交换机将不再接受请求直至故障恢复等。
选择合适的负载均衡策略,使多个设备能很好地共同完成任务,消除或避免现有网络负载分布不均、数据流量拥挤反应时间长的瓶颈。在各负载均衡方式中,针对不同的应用需求,在OSI参考模型的第二、第三、第四、第七层的负载均衡都有相应的负载均衡策略。
第四到第七层的负载均衡一般采用专用的硬件负载均衡器实现,主要用于关键服务器的负载均衡。考虑到服务请求的不同类型、服务器的不同处理能力及随机选择造成的负载分配不均匀等问题,为了更加合理地把负载分配给内部的多个服务器,就需要应用相应的能够正确反映各个服务器处理能力及网络状态的负载均衡算法。
轮循均衡(Round Robin):每一次来自网络的请求轮流分配给内部中的服务器,从1至N然后重新开始。此种均衡算法适合于服务器组中的所有服务器都有相同的软硬件配置并且平均服务请求相对均衡的情况。
权重轮循均衡(Weighted Round Robin):根据服务器的不同处理能力,给每个服务器分配不同的权值,使其能够接受相应权值数的服务请求。此种均衡算法能确保高性能的服务器得到更多的使用率,避免低性能的服务器负载过重。
随机均衡(Random):把来自网络的请求随机分配给内部中的多个服务器。
权重随机均衡(Weighted Random):此种均衡算法类似于权重轮循算法,不过在处理请求分担时是个随机选择的过程。
响应速度均衡(Response Time):负载均衡设备对内部各服务器发出一个探测请求(例如Ping),然后根据内部中各服务器对探测请求的最快响应时间来决定哪一台服务器来响应客户端的服务请求。此种均衡算法能较好地反映服务器的当前运行状态,但最快响应时间仅仅指的是负载均衡设备与服务器间的最快响应时间,而不是客户端与服务器间的最快响应时间。
最少连接数均衡(Least Connection):最少连接数均衡算法对内部中需负载的每一台服务器都有一个数据记录,记录当前该服务器正在处理的连接数量,当有新的服务连接请求时,将把当前请求分配给连接数最少的服务器,使均衡更加符合实际情况,负载更加均衡。此种均衡算法适合长时处理的请求服务,例如FTP。
处理能力均衡:此种均衡算法将把服务请求分配给内部中处理负荷(根据服务器CPU型号、CPU数量、内存大小及当前连接数等换算而成)最轻的服务器,由于考虑到了内部服务器的处理能力及当前网络运行状况,所以此种均衡算法相对来说更加精确,尤其适合运用到第七层(应用层)负载均衡的情况下。
3 中小企业网络负载均衡设计
3.1 设计原则
前面说过,在一个中小企业网络内部,从接入层到核心层完全部署负载均衡技术是不现实的,因为中小企业规模有限,网络建设的成本预算比较低,所以设计中小企业网络均衡方面应遵循以下几个原则:①节省成本。②可扩展性。③可用性。④可管理。⑤易于部署。⑥易于维护。
3.2 技术、设备选择
在负载均衡技术选择方面,考虑到中小企业的组网结构以层次结构为主,汇聚层与骨干层的界限模糊,建议作如下选择。
(1)接入层可以配备可网管的二层交换机,采用VLAN隔离各部门子网,采用LACP或者PAgP双线上行至汇聚层,以扩展接入带宽。
(2)汇聚层建议直接采用三层交换机,充当三层路由功能的作用,终结部门VLAN。如果企业规模较大,汇聚层部署了3台以上的三层交换机,可以考虑启用动态路由来实现负载均衡;如果企业规模较小,汇聚层设备不多,则建议在三层交换机上配置默认路由至出口设备即可。当然,我们还可以在汇聚层使用VRRP、HSRP及STP技术实现不同部门之间的流量负载均衡。
(3)中小企业的骨干层一般和汇聚层结合在一起,没有严格的界限,而且通过使用三层交换机可以大大节省部署路由器的成本。但是,当企业规模发展迅速,网络拓展到一定程度,骨干层还是建议独立设计,而当具备多台骨干设备时,启用动态路由协议或者VRRP等技术实现骨干流量的分担负载就显得很有必要。
(4)在企业边缘区域,如果通过多ISP线路接入,可以在边缘路由器使用策略路由技术实现流量在多ISP线路上的分流,设计时一定要主要策略路由的备份策略,否则可能引起单链路故障。
4 总结
网络负载均衡方案是在网络建设初期就应考虑的问题,不过有时随着访问流量的爆炸性增长,超出决策者的意料,这也就成为不得不面对的问题。当我们在引入某种网络负载均衡方案乃至具体实施时,像其他的许多方案一样,先要确定当前及将来的应用需求,然后在代价与收益之间做出权衡。
不管网络负载均衡方案是采用花费较少的软件方式,还是购买代价高昂、在性能功能上更强的第四层交换机、负载均衡器等硬件方式来实现,抑或其他种类不同的均衡技术,性能、可扩展性、灵活性、可靠性、易管理性都是我们在引入均衡方案时要考虑的问题。
参考文献
[1]郑纪蛟.计算机网络[M].北京:中央广播电视大学出版社,2000.
[2]刘小辉.网络硬件完全手册[M].重庆:重庆大学出版社,2002.
[3]张公忠.现代网络技术教程[M].北京:电子工业出版社,2000.
[4]吴明厚.广西通信技术[M].广西:广西通信协会出版社,2006.
[5]Richard Froom,Balaj Sivasubramanian.CCNP学习指南:组建Cisco多层交换网络[M].北京:电子工业出版社,2007.
[6]Todd Lammle.CCNA学习指南:中文第五版[M].北京:电子工业出版社,2005.
[7][美]Matthew H Birkner.Cisco互联网络设计[M].潇湘工作室,译.北京:人民邮电出版社,2002.
[8]李建民.网络设计基础[M].北京:北京希望电子出版社,2000.
[9]胡远萍,张治元.计算机组网技术[M].北京:高等教育出版社,2003.
交换方面的网络负载均衡设置 篇5
PVST主要是防止路由环路和网络负载均衡。
指定根网桥,可以使用下面命令指定交换机为根网桥,如果配置为primary,则交换机的优先级变成24576,配置为secondary,优先级变成 28672.switch(config)#spanning-tree vlan vlan-list (vlan-list代表VLAN号,这条命令启动生成树,交换机默认启动了
下面我就简单说一下命令
首先给所有端口开 trunk
下面配置三层交换机
左下角的一个三层交换机是我的VTP服务器和根网桥,
Switch(config)#spanning-tree vlan 2 root primary
Switch(config)#spanning-tree vlan 3 root secondary
右下角的一个三层交换机是根网桥相连的核心交换机用来做网络负载均衡命令配置如下
Switch(config)#spanning-tree vlan 3 root primary
网络均衡 篇6
关键词:负载均衡;网络
中图分类号:TP393.18 文献标识码:A文章编号:1007-9599 (2010) 04-0000-01
Promote Campus Networks Functions Using Load Balancing
Hao Minchai,Qiao Zhenmin
(1.Shijiazhuang Technology College, Electrical&Electronic Engineering Department, Shijiazhuang050081,China;2.Shijiazhuang Technology College,Office Shijiazhuang050081,China)
Abstract:This thesis focuses on dividing pressure in several servers through load balancing technology to solve the problem of heavy load of CPU or I/O caused by simultaneous accessing.
KeyWords:Load balancing;Network
随着网络应用的不断深入,网内的信息流量快速增长,当用户量及其应用量很大时,在同一时刻主机服务器可能要承受大量用户的来访请求,然而一台主机的处理能力是有限的,倘若访问量的增长超过了主机的处理极限,主机的处理能力就会成为网络应用的瓶颈,这将制约网络应用的继续发展,对于提供解决以上问题的应用系统至关重要,负载均衡系统应运而生。
一、主要的两种解决方法
(一)要从硬件和网络结构上尽量提高网络和系统性能和效率
采用高性能的PC服务器作为网络服务器,提高服务器的计算和负载能力。采用大容量、高传输速率的存储系统和利用RAID 5技术实现很高的读写速度和性能。对于流媒体服务和WEB应用,采用千兆技术实现到INTERNET的高速接入;选用高性能的防火墙用于提供内外网访问,实现高效的WEB访问。
(二)使用流量分担技术
在网络内增加多台主机服务器,并让这些服务器保存和处理相同的应用内容。这样的主机服务器并不一定要求是技术最先进、性能最强大的,所以投资可以相对较少,但是由它们组成的服务器群,却能够共同完成网络的服务功能。优点:当用户来访时,这些服务器轮流响应不同用户的请求,通过流量分担技术把大量的用户请求自动地分散到了不同的主机服务器中处理,从而减少了单个主机上的任务量,实现了网络流量在多台主机间的平衡处理,在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不至于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况。
二、负载均衡实现的方式
(一)基于软件的负载均衡
通过自己的agent(由负载均衡产品厂商开发)或者使用一些系统管理工具的模板,来收集关于后台服务器的信息,并根据这些信息调整对资源的分配。Agent是为特定的软件和硬件服务的,它能够非常严密地监视应用状况。使用现有系统管理工具的负载均衡产品可以通过API和公共协议监视更多的软件和硬件。
优点:如果你的网络发生了变化,或者你需要一些特殊的功能,软件能够非常快地进行升级并满足你的需要。
(二)基于硬件的负载均衡产品
基于硬件的负载均衡通常是由路由器和switch完成的。这些设备使用ASIC(application-specific integrated circuits),以线速运行。优点:这是最快的负载均衡产品。
三、负载均衡产品实现的方案
在市场上有几代不同的负载均衡的方案,它们的功能从简单逐渐变得复杂。
第一代负载均衡产品只是简单的round-robin DNS机器它能够把HTTP进程在几个IP主机里进行分配。这类系统使用简单的PING命令来保证进程请求不会被送到一个状态不佳的服务器那里,并为多服务器引入了一个变量来表示容错率。
第二代负载均衡产品不仅仅检查服务器是否还在运行,它还要检查服务器的性能状态。也就是说,如果一台服务器负载过重,发进来的请求就会被转发到其他机器上以保证负载在所有能够获得的资源里均衡分配了。
第三代负载均衡产品覆盖了整个内容分发系统。随着Web和网络服务变得越来越成熟,仅仅监视Web服务器的某一层是远远不够的。如果一个Web主机非常健康,但是它的后台服务器或/和应用有问题的话,把请求发给这台主机也是毫无意义的。新的服务,比如在线销售,都已经开始使用多层服务器来管理内容、数据库和事务处理引擎。由于电子商务目前已经关系到客户的钱,这就要求我们必须保证能够为客户提供尽可能好的性能和可靠性。因此,负载均衡厂商开发了第三代负载均衡产品以保证整个内容分发系统的健康、良好运行。
不仅处理网络和服务器性能问题,还能够根据前台请求和后台内容来分配资源,会识别请求,然后把该请求挂起,直到所请求内容已经准备好了,这叫做delayed binding。
这种能够识别内容的路由非常有用,服务器集群可以为特定的应用(比如CGI、流媒体、cookie服务等等)进行调整,而且负载均衡会处理并分发所有的请求到保持连接的客户端。
四、结束语
负载均衡只是一个策略,负载均衡技术实现的方法根据系统的软硬件不同而有所区别,有通用方法也有专用方法,有的网络系统还为此提供了专门的服务,负载均衡技术最终目的是减轻单个主机服务器的负载压力,但不能牺牲网络其他方面的性能。而对于我们校园网为基础的教育网站,可能涉及到多方面的网络应用,各种办公业务都往上迁移,所传送不仅是一般的文本信息,还有很多视频和语音。如远程教学方兴未艾,不少院校都在全国各地设立网络教学点,进行远程教学和在线辅导,各个站点都必须能够同网络教学中心进行实时交流,在这种情况下,势必也会产生大量并发访问,因此要求网络中心服务器必须具备提供大量并发访问服务的能力,这样,网络中心服务器的处理能力和I/O能力已经成为提供服务的瓶颈,如果客户的增多导致通信量超出了服务器能承受的范围,那么其结果必然是服务器无法提供服务,所以要对我们的校园网络进行统筹规划,应该根据实际需求来选择能够满足应用的负载均衡方案,解决我们面临的问题。
参考文献:
[1]E.Kata,M.Butler,and R. McGrath.A scalable HTTP server:the ncsa prototype.Computer Networks and ISDN systems,1994.Vol 27,P155-164
基于负载均衡的网络考试系统设计 篇7
计算机无纸化网络考试在各行各业中已被广泛采用,其适用的范围不仅包括各大专院校学生的各种校内考试,也适用各种技能考试和职称考试,在各种就业培训中也承担了最终考核的角色。社会上流行的考试系统不下数十种,有直接基于网页方式的,也有需要安装特定客户端程序的;采用的开发工具也十分广泛,有基于VB/VB.NET的、Visual C++、Java的,也有基于ASP/ASP.NET、PHP、Ajax的。不同的系统架构下采用了各种不同的数据库系统,许多考试系统采用简单易用的Access数据库,稍微复杂点的采用SQL Server,网页版的考试系统多采用My SQL,其中也不乏采用一些开源数据库系统,如Firebird、SQLite等。各种考试系统在其所支持的科目考试中都表现不错,都能够满足考试的要求,当然也存在某些缺陷或不足,下面将对这些不足做一些探讨。
2 现状及存在的问题
目前流行的各种考试系统或多或少存在一些不足,有些是流程管理上的,如有些考试软件是个人开发的,开发人员本身不是从事教学管理的,因而其开发的软件明显的在考试流程管理上表现不够灵活;有些是专业考试公司开发的软件,但因为其专业,所以在考试灵活性上又表现不足,在操作上相对复杂,对各个方面限制较多,在适应各种考试科目的能力上表现欠佳;其次,大部分考试软件都是基于开发方便的原则,很少考虑到网络或服务器负载能力的问题,这种情况表现在结构设计、考试流程和开发实现等几个方面。
2.1 系统结构
目前考试系统结构主要有两种类型,第一类是完全的B/S架构下实现,考前组卷、考试过程控制和考试结束后收卷,都是由一台服务器来完成。这种模式下对于考试环境配置来说非常方便,根本无需配置考试客户机,只要考试客户机上有浏览器即可实现考试,方便性不言而喻。然而因为其没有专门的考试客户端程序,因而其主要适用场合是客观题,对于大量的操作题考试来说就捉襟见拙了。虽然有些考试软件是通过使用Java或Active X控件来实现考试客户端软件的常见功能,但其毕竟是在浏览器的支持下运行的,其出故障或崩溃的几率很高,提高了故障率;
第二类是完全的C/S模式实现,有专门的考试客户端软件,其控制管理方便,缺点是需要专门安装考试客户端,甚至需要在服务器端安装配置SQL Server等大型软件,对考场准备人员要求较高,有些甚至装完考试客户端软件之后还需要对考试客户端做许多配置,相对繁琐。且一般都要求每个考场配置一台服务器,虽然管理考试和控制考试机等都相当方便,可以轻易地禁止考生使用考试机上的某些程序或功能等,但该服务器所能带动的考试机数量不能太多,多了就容易出现故障,容易出现网络阻塞,短时间无法控制等情况。
2.2 操作感受
在采用这两种模式的考试软件中有些已经考虑到考试负载的问题,如ETS考试系统,它完全依靠Java技术实现,仅需要浏览器和Java运行环境即可,相对比较方便,但是其测试过程又太繁琐,而且其20台考试机需要一台缓存服务器的要求相对比较苛刻,虽然采用了负载均衡机制,但其性能太低,效率不高。再如ATA公司的考试系统,它要求安装专门的考试客户端软件,其管理相当方便,但正因为其专业,因而考试的适用面较低,无法满足自定义科目操作类考试的要求,完全受控于ATA公司。且在答卷集中提交上没有做负载均衡,提交答卷时操作感受相对较差。
2.3 问题分析
不论是B/S模式还是C/S模式,只要考试时间是统一的,都不可避免地存在试题发放时和交卷时这二个时间段对内部网络和服务器的压力很大,而在整个考试过程中对网络和对服务器都是几乎没有什么压力,如何解决这二个时间段的并发负载问题正是值得探讨并需要解决的问题。
3 负载均衡机制
负载均衡无非是需要将大量的并发访问或数据流量分担到多台节点设备上分别处理,以减少用户等待响应的时间,或是将单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。负载均衡能够均衡所有的服务器和应用之间的通信负载,根据实时响应时间进行判断,将任务交由负载最轻的服务器来处理,以实现真正的智能通信管理和最佳的服务性能。这种技术可以用最少的投资获得接近于大型主机的性能,可以满足不断增长的负载需求。
3.1 常见负载均衡方法
(1)对于B/S模式的考试系统可以采用针对Web服务的基于域名系统的负载均衡,或基于客户端的解决方法和基于反向代理的负载均衡,以及网络地址转化负载均衡方法,比较复杂的可以采用基于高层协议内容交换的负载均衡方法(如LVS)。
但这些方法都是借助于多台服务器当一台服务器使用的结构,而对于普通的考试来讲,能够提供的服务器往往就只有那么一、二台,有的学校甚至只有那一个独生子,因而采用上述针对Web做负载均衡的技术对于计算机考试这种特殊环境均不怎么好使。
(2)对于C/S模式的考试系统而言如果采用多台服务器,那么在考试流程上有很难控制,最多只能使用缓存服务器,那么这同样也需要配置专用的缓存服务器,而纵观整个考试过程,需要负载均衡的时间也就那么发卷、收卷过程中的几分钟,为此专门配置缓存服务器,也同样存在浪费机器资源的问题。
3.2 考试系统中需采用的负载均衡的环节
分析整个考试流程可以发现,能够产生网络瓶颈的主要在发卷过程中,因为发卷往往是在到达某一考试时刻时,服务器下发考试指令,客户机统一到服务器上下载试卷,此过程时间非常短,当然有些考试系统采用预先下发试卷,或者错峰考试等办法解决,可以在很大程度上解决此负载问题。但对于那种对考试有特殊要求的科目,或者上级管理部门要求试卷只能在考试时才能统一下发的话就无法解决。因而对于下发试卷来说,其需要的只是在很短的时间内需要有负载均衡,最好是有很多台服务器能够同时下发试卷,解决并发负载的问题,而等到试卷下发完成之后这些服务器又根本没有存在的必要了。
再来看收卷过程,收卷过程其实是学生交卷的过程,真的集中在某一时刻同时交卷的概率非常低,因而和试卷下发过程不同,收卷过程持续时间比下发试卷过程要长很多,而时间延长之后就给负载这一问题带来很大便利。基本上可以采用很少的服务器,或者干脆就是只有一台服务器也可以胜任收卷任务。收卷时代负载均衡只需采用双机互备等简单方法即可。
4 大负载下网络考试系统设计与实现
各学校在进行计算机考试时通常存在机器少,学生多,需要安排很多场次考试的问题,因而在考试中要求最大限度使用机房的机器,一般都不会把机位浪费掉。不会像纸质考试一样,每个教室只安排25人,往往一个机房里只留几台备用机器后,其他所有机器全部安排做考试机。且一般学校的机房容量都不小,有些学校一个机房甚至有几百台机器,因而对于这些装机容量大的机房而已,同时对并发数量也许就是几百。
许多考试软件对于这种情况下只能采用分而治之的办法,人为把大机房从逻辑上分为几个小的考场使用,并且大部分考试软件都是采用各个机房独自为政的模式,不使用集中控制办法,从而不得不在考试前对所有考场监考中主管技术的人员进行深入培训。在考试时间控制上也是由各考场人员手工开启考试,无法做到指令完全统一。
4.1 数据快速下发技术
(1)对于考试数据下发,如果采用FTP、HTTP或专门编写网络传输模块实现,试卷分发由服务器完成,客户端试题从服务器下载(如图1所示),这种模式下数据全部都是从服务器上获取的,因而服务器的负载非常大,容易产生瓶颈。
(2)如果试卷的下发采用基于P2P的思想,建立一种“平等互助”的环境,让数据的传输可以实现Peer to Peer,让客户端也能承担服务器的角色,削弱并消除服务器的“中央化”(如图2所示)。
通过对P2P系统分类可以看出,完全的纯分布式P2P结构不太适合考试系统,对于考试系统,服务器的管理地位还是需要的,关键是如何体现和把握。由于目前大部分考试系统都是基于局域网的,所以通常是非结构化的,Peer的上线和下线不受限定,文件(试卷分组文件)的位置也不是固定的。需要将服务器的文件服务分散到所有上线的Peer上,从而实现P2P方式的试卷分发[3]。
4.2 新型考试系统模型
鉴于对上述各种问题的分析,作者提出一种新型的考试系统模型,采用考点服务器、考场服务器(监控机)、考试机三层架构模型(如图3所示),在每个考场均安置一台普通计算机用于监考老师监控用,又可以作为缓存节点的考场服务器。
整合B/S和C/S两种工作模式,提供浏览器下载控件和安装考试客户端这2种形式的考试客户端模式,对于操作题要求不高的普通考试,只需使用B/S模式下的客户端即可,而对于控制要求较高或操作题有特殊要求的考试科目可使用C/S模式,两者可以兼顾不同类型的考试科目。
根据整个考试系统的结果特点,在考点服务器和考场服务器之间采用应用层负载均衡技术,充分利用考场服务器,把考点服务器的负载降下来。
在考试机和考场服务器之间以及考试机和考试机直接实现集中式P2P,研究如何在高即时性要求情况下的集中式P2P实现,如何在短短的几分钟内用P2P实现试题的快速下发,这里不同于一般P2P文件共享。
首先,最显著的地方就是P2P的范围比较小,通常不超过1000台机器,如果各个考试机房间实现网络隔离的话就仅限于一个机房的机器数量,因而这里不适合采用复杂的。其次,是时效性要求非常高,分发时间很短,一般不超过1分钟,因此适合采用易于管理、易于发现网络节点,且安全性较好的集中式P2P,算法比较复杂的结构化P2P和非结构化P2P就不适宜了。
4.2.1 试卷下发
在试卷下发的时候,考点服务器首先把下发试卷指令推送到各考场服务器,考场服务器作为P2P客户端到考点服务器上去取已经分块的试卷包数据,与此同时各考试客户端也接受到了下载试卷包的指令,便开始查找考点服务器数据库,和各台考场服务器一样到各台已下载到部分分块的考场服务器或考试机上下载不同的分块,此过程是一个指数级增长的过程,从而使试卷分发可以在瞬间完成。
在此过程中各考场服务器最先完成试卷分块的下载,在考场服务器上组成试卷包并作为种子,其他客户机可以从考场服务器上下载各自所需的分块,从而用P2P方式实现了考点服务器的负载均衡。在客户机向考场服务器取得数据之后,该客户机本身又成为了服务器,可以为同机房的其他客户机提供试卷数据分块,直到所有客户机都下载到完整的试卷数据包为止。
4.2.2 答卷收集
在学生交卷时,可以侦测个考场服务器的繁忙程度和可联通性,自动选择负载较轻的考场服务器上传答卷,各考场服务器之间同时又可采用同步模式互传答卷数据,使得最后完成收卷时在各台考场服务器上均有整个考点的答卷备份,提高了整个考试系统的可靠性。换句话说就算在收卷过程中,如果本考场的考场服务器发生故障,也不影响考生提交答卷,只不过答卷交到了其他的考场服务器上而已。
5 结语
系统设计的时候就充分考虑了多并发的情况,把控制要求高但网络流量低的登录认证和信息收集等放在B/S模式下工作,而把实时性要求高的诸如考试客户机控制、换机、收卷或重启等工作安排在C/S模式下,从而做到两者兼顾,带机数量也大大提高,单台考场服务器的带机数量比单纯C/S模式下提高几倍。
但当一个考场服务器带有几百台考试机的时候,考生的考试体验明显没有几十台考试机时的考试体验好,下载试题和上传答卷过程虽然可以忍受,但显然有些慢,而这二个过程往往集中在几分钟。采用文中所述的新型负载均衡模式之后,学生的考试体验大大提高,下载试题时间也非常快,几乎是在瞬间完成。
参考文献
[1]彭利民,肖文俊.动态结构化P2P网络的负载均衡方案.华南理工大学学报(自然科学版),2011,39(10).
[2]袁雪萍.基于P2P的文件传输系统研究.武汉科技大学硕士学位论文,2011,(12).
[3]丁亚涛.基于P2P的考试系统的研究.合肥工业大学硕士学位论文,2009,(10).
[4]Hung-Chang Hsiao,Hao Liao,Ssu-Ta Chen,etc.,"Load Bal-ance with Imperfect Information in Structured Peer-to-PeerSystems",Parallel and Distributed Systems[J],IEEE Trans.,Vol.22,no.4,pp.634-649,Apr 2011.
[5]高昂,慕德俊,胡延苏.Web集群的区分服务与负载均衡策略研究.电子与信息学报,2011,33(3).
[6]刘浩.P2P网络的若干关键问题研究.华南理工大学博士学位论文,2010,(11).
运用负载均衡技术来实现网络优化 篇8
1 负载均衡技术的产生和发展
1.1 负载均衡技术的产生
目前网络发展速度相当之快,尤其是随着业务量的增加,在访问量上有明显的提高,数据流量也得到了极大的增长。业务量的增长相应的,就需要网络的处理能力和计算能力也能跟得上,如果网络的速度跟不上步伐,那么就会导致网络的滞缓乃至瘫痪。然而这些对网络的要求,是单一的服务设备所无法负担的。但是如果进行全面的升级,彻底的放弃现有的设备,去做大的软件,会有很大的风险,也会造成资源的浪费。投资成本之大,与取得效果来看或许不容乐观,不能满足当前对于整体业务量的需求。
在这种情况之下,想通过一种更为便捷,性价比更高的方式来实现现有的网络优化。负载均衡技术就是其衍生出来的一种方式,通过这种方式来拓展现有的网络设备,增加网络的吞吐量,提高网络的速率,增强网络的整体运用能力。
1.2 负载均衡技术的发展
中国的负载均衡技术与国外相比,研究上不够深入。在国外,负载均衡技术已经相对比较成熟,但是在国内,在计算机科学研究和商业结构方面也进行了专业的分析。就拿新浪网来说,这几年在负载均衡技术方面的研究和分析,在LVS,HAproxy等基础上自主研发,所开发的设备已经投入使用多年,所取得效果也不错。
在产品领域的研究方面,负载均衡技术的应用主要是两种,有硬件和软件之分,这两者的区别也很明显。硬件负载均衡技术是由商业计算机系统厂家所提供的,使用专门的路由器的设备。而软件的负载均衡技术主要使用的软件在PC的服务器上。
负载均衡技术在中国的发展,整体趋势良好。虽然较国外而言,还有一定的差距,但是发展速度上毫不逊色。负载均衡技术高效,便捷,极大提高了网络的速度。在国内的大环境下,负载均衡技术的存在乐观,发展前景一片看好。
2 负载均衡技术的网络优化
2.1 在网络数据中的优化
负载均衡技术作为一种新型的构建方式,高效,便捷。为网络覆盖层带来了优化,改变了传统的方式。GDN包括了是个部分,它是一个整体的系统,它的核心内容是内容管理和网络的流量管理。GDN以一种极为高效的方式,为用户提供服务,它实现了网络的整体速度和效率。就它本身来说,它的机构比较清楚,每个结构都有自己的位置,必然每个结构的功能也是不一样的。那么它带来的作用也将大不同,我们在选择每个节点的时候也要明确它们的特征,根据每个节点的作用不同区分布。
就目前来说,在整个的GDN的应用中,目前主要我们运用的是两种结构。一种是两级结构,另外一种是三级结构,就这两种结构来说,两级结构只包括核心层和分布层两部分,而三级结构相比二级结构来说,多了骨干层。GDN作为网络技术的关键要点,负载着全局的重任,这是一种相对来说较为复杂的系统。
2.2 在服务器中的优化
网络的快速发展,现在越来越多的人已经离不开网络。各个行业的发展也是如此,越来越走向网络化的平台。那么与之相对的网络的发展速度就必须加大力度,提高速度,满足用户的需求。为了真正的实现网络在服务器中的优化,使用了sm ar-NAT的算法。利用这种算法,我们可以控制出入的流量。对于输出的流量来说,我们通常会只使用SMART,这是因为NAT会在发送的问题上出现返回的现象。
在这个问题的解决上,通常的做法是选择与该路由器相关的IP地址。那么相对于输入的流量来说,它具有将内部的资源转化为外部的IP地址的能力,有一些资源也会被运用到外部的域名地址当中。根据接入的链接路径的不同,会有不同的选择,相对来说,动态的会将服务器的域名地址,连接到外部的客户域名中进行访问。如果其中的一个发生问题或者出现停止运作的情况,那么就可以将其他的域名地址用于其可用的流量。这样所有的运行操作将会形成一个体系,可以将资源有效的整合利用起来,减少不必要的浪费。
面对网络的发展速度,单一的网络处理器已经无法满足用户的要求。我们通过多台的服务器来组成一个群组,而每一个服务器都是一个独立的,它可以自己处理问题,而不必每个群组一起来服务。某种程度上来说,它们是单一的,又是集体的,它们的存在就是为了满足用户的需求。
3 负载均衡技术的应用
3.1 提高服务器的反应速度
负载均衡技术的应用越来越广泛,首先它切实解决了服务器的问题。网络的应用现在可以说是无处不在,需求量如此庞大,那么提高服务器的反应速度就显得尤为重要。人类正在进入网络信息化的时代,需要一种更为便捷,更为高效的方式,负载均衡技术就为我们提供了这样一种方式。优化设计的方法就是,在内部的交换机和连接的一个路由器之间进行。直接跨越连接了一台智能的交换机,而地址的处理工作和一些网络的优化工作,都将由这台智能的交换机来完成。它避免了很多的弊端,比如流量类型的多样化,带来的复杂性,再如路由器选择协议的方式等等。
这台智能的交换机确保了所有的连接高效使用,并且不管是流出的数据流量还是流入的数据流量,都能形成一种科学的管理方式。切实地提高了网络的反应速度。
3.2 为用户提供更好的服务
对于网络时代来说,用户的体验是最直接的反应,也是最关键的。它决定了整个的网络风向,负载均衡技术就从根本上解决了这个问题。它让多台服务器一起来服务,承担计算机繁重的任务。多台服务器一同的高效运转,就消除了原本的网络的拥堵问题,提高了整体的运作效率。单一的服务器是无法满足用户的需求的,解决的办法也只能是,通过负载均衡的服务器的设计方式来处理。每一个服务器都是一个单独的个体,它们有自己的分工和各自不同的作用。它们可以自己发挥作用,也可以在必要时紧密的结合在一起发挥价值。
在应用的同时,由于每一个服务器之间的关系非常紧密。所以我们要对每一个服务器进行仔细的检查,检查所有的应用模式,以及所有的相关网络部件,任何一个环节都不能出问题。如果在使用的过程中没有检查,其可靠性就很难得到保证。我们应用了负载均衡技术,就希望可以用最佳的方式来发挥作用。为用户提供最好的体验,这才是实现网络优化的最终目的。
3.3 带来整体服务的优势
网络负载均衡技术对外而言,只需要提供一个域名即可。这样可以在很大程度上节约整体网络的IP地址空间,一方面可以大大减少成本的投入,另一方面可以为网络的安全性,提供一个可靠的保证。当负载均衡技术中的服务器出现问题时,不论是一台服务器还是多台服务器出现问题,整个的服务都不会因此而停止。负载均衡技术会直接的检测到服务器的问题,并且能够在最短的时间内,重现让其它的服务器替补上去。
这项补救的措施可以解决很多不必要的麻烦事,并且保证了你的业务程序,不会出现中断的情况。整体优势很明显,除此之外,负载均衡技术还可以根据你网络中的访问量情况,能增加或者减少相应的服务器的数量,确保运行的最佳状态。这项技术也可以在任何一个计算机当中应用,对于整个的整体服务而言,优势不言而喻。
4 在流媒体中的应用
近年来,流媒体技术发展迅猛,各种搞笑逗趣的视频明显增多,这些业务的高访问量,高资源的消耗等问题,让流媒体的网络核心设计逐渐转向负载均衡技术。就目前而言,负载均衡技术的应有主要有两种方式,一种是传统的流媒体的服务体系,另一种就是采用GDN的技术方式。
流媒体在应用负载均衡技术的过程中,设备主要在服务器群和交换机之间的,当用户在发送视频的过程中,均衡器转发给其他的相对的服务器系统。到达服务器系统之后,这之间可以不用经过均衡器,而直接将信息传送到用户那里。这样的好处是,不经过均衡器就减缓了均衡器本身的压力。负载均衡技术是整个GDN的核心,GDN网络在整个流媒体的应用中,服务器的存储就显得很关键。当点击量高的视频出现时,用户发送服务器的请求,负载均衡技术就会找到离用户最近的节点,让后为用户寻找一个最适合的服务器,提供最佳的服务。
5 结语
负载均衡技术已经慢慢发展起来,尤其是近几年,发展速度很快。这是实现网络优化的一种合理有效的方式,它解决了网络的堵塞问题,实现了地理位置的无关性。为用户提供了更好的网络体验与服务,提高了服务器的速率,也切实提高了其他资源的相关利用率。负载均衡技术在网络中,尤其是大企业中,发挥了至关重要的作用。它已经慢慢成为了网络技术不可缺少,甚至是核心之一。随着网络时代的进一步发展,负载均衡技术也会不断地实现自己的突破,我们也期待负载均衡技术进一步的完善和发展,为网络技术提供更好的保障。
摘要:网络是近几年发展最快的,也是应用最为广泛的,网络已经渗透进了各行各业当中。网络的发展也离不开自身技术的优化,负载均衡技术是一种建立在网络结构之上的,一种高效,便捷的方法。负载均衡技术提高了网络的使用效率,最大程度上保证了用户的访问速度,为网络提供了一个完整,合理的基础服务平台。负载均衡技术为网络的使用发展保驾护航,该文通过负载均衡技术的发展和现状,以及如何通过负载均衡技术来实现网络优化进行分析。
关键词:负载均衡技术,网络优化,使用效率
参考文献
[1]张鹏.负载均衡技术的分类及应用研究[J].科技创新与应用,2016(16).
[2]黄卫春,徐茜,吴锐.负载均衡技术在图书馆的应用探讨[J].江西图书馆学刊,2009(3).
[3]胡秀建.负载均衡技术在校园网络中的应用[J].宿州教育学院学报,2011(6).
[4]张东升.服务器负载均衡技术的原理[J].网络与信息,2010(10).
[5]龙佳琴.负载均衡技术在企业中的应用研究[J].计算机光盘软件与应用,2014(6).
网络均衡 篇9
负载均衡(Load Balance),指的是将负载进行平衡、分摊到多个服务器主机或网络设备上(常用的Web、FTP、MAIL服务器,其它企业应用服务器)进行协同工作,共同完成工作任务。负载均衡通常在现有网络拓扑结构下,提供便宜并高效地扩展网络设备带宽和服务器的负载分担能力、提升企业网络的数据处理能力、提升网络对外服务能力、提高网络的可用性和的灵活性手段与方法。对于网络应用来说,数据流量和的用户访问量快速增长,企业现有网络业务量必定大大提高,对服务器主机与网络设备(如交换机、路由器、防火墙等的计算处理能力大大提高,单台的服务器主机或单个网络设备无法承担不断增长的应用访问量,从而出现网络应用流量瓶颈,这时才需要采用负载均衡技术来解决上述问题。负载均衡设备不是基础网络设备,而是一种性能优化设备。
2 负载均衡的应用与划分标准
2.1 负载均衡应用
首先在构建企业网络过程中中,Web、FTP、MAIL服务器或其它企业应用服务器需要对外提供服务。例如来自因特网的用户对WEB服务器的并发访问或并发的大量数据流量如果靠单台WEB服务器很难负担这样沉重的任务,故必需把来自用户端的任务分担到多个WEB服务器主机上分别处理,协同工作,并行工作并完成用户端的任务请求,不仅可以大大减少用户的等待响应时间,而有可以减少单台服务器工作量,防止单个服务器主机因负重过大而崩溃。
其次,采用服务器集群技术将单个大而重的负载任务分担到多台服务器上做并行分担工作,每个服务器工作结束后,将多台服务器的运算结果合并汇总,形成最终结果返回给用户,这样可以发挥整组服务器主机系统的对外服务与高效处理数据的能力。
2.2 网络TCP/IP层负载均衡
其中网络TCP/IP第二层上的负载均衡指的是在交换机等二层网络设备上实施链路聚合(Trunking)技术,所谓链路聚合是将交换机的多条物理链路当作一条单一的聚合逻辑链路使用,从而提高交换机的带宽速率。现代负载均衡技术通常工作在传输层或应用层,它完全脱离于交换机、服务器而成为独立的技术设备。它主要是针对电信、移动、银行、大型网站等单位的网络应用。
2.3 软件负载均衡与硬件负载均衡
软件负载均衡是指一台安装一个或或多台服务器的操作系统上分别安装多个附加软件来实现负载均衡。(如DNS Load Balance软件就是一类负载均衡软件),软件负载均衡的优点是基于特定系统,成本低,配置简单,使用灵活,在满足低成本的负载均衡条件下使用较多。它的缺点是,在多台实现负载均衡的每一台服务器上需额外的安装软件运行,这样会消耗服务器的系统资源,当并发连接请求特别大的时候,软件本身会形成会服务器瓶颈,且软件功能越是强大,系统资源消耗得越多,且完成负载均衡的软件受致于操作系统,其可扩展性通常会受到影响。操作系统本身的漏洞也常常会带来新的安全问题。
硬件负载均衡是在对外提供服务的服务器主机(能常是WWW、FTP、MAIL服务器)与外部网络之间安装硬件负载均衡硬件设备,这种设备被称为负载均衡器,它是独立于网络设备与服务器之外的硬件设备,主要完成专门的负载均衡任务,通过设置多样化的负载均衡策略,完成智能化的流量管理,从而让整体服务器集群系统性能大大提高,可以最佳满足服务器主机的负载均衡需求。硬件负载均衡在功能、性能上优于软件方式,但成本昂贵。
除单独的负载均衡器外,有些负载均衡器被集成在交换设备中,成为交换设置的一部分,通常集成负载均衡器的交换设备被放置于服务器与Internet链接之间,还有有负载均衡器使用两块网卡把自己集成到独立的PC机中,此时PC的一块网卡连接到Internet上,另一块网卡连接到后端服务器集群的内网上。
2.4 本地负载均衡或全局负载均衡
本地负载均衡是指对本地的服务器群或网络设备做负载均衡。其优点是可以充分利用现有设备,不需花费昂贵开支购置性能卓越的服务器就能有效地解决数据流量过大、网络负荷过重的问题,根据其预选配置好的均衡策略把数据负载分配给服务器群内的不同服务器,让每台服务器量力而行地负提相应的任务负担,每个服务器协同工作、共同负担超大数据流与工作任务。同时可以避免服务器单点故障造成的数据流量损失。且服务器扩充升级相对简单,在保证现有服务都在运行的状态下,不需改变现有的网络结构,就可以把新的服务器加入到原有的服务器集群中去。
全局负载均衡是指对放置在不同的地域空间对外提供服务的服务器主机、这些服务器主机可能基于现有的不同网络拓扑结构下运行,而要让这些服务器主机之间共同协同工作作负载均衡。它主要应用场合是一些大型企业由于拥有多台服务器,这些服务器分布在多个不同区域、不同地域之间,但要对外只能一个域名或一个IP对外服务,而用户分布在全球各地,为了提高用户的访问速度和效率,必需让其访问到离自己所在的地理位置最近的那台服务器,这样才能获得最快的访问速度。这是全局负载均衡要完成的任务,全局负载均衡主要优点是:不管在全球任何角落,都能够快速高效的访问离自己最近的服务器的相应服务。而且如果离自己近的服务器出现故障,也能自动转到其它服务器上去,必须避免单点服务器、数据中心失效等,最终目的是保证服务就近提供,快速响应,避免网络拥塞,高效服务的目标。
3 负载均衡功能分类
3.1 DNS负载均衡
DNS负载均衡是最早的负载均衡技术的应用,主要是在DNS服务器中为WWW服务器配置一个域名对应多个IP地址,用户在访问WWW服务器时,DNS服务器会根据域名后从它对应的多个IP地址中分配其中一个IP地址给访问用户,从而达到不同的客户虽然访问相同的域名(例如WWW.SOHU.COM)但实际上是访问不同的服务器,而这些不同的服务器提供服务的内容是相同的,这些服务器拥有共同的域名不同的IP地址,DNS服务器实现了多台服务器(常见的是WWW服务器)的负载均衡。DNS负载均衡优点:简单而有效,缺点是不关心服务器的差异,也不了解服务器的当前运行状态,只是简单的把任务分发给不同的服务器,不能在不同的服务器间智能化分配任务负载。
3.2 代理服务器负载均衡
代理服务器将外部请求转发给内部的服务器,本来角色由DNS完成的现在由代理服务器来完成,和DNS服务器充当中间人角色不同的是代理服务器的功能相对单一自身负载较轻,可以专职为后面的WWW等转发负载均衡,而且可以智能分西任务,避免了DNS负载均衡的缺点,可以大大提高用户对WWW服务器的静态网页的访问速度。也可以将用户请求均匀转发给多台对外提供服务的服务器(FTP/MAIL等),实现服务器间的负载均衡。
3.3 地址转换网关负载均衡
地址转换网关负载均衡,对外提供服务的服务器群拥有各自不同的IP地址,但对外服务时只能是一个外部地址,这些地址转换网关必须将一个外服务的IP地址映射为多个内部IP地址,让外部用户每次TCP连接请求服务器时,可以动态使用其中一个内部地址,从而访问内部的服务器,而地址转换网关的作用就是在内部服务器群之间协调这些内部的对外服务器之间的负载均衡。
3.4 协议自身的负载均衡
HTTP协议具有重定向能力,运行于TCP连接的最高层,协议自身支持与负载均衡。
3.5 NAT负载均衡
NAT(网络地址转换)一般用于私有的内部地址与合法公有的IP地址间地址转换。用的最多的场合是将一个或多个私人IP地址转换为另一个IP或多个公有的IP地址,主要解决Internet IP地址短缺问题,NAT可以隐藏企业网络内部的主机,让外部用户无法访问或偷窥企业内部网络。
3.6 反向代理负载均衡
普通代理方式是企业内部网络用户(客户端)本来要直接发送到internet上的连接请求发送给代理服务器处理,由代理服务器来代理连接企业内部用户去连接INTERNET,从而让用户通过代理完成上网操作,发起连接的一方是企业网内部用户。而反向代理方式是指代理服务器来接受internet上的用户连接请求,这里面的用户指的是企业网络外部的用户(即INTERNET上的用户)将请求转发给内部的网络服务器,而内部服务器通常情况上是私有IP不能为外部用户直接访问,这时这些外部来的连接请求,就发给代理服务器,由代理服务器把这些连接请求转发给其要访问的内部网络服务器,内部网络服务器处理完毕后把最终的处理上结果返回给internet上连接的请求客户端。反向代理与普通代理的区别就是连接用户来自因特网,而普通代理的连接用户来自企业内部网。
4 企业如何部署服务器负载均衡
企业实施负载均衡可以有三种方式实现:1)路由模式2)桥接模式3)服务直接返回模式。路由模式实施起来相对较灵活(大约百分之六十企业用户采用);桥接模式好处是不改变现有的网络架构(百分之十用户采用);服务直接返回模式,适合吞吐量大,特别是内容分发的网络应用场合(百分之三十用户采用)。
4.1 企业实施路由模式(推荐)
企业部署并实施服务器路由模式图如上图1所未。这种方式对网络的改动小,能均衡任何下行流量。企为内部部署的多台服务器的网关设置指向负载均衡机的LAN口IP地址,负载均衡机配置LAN口与WAN口配置在不同的VLAN中。
4.2 企业实施桥接模式
企业内部服务器实施桥接模式,这种部署方式是不用改变现有网络拓扑结构,配置实施简单。负载均衡器的WAN口连接上行设备和LAN口连接下行服务器群。负载均衡器的WAN口与LAN口是网桥连接。LAN口与内部服务器群在同一VLAN中,而且不需要配置IP地址,这种桥接模式由于服务器与负载均衡均在同一VLAN中,故一旦网络出现广播风暴,或者是生成树协议出现问题,会直接导致网络不能正常工作,一般不推荐企业用户采用这种架构。
4.3 企业实施服务直接返回模式
所谓服务直接返回模式指的是,负载均衡的WAN口与服务器在同一个VLAN中,但负载均衡器的LAN口不使用,负载均衡器提供一个虚IP地址供因特网来的的用户访问,而虚IP地址对应负载均衡机的WAN口真实IP,负载均衡根据自身配置的访问策略将因特网用户的连接请求通过WAN口转发到企业服务器(通常是对外提供服务的WWW/FTP/MAIL)上,由这些服务器直接响应因特网用户客户端的连接请求。对于客户端而言,负载均衡机仅在连接初期转发连接请求,而真实连接与数据传输不经过负载均衡的。负载均衡机的负担很小,这种模式可适应于企业用户布署大流量高带宽的服务要求。
5 地址转换网关(NAT)负载均衡配置案例
对于那些访问量很大的网络服务器(WWW、FTP),如果只使用一台主机,会造成负载过重的问题。多台主机搭建成一个局域网,各主机的内容完全相同,各主机使用私有IP进行编址,从外部来看,路由器上配置出来一个虚拟主机的IP(218.28.168.10)地址,多台主机对外使用这个虚拟的IP地址(218.28.168.10)共同对来自因特网的用户提供服务。在路由器上配置TCP负载均衡,利用NAT实现多台主机的TCP负载均衡。当外部用户访问此虚拟主机时,路由器会把各个访问轮流映射到各个主机上,达到负载均衡的目的。
下面图2为地址转换网关(NAT)负载均衡配置图
路由器中基于NAT的TCP负载均衡详细配置如下:
6 结束语
网络均衡 篇10
无线Mesh网络是通过无线链路把固定的和移动的节点连接起来, 构成的一个多跳的移动自组织网络。
在这种网络中节点由Mesh路由器和Mesh客户两种节点组成。Mesh路由器可以是静止的或者具有较小的移动性, 构成Mesh网络的骨干, 为Mesh客户端提供Intemet接入。Mesh客户端也具有路由器或中继器的作用, 可以为其它Mesh客户端提供数据转发。部分的Mesh路由器集成网关或网桥功能, 此类节点我们称其为网关。由于所有的流量都将引自或者引向网关节点。因此网关节点是整个Mesh网络的核心, 同时也成为全网的性能瓶颈。网关节点发生拥塞, 会极大的影响Mesh网络用户获得服务, 同时由于拥塞造成网关节点大量丢包, 进而导致网络的吞吐量极大下降。如何有效的负载网关节点之间的流量, 尽量避免网关节点处发成拥塞成为近来Mesh网络研究的热点问题。
二、目前主要研究思路
2.1路径选择法
此类方法在进行路径选择的时候, 避开拥塞的链路和目的节点 (即网关) , 以达到在不同的网关之间均衡负载的目的。此类方法多由DSR或者AODV算法改良而来, 并根据自己的需求采用合适的度量方式, 比如经过节点的流量总和、各节点缓冲队列总长度以及各段链路的延迟等对链路拥塞程度进行判定, 选择拥塞较小、带宽较高的链路进行传输。跳数往往是必备的一个度量, 因为多跳的链路意味着更多网络资源的浪费。文章[1]通过自己定义节点活动度的概念进行度量, 文章[2]则通过计算经过节点的缓存队列长度总和进行选择。文章[3]则通过自下而上的方式, 从外围到中心的方式来建立路由, 分配网关节点的流量。
此类方法的缺点也是显而易见的。首先只能通过链路状态进行路由选择, 而无法获得网关节点的状态, 也就无法真正的避免网关节点的拥塞;其次只是在路由初期通过一定的策略避免拥塞, 当拥塞发生之后无法进行有效的拥塞调整, 同时缺乏全局的分配, 必然会造成一些资源的浪费。
2.2流量迁移法
文章[4]和文章[5]提出了流量迁移的方法, 此类方式沿用了Ad hoc网络的网络协议, 只是在网关节点检测到拥塞时, 启动一个拥塞解除的机制, 已达到分配流量、避免拥塞的目的。此类方法在一开始启动网关发现算法, 对Mesh网络内的路由器进行初次划分, 并把路由器和自己的服务网关进行关联, 发送数据流, 同时在网关节点处通过检测节点缓存队列长度或者对丢包率等参数进行统计, 当到达一定的条件之后认定拥塞发生, 启动拥塞接触机制, 拥塞网关在自己服务的路由器中选择一个进行流量迁移。被选定的路由用泛红的方式发送网关请求信息, 未拥塞的网关收到后进行回复, 之后路由器将流量迁移到新的网关。
此类方法的优点是算法带来的额外开销较少, 缺点是对Mesh网络内部的流量缺乏全局的分配。同时, 当网络整体流量较大的时候, 路由器迁移至后有可能再次拥塞, 之后发生抖动的情况。
2.3域划分法
文章[6][7][8]提出了分治法的思想, 对Mesh网络内路由节点的个数进行划分, 每一个域由一个网关节点服务, 域划分的过程即流量分配的过程。该方法分为两个过程:首先是域的初次划分;其次是流量变化之后的域的变化, 即域的维护。
域划分目前采用的主要是针对一些网络指标的线性规划的方法或者是在一定的限定条件下的贪心算法, 考量的因素主要有网关的负载能力、各MR节点的流量、MR节点距网关节点的跳数等。如文章[6]根据网关节点的负载能力和各个路由器节点的流量进行由远至近的划分, 并且定义网关节点超出自己负载流量的部分为overload, 通过判断所有网关节点overload的综合来评定域划分的优劣。文章[7]则通过数学建模的方式, 在规定了路由节点距网关的距离上限、域规模、路由节点最大度等条件后, 寻求一个能最大限度平衡不同网关之间负载的解, 文章[8]则通过数学建模, 将域划分的问题转化为混合整数规划 (MIP) 的问题, 之后借助启发式算法进行求解。
三、新的研究方向
3.1内部流量的研究
内部流量可以在外部流量的信道及时隙分配完毕之后, 采用DSR协议进行, 同时采纳多径的思想, 以达到分配流量, 负载网络均衡的目的。对于内部距离较远或者源、目的节点均靠近网关 (不同网关) 的情形, 可以将Mesh网络内部的通信转化为外部流量, 即将流量引入网关, 然后通过网关之间的有线网络进行通信, 已达到节省Mesh网络内部网络资源的目的。
3.2多径在Mesh网中的应用
为了达到均衡负载的目的, 应当选取多径同时传输的方式。Mesh网络中为了达到网关节点的负载均衡应用多径路由主要从以下几个方面: (1) 外部流量的多径;A, 域内部MR节点通往单一网关节点的多径;由于网关节点是流量的集中地, 所以拥塞极易出现在离网关最近的链路和节点上, 此处多径路由可以降低网关附近链路或者节点发生拥塞的可能性。同时, 在拥塞发生时, 可以通过调整多径流量分配的方式高效的解决拥塞问题。B, 域边界MR节点通往多网关节点的多径;此种多径的应用本身就带有负载网关均衡的目的。处于不同网关中间部分的节点可以建立到不同网关的路径, 并在需要时将流量分配到不同的网关上。如果某一个网关节点发生拥塞, 可以通过调整流量分配的方式解决拥塞, 避免了路由调整的开销。 (2) 内部流量的多径;内部流量的多径路由能够充分利用网络资源, 在不影响外部流量的情况下尽量保证内部流量的畅通。同时, 在外部流量优先且外部流量变化的情况下, 能够减少内部路由发现的开销, 提高网络通信效率。
四、总结
随着无线移动通信的高速发展和Intemet的广泛应用, 无线Mesh网络已经作为一种网络技术和网络形态, 得到进一步的重视和开发, 会逐渐成为无线移动接入网络的基本网络技术, 渗透到未来各种无线网络中。
参考文献
[1]Hossam Hassanein, Audrey Zhou, "Routing with load balancing in wireless Ad hoc networks, "Proceedings of the4th ACM interna-tional workshop on Modeling, analysis and simulation of wireless and mobile systems, July2001, p.89-96.
[2]S.J.Lee and M.Gerla, "Dynamic load-aware routing in ad hoc networks, "Proc.IEEE ICC, vol.10, 2001, pp.3206-3210.
[3]H.Tokito, M.Sasabe, G.Hasegawa, and H.Nakano, "Routing method for gateway load balancing in wireless mesh networks, "in IEEE ICN'09, 2009.
[4]D.Nandiraju, L.Santhanam, N.Nandiraju, and D.P.Agrawal, "Achieving Load Balancing in Wireless Mesh Networks Through Multi-ple Gateways, "in Proc.IEEE MASS, Washington, DC, USA, 2006.
[5]C.Liu, Y.Shu, L.Zhang, and J.Li, "Efficient multiple Gateways Load-Balancing QoS Routing in backbone Wireless Mesh Networks, "IEEE4th International Conference on Wireless Communications, Networking and Mobile Computing, 2008.pp.1-4.
[6]J.J.Galvez, P.M.Ruiz, and A.F.Gomez-Skarmeta, "A Distributed Algorithm for Gateway Load-balancing in Wireless Mesh Net-works, "in Wireless Days, 2008.WD'08.1st IFIP, 2008, pp.1-5.
[7]F.Zeng and Z.Chen, "Load Balancing Placement of Gateways in Wireless Mesh Networks With QoS Constraints, "IEEE9th Interna-tional Conference for Young Computer Scientists, ICYCS2008, pp.445-450.