性能均衡(精选七篇)
性能均衡 篇1
为了为上网用户提供一个目标服务或同时提供多个目标服务, 我们在七层交换机上通过IP地址与TCP/UDP端口的不同组合, 来为每一个目标服务设置一个不同的虚拟IP地址;正因为如此, 七层交换机可以同时为若干个基于TCP/IP协议的各类业务应用提供服务器系统的负载均衡服务;七层交换机可以持续不停地对用户需要访问的服务器系统资源进行合理性检查, 检查范围限定在交换机的四层到七层范围内, 当上网用户向目标服务器系统发出访问请求信息时, BIG/IP协议会依照目标服务器之间的网络健康状态以及运行性能状态, 自动挑选性能状态处于最优效果的服务器系统来应答用户的上网请求信息, 这样不但可以充分利用每一台服务器系统的资源, 而且也会平均分配数据流量到每一台服务器系统中, 避免了单台代理服务器传输性能的瓶颈以及系统故障的影响。通过增加七层交换机, 我们可以对局域网的数据流量以及访问内容进行灵活的管理与分配, 利用七层交换机自带的12种与众不同的数据算法, 将局域网中的访问数据流按需转发分配给它想要访问的服务器组, 而对于上网用户来说, 我们看到的只是一台虚拟的服务器。这个时候, 上网用户只需要记住虚拟服务器的访问地址, 而不需要同时记住整个服务器组的其他服务器地址, 用户向虚拟服务器发出的数据流会自动被七层交换机灵活地平均分配给所有的服务器系统。七层交换机所采用的12种与众不同的数据算法, 主要有:
一、优先权算法:这种算法主要就是对所有的服务器系统进行分组, 同时对这些分组设置合适的访问优先权, BIG/IP协议会把上网用户的数据请求, 优先分配给优先权级别最高的服务器分组, 一旦优先权级别最高的服务器分组工作状态不正常的时候, 第二优先权级别的服务器分组会自动递补上来, 负责处理上网用户的数据请求;如果第二优先权级别的服务器分组也遇到了故障无法正常工作的话, 那么其他服务器分组会依次进行递补;显然这种数据算法, 为上网用户提供了一种热备份的功能。
二、比率算法:这种算法是为整个服务器组中的每一台服务器系统事先设置一个加权值比例, 同时依照这个加权值比例, 自动将上网用户的数据请求信息分配给每一台服务器系统;一旦整个服务器中的某一台服务器系统在第二层到第七层范围内遇到故障无法正常工作的时候, BIG/IP协议会自动将这台故障服务器系统从整个服务器组中临时剔除出来, 确保它不会参加下一次上网用户请求的分配任务, 直到它的故障被成功排除为止。
三、轮询算法:这种算法是比较常用的一种算法, 它主要是将上网用户的数据请求按照顺序进行循环, 依次发送给整个服务器组中的每一台服务器系统进行处理;如果整个服务器组中有某台服务器系统在第二层到第七层范围内遇到故障无法正常工作的时候, BIG/IP协议会自动将这台故障服务器系统从循环队列中临时剔除出来, 确保它不会参与轮询算法, 直到它的故障被成功排除为止。
四、除了上面几种主要的数据算法外, 七层交换机的算法还包括服务类型算法、服务质量算法、观察模式算法、最快模式算法、最少的连接方式算法、预测模式算法、动态服务器补充算法、规则模式算法、动态性能分配算法等等。
通过上述升级、改造方案, 我们可以轻而易举地对整个服务器组实现流量均衡分配, 这样解决了单台服务器性能瓶颈的缺点, 提升了整个局域网服务器系统的运行稳定性和运行可靠性;上述升级改造方案可以帮助我们非常轻松地同步服务器提供的数据内容, 并且方便我们对其中的数据内容进行监控, 保证上网用户能从局域网服务器中访问得到准确、可靠的信息;通过对服务器系统的负载均衡改造, 我们能够对运行在服务器系统中的各个网络应用程序进行运行状态的实时监控, 并且对那些存在故障的应用系统进行自动屏蔽;此外, 这种负载均衡升级改造方案, 还为网络管理员在线调试、维护服务器系统带来了便利。
参考文献
[1]于洪伟.基于多核处理器高效入侵检测技术研究与实现[D].成都:电子科技大学, 2009.
[2]林闯, 单志广, 任丰原.计算机网络服务质量 (QoS) [M].清华大学出版社, 2006, 04.
性能均衡之选 篇2
与NEX-5T同时发布的还有蔡司Vario-Tessar T* 16-70mm F4 ZA OSS镜头,对于与NEX系列配套的镜头群来说,除了需要有E16-50这样便宜且便携的镜头以外,一些高端用户仍希望会有性能更为出众的优质镜头可供使用,蔡司镜头正是为满足这种需求而生。
新增NFC功能
相比Wifi连接,NFC功能的最大优点在于便捷,只需与开启了NFC功能的手机轻轻一碰,就能实现文件传输和操控拍摄等多种功能,相比Wifi连接相对繁琐的操作,NFC可说是极大改善了无线使用体验。
NEX-5T的NFC功能及Wifi功能均支持手机遥控拍摄,不仅使手机取代了快门线的功能,还大大优化了自拍体验。以往的自拍只能将相机拿在手上对着自己拍摄,拍摄效果也仅限于大头照。而有了手机操控功能之后,可以将相机放置在三脚架或者其它支撑物上,调整好参数,通过手机屏幕查看构图并释放快门,拍摄出许多看似他人拍摄的自拍照,极大扩展了自拍的创意空间。目前,无线操控拍摄的缺点是显示延迟较为严重,并且可调整的参数较少。
其他方面的变化很小,NEX-5T在外形上基本沿用了NEX-5R的设计,仅仅在型号标识和NFC标识上有所区别。硬件配置上,外置闪光灯、180度旋转液晶屏及触摸屏依然是标配,也同样没有配备EVF电子取景器。按键方面,NEX-5T在快门键旁边增加了一个Fn自定义按钮,使得操控便捷性有了一定提升。
画质表现优秀
性能上,1600万有效像素的CMOS依然延续了前作的优秀画质表现,低感光度下的细节表现及高感光度下的噪点控制都非常优秀,在同级CMOS当中处于领先水平。对于APS-C画幅来说,1600万像素的像素密度也较为适中(对应全画幅的3600万像素),能满足多数家庭使用。
蔡司16-70mm F4镜头
近年索尼相机上所使用的蔡司镜头都是由蔡司设计,索尼生产,在光学素质和做工上都很有保证。这次发布的蔡司16-70 F4也不例外。
16-70mm的焦距等效全画幅焦距约为24-105mm,覆盖了从广角到长焦的大片范围,足以应对90%以上的日常拍摄。12组16片的镜组结构,以及4片非球面镜片,1片ED镜片保证了优秀的光学素质。从广角端到长焦端都有很好的分辨率表现,广角端的畸变、色差及暗角控制也保持了高水准。
对焦整体表现优秀,多数情况下,无论广角端或是长焦端都能迅速、准确地合焦。对于在低反差或过高反差的场景中出现的对焦困难,属于正常现象,可以通过一定的自动对焦技巧或切换为手动对焦加以解决。
作为标配,蔡司16-70mm镜头也加入了OSS防抖功能,使得长焦端拍摄,以及微距拍摄,弱光环境拍摄的成功率大大提升,作为一只适用范围广泛的标准变焦镜头,防抖功能的加入显得尤为重要。
受限于较为复杂的镜组结构,这只镜头无法做得非常小巧,直观上看,比老将E18-55mm镜头要大出一号,长焦端镜筒伸出时更为明显。搭配在NEX-5T上时,略微有点头重脚轻感。相信搭配NEX-6或NEX-7这样体积更大的机身时会有更好的平衡性。
值得一提的是,这只镜头的70mm端还具有一定近摄功能,放大倍率达到0.23x,在拍摄细小物件或者小花小草时非常有用。
从实拍样片来看,这只镜头的色彩表现依然浓郁,有着蔡司一贯的风格,相信在阳光下还会有更好的表现。
对于超广角爱好者来说,等效24mm的广角端有时候依然不足以装下眼前的景物,这时候通过接片技术可以获得视角更为宽广,同时畸变非常小的巨幅影像,极大扩展了该镜头的应用范围,另外,拍摄到的超广角照片细节惊人。
对于广大家庭用户来说,NEX-5T是一款性价比不错的机器。而发布的蔡司16-70mm镜头面向的人群则有些不同,其较高的售价和较大的体积使得它更适合高定位的NEX-6及NEX-7。作为一只标准变焦镜头,它已经做到了极致,对于对影像素质有高要求的用户来说,这只镜头绝对是升级的上佳选择。
三种LVS负载均衡模式及性能研究 篇3
随着Internet飞速发展,Web、Mail、Media等网络应用已成为生活中的重要组成部分。Web等网络服务器面对越来越多的用户访问请求,仅靠单个服务器已远远不能满足需求。为了满足不断增长的服务器性能需求,实现系统的高可靠性,常采用DNS、反向代理服务器、NAT地址转换和集群等负载均衡技术。其中,章文嵩提出基于Linux集群的可伸缩网络服务体系结构(Linux Virutal Server,LVS[1])能提供负载均衡、可伸缩性和高可用性等性能,是目前广泛应用且成熟的集群技术。本文分析网络地址转换、IP隧道和直接路由等三种实现LVS的方式,针对三种LVS模式分别设计实现一个Web服务器集群,并采用WAS测试软件仿真大量网络用户,进行并发访问测试,最终得出三种LVS负载均衡模式的系统性能分析结果。
2 LVS体系结构
LVS集群系统在两个层次上实现负载均衡,分别是基于IP层的IPVS和基于应用层的KTCPVS内容请求分发方式。它们均在Linux内核中实现,可将一组服务器构成一个可伸缩的、高可用的网络虚拟服务器,对外提供一个虚拟IP地址,响应用户访问请求。LVS体系结构由三部分组成,如图1所示。
2.1 负载均衡器(Load balancer)
负载均衡器是整个集群系统对外提供服务的前端,它将用户访问请求(目的地址为虚拟IP地址),根据工作模式、调度策略和内容分发到集群内部各台真实服务器上;服务器则通过负载均衡器响应请求或将结果直接返回给客户。服务器集群的结构对客户是透明的,客户访问集群系统提供的网络服务就像访问一台高性能、高可用的服务器(地址为虚拟IP地址)一样。负载均衡器可以采用IP负载均衡技术、基于内容请求分发技术或两者相结合的技术。由于负载均衡器运行在Linux操作系统的内核中,无需在用户态和内核态之间切换,故调度开销小,占用资源少,效率较高。
为避免负载均衡器单点故障导致整个LVS集群系统不可用,可设置Master、Slaver两台负载均衡器,它们分别处于活跃、备用工作状态,两者之间通过Heartbeat[2]机制实时监测对方的健康状态。如果负载均衡器Master宕机,则Slaver立即由备用跳转为活跃状态,以确保系统的高可用性。
2.2 服务器池(Server pool)
服务器池由真正响应客户请求的真实服务器(简称节点)组成,这些节点可提供Web、Mail、Media或DNS等网络服务。根据访问需求的变化,服务器池可灵活增加或减少节点数目,集群系统的整体访问性能随着节点数量的增加呈线性增长。LVS通过负载均衡器实时监控节点,将有故障的节点及时从服务器池中移除,确保系统的高可用性。
2.3 共享存储(Shared storage)
共享存储为服务器池提供统一的存储空间,使服务器池的节点拥有相同的内容,提供相同的服务,对于同步更新更方便,系统数据维护更简单。一般共享存储为数据库、网络文件系统或是分布式文件系统。对于大规模的集群系统,可使用分布式文件系统存储,如AFS[3]、GFS[4]、Lustre[5]和TFS[6]等,有良好的伸缩性和可用性。
3 LVS的3种实现模式
在负载均衡调度实现的技术中,IP负载均衡技术的应用比较广泛并且效率很高。基于LVS的核心软件IPVS有三种IP负载均衡模式,分别是网络地址转换(Virtual Server via Network Address Translation,VS/NAT)模式、IP隧道(Virtual Server via IP Tunneling,VS/TUN)模式和直接路由(Virtual Server via Direct Routing,VS/DR)模式。
3.1 VS/NAT模式
VS/NAT体系结构如图2所示。
负载均衡器将用户发来的请求报文的目的IP地址(即虚拟IP地址)和目的端口号,如“请求数据包1”,根据预设的调度算法,改写为某台真实服务器的目的IP地址和目的端口号,如“请求数据包2”,转发给真实服务器;同时在负载均衡器的Hash表中记录这两个IP地址和端口的映射关系。真实服务器负责处理、应答请求。负载均衡器将真实服务器响应的“应答数据包1”,根据Hash表中的记录,将报文的源IP地址和源端口号改为的虚拟IP地址和对应端口,如“应答数据包2”,再返回给客户,完成整个负载调度过程。当这个连接的下一个报文到达时,负载均衡器根据Hash表中记录,将请求和应答报文进行同样的改写,转发给相同的真实服务器和用户。
用NAT技术时,请求和响应报文都必须经过负载均衡器进行目的(和源)IP地址和端口的重写,当用户请求越来越多,真实服务器数量增加到一定程度时,负载均衡器的处理能力将成为瓶颈。
3.2 VS/TUN模式
为了解决VS/NAT模式的负载均衡器瓶颈问题,针对大多数Internet服务的请求报文时间较短而响应报文时间较长的特点,VS/TUN模式的负载均衡器只负责调度请求,响应由真实服务器直接发给用户。VS/TUN体系结构见图3。
图3中,负载均衡器利用IP隧道技术将“请求数据包1”封装一个新的IP数据包头,新数据包头的源IP地址和目的IP地址分别为负载均衡器IP地址和根据调度算法选定的真实服务器的物理接口IP地址。支持IP隧道协议的真实服务器接收“请求数据包2”,先解封新IP数据包头,获得的源地址和目标地址分别为用户地址和虚拟IP地址的报文。此时服务器发现虚拟IP地址为本机预先配置的IP隧道设备地址,所以处理这个请求,并构造一个响应报文,“直接应答数据包”的源IP地址和目的IP地址分别为IP隧道设备地址(即虚拟IP地址)和用户地址,不需经过负载均衡器,而是直接发给用户。
由于一般网络服务应答比请求报文大许多,采用VS/TUN技术后,集群系统的最大吞吐量可以提高10倍以上。
3.3 VS/DR模式
和VS/TUN模式修改请求报文第3层IP地址不同(还需修改第2层MAC地址),VS/DR模式仅通过改写请求报文的第2层MAC地址实现负载均衡。但VS/DR要求负载均衡器和真实服务器处在同一广播网段,除了给负载均衡器和真实服务器的物理网卡配置不同的IP地址外,还需要新添加逻辑(或Loopback)网卡接口,接口都设置为虚拟IP地址,并在真实服务器上限制针对逻辑网卡接口的ARP广播。VS/DR体系结构见图4。
图4中,负载均衡器接收用户请求,将“请求数据包1”的源MAC地址和目的MAC地址分别修改为自己物理网卡MAC地址和根据调试算法选定的真实服务器的物理网卡MAC地址(请求数据包2),真实服务器发现“请求数据包2”的目的MAC地址为自己物理网卡MAC地址、目的IP地址为自己逻辑网卡的虚拟IP地址时,就接收、处理并响应用户请求。并将“直接响应数据包”返回给用户(源MAC地址和目的MAC地址分别为真实服务器的物理网卡MAC地址和去用户最近网关接口MAC地址),不需经过负载均衡器。
这种模式只需处理第2层数据帧,没有第3层IP包的处理开销,对集群中的真实服务器也没有VS/TUN模式必须支持IP隧道协议的要求,相对前两种LVS模式来说,VS/DR的负载均衡性能更好、可扩展性更强,适应更广。不足的是要求负载均衡器与真实服务器的网卡位于同一广播域,且节点全暴露在外网,安全性较差,实际应用时需在LVS系统和外网之间安装防火墙等安全设备。
3.4 三种IP负载均衡模式的比较
三种LVS负载均衡模式的特点见表1。
4 LVS性能测试
为了简化测试的物理平台,本文在一台CPU为intel Core i3M370 2.40GHz、内存为4GB的物理主机上运行VMware Workstation 7虚拟机软件,同时虚拟四台计算机(每台虚拟机的内存均为512MB),分别是负载均衡器、两台真实服务器和测试客户端。
为测试不同LVS负载均衡模式的性能,根据三种体系结构依次搭建LVS集群测试的软件平台,LVS集群系统提供Web服务。负载均衡器和两台真实服务器均运行Redhat Enterprise Linux 5操作系统,都安装Apache组件,且负载均衡器安装LVS核心管理组件ipvsadm。三种LVS集群系统均采用加权最少连接(Weighted Least-Connection Scheduling)调试算法,两台真实服务器的权重都为10。真实服务器的主页index.html为20k B大小的静态网页。测试客户端运行Windows Server 2003 Enterprise操作系统,安装Microsoft的Web应用负载测试工具WAS[7](Web Applicationstress Tool),通过设置不同的并发连接数,在测试端模拟大量用户同时访问LVS集群的Web服务。每次测试运行时间为2分钟,以产生足够的请求,避免出现失真的测试结果。主要从平均响应时间长短来测试不同LVS负载均衡模式的性能,平均响应时间参考TTFB(Time To First Byte)值(见表2)。WAS测试收到真实服务器响应的第一个数据所用的时间,值越小性能越好。
由表2的分析结果可得到三种LVS负载均衡模式在不同并发数下TTFB的变化曲线,如图5所示。
由图5可知,随着并发数的增加,三种LVS负载均衡模式的TTFB值均随之增长,但在相同负载前提下,VS/DR模式的TTFB值最小,系统性能最优,VS/TUN模式次之,VS/NAT模式最差。
5 结束语
本文详细讨论了三种LVS负载均衡技术,只从集群的系统性能看,VS/DR模式最优。除了LVS、基于Linux的软件负载均衡集群、还有H A Proxy[8]和适应复杂网络的Nginx[9]等。如果需要更高系统性能,可选择F5的BIG-IP[10]、Cisco的CSS[11]内容交换机、Radware的App Director[12]等硬件负载均衡产品。
参考文献
[1]章文嵩.可伸缩网络服务的研究与实现[D].长沙:国防科学技术大学,2000:14-40.
[2]Alan Robertson,et al.Linux High AvailabilityProject[EB/OL].http://www.linux-ha.org,2011-5.
[3]Daniel Lazenby.Book Review:Managing AFS:Andrew File System[M].Specialized System Consultants,Inc,1998.
[4]Steven R.Soltis,Thomas M.Ruwart,Matthew T.O’keefe.The Global File System[C].Fifth NASA Goddard Conference on Mass Storage Systems and Technologies,1996:319-342.
[5]Peter Braam.Lustre(file system)[EB/OL].http://wiki.lustre.org,2010.
[6]Taobao.TFS(Taobao FileSystem)[EB/OL].http://code.taobao.org/trac/tfs/wiki,2010-9.
[7]Aaron Ching,Pedro Silva,Allen Wagner.利用Web Application Stress Tool(WAS)做性能测试[EB/OL].http://msdn.microsoft.com,2001-1.
[8]H A Proxy.The Reliable,High Performance TCP/HTTP LoadBalancer[EB/OL].http://haproxy.1wt.eu,2011-9.
[9]Igor Sysoev.Nginx[EB/OL].http://nginx.org/en,2010-4.
[10]F5Networks Inc.BIG-IP[EB/OL].http://www.f5.com,2011-9.
[11]Cisco System Inc.Cisco Content Services Switches[EB/OL].http://www.cisco.com/en/US/products/hw/contnetw/ps792/index.html,2011-9.
性能均衡 篇4
PC平板二合一之殇
就轻薄参数而言,屏幕和键盘可以分离的PC平板二合一设备自然最具优势。然而,此类产品除了Surface Pro 4等少数产品,绝大多数机型都选择了与4.5W TDP的酷睿M处理器联姻,在性能上存在一定的不足。
此外,此类设备受限于空间有限,很难配备太过豪华的散热模块,在高负载的应用环境下容易触发CPU降频从而影响体验。最后,二合一设备的屏幕部分虽然纤薄,重量也能控制到800g以内,但当它们与键盘底座结合后(图1),总重量往往会突破1.2kg大关,此时它们的便携性将大打折扣。唯一令人欣慰的,则是如今PC平板二合一设备大都配备了支持十点触控的屏幕,同时支持压感触控笔,在一些专业设计软件领域,或是运行支持触控类的游戏时可以获得较好的体验。
超薄本的天然优势
得益于微边框概念,以及处理器技术的不断革新,让“超薄本”可以更为轻松地突破设计上的瓶颈,获得不逊于PC平板二合一设备(屏幕与键盘结合时)的便携性。同时,超薄本有着相对充裕的内部空间,可以塞进更大的电池、尺寸更大的风扇和热管(图2),提供手感更为出色的键盘以及更多的USB等周边接口。更有甚者,可以实现变身游戏本的梦想。
举个最简单的例子,戴尔XPS15是一款拥有15.6英寸大屏幕(图3),且采用35W TDP处理器(如i5-6300HQ)和NVIDIA GTX960M独立显卡的游戏本,但它却将身材控制到了17mm厚和1.78kg重。虽然XPS15有着游戏本的性能,但它的形态却属于绝对的超薄本。
可惜,像XPS15这种便携性和高性能得以兼顾的机型定位太高,接近万元的起价注定不是普通用户可以承受的。好消息是,如果你对大型游戏不感冒,如今哪怕是5000元级别的超薄本,同样可以为你带来不少惊喜。
主流超薄本怎么选
考虑到超薄本也是“笔记本”,所以我们必须对它们的性能提出一定要求,也就是至少要配备15W TDP的U系列酷睿处理器,如此才能进一步缩短与传统笔记本之间的性能距离。在价位相近的情况下,可优先挑选搭载第七代酷睿处理器的新品(图4),因为七代酷睿i5-7200U的性能就已超越了六代酷睿i7-6500U。
考虑到七代酷睿处理器刚上市不久,本文涉及的某些产品家族在截稿时还没能升级。当大家拿到本期杂志时,不妨搜一下它们是否出现了武装七代酷睿的新型号,如果有且与旧型号价格相近,自然是新品更值得入手。
在进行产品对比时,我们需要留意的参数有几下几点:屏幕材质,非广视角屏幕的偏色问题会严重影响多人同时观看屏幕时的体验;电池容量,在硬件规格相近时,电池越大续航潜力自然最高;USB3.0接口的数量,这将决定你能同时接驳几个高速闪存盘/移动硬盘;厚度重量,对超薄本而言,在屏幕相同的情况下这两个参数越小意味着便携性越强。下面,我们就来盘点一下5000元上下,或在设计或在性能方面有着独到卖点的热门超薄本。
联想IdeaPad 710S
屏幕:13.3英寸IPS(1080P)
处理器:酷睿i5-7200U
内存/硬盘:4GB/256GB SSD
显卡:HD620核芯显卡
接口:读卡器、USB3.0×2、Micro HDMI、音频接口
厚度/电池/重量:13.9mm/45.5Wh/1.1kg
IdeaPad 710S应该是目前最具竞争力的超轻薄笔记本,这款产品搭载了最新的七代酷睿处理器,并将重量进一步压缩到了1.1kg,再结合5399元的售价,性价比非常突出。IdeaPad 710S的特色还表现在更多的扩展接口,以及出色的键盘手感方面,并没有因追求轻薄而牺牲太多。
惠普ENVY 13-d023TU
惠普ENVY 13是一款由全金属打造的轻薄本,它的转轴设计极具特色,当屏幕翻转到最大时,屏幕底部可以支撑起机身,充当支架的角色,提高笔记本底部的空气流通。此外,ENVY 13还配备了超大的57.8Wh电池,内置的M.2插槽也支持NVMe SSD,有需要的用户可自行升级。
屏幕:13.3英寸IPS(1080P)
处理器:酷睿i5-7200U
内存/硬盘:4GB/128GB SSD
显卡:HD620核芯显卡
接口:读卡器、USB3.0×3、USB Type-C、HDMI、音频接口
厚度/电池/重量:13.94mm/57.8Wh/1.43kg
宏碁蜂鸟S5
宏碁蜂鸟S5并非新品,经历数次调价后如今价格已不足5000元。这款产品最大的特色是在纤薄的机身上提供了包括USB Type-C在内的更多接口。顶盖的类肤质涂层、金属质感的转轴、拉丝金属的掌托、钻石切割工艺的机身边缘,则让蜂鸟S5-371显得更为“有型”。
屏幕:13.3英寸IPS(1080P)
处理器:酷睿i5-6200U
内存/硬盘:4GB/256GB SSD
显卡:HD520核芯显卡
接口:读卡器、USB3.0×2、USB Type-C、HDMI、音频接口
厚度/电池/重量:14.6mm/45.3Wh/1.3kg
三星910S3L-M01
屏幕:13.3英寸PLS(1080P)
处理器:酷睿i5-6200U
内存/硬盘:8GB/256GB SSD
显卡:HD520核芯显卡
接口:读卡器、USB3.0、USB2.0、HDMI、迷你以太网、音频接口
厚度/电池/重量:17.95mm/30Wh/1.34kg
三星910S3L-M01的特色在于提供了纯白和粉色的时尚配色,虽然也没能用上最新的七代酷睿,但不足5000元的售价却较为实惠。该产品还主打增强型的Wi-Fi,号称可以让Wi-Fi的数据传输速度提高20%。可惜,910S3L-M01仅内置30Wh电池,和其他产品相比容量偏小。
华硕U310UQ6200
屏幕:13.3英寸(1080P)
处理器:酷睿i5-6200U
内存/硬盘:4GB/256GB SSD
显卡:NVIDIA 940MX(2GB DDR3)
接口:读卡器、USB3.0、USB2.0×2、USB Type-C、HDMI、音频接口
厚度/电池/重量:18.3mm/48Wh/1.45kg
华硕U310UQ6200是一款均衡性的超薄本,它虽然没有超窄边框,但便携性依旧出色,并在此基础上还加入了独立的940MX显卡。此外,该产品内部设计颇为充裕,除了板载4GB内存外还能再加装一根内存条,可组成M.2 SSD+2.5英寸双硬盘,实现磁盘容量和速度兼顾。
小米笔记本Air 13
将重量控制到1.3kg内的13英寸超薄本还有很多,而小米笔记本Air 13最大的特点就是在纤薄的机身里额外加入了NVIDIA 940MX独立显卡。在以集成显卡为主旋律的超轻薄笔记本阵营中,有了独显加持的小米Air 13可以驾驭更多3D游戏而不必考虑牺牲画质等问题。
屏幕:13.3英寸IPS(1080P)
处理器:酷睿i5-6200U
内存/硬盘:8GB /256GB NVMe SSD
显卡:NVIDIA 940MX(1GB GDDR5)
接口:Type-C、USB3.0×2、HDMI
厚度/电池/重量:14.8mm/40Wh/1.28kg
ThinkPad New S2
屏幕:13.3英寸IPS(1080P)
处理器:酷睿i5-6200U
内存/硬盘:4GB/192GB SSD
显卡:HD520核芯显卡
接口:读卡器、USB3.0×3、OneLink、USB Type-C、HDMI、音频接口
厚度/电池/重量:19.1mm/42Wh/1.41kg
ThinkPad New S2是一款定位商务的轻薄本,只是它采用了银色外壳,较之ThinkPad以往的黑色更适合年轻用户。这款产品的特色在于屏幕可以开合到180度,机身内配备了2个标准的内存插槽,意味着我们可以随意升级内存组建双通道模式,而OneLink接口则可接驳专用扩展坞。
戴尔燃7000-14
屏幕:14英寸IPS(1080P)
处理器:酷睿i5-7200U
内存/硬盘:4GB/128GB SSD+500GB
显卡:NVIDIA 940MX(2GB GDDR5)
接口:读卡器、USB3.0×2、USB2.0、HDMI、RJ45、音频接口
厚度/电池/重量:19mm/42Wh/1.65kg
均衡固体油粉对母猪生产性能的影响 篇5
本试验在哺乳母猪饲料中添加一定比例的均衡固体油粉,并与液体油脂( 植物油) 为对照,观察其对母猪生产性能的影响,为其在生产中的使用提供科学依据。
1 材料
1. 1 试验时间与地点
试验时间为2015 年2 月1 日—3 月7 日,共35 d,其中预试期3 d。试验地点为通辽市三元养殖有限公司。
1. 2 试验动物
选择分娩日期相近( 分娩日期相差不超过10 d)的哺乳母猪40 头,通辽市三元养殖有限公司提供。
1. 3 均衡固体油粉
均衡固体油粉含粗脂肪50% 、粗蛋白2% 、消化能25. 53 MJ/kg,某科技( 武汉) 有限公司提供。
2 方法
2. 1 试验设计
选择分娩日期相近的哺乳母猪40 头,随机分为2 组,每组设2 个重复,每个重复10 头。在日粮营养水平基本相同的情况下,对照组日粮添加液体油脂( 植物油) ,试验组日粮添加均衡固体油粉。日粮配制参考《猪饲养标准》( 中国,2004) 瘦肉型哺乳母猪每千克饲粮养分含量及结合生产实际配制,均为玉米- 豆粕型日粮,且为粉料,日粮组成及营养水平见表1。
2. 3 饲养管理
分娩舍彻底清洗、消毒,母猪分娩前7 天转入分娩舍,转舍前对母猪进行清洗、消毒。分娩当天不喂料,产后3 ~ 5 d日喂料量逐渐达到5 kg /头以上,哺乳期日喂4 次,6: 00、11: 00、18: 00、22: 00。自由饮水,保证饮水清洁卫生。
2. 4 测定项目
记录哺乳母猪采食量,测定仔猪初生重及断奶重,记录仔猪死亡头数,计算平均每窝转出的断奶仔猪数。
2. 5 数据统计分析
采用Excel 2007 对数据进行整理,SPSS 13. 0 的单因素方差分析程序ANOVA进行方差分析,综合Duncan’s法进行多重比较,P < 0. 05 表示差异显著,P < 0. 01 表示差异极显著,结果以“平均数 ± 标准差”表示。
3 结果( 见表2) 与分析
由表2 可知: 平均日采食量试验组高于对照组,但差异不显著( P > 0. 05) ; 仔猪初生重试验组与对照组差异不显著( P > 0. 05) ; 仔猪断奶重试验组显著高于对照组( P < 0. 05) ; 平均每头母猪初生健仔数,试验组较对照组多5 头; 仔猪死亡数,试验组较对照组少7 头,平均每头母猪提供的断奶仔猪数,试验组较对照组多0. 6 头,组间差异显著( P < 0. 05) 。
4 讨论和结论
注: 同行数据肩标字母不同表示差异显著( P < 0. 05) ,无肩标表示差异不显著( P > 0. 05) 。
性能均衡 篇6
目前福建某银行的综合前置服务器系统是基于红帽LVS集群模式进行服务的,服务器的并发能力取决由服务器本身的性能,无法满足大并发和高稳定性要求的场合。在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求。
其综合前置服务器系统采用硬件采用两台IBM PC服务器,软件是红帽企业版LINUX系统,构建成高可用性的综合前置服务器集群,随着业务增长和客户数量的增加,综合前置服务器系统出现了以下问题:
◎集群内各服务器与各第三方是需要通过路由器,当集群IP地址发生变动或者需要增加集群设备时,需要网络部门在路由器对相应网络配置进行变动;
◎有些第三方,比如人行系统,它规定每个银行只允许一个IP地址与人行系统进行交互,如果采用集群DR工作模式,就产生多个集群实际IP地址对应接入人行系统的现象;
◎因此需将集群所有成员看作一个整体,也就是等同于一台服务器,客户端发送到集群的报文及集群往第三方发送报文,都认为只有一个IP地址;
◎对于集群外的设备(如监控室的设备)能够直接访问(如telnet、ftp、ssh等客户端软件)集群成员的所有服务器。
二、认识红帽LVS集群
Linux服务器集群系统是许多金融单位所采用的解决方案,Linux服务器集群通过多台机器连接起来,处理复杂的问题。可以将同构或者异构的计算机连接起来,协同完成特定的任务。这样就构成了集群。
红帽Linux Virtual Server(LVS)是一套完整的基于IP的负载均衡的集群软件。LVS运行在一对有相似配置的计算机上:一个作为活动LVS Router(Active LVS Router),一个作为备份LVS Router(Backup LVS Router)。活动LVS Router服务有两个角色:
◎均衡负载到真实服务器上;
◎检查真实服务器提供的服务是否正常。
备份LVS Router用来监控活动的LVS Router,以备活动的LVS Router失败时由备份LVS Router接管。
网络地址转换(Network Address Translation,以下简称NAT),将内部地址转化为Internets上可用的外部地址。NAT的工作原理是报文头(目标地址、源地址和端口等)被正确改写后,客户相信它们连接一个IP地址,而不同IP地址的服务器组也认为它们是与客户直接相连的。由此,可以用NAT方法将不同IP地址的并行网络服务变成在一个IP地址上的一个虚拟服务。
因此,对用硬件和软件方法实现高可伸缩、高可用网络服务的需求不断增长,配置使用LVS集群服务软件实现使用普通服务器集合来提高整体服务能力。提供更丰富的内容、更好的交互性、更高的安全性等,需要服务器具有更强的CPU和I/O处理能力。使用的集群应该可以满足以下的需求:
◎可伸缩性(Scalability),当服务的负载增长时,系统能被扩展来满足需求,且不降低服务质量。
◎高可用性(Availability),尽管部分硬件和软件会发生故障,整个系统的服务必须是每天24小时每星期7天可用的。
◎可管理性(Manageability),整个系统可能在物理上很大,但应该容易管理。
◎价格有效性(Cost-effectiveness),整个系统实现是经济的、易支付的。
三、技术实现
为解决当前集群中出现的各种问题,采取lvs(NAT)+SNAT的方式,其中SNAT是将转发路由作为集群内部成员的传统网关。
1. 配置LVS
2. 配置SNAT
3. 配置ICMP重定向
4.绑定出口IP地址
WLAFE01:#route add-net 10.0.4.0/25 dev eth0:1#route add-net 0.0.0.0/0 gw 10.0.4.126 dev eth0:1
5. 配置NFS服务
WLAFE01:#vi/etc/exports/h o m e/f t p u s r/f i l e 1 7 2.1 6.1.8(r w,s y n c,n o_wdelay,insecure_locks,no_root_squash)
6. 配置随机自启动服务
性能均衡 篇7
关键词:光通信,电色散补偿,XFP光模块
0 引 言
随着光纤通信的发展,数据业务的倍增,带宽需求也在稳步增长。当前运营商的主要目光已转移到10 Gbit/s,同时在关注着更高速率的40 Gbit/s甚至100 Gbit/s技术。不过对这种高速传输而言,色散,也就是由于不同波长的传输速度不同造成的信号展宽,是一个巨大的障碍。而电色散补偿(EDC)技术的成熟,提供了低成本、高性能的电域色散补偿方法,通过保持信号的完整性和高质量而极大地延长了传输距离,提升了网络效率,进而实现了对现有企业和城域服务传输网进行无缝且高性价比的升级,推动了10 Gbit/s光网络的发展。
1 电色散补偿原理分析
单模光纤的色散主要有色度色散(CD)和偏振模色散(PMD)两种[1,2,3],分别由不同波长或不同偏振模式的光在光纤中传播的速度不同而产生。10 Gbit/s光通信系统主要受到CD的影响,光学补偿方法有光纤光栅补偿法、色散补偿光纤法和光子晶体光纤法。PMD的补偿方法有利用偏振度作为反馈信号控制偏振控制器进行补偿的方法等。
电均衡是有效减少传输过程中色散对信号损伤的一种技术。在实际应用中,EDC技术有两种不同的使用方案:一种是在发射端加入色散补偿模块,对电/光转换之前的电信号进行预处理;另一种是在光传输系统接收端加入补偿模块,对光/电转换后的电信号进行滤波处理。由于第一种方法自适应能力差,一般很少采用。 EDC是一种后补偿手段,由于色散而展宽的光脉冲经过探测器转换为电脉冲,并由互阻放大器进行放大之后,在电域得到均衡,从而消除色散带来的码间干扰。EDC主要有下面几种结构:前馈均衡器(FFE)、判决反馈均衡器(DFE)和最大似然系列估计器(MLSE)。文中的EDC均衡器是前馈均衡器和判决反馈均衡器的组合。前馈均衡器的结构如图1所示。
前馈均衡器是基于横向滤波器的,输入信号被多级延迟,各级延迟后的结果与原始输入信号加权求和,其结果作为滤波器的输出。前馈均衡器的传输函数可表示为
式中,x(t)为输入信号;y(t)为输出信号;T为每级延迟时间,是固定的,为码元长度;Ci为每阶的加权系数,根据光纤色散的特点调整Ci,可以得到最佳的均衡效果。
前馈均衡器是一种线性均衡器,对于失真程度较低、眼图未完全闭合的信号有较好的均衡效果。与前馈均衡器不同,
判决反馈均衡器是一种非线性均衡器,对眼图几乎完全闭合的信号也有很好的均衡作用。判决反馈均衡器的结构如图2所示。判决反馈均衡器是将已判决的比特加权后反馈,用于后续比特的判决[4]。判决条件为
式中,Ik-i为已判决的比特;Ii+1为待判决的比特;Uth为判决门限。根据光纤色散的特点调整Ci,可以得到最佳的均衡效果。
总色散量随着光纤长度、波长等改变,因此不同的线路有不同的色散量,这要求均衡器能够动态调整加权系数[5]。在理论分析上,EDC均衡器可以通过补偿由于色散因素导致的信号劣化,提高信号传输性能,增大信号的传输距离。
2 EDC均衡器对长距离XFP光模块的性能改进测试
为了适应市场对模块的低成本和小型化的要求,EDC生产厂家一般将EDC功能和时钟数据恢复功能集成在一个芯片里,制作成具有自适应均衡和时钟数据恢复功能的芯片,均衡器结构为FFE+DFE,本实验的EDC均衡器芯片集成有EDC功能和时钟数据恢复功能,采用0.18 μm BICMOS技术,6 mm×6 mm的塑料焊球阵列(PBGA)封装。该EDC均衡器的测试框图如图3所示。
本实验中的传输光源选用武汉电信器件公司的80 km XFP光模块。80 km XFP光模块接收10 G BERT误码仪发出的电信号,并将其转换为光信号,通过TX口接入光纤中进行传输。一般由80 km XFP光模块输出的1.55 μm光信号功率为0 dBm,经衰减系数α近似为0.18 dB/km的G.655光纤传输100 km后的光信号功率衰减为18 dBm,光信号送入分路器后被分为两路功率相等的信号,每路光信号的输出功率比输入功率又衰减了3 dBm,由此可以计算得到不加EDFA时,进入雪崩光电二极管+跨阻放大器(APD+TIA)的光信号功率为-21 dBm,此时的光信号功率较低,不便于灵敏度的测试。所以在本实验中,传输距离达100 km以上时,都要用EDFA进行光信号的放大。在短距离传输中,为防止传输光功率过大,超出接收器件的允许范围而损坏光模块的ROSA器件,需要用到衰减器(ATT),该ATT同时也可以用于调节光信号的强度,来进行灵敏度的测试。APD+TIA光电信号转换器用于将线路光信号转换为电信号并送至具有EDC均衡器的芯片评估板的RXIN+和RXIN-口,APD+TIA选用线性TIA,以适应EDC芯片的线性补偿的需要。芯片评估板通过自带的图形用户界面(GUI)控制程序设置EDC均衡器的运行参数,实现链路最优化处理,并将处理后的电信号送至误码仪检测误码。根据EDC均衡器的需要,芯片评估板需要外接155 MHz的参考时钟。在本实验中,测试速率选择9.953 Gbit/s;具有80 km电吸收调制器(EML)的XFP光模块;配有EDC均衡芯片,对APD+TIA的接收电信号进行均衡处理后,可以将传输距离延长到125 km。图4所示为80 km XFP光模块发射的光信号传输眼图。其中(a)是在XFP测试版的TX口测得的背靠背眼图(传输距离为0 km);(b)是光信号经过125 km传输后,进入APD+TIA前测得的眼图,由于色散的影响,信号劣化很严重,已经不能满足OC-192/STM-64模板的要求。
用10 G BERT误码仪测试传输灵敏度,测试框图如图3所示,测试条件为:信号速率为9.953 Gbit/s,信号码型为223-1阶伪随机码。测试结果的对比如表1所示。
从表1可知,具有80 km EML的80 km XFP光模块发射的光信号传输100 km后,由于光纤中色散的影响,传输性能不再符合传输通道代价的要求,而加了EDC均衡器后,传输125 km,通道代价为1.42 dB,光模块的传输性能得到了明显的改善。
3 结束语
本文对EDC均衡器优化长距离XFP光模块的性能进行了研究与分析,并设计了简单易行的测试方案,通过对比加有EDC均衡器的测试数据和未加EDC均衡器的测试数据,可以得出这样的结论,EDC均衡器能够优化光模块的传输性能,实现更长距离的传输,为10 Gbit/s光网络建设节约了更多成本。
参考文献
[1]WINTERS J,GITLIN R D.Electrical signal processingfor techniques in long-haul fiber-optic systems[J].IEEE Communication Transaction,1990,38(9):1439-1453.
[2]NIELSEN T,CHANDRASEKHAR S.OFC 2 0 0 4workshop on optical and electronic mitigation of i m-pairments[J].Lightwave Technology,2005,23(1):131-141.
[3]BULOW H.Electronic equalization of transmissioni m-pairments[A].Optical Fiber Communication Confer-ence and Exhibit[C].Anahei m,California:OSAIEEE/Communications Society,IEEE/LEOS IEEE/Lasers and Electro-Optics Society,2002,12(7):24-25.
[4]陈文电,徐坤,伍剑,等.40 Git/s光纤通信系统中自适应判决反馈均衡器的补偿性能[J].半导体光电,2006,27(1):63-67.