性能优化技术

关键词: 油泵 压缩机 润滑油 压力

性能优化技术(精选十篇)

性能优化技术 篇1

JB 4M25-160/54型压缩机, 采用油泵提升润滑油压力, 供压缩机每组运动副润滑之用, 而机组工作时的润滑油压力0.25~0.4 MPa, 设定的润滑油连锁停机压力0.2 MPa。运行初期油泵供油压力仅为0.25 MPa, 等于额定润滑油压力的下限, 压缩机在运行过程中受很多因素影响, 难免会有油压波动。当润滑油压力低于连锁停机压力时, 压缩机停止运行, 造成系统紧急停车, 既影响生产又损坏设备。采用增开1台油泵的措施, 免强达到额定润滑油压力, 且仍在低限运行。这种润滑油供给方式存在2个隐患:①润滑油达不到满足要求的额定压力, 给压缩机的各主要润滑点造成不良影响, 致使运动副磨损加剧, 运动副之间振动, 噪声加大。②当润滑油波动至连锁停机压力时, 造成紧急停机, 影响生产连续性。

经研究, 对机组油压系统、冷却系统、运动副、机体主要部位的温度进行测量, 发现润滑油温度过高是影响润滑油压力低的主要原因。于是分别在6台压缩机的油压系统, 回油管道上串入1台换热面积为32 m2的冷却器, 使润滑油的温度降低了16℃, 仅1台油泵运行完全可以满足额定润滑油压力指标。经对机体主要部位温度进行测量, 各部位温度比原来下降了9℃, 机组的运行条件得到改善。温度降低后, 还出现了一个好的现象, 即在没有对压缩机进行任何检修、调整的情况下, 机组运行噪声减小了。根据润滑油的性质分析, 认为润滑油温度降低后, 润滑油黏度增加、流速减慢、压力升高、油膜增厚, 润滑油吸振作用增强, 磨损减少, 从而使有效运行时间延长, 检修时间缩短, 同时每天可节省电费388元。

2. 盘车机构

盘车机构是压缩机安装、检修、启动时的必要机构, 迅速启动和停止, 有利于节省安装、检修时间, 缩短启动过程, 增加机组有效运行时间。JB4M25-160/54型压缩机盘车机构是采用一对啮合的齿轮实现盘车动作, 即1台4 k W电机驱动减速机上的小齿轮, 将运动传递给安装在曲轴上的大齿轮来实现盘车动作。使用过程中因齿面压力较大, 两齿轮实现啮合与分离的动作困难很大, 不小心就会将轮齿折断。为此, 在减速机输入侧的电机风叶轴头上, 用平键连接1个小手柄, 通过小手柄的转动, 经减速机带动小齿轮转动, 当转动到合适位置时, 用手柄操作小齿轮轴向移动, 使其与大齿轮顺利啮合或分离, 再启动或停止4 k W盘车机构电机, 便可轻松完成盘车动作, 从而完善了JB4M25-160/54型压缩机盘车机构。

3. 总结

如何做好网站性能优化 篇2

代码优化

(1) CSS

避免使用CSS表达式

尽可能用类和ID选择,少用后代选择器,子选择,通配符选择器等高级选择器(CSS选择器是从右到左开始匹配)

(2)JavaScript

尽量避免全局查找,建议使用局部变量

将常用变量缓存起来使用

不要使用with语句(会增加作用域链长度)

有效利用正则表达式处理字符串

尽量使用全等===做判断(避免变量隐式转换)

利用setTimeout定时器将耗时长的大任务分割为N个异步任务执行

使用window.requestAnimationFrame()绘制动画,而不是setInterval()

(3)DOM操作

用innerHtml代替DOM操作,减少DOM操作次数

缓存DOM节点查找的结果

采用事件委托监听DOM事件

少用iframe

尽可能批量修改DOM,可以通过下面的步骤减少重绘和重排的次数:

隐藏元素,进行修改,然后再显示它

使用一个文档片断(document.createDocumentFragment())在已存DOM之外创建一个子树,然后将它拷贝到文档

将原始元素拷贝到一个脱离文档的节点中,修改副本,然后覆盖原始元素

(4)HTML

样式表和脚本文件都采用外部文件链接方式加载

样式表链接定义在内,脚本文件放在末尾

性能优化技术 篇3

关键词:计算机;系统性能;优化技术;问题及对策

中图分类号:TP3-4;G712

计算机作为人们生活和工作中的辅助性工具,能够快速地处理人们的指令,现在人们常用的一句话就是有问题找“度娘”,人们在计算机上面,通过百度基本上都能解决你的问题。所以,对于计算机的系统性能,人们都比较信任。虽然计算机是我们生活和工作中的小帮手,但在实际情况中,有时候又不尽然。有时候,人们输入了某个指令后,系统的反应速度非常慢,在某些时候,这个等待的过程可能会在人的可忍受范围内,但有的时候,人们会因为等的时间过长而产生烦躁心理,究其原因,这是计算机的性能较差引起的。

1 计算机系统运行不畅的问题所在

我们在使用计算机的过程中,会出现很多问题,因为计算机本身会存在某些问题,比如说系统配置版本较低或者不成熟,就像Windows XP系统或者Windows 8系统;还有参数的设置问题,有些计算机的参数设置不够合理,使得计算机不能够有效地运行;另外,有些系统数据结构在设计方面存在不合理现象。这些因素都是计算机系统运行不畅的问题所在。

1.1 计算机系统运行时候的流程。计算机会按照人们给的指令进行工作,指令会经由各种程序传达给计算机,要使计算机在我们的指令下正常运行,需要按照正确的流程进行:首先把程序装入计算机的内存里面,让其在中央处理器上面工作;然后读入程序需要的数据库数据,或者在磁盘文件里读入相关的数据,让其进行逻辑运算;最后,指令结果会显示在屏幕上,或者,我们可以从磁盘文件以及数据库里找到指令的结果。在这个流程中,会涉及各个方面的问题:磁盘读写速度及磁盘读写操作量、中央处理器的处理能力、内存空间的大小以及逻辑处理难易程度。

1.2 计算机系统的性能在运行时候的情况。中央处理器对逻辑的处理存在矛盾,因为系统的逻辑有难易程度之分,所以中央处理器在处理能力方面以及对逻辑的难易程度处理会产生矛盾。我们在百度搜索某些问题的时候,一般都能比较快速地出现相关联的关键词,这是因为中央处理器具有一定的处理能力,对于比较简单的程序,在相当短的时间内就可以得出结果;而如果我们打开某些程序,例如英雄联盟或者传奇世界等大型网游时,计算机的反应时间会稍稍长一些,这是因为这些程序的运算量较大。由于计算机系统里面磁盘的读写速度是个定值,如果磁盘读写的操作量较少,计算机的系统性能会比较稳定,反之,计算机在运行时会产生反应慢等问题。磁盘读写的操作量会因为逻辑的变化而变化,如果合理地处理了读写的逻辑,磁盘的读写次数会在一定程度上有所减少,从而减轻系统的负担,计算机运行更流畅,反之,磁盘的读写次数会大大增加,系统的性能也会受到比较严重的影响。另外,可能会对系统性能造成影响的因素还有内存的使用情况。一台计算机如果被给定了一个系统,那么,其中央处理器会具有一定的处理能力,计算机的内存大小也是确定的,所以这些因素都可能影响计算机的系统性能。

2 计算机系统性能优化技术的发展趋势

当今社会中,由于单核产品在进行任务处理的时候有一定的限制性,加上现代科技发展迅速,人们对单核产品的需求量日益减少,然而,由于目前计算机的普及率较高,在一些经济发展相对落后的地区,单核产品仍在大量使用,所以,依据我国的基本情况,单核产品目前还不能从计算机市场彻底消失。因此,根据计算机在市场上的需求量,低端的单核技术必然要发展到低成本、高效率或者高效率、低功耗的阶段。双核产品的不足之处就在于能耗相对较高,所以多核产品应该保持低成本,向降低功耗方向发展,而单核产品则要提高自身的效率,顺应时代的发展。

3 对计算机系统性能运行不畅的问题进行优化的对策

3.1 合理配置各种软件,提高计算机的整体性能。计算机的系统由两部分组成,软件和硬件,这两个系统相互协作,使计算机正常运行。我们在使用计算机的时候,软件管家经常会有消息提醒,让我们升级可升级的某些软件,这是因为高版本的软件功能更完善,性能更好,在使用过程中速度更快,所以,要想计算机的系统性能不受其他因素的影响,高速运行,对于计算机中的各种软件要进行及时的更新,让计算机的系统处在一个良好的环境中,从而有效地运行。

3.2 对于计算机的输入输出系统进行一定的调整。一般来说,我们在应用计算机系统的时候,经常使用的操作是输入输出,所以这一环节也是影响计算机系统性能的因素。随着科技的飞速发展,人们将磁盘的寻址时间缩短了,虽然相对于中央处理器来说,这个只是冰山一角,但这个也算计算机方面的一个革新,能够加快计算机的运行速度。通过观察研究发现,当中央处理器基本上不工作的时候,某些应用程序还是不能够快速地运行,究其原因,是由于磁盘在输入输出时,速度比较缓慢,数据没能够及时读写入内存中。因此,在平时的应用过程中,应该把数据尽量分散到各个磁盘里,避免一个磁盘内存因数据过多而导致输入输出出现问题,降低系统的运行速度。因此,综合多方面的考虑,在使用计算机时,应该及时优化相关的应用程序,减少输入输出的次数,从而是计算机能够快速有效的运行。

3.3 当某些应用程序在同时进行时,应该使中央处理器与输入输出系统协调有效地运行。通常,我们在使用计算机的时候,不会只使用一个应用程序,而是多个程序同时运行,从系统资源的角度分析,我们可以将这个应用程序分为两种形式,一个是面向运算的应用程序,另一个是面向输入输出的应用程序。在计算机系统里,如果同时进行两个或者以上的面向输入与输出的应用程序,那么中央处理器就会被搁置在一旁,不会运行,磁盘在输入与输出的时候被形成拥塞问题,这样,会降低应用程序的使用性能;同样,在使用面向运算的应用程序时,如果同时有两个或者以上的程序运行,计算机的磁盘会出现空转的情况。所以,当我们使用计算机时,不要同时进行面向运算及面向输入与输出的程序应用,让它们搭配进行,这样就能够让各自有效地运行,从而提高计算机运行的整体性能。

3.4 对于中央处理器这一重要方面,要加强管理,合理使用。在上述的文章中,已经提到了中央处理器的特点,就是运行速度非常快,快于磁盘的输入与输出速度,因此,对计算机的系统性能有着很大的影响。当然,这种情况并不适用于所有状况,中央处理器也存在一定的限制性,因此,不论在什么时候,在使用中央处理器的时候,要依据现实情况,合理规范地使用,这样才不会使中央处理器出现比较大的问题,不然的话,计算机的系统性能就会受到一定的影响

4 处理器在日后的发展趋势

当前,处理器在发展方面存在多种制约因素,因此,应该对一些应用性较强、功耗较低的处理器进行开发。首先,在低功耗方面,应选用多核技术的优化措施,应用简单的低耗单核结构进行集成,从而实现低功耗的目标;其次,要将不同结构和性能集合到一起,提高处理器的稳定性;最后是重构,在多核处理器上选用重构技术,融合集成电路与微处理器的功能,从而实现高性能、低功耗同时具有灵活性与通用性的目标。

5 结束语

在现代社会中,科技发展迅速,计算机的性能也在日益提高。本文通过对计算机系统性能存在的问题进行了探讨,并通过各种观察及研究分析出这些问题的有效对策,通过各种有效措施,让计算机系统在处理指令的时候能够更加迅速,充分发挥其性能,从而更好地为我们服务。

参考文献:

[1]靳春霞.计算机系统性能优化研究[J].科技论坛(下半月),2010.

[2]谢林川.计算机性能优化技术中寻址的问题[J].硅谷,2012.

作者单位:王晓东(1978.09-),男,吉林长白人,工程师,本科,研究方向:计算机科学与技术。

性能优化技术 篇4

关键词:虚拟机,在线迁移,性能优化,关键技术

使用虚拟化技术, 可以有效实现资源的整合和利用, 所以能够给企业的数据资源管理提供较大的便利。利用虚拟机在线迁移, 则能够在不中断虚拟机运行的情况下实现虚拟机内存数据和运行状态的转移, 所以能够更好的为用户提供服务。而考虑到虚拟机在线迁移的性能问题, 还应该利用有关技术实现其迁移性能的优化, 继而更好的为用户使用虚拟化技术提供便利。

1 虚拟机在线迁移原理及不足

所谓的虚拟机在线迁移, 其实就是在多个物理主机之间迁移虚拟机的一种技术。利用该技术, 可以在不中断服务应用的情况下进行虚拟机内存数据、状态和操作系统的转移。在迁移的过程中, 需要先进行与虚拟机相关的内存空间的自动捕捉, 然后将数据包以协议包方式在服务器上转移。经过加载, 新服务器将能出现处理器寄存器状态, 从而实现对原有虚拟机数据业务的无缝接管。由于大多数虚拟机是在同种管理程序服务下迁移, 所以新虚拟机可以对原本虚拟机的名称和特性进行保留。而对于用户来讲, 虽然位于不同的服务器, 但是这些虚拟机基本完全相同。

在虚拟机迁移的过程中, 虚拟机管理器都需要进行虚拟机运行的瞬时状态到磁盘介质的机制的保存, 并且从镜像文件中执行恢复虚拟机的操作。而这个镜像文件就是虚拟机的检查点文件, 其需要对整个操作系统进行保存, 所以将产生较大的粒度和开销, 因此会直接影响虚拟机的在线迁移性能。但就目前来看, 云计算机环境下的操作系统的检查点基本难以满足虚拟计算系统服务持续性需求。为确保虚拟机的执行性能, 虚拟机需要配置更多的物理内存, 从而导致检查点需要保存的数据较多。

2 虚拟机在线迁移性能优化关键技术

2.1 内存空洞排除技术

在虚拟机内存镜像中, 其实有较多信息对恢复检查点的执行不具有意义。通过利用内存空洞排除技术, 则能够从检查点中进行这些信息的排除, 从而通过优化检查点的性能实现虚拟机在线迁移性能优化。在应用该技术时, 如何进行虚拟机内存镜像中空闲页面的快速有效识别是关键的问题。就目前来看, 可以利用两种策略实现这一目标。

利用用户操作系统的虚拟机管理器, 可以对虚拟机内存映射进行动态调整。同时, 在客户操作系统中, 还拥有一个内存管理驱动程序, 可以向操作系统申请分配内存。利用该程序, 可以通过膨胀欺骗操作系统并获取内存, 但是同时也能从虚拟机管理器中获得内存并交还系统。在这一过程中, 可以在用户操作系统中添加内存使用信息采集模块, 从而将系统内核维护信息传递到虚拟机管理器。而采取该种措施, 将能有效减小虚拟机内存配置, 所以能够减小检查点大小。

利用无用数据的方法, 可以利用操作系统内核信息及数据页本身的内容, 所以也能够减小检查点的大小。在机器内存和客户机伪物理地址之间, 虚拟机管理器需要对二者的映射关系进行维护。而对于虚拟机管理器来讲, 只有所有的物理内存都将得到使用, 操作系统才能拥有被真正使用的内存页面。利用虚拟机内省机制, 则能够直接进行虚拟机内存页面使用状态的获取, 所以可以避免对空闲的内存页面进行保存。因此, 使用该种策略也能够避免检查点保存过程中出现遗漏内存页面的问题, 所以能够有效优化检查点性能。

2.2 写时复制技术

就目前来看, 需要使用停止- 拷贝的方式进行虚拟机检查点实现。但是, 由于需要在保存检查点的过程中避免虚拟机运作中断, 所以还应该尽量缩短检查点的停机时间。具体来讲, 就是利用写时复制技术进行虚拟机内存镜像的保存。利用该机制, 可以将数据设置成只读状态, 并且先进行数据副本的复制, 然后再进行数据的修改和更新。保存虚拟机内存镜像时, 则需要将所有页面设置为只读模式, 并且按照内存页面PFN号进行这些页面的拷贝, 然后将已经复制到检查点的页面的只读标志清除。如果需要进行页面的修改, 检查点后台处理程序就会将这些即将变脏的内存页面拷贝到只读缓冲区, 然后将页面的只读标志清除。而只有在页面第一次被修改时, 页面才会被拷贝到缓冲区。所以利用该技术, 可以使内存拷贝过程中的检查点开销得到减小, 因此能够实现对虚拟机在线迁移性能的优化。

2.3 增量检查点技术

在一些情况下, 为使系统具有较高的可用性和可靠性, 需要进行系统检查点的频繁保存。而使用检查点技术, 可以使检查点开销得到有效减少。具体来讲, 就是在进行检查点保存时, 可以利用增量保存机制根据脏页位图进行被修改的页面的拷贝。完成检查点保存后, 则可以将脏页位图清零, 并且进行下一次需要保存的内存页的记录。在进行虚拟机状态保存的过程中, 如果在虚拟机状态被保存到检查点文件后, 文件系统的数据得到了修改, 就容易导致利用检查点文件恢复虚拟机的操作出现错误。而通过建立保证检查点文件和虚拟机文件系统状态一致的模型, 并且利用增量检查点技术就能够进行一个完整的虚拟机状态的保存。因此, 利用增量检查点技术, 可以使虚拟机的外存数据和内存镜像状态保持一致, 所以能够有效减少检查点开销。

3 结论

总而言之, 针对虚拟机在线迁移的检查点粒度大和开销大的问题, 可以利用内存空洞排除技术、写时复制技术、增量检查点技术进行检查点性能的优化, 从而实现虚拟机在线迁移性能的优化。

参考文献

[1]陈阳, 怀进鹏, 胡春明.基于内存混合复制方式的虚拟机在线迁移机制[J].计算机学报, 2011 (12) :2278-2291.

[2]苗国义, 穆瑞辉.云计算环境下虚拟机在线迁移策略研究[J].计算机测量与控制, 2013 (08) :2227-2229+2233.

全面优化Win 9x系统性能 篇5

2、不使用屏幕保护程序,因为它要占用大量内存;在屏幕空白处右击“属性/屏幕保护程序/电源”,在“关闭监视器”一项选上适当的时间,设好后,在设定时间内无任何操作,显示器会自动转入休眠状态,不但达到了屏幕保护的作用,还可以省电呢。

3、Autoexec.bat和Config.sys中什么也不要写。

4、不要使用Active Desktop,否则系统运行速度会因此减慢(右击屏幕,选“显示器属性/Web标签”,将其中关于“活动桌面”和“频道”的选项全部取消)。

5、将桌面更新设为传统风格比Web风格可节省大约1MB内存。方法:选择“开始/设置/文件夹选项/常规”,设为“传统风格”。

6、选择“开始/程序/附件/系统工具/系统信息/系统信息对话框”,然后,选择“工具/系统配置实用程序/System.ini”,点选“Vcache”,新建“Maximum=xxxx”,再新建“Minimum=xxxx”,xxxx处请依照内存大小换算后填入,公式为:内存数×256(2的8次方),如32MB内存则填写如下:

[Vcache]

Maximum=8192

Minimum=8192

注意:xxxx≤12288。

7、设定虚拟内存为机器内存的2.5倍,例如:有64MB的内存就设虚拟内存为160MB,且最大值和最小值都一样(此设定可通过“控制面板/系统/性能/虚拟内存”来设置)。

8、打开“控制面板/系统/性能”,单击“文件系统”。

①在“硬盘”选项中,设置“这台计算机主要用于”下拉框,选择“网络服务器”(在局域网中慎用),强迫Windows把它看成一台网络服务器,加快Windows对硬盘的读写速度。设置“预读式优化”为“完全”。

②将“软盘”标签中“每次启动就搜寻新的软驱”取消。

③点击“CD-ROM”标签,将“追加的高速缓存大小”按钮拉到最大值。再将“优化访问模式”改为“四速或更高速”,来加快系统对CD-ROM的访问速度。

④单击“图形”选项,设置图形“硬件加速”为“全部”。

9、删除Font文件夹中不使用的英文字体(一定要保留Times New Roman和Marlett等字体,否则系统的基本字体会发生紊乱),可节约GDI资源。

10、为了在使用硬盘时获得较高的性能和效率,设定Win 98使用Ultra DMA功能,即选择“控制面板/系统/设备管理器/磁盘驱动器/Generic IDE Disk Type46/设置”,选择“DMA”项,确定后,重新启动。用Winbench 98测试修改前后,选择DMA后,可使传输速率提高,而CPU利用率大幅下降(该项设置需要硬盘本身支持Ultra DMA 33/66模式,请首先确认您的硬盘是否支持该模式),

11、对于熟练使用Win 98的用户可以删除Help文件夹,还有Win 98的Welcome教程。

12、启动CleanSweep 4.0或SafeClean 1.0进行注册表清理,去除多余的“脂肪”。

13、在注册表中进行下列优化:

①优化硬盘驱动器

在“HKEY-LOCAL-MACHINESystemCurrentControlSetControlFileSystem”下,在右边的窗口中创建二进制值“NameCache”,NameCache是文件名缓存,32MB系统建议值为800000,64MB系统建议值为0F00000;PathCache是路径缓存,32MB系统建议为008000,64MB系统建议为0F0000。

②优化文件系统

在“HKEY-LOCAL-MACHINESystemCurrentControlSetControlFileSystem”下,在右边的窗口中创建一个DWORD值:“ConfigFileAllocSize”,并设为“1f4”。

③优化软盘驱动器的性能

在“HKEY-LOCAC-MACHINESystemCurrentControlSetServicesClassfdc�000”下,在右边的窗口中创建一个字符串值:“ForceFIFO”,设值为“0”。

④加快上网速度

在“HKEY-LOCAL-MACHINESystemCurrentControlSetServicesVxDMSTCP”下,在右边的窗口中把“DefaultRcvWindow”的值改为“6400”,把“DefaultTTL”改为“128”。

在“HKEY-LOCAL-MACHINESystemCurrentControlSetServicesClassNetTrans”下,在右边窗口中创建字符串值“MaxMTU”、“MaxMSS”,并设“MaxMTU”为“576”,设“MaxMSS”为“536”。

14、为了提高上网效率,还要进行下列优化:

①用记事本打开system.ini文件,在386Enh段中加入COMx(x是您接Modem的那个串口号,如1、2),buffer=1024,这样可以增加串口的缓冲区。

②右击“我的电脑/属性/设备管理/调制解调器/您的Modem型号/属性”,点击“调制解调器”标签,将“最快速度”设为115200,“奇偶校验”设为无,“数据位”为8,“停止位”为1,接收缓冲区和传输缓冲区设为最大。

③在“拨号网络”文件夹中右击您建立的连接,选择属性,在弹出的对话框中将“使用区号与拨号属性”前的对勾去掉,以免不小心而交长途话费。在“服务器类型”标签下,将拨号网络服务器类型设为“PPP:Internet,Windows NT Server,Windows 98”,将“登录网络”、“NetBEUI”、“IPX/SPX兼容”前面的对勾去掉。

重新启动,您会发现,电脑已经“奔腾”起来了。

点击阅读更多学院相关文章>>

浅谈通讯网络性能优化体系 篇6

【中图分类号】TP393.09 【文献标识码】A 【文章编号】1672-5158(2013)03-0118-01

一、概述

一般来说,通讯工程的基础非流量工程莫属,同时也是网络系统的重要组成部分,其直接与网络性能监控和优化挂钩。其主要指的是:从Internet 网络运行角度处理大型 IP 网络的性能监测与控制问题,主要包括性能检测、评估和Internet流量统计和控制。本文主要从被动方面针对 CERNET 的网络运营模式提出了有效的性能测试方案,实现了其端与段之间的性能测量和相互评估,为其基于 MPLS 的网络监测与评估提供了理论基础。

二、网络性能监测和控制系统

2.1系统设计原则

系统的设计要以 RFC 的规定为准则,为用户提供简洁明了的服务说明,使其便于衡量和进行选择,此外,系统在同一网络主干道上的测量应有一个统一的标准,确保测量的一致和结果的有效性。该系统模式下要尽量避免主动测量带来的干扰,如果主动测量的周期与被测对象的变动一致,那么只可能测得一种结果;而且,主动测量还可能导致网络进入受干扰的“同步状态”。

2.2 系统的结构

网络性能测试系统主要在 IP 网络的各主要节点上进行,其主要结构如图1所示。图 1 基于流量工程的监控系统结构

2.2.1 监测子系统

网络性能测量是开展网络性能监测与控制活动的重要基础,其测量所得的数据是网络监控与评估的根本依据,包括常规的网络信息服务,MonitorServer上的天气预报服务,主干道节点的网络延迟、数据吞吐以及丢包率等重要信息,并依此而对网络运行状况进行评估。

对于网络系统的监测主要分为主动式监测和被动式监控两种方法,主动式监测主要是定时地向被监测主机发送数据包,检测其网络延迟、数据吞吐量等。主动式监测有助于及早地发现问题、分析问题,得出结论,并最终解决问题。被动式监控是指在特定的主机或站点上进行数据收集和分析,以持续地监测相关网络的运行状况,此种方法的监测周期由规律性测量和针对性测量两方面来决定。规律性测量是指以固定的时间间隔来对监测对象进行测量分析,这样的测量能够完整地反映出线路的流通状况;针对性测量是指针对网络运行中出现的特定异常情况进行专门数据采集和分析,结合规律性监测的数据来解决所遇到的问题。

2.2.2 分析子系统

分析子系统是根据监测系统所提供的数据进行研究分析的模块,其分析对象主要包括一下五个方面:其一,端与端之间的路由联通问题,进行双向监测,以分析是否存在路由阻塞、循环、摆动等病状;其二,网络瓶颈分析,测量网络瓶颈宽带流通量,确定瓶颈问题原因;其三,信息包的丢失调查:如果在网络输送中发生信息包丢失的问题,要及时分析原因,是因为网络负载过大还是恶意程序拦截等其它因素,或者根本只是因为接收者为发送相关消息;信息包输送的延迟:要分析最大延迟和最小延迟,是发送与接受的双向延迟,还是某一方的单向延迟,以此还可以确定网络的宽带流通量;最后,综合分析,分析以上所有检测结果的相关性。

2.2.3 优化与控制子系统

网络性能优化主要是根据以上面的测量和分析结果为参考,对现有的网络系统所存在的漏洞和不足进行评估,并进行优化。实时优化要求对网络运行中出现的问题进行尽快解决,时间范围要求严格,具体方法包括队列的管理,IGP/BGP,MPLS,RSVP 等技术。

该系统采用 MPLS 技术进行子系统优化。MPLS(Multi-Protocol Lable Switching):多协议标签路由。主要针对传统网络系统中的路由问题,包括、实时传输慢、网路延迟多等弊端。传统的 IP 网络每一跳(hop)都需对 IP 分组进行路由决策,导致路由器成为网络传输的瓶颈。而网络中的第二层数据链路层具有高速快捷性。MPLS 研究了一种第二层信息流通与第三层路由转发相结合的模式,既利用了第二层数据链高质量的优势,同时利用路由器的灵活便捷功能,形成一种高效的网络性能优化模式

2.3 系统实现过程

系统实现过程包括:对于CERNET主干网节点(包括与国际网络及国内各网络的相关联的节点)进行实时的流量统计监控;以曲线图形式实时将测量结果显示在网络上;对测量结果进行全面细致的分析;利用上述的 MPLS 技术对网络性能欠佳的路段进行完善和修复;分级收取相关费用。

三、测试结果

(1)丢包率与响应时间的测量。以 CERNET 总节点到东北地区分节点的网络测试结果为例,如图 2:

在该项测量中,TCP 及 UDP 数据包大小均为 1KB,发送窗口和接受窗口大小均为 16KB。数据吞吐量测量时间间隔为 20 分钟,以免测量太繁影响网络负载,间隔太长又得不出有效结果。

结束语

浅议应用系统开发中的性能优化技术 篇7

关键词:数据库结构设计,系统程序优化,软硬环境优化

随着网络模式系统应用的不断深入,用户访问量、数据量越来越大,数据库规模也随之不断扩大,数据库系统的性能、编程效率和系统运行效率等问题就越来越突出,因此,除系统架构设计合理外, 如何对数据库和程序代码进行调优是系统高效运行的关键。

目前油田大系统开发中基本都采用了Oracle作为数据库服务器。 Oracle数据库服务器是高度可优化的软件产品,经常性的调整可以优化应用系统性能,防止出现系统瓶颈。 数据库性能优化的基本原则就是:通过尽可能少的磁盘访问获得所需的数据。 对Oracle数据库进行性能调整时,应按照一定的顺序进行,这样避免系统开发后期或完成后, 出现一些不必要的或者代价很大的调整。 系统开发前期要充分对系统进行详细的优化设计,从如下3个阶段入手。

1数据库结构设计优化

为了充分利用Oracle数据库的功能特性,设计系统时,根据业务情况(访问量或客户端数量)和现有资源状况(服务器配置) 考虑系统架构和数据库逻辑结构的设计, 对其逻辑结构和物理结构进行优化设计,使之在满足需求条件的情况下,系统性能达到最佳,系统开销达到最小。

1.1 数据库运行优化

采取操作系统级、 数据库级的一些优化措施来使系统性能最佳。

1.1.1 调整 硬盘 I / O

在应用系统开发之前,DBA可将组成同一个表空间的数据文件放在不同的硬盘上,做到硬盘之间I / O负载均衡。 在磁盘比较富裕(空间换时间)的情况下还应遵循以下原则:用户表空间与系统表空间分开磁盘存放; 创建表和索引时指定不同的表空间;创建回滚段专用的表空间,防止空间竞争影响事务的完成; 创建临时表空间用于排序操作, 尽可能防止数据库碎片存在于多个表空间中。

1.1.2 确定数据块大小和存储参数

由于数据库块的大小在数据库创建以后就不能再修改,因此为了减少数据链接和行迁移,又提高磁盘空间的利用率,在设计数据库时要确定合适的数据块大小和存储参数。 通常我们是根据样例数据确定数据块大小, 而根据业务现状和未来发展趋势确定存储参数。

1.1.3 恰当使用分区 、索引及存档功能

业务数据量随着应用时间不断增长,考虑存放该数据库表使用Oracle数据库的分区功能; 对于经常访问的数据库表建立索引;对于经常访问但是当业务流程完成后不再变动的数据,采用放入历史档案的方法来实现应用系统中访问尽可能少的数据量。

2系统程序优化技术

程序优化是指对解决同一问题的几个不同的程序, 进行比较、修改、调整程序,把一般程序变换为语句最少、占用内存量少、 处理速度最快、外部设备分时使用效率最高的最优程序。

2.1 优化访问数据 SQL 语句

良好的SQL语句可以被数据库重复使用而减少分析时间; 恰当地使用索引可使访问数据块大大减少, 从而减少响应时间。 应用程序的执行最终将归结为数据库中的SQL语句执行, 因此SQL语句的执行效率决定了系统运行的性能 。

2.1.1 减少访问数据库次数

当执行每条SQL语句时,Oracle内部执行了许多工作,相当费时,因此单条语句执行,变多条语句组合一起执行,能够达到效率与易用的最佳结合,减少网络传输次数,可节省很多系统运行时间,如下语句:

循环SQL数组,每次循环都产生一条SQL语句,若在循环体内依次执行,增加了数据库的连接和关闭次数,严重降低系统运行效率,若采用将数组保存在SQL语句,一起执行,只需一次数据库的连接就可以执行多条SQL语句。

2.1.2 select子句中避免使用 “*”

Oracle在解析过程中会将 “*”依次转换成所有列名 ,这将意味着耗费更多的时间,因此,在使用select语句时,最好写全列名。

但有一点特殊,计算记录条数语句Count(*)却比count(1)稍快,如果可以通过索引列检索,对索引列的计数仍是最快的。

2.2 利用虚拟表

一次性取出数据存于虚拟表中供程序处理, 利用内存的高速性,达到提高程序处理速度的目的。 反之,把处理的数据先存于虚拟表中, 处理好后再一次性存入实表中, 也可达到同样目的。

2.3 优化 程序结构

减少循环和嵌套语句结构,循环和嵌套层数越多,运算速度越慢(相对重复执行的语句多),减少循环和嵌套层数,或不用循环嵌套语句,就可提高程序执行速度。

2.4 增加数据表冗余度

有时为了提高数据处理、 查询速度, 可适当增加一些中间表、一些多余的数据项,以达到提高系统效率的目的。

如:(1)把计算项、合计项存入表中,来提高查询速度。

(2)建立辅助表 ,描述单表间关系 ,方便编程 ,提高程序运行效率。

如天然气装 置运行成 本对标系 统中成本 核算统计 表中的HJL(合计量 )、HJZQ(合计周期 )字段 ,就是为提高数据汇总查询及读取速度而增加的数据项。

2.5 数据校验放到客户端

设计录入功能时,把很多数据检验放到客户端,对于每个用户而言,其计算机只承担自身的工作,若将大量的数据检验都放到服务器端,其要承担很大的压力,占用很多服务器和网络资源。 所以客户端与服务器大量交互式的最佳优化模式就是客户端校验的效率与易用的最佳结合,以及尽量减少数据的网络传输。

3优化硬件环境

配置性能高配的服务器,为系统提供高质量硬件平台;配置智能三层交换机,保证网络高效、稳定运行。

4结语

性能优化技术 篇8

Docker自诞生以来发展迅速,已经得到了包括谷歌、IBM、亚马逊等众多大企业的支持,俨然已成为云计算技术领域当中最为火爆的开源项目。作为一种新型的基于容器的虚拟化技术,Docker在Paa S和Iaa S平台上具有很广泛的应用前景[1]。

虽然Docker技术的观点新颖、前景远大,然而,单就Docker技术本身来说,他还并不完善,还有许多发展空间。本文根据其实现原理和特点分析出其服务端的两点性能上的不足,并提出了基于Ceph的RBD块存储接口对其进行了优化。

1 关于Docker

Docker是一个基于LXC(Linux Container)轻量级内核虚拟化技术为框架而开发的的应用容器引擎。其最初的设计思想就是让开发者们可以打包他们的应用以及其所依赖包的运行环境打包到一个可以跨平台运行的虚拟容器中,使程序的开发者和测试者具有省去大部分的搭建开发与测试环境的时间,所以,跨平台和易迁移是其重要特点。然而,从其性能方面来说,Docker继承了LXC技术的虚拟容器共享宿主机内核与硬件资源的特性,其直接表现则是Docker虚拟化容器启动与销毁操作十分迅速,在运行单个容器时所占用的系统资源也十分有限,所以轻负载是其另一个重要特性[1,2]。

在Docker技术结构当中容器(container)、镜像(graph)是十分重要的两个概念,容器是Docker虚拟化技术的主体,他包含了应用所需要的运行环境,可以将其类比为一个传统虚拟化技术当中的虚拟机的角色;镜像是创建Docker容器时所依照的模板,基于镜像开发者可以迅速启动一个包含其所需开发环境的Docker虚拟化容器。

1.1 Docker体系架构

Docker对使用者来讲是一个C/S模式的架构,各部分之间的关系如图1所示。Docker client是客户端,是开发与测试人员与应用执行操作的工具,通过它向Docker daemon发送镜像与容器的操作请求。Docker daemon作为Docker服务器上运行的守护进程,主要有两部分组成:其一,Docker server,负责接收调度分发client所发送的请求;其二,engine,负责具体执行Docker内部的一系列工作。Docker Driver是Docker架构中的驱动模块,通过Driver驱动来实现对Docker容器的网络、文件系统与资源占用等执行环境的定制。libcontainer是Docker系统结构中使用Go语言实现的库,利用它可以直接访问内核中与容器相关的API,通过以上的这些功能组件时的开发者可以成功定制自己想要的虚拟容器container[1,2,3],Docker host则是Docker虚拟化服务端的宿主机,所有方框内的Docker服务端功能组件都将运行于此。

1.2 Docker与传统虚拟化技术的比较

Docker技术与传统虚拟化技术的主要差别在于虚拟化的实现方式有所不同,如图2所示。传统的虚拟化(例如VMWare、KVM、Xen、EC2)技术旨在创造一个完整虚拟机。每个虚拟化应用不仅包含应用的二进制文件,还需运行该应用程序所需的库以及一个完整的Guest操作系统,所以需要额外的虚拟机管理应用层Hypervisor和虚拟机操作系统层Guest OS;而Docker技术创建的是一个container,包含应用及应用依赖项,利用容器技术直接复用宿主机的操作系统与内核,省去了Guest Os层与Hypervisor层,这样一方面简化了虚拟化技术的抽象层次,另一方面提高了宿主机的资源利用效率和增强了虚拟化容器的性能,所以在对宿主机的负载压力、虚拟容器的性能以及虚拟机的容器的创建和启停速度方面,与传统虚拟化技术相比Docker都具有一定的优势[4,5,6]。

2 Docker服务端的性能瓶颈分析

(1)Docker服务端的数据可靠性瓶颈

鉴于Docker虚拟化技术具有单个容器负载轻的特点,技术人员在开发和应用Docker容器时,难免会增多单个Docker host上所运行的容器个数。又因为Docker的容器的资源是与宿主机共享的,一旦长时间海量数据的读写、设备负载过重、管理员的操作不当以及磁盘损坏,都有可能对Docker host造成节点级的损坏,导致Docker服务端数据丢失。当Docker host上运行的应用容器服务的对象是银行、证券等对数据存储安全性有较高要求的行业领域时,其Docker host一旦损坏数据则无法得到恢复,会造成巨大的经济损失。

(2)Docker容器读写性能瓶颈

Docker容器拥有与宿主机是资源共享的的特性,其读写性能要好于以KVM为代表的传统虚拟机[3];然而,由于Docker的所有数据默认都是存储于服务端的本地磁盘上,而每块磁盘有其自身的读写性能瓶颈。

在云计算领域技术当中,应用的实时性能也越来越多地受到关注[7],而在其中很大一部分的应用的实时性与数据的读写性能是正相关的,所以容器的读写性能瓶颈的出现势必会影响Docker容器中应用的响应时间。此外,由于单个Docker虚拟容器的负载较轻,那么多个具有数据交互特性的Docker应用容器同时运行在相同的Docker虚拟化服务器上在生产中将成为可能,这时多个容器分享单块硬盘的读写性能,会对应用的读写性能造成影响,以多容器并行顺序写性能为例,如表1所示,随着容器个数的提升,其写速度显著下降。

由此可见,Docker容器读写性能存在需要被优化的需求,而原生Docker服务端存储方式在这个方面没有明确的解决方案,这一点同样是Docker技术的局限性。

3 基于RBD的Docker虚拟化技术性能优化方案

RBD(Rados Block Dvice)是多功能分布式文件系统Ceph的面向数据块的存储接口。Ceph是一款支持PB级规模的分布式存储软件,具有数据高可靠性,高可扩展性的特点,其集群架构有四个组成部分[8]:监视器(Monitor)、对象存储设备(OSD,object storage device)、元数据服务器(MDS,metadata server)、客户端(Client),监视器保存有整个存储架构的所有成员、关系、属性等信相关信息,同时监控集群的健康状况;OSD则是主要的数据存储介质;MDS用于存储文件系统逻辑层元数据信息;客户端是服务请求的发起者;上述四者通过网络进行联系,使得整个系统可以通信。

RBD作为Ceph的分布式块存储接口,其存储实现方式如图3所示,首先通过利用librados把RBD分割成一系列的相同大小的对象obj,由于追踪单个对象的元数据开销过大,提出了PG这一概念,将对象通过hash算法映射到不同的PG中,再将不同的PG通过crush算法算出目的OSD,并将PG存储在该OSD上,且为了数据的可靠性存储,pg将多个副本分别存储在不同的OSD上,进一步保证了数据可靠性[9,10]。

3.1 基于RBD的Docker服务端性能优化方法

既然涉及到数据可靠性与容器的读写性能,那么分析Docker服务端数据存储结构是有必要的。对于每台运行Docker守护进程的Docker服务节点上,都有一个默认的Docker运行目录,默认路径为/var/lib/Docker,也可以通过Docker–d–g[目录路径]命令手动指定,这个目录是Docker服务端用来处理客户端发起的操作请求的场所,存储着包括Docker服务端的本地已下载的镜像存储目录graph、已创建的容器信息及数据存储目录container、容器中保存的数据与元数据存储目录等等。经实验,一旦将Docker虚拟化服务器A上的Docker运行目录全部拷贝到Docker虚拟化服务器B上,启动B上的Docker服务就会生成一个与原服务器A上运行的包含相同镜像与容器的Docker服务端守护进程。

根据上面分析得出的Docker后端存储特性与RBD的实现原理,利用Ceph的RBD块作为Docker的存储后端的方法,使用数据与运行环境相分离的思想,将Ceph的RBD数据块映射并挂载到Docker服务端的运行目录当中,这样就把Docker服务端的数据存储做成一个Ceph的RBD数据块,使得Docker服务可以利用到Ceph的RBD块存储的优点。

具体实现方法如下:在部署Docker集群之前,首先搭建一个Ceph集群作为Docker虚拟化集群的存储后端集群,将每个虚拟化服务器节点做成Ceph集群的client角色,为每台Docker虚拟服务器创建一个名为RBD[node*]的内核态的RBD块,将此RBD块映射为Docker服务节点的一块虚拟硬盘,并挂载到指定的存储路径。在Docker daemon守护进程被启动时,将Docker服务节点的运行目录指向了RBD所挂载的目录当中,以保证单个Docker服务端节点存储的可靠性。

由于本文选择的是通过内核模块实现的RBD format1的形式进行映射,所以,一旦node1发生节点故障,RBD设备会自动卸载和解映射,而由于Docker host节点的数据保存在Ceph存储资源池的RBD块存储中,数据不会由于节点损坏而受到影响。这时客户端根据Docker其他未出错服务节点上根据负载的轻重指标排序,选择出一个负载最轻的服务节点node2,将node1服务器节点所的RBD数据块RBDnode1映射并挂载到node2服务器上,启动Docker的服务端守护进程,就可以成功恢复出node1节点的Docker服务端数据,基本架构与实现方式如图4所示。

而在具体实现这个方法时,有两个问题需要详细说明:

其一,Docker服务节点负载的衡量标准。本文是通过CPU利用率来衡量一个Docker服务节点负载的轻重。在Linux系统当中CPU有3种应用状态:系统内核态、用户态和空闲态。CPU的利用率等于在系统内核态和用户态下运行时间之和与这三种状态总和的比值。每当客户端检测到Docker服务节点出现故障时,轮询地向每台未出错的服务节点集合A={node2,node3,…,noden}发送请求,对于每个Docker服务节点通过从命令vmstat的返回值中截取出用户态us、内核态sy和空闲态id的值,再通过下面的这个算式算出当时的CPU的利用率E。

将每台Docker服务器上的CPU利用率Ek计算出来并将其作为Docker客户端所发请求的返回值返回给客户端,有客户端从返回的CPU利用率集合B={E2,E3,E4,…,Ek}中选取一个最低值,并将其所对应的节点定义为RBDnode1需要迁移到的目的节点。

其二,Docker守护进程的隔离性参数配置。鉴于Docker服务的运行目录D、进程号文件P以及服务端口号K,三个参数唯一确定一个Docker服务,所以通过对这三个参数进行规划,以避免当多次出现节点级错误后恢复启动RBD挂载的过程当中出现Docker守护进程冲突的情况。由于最初的时候每台机器上都只挂载一块RBD且RBD名称唯一,所以本文将D设为/mnt/RBD{node X},node X是其最初所挂载的Docker服务节点名称,同理将P设为/var/run/Docker{node X}.pid,而对于端口号来说,由于Linux端口号是由1至65535范围内取值,而序号较为靠后的序号几乎不会被应用用到,所以为了确保唯一性将P设为40000+X,X为Docker服务节点的id号。

由于Docker服务端在执行客户端所发来的命令,其需要通过访问运行目录当中的配置文件与数据,因为这些数据对象并非存储在本地,那么本文这种方案可能对Docker虚拟化技术的重要特性实时性造成影响,为了验证是否存在影响,那么通过表2给出的容器在本地运行与在RBD盘上运行的容器操作性能时延比较的实验数据,可以得出将Docker的后端存储数据放在分布式块存储设备RBD上并不会影响Docker容器与镜像操作的实时性。

(1)进一步数据可靠性

前文中所实现的方法基本保证了Docker服务端的数据可靠性存储。然而,当容器进行数据读写时,突然地断网、机器掉电、人工严重误操作等错误的出现而造成RBD数据块中的数据不完整,最终导致恢复出的Docker容器行时应用和数据不可用的后果时,基于前文中所实现的架构,还可利用RBD的快照功能,定期为Docker服务节点建立数据恢复点,这样就能够很好地应对上述错误的出现。

由于Ceph的RBD块打快照的模式为COW(copy-on-write)模式,即当RBD数据块当中的数据发生变化时,将原RBD块中数据写入到快照当中,同时将数据发生变化的部分写入RBD数据块镜像,这样的快照机制利用较少的数据冗余代价更进一步地保证了Docker服务端的数据可靠性。

(2)容器读写性能

本文所提出的优化方法并不仅限于提供了Docker服务端数据可靠性的保证,还为Docker容器的数据读写性能提供了优化的手段。RBD块存储,从前文所分析的原理可知,当应用发起对RBD读写时,其实际就是对多块Osd上的对象的读写,形成了一种条带化存储的实现模式。就条带化来说,影响磁盘读写性能的主要有两个参数,即条带宽度与条带深度,在RBD块存储中可以将Osd个数与数据对象的大小类比为条带宽度与条带深度。由于在条带化技术当中,可以通过增加条带宽度与调节条带深度以增强数据的磁盘的读写性能,所以基于前文中所实现的架构,通过增加Osd的个数和调节rados对象的大小来调节Docker服务节点容器的读写性能来针对不同的应用服务进行优化。

Docker容器应用服务基本分为两种,其一,大多为小文件读写的类数据库应用;其二,常规文件读写应用。在下面的实验当中以数据块大小为4K的随机读写来模拟第一种容器应用,以数据块大小1M顺序读写来模拟第二种容器应用,下面通过具体实验来验证RBD存储是否可以加速Docker服务端的读写性能。

实验环境:3个节点,操作系统为Ubuntu14.04,2个节点为Ceph存储集群,每个节点上的OSD的配置为8块1T的SATA盘,1个节点为Ceph客户端和Docker服务端,系统盘同样是一块1T的SATA盘,Ceph版本为0.80.9,Docker版本为1.5,集群网络为万兆网。

实验方法及结果分析:通过在容器内运用FIO性能测试软件软件分别在数据存储于本地SATA盘和数据存储于RBD两种情况下测试性能,在这里用IOPS(每秒钟读写次数)评价容器读写性能的指标,当IOPS越高时其读写性能越好,由图5-6所示得出的性能结果显示,当Docker服务端数据存储在RBD上并经过参数调优后,其容器的读写性能与原来数据存储于本地SATA相比有了显著的提升。

4 结束语

随着云计算技术的不断发展,Docker虚拟化技术越来越受到人们的关注,本文基于Ceph分布式文件系统的块存储接口RBD,对Docker的服务端数据可靠性与容器的读写性能进行了优化,经实验,对于文中所分析出的Docker的这两点性能瓶颈确实起到了积极的作用。下一步,将对衡量Docker服务节点的性能指标进行分析和优化,以确保Docker服务端主机的负载更加均衡服务运行更加可靠。

摘要:随着云计算技术的不断发展,虚拟化技术的重要性毋庸置疑,Docker作为一种新型的虚拟化技术,已经成为云计算领域最炙手可热的开源项目之一。文中通过对Docker技术的实现原理与功能特点的分析,得出Docker技术在存在的服务端数据可靠性与容器读写性能两点性能不足。为解决这两个问题,分析并提出了一种基于Ceph分布式文件系统的RBD块存储接口的方法对Docker这两个性能瓶颈进行优化,提高了Docker服务端的数据可靠性与Docker容器的读写性能。

关键词:Docker,虚拟化技术,分布式块存储,RBD,性能优化

参考文献

[1]杨保华,戴王剑,曹亚仑.Docker技术入门与实践[M].北京:机械工业出版社,2014.

[2]Docker doc[EB/OL].https:∥docs.Docker.com.

[3]张忠琳,黄炳良.基于openstack云平台的Docker应用[J].软件,2014,35(11):73-76.

[4]Felter W,Ferreira A,Rajamony R,et al.An Updated Performance Comparison of Virtual Machines and Linux Containers[J].technology,2014,28:32.

[5]张雪鹏.基于开源软件的应用系统云化方法研究与实践[M].杭州电子科技大学,2015.

[6]丁养志.浅析虚拟化技术在云计算中的运用[J].软件,2014,35(3):176-177.

[7]刘鹏.云计算[M].北京:电子工业出版社,2010.

[8]Sage A Weil.Ceph:Reliable,Scalable,and High-performance Distributed Storage[D].America:University of California Santa Cruz,2007.

[9]Ceph Official documentation[EB/OL].http:∥Ceph.com/docs/master.

性能优化技术 篇9

IT基础架构的快速整合导致数据相对集中, 越来越多的企业应用系统需要通过广域网进行传输访问。而广域网分支和总部数据中心之间的应用性能及良好的用户体验, 不仅可以有效提升工作效率, 也可以在广域分支对客户多元化服务方面提供保障。人保财险是“世界500强”企业中国人民保险集团股份有限公司 (PICC) 旗下的标志性主业, 拥有遍布全国城乡超过1.3万个机构网点, 形成了强大的销售和服务网络, 为公司拓展服务领域、创新服务手段、提升服务水平提供了强大支持。随着人保财险业务量逐渐增大, 需要对广域网上传输的业务流量进行性能优化, 以保障关键业务流量的传送。

1广域网业务类型分析

广域网分支机构作为企业覆盖各区域市场交易活动的主体, 其业务承载的种类比较多样化, 同时每种业务有其自身的特点及对网络的要求, 归结起来主要有如下几种。

1.1企业生产业务应用系统

支撑企业分支机构正常运转的核心应用, 如企业承保出单系统、通赔系统、收付费系统、CRM客户关系管理系统等。其数据报文传输以小包居多, 且一个应用往往需要分支客户端和总部服务器之间进行多次交互, 实现诸如应用数据库查询、数据输入提交等行为。网络的时延对于其客户端的应用体验有最直接的影响

1.2 大文件的数据传输应用

主要包括总部数据的远程缓存、OA办公系统、数据中心之间同步 (数据库同步、灾难备份) 等应用场景。数据传输以单方向为主, 大多数情况下都是从企业总部数据中心到远程分支机构, 链路中传输的以大数据包为主, 单次传输容量达到数十兆甚至数以T计等。在这种情况下, 广域网的链路带宽将直接影响用户的传输结果, 大容量、长时间、多频次的数据下载将严重影响广域网的带宽利用。

1.3 以语音、视频、即时通等即时消息为主的统一通信类业务

这类应用尽管对企业的核心业务没有直接关联, 但对于企业远程分支机构和总部的沟通效率有非常积极的影响, 利用这些工具可以有效提升企业远程分支机构和总部的工作协同。常见的种类包括IP语音电话、视频会议、即时通等即时聊天工具、网络会议等。其数据传输以双向交互为主, 报文的长度不确定, 大包小包都混合存在, 对于网络带宽和时延RTT都有较高的要求。

1.4 Internet类业务应用

出于安全考虑, 各分支机构需要通过总部进行互联网访问, 基于HTTP的Web浏览业务和部分P2P类下载业务也是其组成部分之一。由于该业务的优先级相对较低, 即便带宽不足或者链路时延较大也是可以接受的。对于该类型业务最重要的是要防范大量无关业务对于带宽的占用。

2 企业网络现状及业务类型分析

目前, 人保财险总公司到各省/市共计3条广域网链路, 1条ATM链路和2条SDH链路, 总公司和各省使用EBGP路由域连接, 即各省均为独立的BGP域。总公司两台核心路由器分别在3条广域网链路上向各省通告汇聚后的BGP路由 (11.0.0.0/8) , 各省核心路由器则向总公司发布通过汇聚后的各省路由 (8位掩码) 。

现阶段的人保财险公司广域网质量与期望相比仍然有较大差距, 总结起来主要表现在以下3个方面:一是应用时延太大导致分支机构体验差;二是带宽利用率不足, 部署及维护成本高;三是关键业务带宽质量无法保证。

针对现阶段网络现状及设备情况, 要想在现有基础上尽快提高分支机构体验, 除了广域网优化技术外, 没有更合适的解决方案。

在以往网络改造中, 已将广域网上传输的业务分为4个等级, 其中一级为最高, 四级为最低。分别为:

一级:视频会议系统。其中视频流对广域线路带宽及时延要求非常严格, 而ATM线路的时延较高, 故选定SDH线路进行视频流传输。

二级:通赔系统。其中通赔系统对广域线路带宽要求较高, 但对时延要求不高, 故可以同时在ATM线路和SDH线路上传输。

三级:邮件系统、OA和FTP等。此类系统对广域线路带宽及时延要求不高, 但需要一定的带宽保证, 故可以同时在ATM线路和SDH线路上传输。

四级:Internet。Internet对广域线路带宽及时延要求不高, 但需要一定的带宽保证, 可以同时在ATM线路和SDH线路上传输。为了使其不会占用过高的线路带宽资源, 故选定ATM线路进行传输。

3 广域网络优化调整

基于尽快提高分支机构体验的目的, 计划在前期BGP改造和QOS调整完成的基础上, 重新调整总公司与各省公司之间的BGP/QOS策略, 以满足新的业务需要。此次调整, 旨在保障现有网络业务不会中断、网络架构保持不变的前提下, 通过对广域网路由结构的调整和QOS策略的实施, 来提高网络基础结构的稳定性和对业务流量的优化传输。

3.1 分阶段调整

本次调整采用分阶段调整的方法:①第一阶段:网络优化原则及技术实现方式的确定;②第二阶段:实验室验证及试点实施;③第三阶段:全国广域网正式实施;④第四阶段:网络观察及验收。通过以上步骤, 最终实现我公司全国广域网络的优化调整。

3.2 实现方式

(1) 对总公司到省/市公司的3条广域线路配置成负载均衡模式。缺省情况下, 所有视频流或数据流都可以在这3条线路上同时传输。

(2) 对视频会议系统指定一条主用SDH链路及一条备用SDH链路, 以便满足视频流的要求。

(3) 对Internet业务指定一条主用ATM链路及一条备用SDH链路 (指向视频会议系统备用SDH链路) 。

(4) 在所有总公司与省公司相连的广域网接口上启用Qos。其中Qos设置成视频会议系统优先级最高, 通赔系统优先级次高, 邮件系统、OA和FTP第三高, Internet最低。

3.3 存在的问题

(1) 广域网传输链路问题。由于总公司在申请广域网链路时的选择, 目前ATM链路的传输时延远远高于SDH链路, 传输质量较差, 前期网络优化中因为考虑到此点, 而将业务流量设置为均衡使用ATM和SDH链路。

(2) 省核心交换机策略路由对省核心路由器上端口状态变化无法感知。省公司核心路由器与核心交换机均设置了针对视频和上网流量的策略路由, 以便保证对视频会议系统指定一条主用SDH链路及一条备用SDH链路, 以及对Internet业务指定一条主用ATM链路及一条备用SDH链路的要求。当省公司核心路由器与总公司核心路由器之间线路中断, 由于省公司核心交换机无法感知广域网端口断掉, 会继续向省核心路由器发送流量, 从而会引起网络流量循环, 而导致网络不通的现象, 影响业务的正常运转。

(3) INTERNET流量的上/下行流量不对称。目前网络中, 各省的Internet上行流量会使用ATM链路, 但从总公司返回的Internet下行流量则未被约束到ATM链路上, 而会同时使用ATM和SDH链路做下行传输。

3.4 网络优化要求

本次全国广域网优化改造的总体要求如下:①总公司到各省的网络广域网传输链路新增一条SDH链路, 形成3条SDH+1条ATM链路;②考虑到ATM链路的时延, 在正常情况下, 除Internet流量外, 所有业务流量均只使用SDH链路;③Internet流量为非保障业务, 不论上行还是下行流量, 均只能使用ATM链路 (不使用SDH链路) ;④正常情况下, 为上/下行视频流量指定特定的1条SDH链路并配置第2条SDH线路作为备份;⑤为保障通赔业务指定特定的1条SDH链路并配置第2条SDH线路作为备份;⑥除以上特殊流量外, 其它业务流量均衡使用3条SDH链路, 但各业务流量需要根据重要程度进行分类和QOS保障;⑦除ATM链路外, 其它链路间可以提供线路互相备份支持。

3.5 网络优化技术实施原则

(1) 路由、线路备份考虑。针对上述网络出现的问题, 新增一条联通SDH线路, 调整总-省广域链路情况如下:

10.6.8.0 (联通SDH-1)

10.6.9.0 (电信ATM)

10.6.10.0 (网通SDH)

10.6.11.0 (联通SDH-2)

(2) 对总公司到省公司的4条广域线路配置成负载均衡模式。缺省情况下, 所有视频流或数据流都可以在这4条线路上同时传输。

(3) Internet上网流量——10.6.9.0 (电信ATM) 。为了保证电信ATM线路仅作为上网专用线路, 并不在该线路上运行其它流量, 通过在总公司核心路由器上调整BGP的MED属性把该线路的优先级调为最低, 使得省公司到总公司其它流量不会走到电信线路上来。同时在省公司核心路由器上调整BGP的MED属性把该线路的优先级调为最低, 使得总公司到省公司其它流量不会走到电信线路上。在总公司两台核心交换机上做基于上网代理源地址的策略路由, 下一跳指向C7609路由器。由于C7609核心路由器下联36个省, 为保证上网流量只走电信这条线路, 需要在C7609上根据每个省做不同的策略路由。同样在省一级的核心路由器、交换机上做基于上网代理目的地址的策略路由。

(4) Video视频流量——10.6.8.0 (联通SDH-1) 。在总公司两台核心交换机上做基于视频源地址的策略路由, 下一跳指向C7507路由器。在省公司一级核心路由器上针对视频流量的明细静态路由下一跳指向总公司C7507, 并向自己的IGP路由表里注入该静态路由, 修改metrictype为OE1。备份路径采用网通SDH线路并向自己的IGP路由表里注入该静态路由, 修改metrictype为OE2。

(5) 通赔业务——10.6.10.0 (网通SDH) 。在省公司一级核心路由器上针对通赔流量的明细静态路由, 下一跳指向总公司C7609, 并向自己的IGP路由表里注入该静态路由, 修改metrictype为OE1。备份路径采用网通SDH线路并向自己的IGP路由表里注入该静态路由, 修改metrictype为OE2。

(6) QOS考虑。对于其它上行到总公司的流量采用在3条SDH线路上进行负载均衡, 对3条SDH线路采用CBWFQ的方式优化网络。分别对视频 (11.201.2.0) 和通赔主机 (11.137.123.185, 11.137.127.109) 设置较高的优先级并分配最大带宽来保障重要业务。

4 策略实施关键点

4.1 调整前准备及测试

(1) 确定省公司核心网络拓扑图及登录口令。

(2) 在省公司核心路由器上PING4条广域网线路, 包个数为1 000, 大小为1 500字节, 以确保线路质量。

(3) 备份设备配置。

4.2 设备核心配置

(1) Video视频流量——10.6.8.0 (联通SDH-1) 。

(2) Internet上网流量——10.6.9.0 (电信ATM) 。

(3) 对通赔流量设置 (10.6.10.0) 。

省公司QOS配置依据访问总公司特定主机分配不同阈值并应用到接口。

4.3 配制后测试

(1) 在省公司不同VLAN的主机上分别测试:

(2) 测试QOS的运用情况:

5 结语

虽然广域网优化实施完毕后在具体运行过程中遇到了不少问题, 但运行一段时间后总体比较平稳, 各分支机构客户端体验满意度显著提高。相信随着公司广域网建设的进一步深入, 基于广域网的优化技术必将成为整体解决方案的重要组成部分, 并将有效提升广域网承载的多种业务应用的服务质量, 促进企业广域分支机构的建设, 提高生产效率, 为企业快速发展提供有力的技术支撑。

参考文献

[1]翟鸿雁.广域网网络应用及业务性能优化的探析[J].硅谷, 2011 (4) .

[2]张兰, 高勇.计算机广域网优化技术的应用研究[J].铁路计算机应用, 2005 (7) .

[3]樊秀梅.基于用户的分布式可扩展路由及QoS路由研究[D].北京:北京交通大学, 1998.

性能优化技术 篇10

由于网络的使用越来越广泛, 使网络的可靠性成为保障企业应用环境正常运行的首要条件。在军事, 国防和电信部门对网络可靠性的要求更高, 他们绝对不允许通信中断, 即使有些被损坏或发生故障, 也绝不能出现整个网络的瘫痪。这些要求使得提高三层交换机的可靠性已成为发展的重点推广。为了减少不正常的系统停机, 高端交换机必须提高可靠性, 系统没有单点故障, 任何部件的冗余备份, 包括控制卡, 线路卡, 电源, 交换卡, 冷却等;交换系统内的线路卡和控制卡, 切换模块, 机架, 高速连接, 需要进行备份。开关系统, 网络协议模型的容错底部, 保证上层协议操作的可靠性。在硬件冗余的同时, 该软件还需要相应的故障处理, 可以实现不间断转发系统。这些技术包括热备份, 主备倒换, 热交换, 通过这些技术使开关的监测能力运行状态和故障自动恢复, 而在更换设备的损坏时, 不需要停机更换部件后, 不需要重新启动, 可以使其与整个系统集成在一块工作, 而不会影响其他模块板的正常运作, 使故障的影响降到最低。

1 路由子系统关键设计

路由IP数据包从源端到目的所走路径机制, 路由的主要方式:动态路由和静态路由。动态路由能够自适应拓扑变化。当路由更新信息时, 网络的拓扑发生变化, 路由设备根据路由协议算法建立路由表, 和更新路由信息交互, 使网络上的其他路由设备同时更新路由表。静态路由是手动的在路由设备的路由表中添加固定选择规则。

三层交换机转发原理:三层交换机的核心硬件为CPU处理器和转发芯片, 芯片和处理器通过总线交换数据, 在转发芯片的二层转发标中, 中央处理器进入一个虚拟端口。当转发器芯片接收到一条消息, 如果是本网的, 通过搜索地址表, 进行二层转发。如果没有这段报文, 查找硬件路由表, 数据包从一个相应的端口转发。如果没有找到, 则交给MAC层, 数据包发送到中央处理器对应端口。当处理器接收数据包, 该内核会找到内核路由表, 主机路由转发芯片硬件路由表, 随后将收到的邮件根据路由进行三层转发。

模块设计:用户配置接口模块和路由更新模块, 每个子模块进程在启动和初始化后, 将进入相同的无阻塞的多个操作周期, 其次是实现循环队列的操作。用户配置接口的命令行解析模块在前台进程中实现, 终端接收用户命令输入, 虚拟终端设备嵌入在路由配置模块的rib子模块。该分组采用到报文的交换技术, 对每一个在子网传输的数据包路由, 路径计算、路由表生成和维护是由运行在CPU的路由协议完成的, 分布在各交换引擎的路由单位根据各自存在的本地存储路由表, 由硬件完成路由功能的数据包转发操作, 这样可以很好的提高路由处理速度。三层交换机采用模块化结构, 提供快速以太网, 千兆以太网交换及ATM上行接入三种功能。使用共享内存开关模式, 通过高速总线和开关矩阵连接与其他交换, 实现芯片的数据交换。共享内存分布在每个交换芯片内, 而不是交换矩阵中, 其大大简化了交换矩阵控制, 有利于提高交换效率。

2 接口软件关键设计

接口管理软件处理的对象是各种不同类型的接口, 如果根据不同的接口分别处理, 会消耗大量的能量。因此, 接口管理软件把不同接口的共性抽象出来的设计思想, 采取统一的过程, 而对接口之间的差异单独处理。如果是新的接口类型, 只需要不同的处理。

主要关注的重点, 包括几个方面:分析了现有的三层交换机接口, 根据接口的层次, 研究界面之间的共性及各自的属性 (包括二层和三层属性) ;目前的三层交换机接口类型划分为物理接口和逻辑接口, 对每个接口定义行为, 每种接口行为中存在的具体实现的不同, 可以抽象和定义的界面的行为框架;根据界面管理现状的一部分确定接口管理的主要任务, 对管理任务划分模块和接口设计。

接口属性管理:界面接口的各种属性, 如何管理这些属性是接口管理模块的基本任务, 有效地组织各种接口是接口管理模块的主要任务, 它可以提高检索的效率, 提高系统的执行效率;界面管理的一个特点是属性很多, 几乎每一个属性将有一个用户界面, 为用户提供全面的和友好的界面是研究内容之一;许多任务需要修改或读取接口的各种属性, 它们可能存在于资源的并发操作, 如何实现相互排斥的管理界面稳定性是关键;多卡板通讯设备, 接口板必须报告给相关信息的界面, 主控制板根据接口板上信息创建接口并同步到接口板, 主控板和接口板数据一致性。

在一个界面操作功能中, 具体操作完成之前, 必须检查接口的能力, 只有在界面上有一定的能力, 才执行相应的操作。几个关键能力如下:可以设定IP, IP是否可以改变, 可否加入或离开网络, 可以加入和离开肠道链路等。每个接口类型有许多属性, 一些界面的特性是共同的所有接口。可以把公共属性作为一个独立的结构, 每一个接口的类型对应私有属性。空间分布的策略, 如果接口规格较大, 与实际使用的可能是比较少见的, 可以一次分配适当的空间, 如果接口增加, 空间地址表是不够时再分配, 反之随着数量减少, 就要释放多余的空间。界面行为处理上遵循以下原则:共性抽象, 独特的功能, 处理原则, 针对特定类型的界面行为的类型专用接口逻辑处理不属于基本范畴的界面行为。接口类型为了按接口索引组织接口, 需要转换接口, 接口索引编号, 每个接口编号相对于接口类型是全局唯一的。在地址映射和位图插入, 通过身份进行有序的组织。相反, 遍历时, 需要转换接口索引, 根据每个接口类型索引的字段生成接口索引。

应用程序接口是为其他模块提供的, 因此需要较强的容错性、稳定性, 接口函数必须简洁清晰。许多模块都关心界面行为事件, 以便及时通知其他模块的接口管理, 接口管理实现通知连接机理, 是其他模块的了解接口管理的窗口。存在一个全局的通知链表, 对其他模块的事件处理程序的功能进行事件的相关处理。注册功能还提供相应的优先级设置, 因此需要进行注册功能列表的前面。当事件发生时, 在适当的管理界面地方调用通知链扫描功能, 其次是实施循环链功能。界面管理实施循环链, 附带其他模块需要的数据。

3 高可靠性设计

分布交换机中, 整个系统的管理是由主控制板来完成。该系统配置是由主控制板通过带外信道被发送到每个业务板, 主控板系统的可靠性是非常重要的, 所以在分布式系统一般采用两块主控制板, 用于提高可靠性。正常运行时只有一个主控制板发挥作用, 管理整个系统, 称为主要控制板, 另一块是用来作为备份, 称为备用主控板。需要相应的主/从切换技术、热备份技术来实现双控制冗余备份功能, 从而真正实现系统中的主控板快速下跌后自动切换到备用主控板和确保所有的配置信息不丢失。此外每个板应能在不断电源的情况下插入和去除, 并可自动保存和恢复相应的配置, 而不影响正常的转发, 这需要使用热插拔技术。技术方案可以使开关系统具有很好的容错能力, 故障恢复能力, 长期运行时间, 最短的主备倒换开关时间, 主备倒换过程不中断服务。满足用户要求的高性能交换机, 确保用户业务的稳定运行。

热备份系统 (交换机) :开始后, 主控板将配置信息反馈给备用控制板;在系统运行过程中, 如果配置信息发生变化时, 主控制板的配置信息反馈备用主控板。主/从切换检测:系统的正常运时, 主控制板将定期向备用主控制板发送状态报告消息。当备用主控制板的一段时间内没有接收主控板的消息, 会认为主控制板故障, 进而进行主备倒换处理。主备倒换处理:每个模块该状态设置为“主/备用状态”;原来的主控制板故障恢复, 即重新启动原有的主控制板, 主控板将重新启动, 并成为备用控制板;每个模块禁止处理的数据包再发送到CPU进行处理;运行热备份配置信息;允许处理器发送数据包;使配置管理。

热插拔检测:使用硬件中断和软件的状态报告消息的检测机制。硬件中断模块拉出, 很久没有收到业务模块状态报告消息。热拉深工艺对单板配置信息提取和删除, 热插拔处理完成配置信息恢复。

4 结束语

该文对三层交换机中的主要技术进行了研究, 分别从路由子系统的设计、接口软件的设计、高可靠性设计这三个方面进行了分析, 并提出了一些自己的建议, 对三层交换机技术的改进提供了参考。由于时间有限, 不能全部从实验上进行验证, 这些将在以后的工作中完成。

参考文献

[1] (美) Behrouz A.Forouzan.数据通信与网络[M].2版.吴时霖, 周正康, 吴永辉, 等, 译.北京:机械工业出版社, 2002.

[2] (美) Jim Metzler, Lynn Denoia.第三层交换[M].卢泽新, 周榕, 等, 译.北京:机械工业出版社, 2000.

[3]Intel 82559ER Open Source Software Developer Manual, Intel Inc, 2003.

[4]Cisco system.Introducing Routing and Switching in the Enterprise, CCNA Discovery Learning Guide.Cisco system.2009-01-01.

注:本文为网友上传,旨在传播知识,不代表本站观点,与本站立场无关。若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:66553826@qq.com

上一篇:c语言程序分类总结 下一篇:性能优化方法