分组交换数据网

关键词: 分组

分组交换数据网(精选八篇)

分组交换数据网 篇1

诺基亚西门子通信发布新平台, 可以简化大型通信网络, 同时满足不断增长的高容量需求。下一代分组光纤传输解决方案 (P-OTS) 融合了通过高容量的高速光纤通信网络, 可靠地传输信息所需要的智能技术。这一业内首创的成就推进了分组与光纤网络的真正融合。

诺基亚西门子通信的下一代P-OTS以hiT 7300密集多分复用 (DWDM) 平台为基础, 增加了分组数据处理功能。这样, 网络中的流量传输将更加高效, 而无需在每一个站点由路由器进行处理。该平台使运营商不需要进行大规模扩容数据传输路由器, 即可满足不断增长的宽带密集型应用需求, 同时宝贵的路由器资源也可以用于处理更高级的增值服务。

下一代P-OTS由着和多协议标记交换—传输参数 (MPLS-TP) 功能与未知交换协议而实现, 支持hiT 7300DWDM平台以同样的效率处理分组与电路交换流量。该方案将光交换的可扩展能力与电交换的灵活性相结合, 使容量从1.5Tbit/s提高到24Tbit/s。此外, 集成的光数据单元 (ODU) 交叉连接功能能够集合低速流量, 有效填充高容量传输信道———这意味着现有光网络可以容纳更多流量。

分组交换网络的概念 篇2

分组交换网具有如下特点:(1)分组交换具有多逻辑信道的能力,故中继线的电路利用率高;(2)可实现分组交换网上的不同码型、速率和规程之间的终端互通;(3)由于分组交换具有差错检测和纠正的能力,故电路传送的误码率极小;(4)分组交换的网络管理功能强。

分组交换的基本业务有交换虚电路(SVC)和永久虚电路(PVC)两种。交换虚电路如同电话电路一样,即两个数据终端要通信时先用呼叫程序建立电路(即虚电路),然后发送数据,通信结束后用拆线程序拆除虚电路,

永久虚电路如同专线一样,在分组网内两个终端之间在申请合同期间提供永久逻辑连接,无需呼叫建立与拆线程序,在数据传输阶段,与交换虚电路相同。

光分组交换网的TCP性能研究 篇3

与传统光网络相比,光分组交换(OPS)网络具有高速、大吞吐量、低时延、能高效地承载IP业务等突出优点。Internet的建立和发展始终离不开传输控制协议/互联网协议(TCP/IP)。虽然TCP/IP并非国际标准,但它在计算机网络体系结构中占有非常重要的地位[1]。而作为支撑下一代Internet发展的最有希望的骨干光网络,OPS网中的TCP传输性能是一个非常值得深入研究的课题。

1 OPS与光突发交换(OBS)技术

未来的光网络必须能够灵活、透明地支持各种不同业务,并能提供不同的业务质量保障以及数据的高速、可靠传输。传统光骨干网络中,由于上层的IP业务的特征是非连续的,而底层的光传送网是线路交换的,IP包必须通过多层的协议栈加载至光传送网。

OPS技术是在光层上直接承载互联网业务的下一代光网络技术,数据分组将以光的形式直接在OPS网络中传输。OPS网络中,经过IP路由器汇聚的分组信号将直接加载到光网络,因此它有着非常突出的优点:首先它可以采用统计复用的方式高效、快速地分配光纤传输系统提供的巨大带宽;其次,它对进入网络的数据分组的格式是透明的,即不同格式、不同比特率和不同性能的数据分组的转发都在光域上进行,因此可以突破光电-电光转换瓶颈、避免多重协议栈和复杂的协议转换。而且,OPS技术并不意味要抛弃较为成熟的电子IP路由技术,而是要与之有机地结合,充分发挥电子技术与光子技术的优点,即IP电子路由器完成业务汇聚、分类、流控制和服务质量(QoS)保证等复杂的处理功能;光信息处理单元进行光信息头的识别、删除和重写等简单的信号处理;光载荷处理单元进行光载荷存储、转发和路由等全光透明处理[2]。

虽然OPS是分组直接在光域内实现路由和交换的光交换形式,具有最小的交换粒度,是最理想的光交换形式。但OPS网的实现却困难重重,在这种情况下,OBS技术作为实现OPS的过渡技术应运而生。

OBS的主要特点可以归纳如下:(1) 粒度适中:OBS传输单元的大小介于光路交换和光分组交换之间;(2) 控制与数据信道分离:控制信息在分离的波长(或信道)上传输;(3) 单向预留:采用单向预留的方式分配资源。也就是说,源节点在开始发送突发包之前,不需要等待从目的节点的回应消息;(4) 变长突发:突发包的长度是可变的;(5) 无光缓存:在光网络中的中间节点可以不需要光缓存,突发在经过中间节点时没有延迟[3]。

2 OPS网络中TCP性能概述

在Internet所使用的协议中,最著名的就是传输层的TCP和网络层的IP。所以,现在人们经常用TCP/IP表示Internet所使用的体系结构。而作为支撑下一代Internet发展的最有希望的骨干光网络,OPS网与TCP/IP的兼容性和支持度是一个值得深入研究的课题。光波长路由光网络发展已经相当成熟,然而波长路由是粗粒度的,以波长或者波长组为交换粒度的时候,带宽利用率较低,无法实现统计复用,建立和拆除链接的时间较长,不适用于像IP这样的突发业务。

OBS网络相比于分组网络采用突发组装增大了传输交换粒度,却导致了额外的延时,另一方面为了避免使用光缓存而采用延迟预约,使得网络即使在低负载的情况下也会产生包含多个IP分组的突发包随机丢失,并且只要有一个突发包丢失,TCP就会采用超时重传的模式进行恢复重传,而这一模式应该在网络拥塞现象极度严重时才会被启用。虽然 TCP传输在OBS网络中会遇到这些困难,但是相比于目前的OPS网,TCP在OBS网络中的传输还是要简单得多。本文主要对OBS网络中的TCP性能进行研究,来作为OPS网络中TCP传输性能的理论参考。

3 OBS网络传送TCP流的性能分析

与基于存储转发的OPS网络相比,OBS网络独特的传送方式对TCP性能的影响主要有两个:

第1个是数据突发组装带来的影响。数据突发组装对TCP传送的影响体现在两方面,称为“延时损伤”和“分组关联效应”。“延时损伤”是指数据突发的组装将不可避免地引入组装时延,影响TCP连接的往返时间RTTRTT的增加将使TCP传送的最大可用带宽下降,从而造成TCP吞吐量的下降。因而,数据突发组装带来的“延时损伤”对TCP吞吐量性能的影响是“负增益”。“分组关联效应”是指数据突发组装使网络数据传输单位变大(由分组变为数据突发),同一数据突发内的TCP报文段在传送过程中是相互关联的。在相同丢失率条件下,这种关联效应可以延长相邻丢失事件的间隔时间,从而使发送端拥塞窗口在相对较长的时间内保持较高的值,发送更多TCP报文段,来提高吞吐量。因而,数据突发组装带来的“分组关联效应”对TCP吞吐量的影响又有“正增益”的作用。

第2个是数据突发丢失对吞吐量的影响。由于一个数据突发中可能包含多个连续的属于同一TCP连接的TCP分组,一个数据突发的丢失将导致这些TCP分组的同时丢失;另一方面OBS网络核心节点无缓存的特点决定了相邻丢失的数据突发之间不具有相关性。OBS网络的这种丢失模式不同于传统分组交换网络的情况,其引发的TCP重传过程也比较复杂。由于TCP的不同版本(TCP Reno、New Reno和SACK等)对拥塞控制机制和重传机制的规定有所不同,因而造成其在OBS网络中的性能有所不同。

本文以吞吐量为主要性能指标,分析OBS网络传送TCP流的性能。目前已有大量研究传统OPS网络TCP吞吐量性能的分析模型[4,5],我们在Padhye等人提出的吞吐量模型的基础上,针对OBS网络的特殊传送方式,对它进行了必要的改进,综合考虑了数据突发组装、数据突发传送、数据突发所包含的同一连接的TCP/IP分组数、一个发送窗口内多个TCP分组丢失以及慢启动阶段对吞吐量的影响。

本文使用“循环”和“周期”来描述cwnd的变化情况,这里cwnd表示发送端根据自己估计的网络拥塞程度而设置的窗口值,是来自发送端的流量控制。定义“循环”为一个发送窗口中第1个TCP分组发送时刻至接收到最后一个TCP分组确认字符(ACK)时刻之间的时间;“周期”为两个相邻丢失数据突发之间的时间,一个周期包含若干个循环。假设数据突发以固定概率p丢弃,即服从伯努利丢弃模型;TCP发送端总有数据发送;TCP分组的发送时间远远小于RTT, cwnd的大小以TCP分组数计算。

定义吞吐量为单位时间内平均发送的字节数,则在稳态连接条件下,由于TCP发送窗口的变化具有周期性,吞吐量B可以用式(1)来表示,其中M表示某个周期发送的TCP分组的数目,A表示某个周期的持续时间(以RTT为单位),I表示TCP分组的大小(byte):

B=E[Μ]×ΙE[A]×RΤΤ(1)

在OBS网络中,一个数据突发中所包含的TCP分组的数目s由数据突发组装时间Tb、TCP连接的分组到达速率λ (与接入链路带宽密切相关)和最大发送窗口Wsm决定。本文采用基于时间门限的组装算法,此时有

s=min(Τbλ+1,Wsm)(2)

当一个数据突发丢失时,TCP发送端启动重传机制来恢复丢失的s个TCP分组,重传时可能出现以下3种情况:(1) 当s≤2时,发送端利用s次快速重传恢复丢失的TCP分组;(2) 当2<s<L (L为常数)时,在两次快速重传以后,由于发送端不可能收到第3次快速重传所需的3个重复ACK,无法进行快速重传,导致重传计时器超时,下一周期从慢启动开始;(3) 当sL时,与情况(2)相似,也将引发重传计时器超时,不同之处在于,在下一周期慢启动阶段还将发生一次快速重传。本文只研究了第(1)种情况,下面将详细介绍。

(1) 当s=1时,一个数据突发丢失只造成一个TCP分组的丢失,这种情况与传统分组交换网的情况基本相同。

(2) 当s=2时,一个丢失周期包含拥塞避免和快速重传两个阶段。

首先分析拥塞避免阶段。在此阶段,一个循环中可以发送的TCP分组数每隔b个循环增加1,直至达到最大接收窗口限制。定义在第Ai周期内第1个丢失发生在第Xi个循环,丢失发生时已发送αi个分组,βi为第Xi循环中丢失发生以后发送的TCP分组数。则在该阶段成功发送的TCP分组数Yi=αi+βi,从而有

E[Y]=E[α]+E[β](3)

由于在OBS网络中TCP分组的发送与丢失是以数据突发方式发生,若第1个丢失的数据突发为第γi个数据突发,则有αi=i,在伯努利丢失假设下有

E[α]=sE[γ]=sk=0k(1-p)k-1p=s/p,(4)

式中,p为伯努利丢失概率。式(4)证明了数据突发组装对吞吐量性能的“正增益”作用,因为在OPS网中E[α]=1/p,而s≥1,故在数据突发方式传送下,丢失发生时平均成功发送的分组数要大于分组传送方式。

又0≤βiW,不妨假设E[β]=E[W]/2,故式(3)可变为

E[Y]=s/p+E[W]/2(5)

由于发送窗口受到接收端最大rwnd的限制,下面分两种情况来进一步推导E[Y]:

(1) 当数据突发丢失时的最大发送窗口Wm较大时,丢失发生时的发送窗口Wi<Wm,在这种情况下,

Yi=k=0Xi/b-1(ssthreshi+k)b-s=Xi22b-(0.5-ssthreshi)Xi-s,(6)

式中,ssthreshi表示第i个周期慢启动门限;b表示发送端收到一个ACK时得到确认消息的TCP分组数目(通常b=2)。

ssthreshiWiXi有如下关系:

Wi=ssthreshi+Xi/b(7)

按照RFC2581规定,发送端在每次重传时将慢启动门限设为 FlightSize(以发送但还未收到确认TCP分组的数目)的一半,因而在发生两次重传时有

ssthreshi=(3/4)Wi-s/2,(8)Xi=[(1/4)Wi+s/2]b,(9)

将式(6) 、(8) 、(9)联立求解,且在p较小时,可得Xi的数学期望

E[X]=2/7-b/14-2bs/7+56bps+(4p+bp+4bps)214p2bs7ps+Ο(1/p)(10)

式中,O表示无穷小。

(2)当Wm较小时,发生丢失时的发送窗口Wi=Wm。在这种情况下,由于未被确认分组数FilghtSize受到Wm的限制,重传后ssthreshi=0.5Wm,同情况(1)的方法可以求解得:

E[X]=spWm+3bWm8+12(11)

再来分析快速重传阶段。在此阶段发送的TCP分组包含两部分:发送窗口滑动过程中发送的少量分组ηi=Wi-βi-s和第1个分组重传以后发送端自同步机制“膨胀”拥塞窗口所发送的分组ϕi=Wi/2-s,因而总的发送数为

E[R]=E[η]+E[ϕ]=E[W]-2s(12)

式中,E[R]表示求Ri的数学期望;Ri表示第i个周期快速重传阶段发送的TCP分组的数目;E[η]表示求ηi的数学期望;E[ϕ]表示求ϕi的数学期望。

通过对拥塞避免和快速重传两个阶段的分析,对吞吐量性能做如下估计。在一个丢失周期发送的TCP分组总数为Mi=Yi+Ri,持续时间为Ai=Xi+2,从而利用上述分析结果可得:

B=(E[Y]+E[R])×ΙE[A]×RΤΤ{(sp+3232s7bp-2s)Ι/[(2bs7p+2)×RΤΤ]WiWm(sp+32Wm-2s)Ι/[(spWm+bWm4+52)×RΤΤ]Wi=Wm,(13)

由以上分析可知,在s≤2的情况下,数据突发组装带来的“正增益”作用明显,吞吐量随着s的增大迅速增加。

按照同样的分析过程来分析2<s<LsL的情况可得,当s>L时,由于慢启动阶段发生的快速重传使吞吐量性能明显下降;随后随着s的增加,数据突发组装的“负增益”影响逐步显现,吞吐量的增长趋势变缓或基本保持不变。

4 结束语

本文主要分析探讨了OPS和OBS技术,并在分析了OBS网络对TCP性能影响的基础上,针对TCP流提出了一种分析模型。以吞吐量为主要性能指标,分析了TCP流的吞吐量与往返时间RTT、数据突发丢失率、数据突发中包含的分组数目以及组装时间的关系,证明在接入链路带宽较大时,数据突发所包含的分组数存在一个最佳值,使TCP吞吐量达到最大。利用这种模型可以分析和预测OBS网络中TCP性能,为设计OBS网络边缘节点提供了理论依据,也为OPS网络中的TCP性能的研究提供了参考。

参考文献

[1]隋志成,姜希军.基于标签的光分组交换网络[EB/OL].http://tech.ddvip.com,2008.

[2]雷震洲.核心网中的光分组交换[EB/OL].http://hi.baidu.com/gshua/blog/item/fcda1d876a72cd2bc65cc32a.html,2007.

[3]纪越峰,王宏祥.光突发交换网络[M].北京:北京邮电大学出版社,2007.1-7.

[4]Padhye J,firoiu V,Towsley D F.Modeling TCP Re-no Performance:a simple model and its empirical vali-dation[J].IEEE/ACM Transactions on Networking,2008,8(2):133-145.

分组交换数据网 篇4

根据光分组到达时刻与长度大小的不同, OPS网络可以划分为同步OPS网络和异步OPS网络[3].在同步OPS网络中, 光分组只出现在固定长度的时隙中, 网络节点要对分组进行时间和相位上的同步校准, 边缘网络节点还要对分组进行封装、分拆和重组.在异步OPS网络中, 分组可变化长度, 可以出现在任意时刻, 节点不必对其分拆和重组, 也不必实施分组级的同步.显然异步OPS网络更灵活, 但其流量特性比较复杂, 由于光分组到达的时刻随意性较强, 所以光分组在交换节点中发生冲突的几率也更大, 交换节点需要对光分组进行复杂的调度, 以提高交换网的性能.

如何解决光分组竞争是OPS网络一个至关重要的问题, 对网络性能也将产生很大的影响[4].在光随机存取存储器没实现前, 解决光分组竞争有3种方法: (1) 光纤延迟线 (FDL) 解决时间上的竞争; (2) 偏射路由解决空间上的竞争; (3) 波长转换解决波长上的竞争.其中, FDL是光缓存的一种可选和最容易实现的方案, 它在一定程度上能够减少分组/突发的丢包率, 当2个分组竞争同一条输出链路时, 一个分组被传输, 另一个被送入一圈光纤经过充分的延迟以解决竞争问题.对FDL光缓存的结构和配置进行了介绍, 同时对部分光分组的调度算法和缓存管理方法进行了分析和比较.

1 FDL光缓存的结构和配置

1.1光缓存的结构

在光分组交换网络中, 根据FDL光缓存在OPS交换节点中的配置位置及功能, 通常可分为以下3种结构[5]:

(1) 输出光缓存

输出光缓存结构, 如图1所示.在每个输出端配置光缓存器.这种结构在光分组包进入缓存前, 即需确定好延迟时间, 其缺点是在控制分组的缓存时间长度时, 灵活性较差.当同时到达的分组数大于缓存总容量时, 则多余的分组就会被丢弃, 造成丢包率增大.

(2) 输入光缓存

输入光缓存结构是在输入链路中引入缓存器, 其优点是可以较为灵活地配置分组包的缓存时间, 提高缓存器的工作效率.这一结构存在的最大缺点是存在分组头阻塞的问题.

(3) 反馈共享式FDL光缓存

共享缓存与输入/输出缓存不同, 缓存资源配置于公共区域, 交换机的多个输入/输出端口可通过交换模块接入到该区域缓存冲突的数据, 缓存资源对各端口不是独占而是共享的, 有利于减小FDL体积和提高FDL利用率.其缺点是分组在循环缓存过程中, 会有放大噪声的积累.

1.2光缓存的配置

在同一种类型的FDL光缓存中, FDL又可以有不同的排列规律或配置方法.总体而言, 可以将缓存配置分为2类:固定长度光纤延迟线 (Fixed-FDL) 和可变长度光纤延迟线 (Variable-FDL) [13].如图2所示, 其中图2a配置中, 所有的FDL都是等长的, 一个进入缓存的数据包如果想获得足够长的缓存时间, 那么这个数据包就需要循环多次.而图2b配置中, FDL长度是逐步增加的, 其根据需要遵循一定的规律.在I-FDL配置中, 比较常见的有3种:简并式、双简并式和递增简并式[6].

(1) 简并式 (DB) :

如图3a所示, 本配置类型中, FDL光缓存中B根FDL的长度以FDL的粒度D为步长逐根递增.覆盖了从D到BD的所有范围.

(2) 双简并式 (DDB) :

如图3b所示, 本配置类型中, FDL光缓存中B根FDL被分为奇数段和偶数段2部分, 在这2部分中, FDL的排队规律都是简并型式.第i根FDL的缓存长度为undefined为FDL的粒度, 表示对x向上取整.

(3) 递增简并式 (IDB) :

如图3c所示, 本配置类型中, 长度为D的FDL的数目为1, 长度为2D的FDL的数目为2, 依此类推, 长度为iD的FDL的数目为i, 其中, D为FDL的粒度, i∈ (1, 2, …, n) .

2 FDL光缓存典型调度算法的思想和优缺点

虽然FDL光缓存技术的原理简单, 但FDL光缓存构建和分组包调度算法却至关重要, 因为它们直接影响核心节点数据包的交换效率以及OPS网络的性能.FDL光缓存调度算法可以说是OPS网络核心节点数据包交换的重点.

下面介绍几种典型的基于I-FDL配置的FDL调度算法:

(1) 抢占式短包优先调度算法

在此算法[7]中, 可变长OPS抢先式交换体系结构包括N个输入/输出光线接口, 输入队列包括N个虚拟输出队列 (VOQ) 和一个按先入先出 (FIFO) 服务的短包队列.当一个分组到达输入端口时, 长度较长的分组分配到相应的VOQk (k大于等于0小于等于N-1) 队列中, 长度较短 (小于64字节) 的分组被分配到FIFO-S中排队等待, 在光的随机存储器没有应用的条件下, 可以用光纤延迟线 (FDL) 存储光信号.交换机调度器在每一个交换时隙内, 根据输入队列请求和输出端口状态, 按照短包优先的PSPF算法配置长分组和短分组的交换请求, 通知获得确认的分组在下一时隙内传输分组到指定输出端口.当分组到达输出端口时, 短包存储在输出FIFO-S队列中, 长包存储在输出OQ-L队列中, 调度器首先输出FIFO-S队列中的短包, 然后输出长队列中分组到光线上, 在分组从输入端口输出到输出端口期间, 调度保证分组传输的连续性.

优点:该算法简单、灵活、有效, 非常适用于对分组传输时延有严格要求的实时IP业务, 大大提高可变长OPS交换的性能.

(2) 共享反馈型缓存调度算法

Hiroaki Harai提出的共享反馈型缓存调度算法[8]用于交换处理异步可变长度数据包.该算法又进一步细分为算法1和算法2, 其中算法1是作者思想的主要体现, 算法2在算法1的基础上稍作改变。该算法将进入核心交换节点的数据包归类为排队型、非排队型、排队型抢占和排队型竞争4种.其中排队型竞争只在算法2中出现。这里只对算法1进行详细介绍.

第1步:寻找可用外部输出端口.如果数据包来自任意外部输入端口或者是数据包是排队型, 同时外部输出端口n空闲 (un

第2步:为排队型数据包寻找可用缓存.如果数据包在第1步中没有被传输至输出端口且可用缓存延迟线为C, 进行这一步操作;数据包进入较小延迟的那条光纤延迟, 此时qn=tn+ln+di, si=tn+ln.缓存的数据包是排队型数据包.

第3步:为非排队型数据包寻找可用缓存.如果数据包在第2步中没有变成排队型, 且可用缓存延迟线为C进行这一步操作;数据包进入较大延迟的那条光纤延迟线.这个数据包被看作是非排队型数据包.

第4步:如果在前3步后仍没被传输的数据包, 直接被丢弃.

该算法可以尽最大能力缓存冲突数据包.通过不同的条件下分类调度, 减小了数据丢包率.但是, 难以避免经循环缓存后的分组包与新到达分组包再次产生竞争冲突的可能性.

(3) 可变长度分组部分缓存和改写算法

文献[9]在部分共享缓存算法 (partial buffer sharing scheme, PBS) [10]的基础上提出了可变长度分组的部分缓存和改写法 (vPBSO) .该算法基于优先级思想为不同类别的分组提供差异化缓存服务.论文中讨论2类优先级不同的数据, 其中数据1的优先级比数据2的优先级高, 在vPBSO情况下, 当缓存占用期低于阀门时间时, 缓存管理器允许所有到达的数据进入缓存器.当缓存占用期等于或大于阀门时间时, 一个到达的类别为2的数据包跟在队列的尾部.另一方面, 一个已经到达的类别为1的数据包被允许占用下一个位置, 这个位置是为处在阀门值后的那个类别为1的数据所准备的.如果类别2数据在同一个位置等待, 那么它们将被改写.被改写的数据意味着被丢弃.当优先级高的数据包到达率低于优先级低的数据包的到达率时, 这个算法更有效.但是该算法当优先级高的数据包到达率高于优先级低的数据包的到达率时, vPBSO算法性能并不比PBS算法具有明显优越性.

(4) FDLs光缓存快速树搜索调度算法

本算法[11]适应于全光共享缓存OPS, 算法首先将数据包调度作为一种树形搜索问题对待, 将时间域上每个时隙看成一个节点, 每个时隙的下一时隙被看作为本时隙节点的子节点, 以此类推, 形象为一个树图.通过在底层每个节点安装一个处理器, 实现由树尖向下搜索与由树根向上反馈信息的结合.通过众多次级处理器同时工作, 进入交换节点数据包调度的理想路径将会在很短的时间内找到.本算法的优点是使得整个缓存时间复杂度大大降低.但是, 由于需要装置许多处理器, 交换节点结构的装置成本大大提高.

(5) 其他算法

Wang和Ningning Hu等人研究了不区分长度的公平分组调度算法将导致TCP业务的性能下降[12,13], 文献[14]研究了基于服务优先级区分的高优先级分组在业务负载小于0.4时可以获得10-12的分组丢失率, 但业务负增长增加时, OPS性能劣化严重, 而对TCP类实时业务的短包没有特别考虑, 使短包的等待时间较长.而采用改进的分组调度算法可以减少分组的平均等待时间, 提高网络性能.最大权重匹配 (MWM) 算法根据队列长度或分组等待时间分配权重匹配值[15], 目的是使长队列中的分组或等待时间长的分组先得到调度, 以减少分组的平均等待时间及提高分组的通过率.基于队列长度权重配置的算法没有考虑分组获得大权值时对其他短队列中大量短分组形成阻塞, 致使长队列饿死, 短队列或年龄大的信元阻塞实时性强的年龄小的短信元, 从而使分组平均等待时间较长.

3 结 论

随着网络化时代的到来, 人们对信息的需求与日俱增.IP业务和多媒体数据业务在全球范围突飞猛进的增加, 越来越要求建设高效、高容量、高质量、高带宽的光纤网络, 也即全光网络.光交换的全光网络是通信网络发展的必然趋势, 光数字分组交换是全光网络的最终选择.然而光分组交换网络的发展瓶颈是光缓存技术.本文主要是针对光分组交换网络中光缓存技术展开的.

分组交换数据网 篇5

光交换可分为光路交换方式和光分组交换这两种方式, 对应于电交换中的电路交换和分组交换方式。光路交换又可分为空分、时分和波分这三种光交换类型。光分组交换规则有ATM光交换、透明光分组交换、光突发交换等。

2 光分组交换技术

2.1 交换节点结构

通用的光分组交换节点的结构主要包括一系列复用器和解复用器、输入接口、输出接口、交换矩阵、光存储器、波长变换器、以及交换控制单元等原件。目前光分组交换主要有同步交换和异步交换这两种交换方式, 而目前同步交换方式应用较为广泛。

2.1.1 解复用/复用器

解复用器的主要功能是将输入到光纤上的光分组按照不同的波长分开, 送往输入接口从而进行下一步处理。而复用器的正是其相反功能, 它将输出接口的光分组按照波长进行复用。

2.1.2 输入接口

输入接口的功能主要包括:对输入信号进行的整形、定时和再生, 以方便后续期间进一步的处理和恶转发;检测输入信号的漂移和抖动情况;识别出分组头、净荷信息和分组尾;对输入分组进行再同步, 使分组与交换时隙对转;将分组头提取出来交给交换控制单元处理等。

2.1.3 交换控制单元

交换控制单元的主要功能是完成对光分组在交换矩阵中的选路控制功能。交换控制单元处理所有的包头信息, 这些信息决定了分组的输出端口和波长, 并因此完成对交换矩阵的配置工作。目前的交换控制单元还是由电子电路来实现的, 通过电子存储器中的路由交换表来实现路由的交换过程。

2.1.4 交换矩阵部分

交换矩阵部分包括交换矩阵、光存储器和波长转换器等。这一部分的主要功能就是在交换控制单元的控制下, 完成信号的选录工作。

交换矩阵完成光信号在空间上的选路工作。交换矩阵必须在两个光分组相继到达的时间间隔内完成重新配置和交换。

光存储器的主要功能是存储光域的信息。光存储器主要用来解决交换过程中的冲突问题。目前大多使用光纤延时线来作为光存储器, 但是目前光纤延时线比较昂贵, 所以人们对光存储技术的研究仍在进行中。

波长转换可以对输入的光信号波长进行改变, 是解决交换冲突问题的另一种手段。现在的波长转换器一般是由O/E/O转换器来实现的, 而全光域的波长转换器还没有实用。

2.1.5 输出接口

输出接口完成的功能主要包括对信号进行整形、定时和再生, 以弥补经过交换矩阵后可能对信号造成的损伤, 类似于通信系统中的均衡器;对分组的识别和再同步;将新的分组头重新形成净荷;均衡输出功率, 等等。

2.2 光分组交换的帧格式

光分组交换的帧结构包括分组头和载荷。

分组头包括分组头同步比特与路由标记等, 而载荷则包括载荷同步比特和净荷。在分组头和载荷的中间必须存在一定的保护时隙。这是为了补偿光器件交换时间、净荷在节点处可能存在的抖动以及在网络节点处同步单元的有限冲突所造成的时延, 在分组头前和载荷后都要插入保护时隙。这是为了在交换节点和采用光纤延长线的分组缓存中简化同步的操作, 光分组采用具有固定比特率的分组头。而净荷只有具有固定的时隙, 但是比特率是可变的。

2.3 交换中的竞争问题

分组竞争指的是由两个及两个以上的分组同时从交换矩阵的同一个输出端口输出的情况。解决交换竞争的策略主要包括光分组缓存、波长转换和偏转路由这三种方式。

2.3.1 分组缓存

光分组缓存通过将发生竞争的多个分组在光存储其中进行延时来解决竞争。光纤延时线是比较常见的光存储器。当多个分组发生竞争后, 只有竞争成功的分组直接通过交换矩阵, 其余竞争失败的分组被送往光纤延时线, 当这些分组从光纤延时线输出后, 再重复以上的过程, 直到所有的分组都通过交换矩阵。

2.3.2 波长转换

波长转换通过转换发生竞争的多个分组的波长来解决竞争。当多个分组要从同一输出端口以相同的波长输出时, 竞争成功的分组将直接通过交换矩阵, 而竞争失败的分组则要进行波长转换。当同一出口的所有波长都被占用时, 需要存储还没有解决竞争失败问题的分组。

2.3.3 偏转路由

偏转路由通过改变分组在交换矩阵中的路由来解决竞争。竞争成功的光分组按原定路径进行传输, 而其余竞争失败的分组则被分配到其他空余端口进行传输。

分组交换数据网 篇6

云计算是一种新兴的商业计算模型[1,2]。它利用高速互联网的传输能力, 将数据的处理过程从个人计算机或服务器转移到互联网上的计算机集群中。数据中心按客户的需要分配计算资源, 达到与超级计算机同样的效果。在云计算方面, 包括Google、微软、IBM、SUN、戴尔、苹果、Salesforce、Platform等巨头相继推出了一系列解决方案。然而, 各家厂商定义的接口却并不兼容, 这些“云”之间还无法顺畅的交流。

在云计算还处于没有标准的战国时代, 要想使企业能够通过网络分享自己多余的计算能力还存在太多风险。一方面, 人们需要监管能力更强的计算模型, 来充分提高计算效率。另一方面, 将企业的数据中心改造为云计算中心, 需要引入宽带自动调整技术, 以实现计算、存储与带宽资源的按需提供。因此, 具有高速、大容量突发数据实时交互能力的宽带资源, 将成为用户选择不同云计算模型最为关键的因素之一。

最近十几年来, 高速光网络、光系统及光设备技术日趋成熟。光互联网络为高速、大容量数据的实时交互提供了足够的带宽资源[3,4,5]。本文提出了一种基于异步光分组交换 (OPS) 技术的新型分布式控制云计算互连网络节点模型。采用主从式树型架构进行分布式控制和管理, 高速数据流在各级节点基于组播方式实现异步交换, 可实现大批量云计算节点的可扩展性互连。本文介绍了互连网络节点架构, 建立了节点丢包率的性能分析模型, 并进行了数值仿真分析。

1 多级分布式管理异步OPS云计算节点方案

1.1 异步OPS节点分层模型

如图1所示, 异步OPS节点主要包括三层:光层、节点控制层、管理层。其中, 节点控制层包含一个异步逻辑系统, 控制光层的交换单元及缓存单元。节点控制层采用一个查找表, 包含有出口信息、波长信息以及新的分组标签信息。通过对旧包标签信息的分析, 产生控制信号, 控制分组在光层的交换。同时, 完成对分组标签信息的更新, 以及节点的分组冲突解决功能。管理层主要完成传统的路由控制层功能, 可以根据不同的资源分配算法, 完成节点控制层中查找表内容的更新。

可以看出, 整个OPS系统的输出端口、波长以及标签更新等信息都需要在节点控制层中, 采用存储单元进行储存。然而, 云计算网络的高速、大容量实时数据交互及共享需求正在迅速增长。这显然会使交换系统的规模和数据量迅速增加, 给节点控制层对整个系统信息的存储带来压力, 也给管理层的业务均衡带来困难。

另外, 随着网络流量的增大, 基于集中管理模式的异步OPS系统已逐渐在系统的可扩展性、可实现性等方面显示了其弊端, 需要在以下方面进一步完善:1) 光层, 需要提出新型的分布式管理异步OPS方案, 减小控制层及管理层的存储及计算压力, 提高整个系统的可扩展性;2) 节点控制层, 需要提出时延更低的, 能够满足变长分组突发交互需求的全光冲突解决机制, 以提高节点的数据交互能力;3) 管理层, 需要提出新型的业务均衡算法和系统资源分配策略, 减小数据传输时延, 提高系统资源的利用率。

1.2 多级分布式管理异步OPS节点模型

针对上述分析, 本文提出基于异步OPS技术的云计算互连网络节点。采用多级分布式管理模型, 可以使管理层及节点控制层的调度复杂性及存储压力被多个节点分担, 因而有利于控制单元的实现及OPS节点的扩展。图2所示为具有分布式管理能力的两级异步OPS系统模型。其中, 主节点管理n个从节点, 每个从节点分别包含m根输入、输出光纤。

每根光纤包含有m+1个传输波长, 由复用器 (MUX) 复用以后, 采用密集波分复用 (DWDM) 的光传输模式送往光交换单元 (OSU) 。可调谐波长转换器 (TWC) 用以将下行分组的输入波长转换为输出波长λm+1, 从而避免下行分组与从节点分组的波长冲突。

图3所示为主、从节点的OSU结构。其中, 主节点的OSU包含有m个输入光纤与m个输出光纤, 每个输入光纤包含m个波长。头抽取 (HE) 模块用于提取输入分组中的分组头信息, 控制单元 (CU) 把进入的光分组头信息转换为电域信号并加以分析, 根据其中内容为该输入分组确定输出端口。确定了输出端口以后, CU就产生控制信号, 控制光交换单元, 进而把输入分组交换到其输出端口。

光交换模块主要由光分束器 (splitter) 、可调谐滤波器 (TF) 及TWC组成。通过调节TF的反射波长, 可实现输入信号的单播及组播。

当有多个分组同时请求同一个输出端口时, 必然会产生波长冲突。如果采用简单的丢弃原则丢掉冲突分组, 会产生很大的丢包率, 降低节点的可靠性。因而, 本文提出一个紧凑的, 基于循环光纤延时线 (Rec-FDL) 的全光分组冲突解决机制, 能够实现分组冲突的本地解决, 具有高吞吐量、低时延特性。

2 丢包率分析模型

如图3所示, 采用Rec-FDL冲突解决机制能够实现异步、变长分组的冲突解决。冲突产生时, 需要将冲突分组丢弃, 该机制的光分组丢包率PLR可由下式表示:

其中, P (L>Lave) 为光分组长度的概率分布, N为输出端口数, M为每个光纤内包含的波长数, ν为每个光分组的到达率。

3 丢包率仿真分析

定时分组组装算法能够有效地限制分组组装时延, 满足高速数据交互需求。根据定时分组组装算法, 光分组长度的概率分布P (L>Lave) 与光分组长度L、光分组装配时延Tout及IP数据包的到达率λ有关。

图4所示为基于定时分组门限组装算法的光分组丢包率PLR随L、Tout及λ的变化规律, 图中, 1Bu=40Bytes。由于RecFDL的缓存粒度是固定的, 如果光分组的长度L大于平均长度, 且随后到达的光分组与其时间间隔较小并产生重叠, 此时, 需要将随后到达的冲突分组丢弃。因此, PLR随着光分组的长度的增加而增大。

此外, 由于装配时延Tout越小, 产生的短分组越多, 阻塞率及丢包率必然越大。因此, 由图4 (a) 可以看出, 在分组长度较小的情况下, Tout越小, PLR越大。

同样, IP数据包的到达率λ越大, 光分组长度也越大。因此, 在λ较小时, 越小的λ产生的短分组越多, 而这些较多的短分组必然会产生较大的阻塞率及丢包率, 此时, PLR随λ的增大而减小。当λ较大时, 越大的λ产生的长分组越多, 而这些较多的长分组也必然会产生较大的阻塞率及丢包率, 因此, 当λ增大到一定数值时, PLR随λ的增大而增大。

4 小结

本文提出了一种基于异步光分组交换技术的云计算互连网络节点模型。采用分布式控制和管理模式, 可实现大批量云计算节点的可扩展性互连。介绍了互连网络节点架构, 建立了丢包率的性能分析模型, 进行了数值仿真分析。结果表明, 丢包率与光分组长度、光分组装配时延及IP数据包的到达率有关。

参考文献

[1]J.Mache, A.Apon, T.Feilhauer, et al.Grid computing at the undergraduate level:Can we do it[C].In Proceedings of the39th ACM Technical Symposium on Computer Science Education, 2008, pp.381-382.

[2]K.Chen, W.M.Zheng.Cloud computing:System instances and current research[J].Ruan Jian Xue Bao/Journal of Software, 2009, 20 (5) :1337-1348.

[3]W.Brian, L.Ahmed, A Class of Highly Scalable Optical Crossbar-Connected Interconnection Networks (SOCNs) for Parallel Computing Systems.IEEE Transactions on Parallel and Distributed Systems, 2000, 11 (5) :444-458.

[4]K.K.Avinash, L.Ahmed, RAPID for high-performance computing systems:architecture and performance evaluation.Applied optics, 2006, 45 (25) :6326-6334.

分组交换数据网 篇7

OTN有诸多优点,但交换技术仍是OTN的一个瓶颈,目前OTN主要的交换方式有全光交换和光/电/光交换。全光交换技术目前主要在实验室内进行研究与功能实现[1],而由O-E-O方式进行的电路交换效率仍然不高,无法应对逐渐IP化的数字网络,而且电路交换的速率远不及包交换的速率。而包交换思想的提出,是为了克服电路交换中,各种不同类型和特征的用户终端之间不能互通和通信电路利用率低等问题[3]。可以在OTN中采用包结构,将光信道数据单元ODUK(Optical channel Data Unit-K,K=0,1,2,3)帧流切割成在标准大小上加减1的数据包,经过包交换芯片交换,然后再重组为ODUK帧流,此方法可以有效解决OTN交换的难题,同时可以将其发展为一种统一的交换结构,使之既可以处理数据包也可以处理TDM业务[4]。

1 基于包结构的光传送网描述

光通信网络正在由纯粹的SONET/SDH导向的网络向以太网和OTN相结合的网络演化。历史上曾经使用单一结构的网络设备,例如用一个设备来处理包业务,一个设备来处理TDM业务。因此人们希望使用一个综合的处理系统,能同时适应各种业务的处理,这样可以更加节省能源和机架[4]。目前包交换网络已经占据了很大的市场比例,如果利用包结构来承载OTN客户信号,那么就可以广泛利用现存的包交换设备,这将达到事半功倍的效果。图1为包结构和OTN相结合的光传输平台。图中SONET/SDH信号从OTN的接入侧线卡经过平台传递到OTN的输出侧线卡。在平台中,OTP(Optical Transport Platform)单元将高阶的ODUK帧流解复用为低阶的ODUK帧流,将低阶信号切割为相应大小的数据包,经过包交换芯片交换后,再重组为ODUK帧流,将低阶ODUK帧复用为高阶ODUK帧后,传入其他OTP单元完成一次数据交换。

图2为图1中OTP网络单元的结构,ODUK数据流经过ODUK to SAR(Segmentation and Reassembly)模块切割为固定大小的数据包,再经过Interlaken高速接口将切割好的数据包发送到包交换芯片,通过交换芯片交换的数据包先经过Interlaken接口接收,再经过ODUK to SAR模块组合为ODUK数据流。其中数据流的切割和重组是难点和关键。

2 ODUK帧结构概述

ODUK,K=0表示比特率约为1.25 Gbit·s-1,K=1表示比特率约为2.5 Gbit·s-1,K=2表示比特率约为10 Gbit·s-1,K=3表示比特率约为40 Gbit·s-1。其帧结构[5]如图3所示,为4行3 824列结构,主要由ODUK开销和OPUK(光信道净荷单元)两部分组成。第1~14列为ODUK的开销部分,但第一行的1~14列用来传送帧定位信号和OTUK(光信道传送单元)开销。第2、3、4行的(1~14)列用来传送ODUK开销。15~3 824列用来承载OPUK。ODUK速率由式(1)计算。

ODUK速率=239/(239-K)×STM-N (1)

3 包结构的网络单元

图4为基于包结构的OTN一个网络单元,其包括,输入OTN功能模块,输入SAR功能模块,包结构模块,出口SAR功能模块和输出OTN功能模块。一个普通参考时钟(REFCLK)和一个同步脉冲(SYNC)被分布到所有输入和输出SAR功能模块。参考时钟和同步时钟必须从一个普通的时间基准产生,并且相互之间锁相。输入OTN功能模块由一个OTUK成帧器组成,成帧器结束OTUK的开销信息,去掉前向纠错(FEC),产生相应的高阶ODUK流。这里也可能有一个或者多个ODTUjk解复用单元,这些单元从高阶的ODUK数据流中提取低阶的ODUj/ODUflex客户信号。通过输入SAR功能模块,高阶和低阶流被分割成数据包,然后进入包结构模块。包结构交换数据,然后经过出口SAR功能模块重新组装成ODU数据流,再经过出口功能模块进行处理。在OTN出口功能模块,高阶ODUK流加上OTUK开销和FEC校验信息组成OTUK数据流。低阶ODUj/ODUflex流能被复用成高阶ODUK流。ODU流从入口到出口,整个系统必须保证时钟的完整性。

参考时钟311.04 MHz,用于输入和输出SAR功能模块。

ODUk/ODUflex流速率,必须保证锁相到同步时钟。

同步时钟8 kHz脉冲,用于输入输出SAR功能块同步时间戳,来矫正包延迟变化,同步时钟锁相到参考时钟。

输入SAR功能模块主要完成将ODUK帧切割成固定大小的数据包,对于同种类型的ODUK信号切割成的包拥有相同配置的标准长度。在包切割过程中,要加上相应的包头信息。标准包大小计算公式为

B=Round└(RODUK×T)/(8×Cclk×N)」 (2)

其中,B表示切割的包大小;T表示包的生成间隔;N表示每个调度间隔生成包的数量;Cclk为311.04 MHz的参考时钟。但实际包的大小要偏离标准包大小±1 Byte,这是由实际ODUK速率决定的(时钟的漂移和抖动[7])。包格式如图4所示,包头每个域的位宽介绍如表1所示。表2为ODUK切割配置表。

输出SAR功能模块是对输入SAR功能模块的相反操作,主要是将数据包重组为低阶ODUK的过程。SAR电路结构无疑是基于包结构OTN的关键技术。

4 基于包的OTN网络单元结构实现

图6为一个基于包结构的OTN网络结构设计图,如图所示OTUk串行数据通过CDR电路获得数据时钟,通过OTUKRx Framer寻找OTUK的帧头,将数据送入ODUjk DeMUX模块,完成高阶ODUk向低阶ODUj数据的提取,Low-Pass Filter模块将标准ODUK时钟的相位与JC调整所提供的相位相加作为锁相环的控制输入产生包大小判决模块的ODUj clock,Packet Size Decision 模块对每T/N个REFCLK时钟内的ODUj clock统计用于判定包的大小,Packet Formatter模块根据FIFO中包的大小信息对解复用的数据打包,送往包交换芯片完成交换。接收端是包的重组过程,与切割过程相对称,为还原数据还要去掉包头开销得到原始数据,将原始数据拼接成OTN数据,同时根据包的大小恢复原始数据的时钟[8]。

5 结束语

基于包交换的OTN网络协议使得OTN网络层中的ODU流(ODUk/ODUflex)以数据包的形式在网络设备中交换成为现实。结合Altera Stratix IV系列开发版提供的Interlank接口及SFI4.2接口可方便地实现文中提出的网络单元。本文作为此项技术的深入,将有助于大容量高速率数据的光交换在电域的发展。

参考文献

[1]刘国辉.光传送网原理与技术[M].北京:北京邮电大学出版社,2004.

[2]MARTIN C,JOSEF R,TAKUYA O.The operator's view ofOTN Evolution[J].IEEE Communications Magazine,2010,48(9):46-52.

[3]陈亮,孟李林.分组交换中一种存储管理方案的设计与实现[J].西安邮电大学学报,2011,16(6):31-34.

[4]WINSTON M.OTN over packet fabric protocol(OFP)imple-mentation agreement[EB/OL].[2011-01-21](2012-10-11)http://www.oiforum.com.

[5]刘静.基于G.709的开方式传输网络(OTN)[J].黑龙江科技信息,2008,10(30):18-20.

[6]曹畅,张永军,石帅.T-MPL网络中承载电路业务的最佳包长问题研究[J].电子与信息学报,2010(3):667-669.

[7]陈静伟,杨铸.OTN中ODUk时钟的抖动性能要[J].光通信研究,2001(4):17-19.

数据交换平台的数据交换模式浅析 篇8

这些年来我们国家的的信息化建设已取得很大成果, 从20世纪90年代初至20世纪90年代末为信息化建设的发展阶段, 为适应全球建设信息高速度公路的潮流, 中国政府正式启动了“三金工程”, 部分政府部门的网络基础设施建设和应用层面的信息化得到了较大发展。1999年至2001年为推进阶段, 中国政府国务院40多个部委的信息主管部门共同倡议发起了“政府上网工程”, 目的是实现政府信息资源共享, 建立政府管理机构的Web站点, 使其成为面向公众服务的窗口。从2002至今为整合阶段, 政府信息化由各自为政转向电子政务整合的过程。

上述是从大的国家电子政务方面来讲, 从具体的小范围来讲, 我们学校的信息化建设也取得了一定的成果, 学生可以通过网络选择全校的选修课, 教师通过网络可以录入并查询学生的成绩, 教务处可以通过网络向省里上报学生名单, 教师可以通过排课系统进行自动排课等。虽然从一定的角度来说我们学校的信息化建设跟以前相比, 进步很大, 但这里面也存在一定的问题, 这个问题也是普遍存在的问题, 那就是各个应用系统相互独立, 应用系统之间的数据信息不能进行共享与交换。

所以打破目前这种局面, 连通各个孤立的应用系统, 把分散的信息资源整合起来, 实现这些不同系统、不同环境下的信息的实时共享和双向交流, 是下一步信息化建设的中心任务, 也是必走之路。

要把各个孤立的应用系统整合起来, 就必须要建立一个公共的数据交换平台。各个应用系统通过统一的接口与数据交换中心相连, 应用系统之间要进行数据交换与共享必须通过数据交换中心;也可以建立共享信息库供应用系统共享。在这里主要讨论数据交换平台中数据交换模式。

二、数据交换模式

在信息系统中, 各应用系统之间的联系是比较密切的, 各部门的信息要保持一致, 数据交换可以保持数据的一致性。在数据交换平台中, 任意系统之间的数据交换过程可以采用不同的交换策略, 主要有三种数据交换模式:主动发送、请求/应答、订阅/发布交换模式。

1、主动发送模式

主动发送模式是通过数据交换平台的中心交换服务器进行的。发送方的数据发生变动时, 通过数据交换平台直接将数据发送到应用数据的相关单位。比如大通关就涉及海关、工商、税务、质检、公安等部门, 为了更好地为进出口企业服务, 有效打击逃税、骗汇、走私等犯罪活动, 海关、工商、税务、质检、公安等部门就要掌握进出口企业信息, 而且这些信息要一致。当进出口企业的信息发生变化时, 就直接将信息发送到海关、工商、税务、质检、公安等部门, 这样保证信息的一致性及实时性。下面以A局向B局和C局发送数据为例, 分析主动发送模式的数据流程:

(1) 首先根据A部门的用户请求, 按照数据交换中心的要求把数据封装成XML格式, 并将数据置入所在单位前置节点的服务器相应文件夹中, 所发送的数据标明要发送的地址。

(2) 数据交换中心通过时间轮询的方式将数据接收到中心服务器。

(3) 数据交换中心解析数据, 得到数据要发送的目的地。

(4) 数据交换中心删除发送方前置服务器中的数据, 保证文件夹的内容是空的。

(5) 接收部门接收数据, 并放入数据库中保存。

2、请求/应答模式

请求/应答模式通过数据交换平台的中心交换服务器进行请求和应答的。和主动发送模式的区别在于数据发送前先要向数据交换心发送请求消息, 数据交换中心响应后才能进行数据的交换操作。下面以A局向B局和C局发送数据为例, 分析请求/应答模式的数据流程:

(1) 首先根据A部门的用户请求, 按照数据交换中心的要求把数据封装成XML格式, 并生成数据交换请求消息传送到数据交换平台。

(2) 数据交换中心接收到请求消息后, 进行响应, 与A部门建立连接。

(3) 数据交换中心接收A局封装成XML格式的数据。

(4) 数据交换中心对接收到的信息进行解析, 知道数据要发送到B部门和C部门。

(5) 数据交换中心向B部门和C部门发送请求消息, 要求发送数据。

(6) B部门和C部门响应请求, 并与数据交换中心建立连接。

(7) 数据交换中心将数据发送到B部门和C部门。

(8) B部门和C部门的业务系统接收到数据后, 分析本部门的应用系统, 并把数据存入相应的数据库中。

3、订阅/发布模式

订阅/发布模式基于SOA服务架构思想提出来的。W3C将SOA定义为:“一种应用程序体系结构, 在这种体系结构中, 所有功能都定义为独立的服务, 这些服务带有定义明确的可调用接口, 可以以定义好的顺序调用这些服务来形成业务流程”。

面向服务的架构包含三个部分:服务请求者 (Service Requestor) , 服务提供者 (Service provider) 、服务注册中心 (service Registry) , 如图所示[1]。

(1) 服务提供者

服务提供者是一个可通过网络寻址的实体, 它接受和执行来自消费者的调用, 它将自己的服务和接口契约发布到服务注册中心, 以便服务使用者可以发现该服务。

(2) 服务请求者

服务请求者可以是一个请求服务的应用、服务或者其它类型的软件模块, 它从注册机制中定位其需要的服务, 并通过传输机制来绑定该服务, 然后通过传递契约规定格式的请求来执行服务功能。

(3) 服务注册中心

服务注册中心是一个包含可用服务的网络可寻址的目录, 它是接收并存储服务契约的实体, 供服务请求者定位服务之用。

订阅/发布模式就是由服务提供者提供服务, 也就是发布操作;服务请求者请求服务, 也就是订阅服务;并且服务提供者提供的服务在服务注册中心进行注册。这样服务请求者就可以通过服务注册中心的目录资源进行查找。

订阅/发布是通过数据交换平台的中心交换服务器进行订阅和发布的。信息请求者向中心交换服务器订阅服务, 信息发送者将数据发布到中心交换服务器, 中心交换服务器接收到发布数据后, 将信息发送给请求者。

用户订阅此服务后, 一旦信息发送方的数据发生增加、删除、修改等变化, 数据交换中心会自动将更新的信息发送给信息订阅者。

三、数据交换模式的分析

上述三种数据交换模式都有由特点, 主动发送模式比较适合于几个部门之间有固定业务关系的, 一旦一个部门的信息发生变化, 其它几个部门的信息也要实时发生变化, 比如上述的大通关, 进出口企业的信息更新后, 就要及时的通知海关、工商、税务、质检、公安等部门。

请求/应答模式每次进行数据交换时, 都要有请求应答消息, 数据的及时性没有主动发送模式性强, 因此这种模式比较适合于小范围部门间小量数据的交换。

订阅/发布模式是几种数据交换模式中最具有松藕合性的, 用户只要把要共享的信息发布, 其它事情都可以由数据注册中心完成;用户要访问共享信息时, 只要向注册中心订阅该信息就可以了, 其它也由数据注册中心完成。

四、小结

上述分析了数据交换平台中的三种数据交换模式, SOA服务架构体系是一个不断发展的过程, 数据交换模式也在不断的发展中, 我们可以根据不同的情况选用不同的交换模式。

摘要:我国的信息化建设已取得一定的成果, 但也存在各个应用系统孤立, 应用系统之间不能进行数据共享与交换的问题。要把各个孤立的应用系统整合起来, 就必须要建立一个公共的数据交换平台。各个应用系统通过统一的接口与数据交换中心连接, 通过数据交换中心进行数据交换与共享。

关键词:数据交换平台,数据交换模式,SOA

参考文献

注:本文为网友上传,旨在传播知识,不代表本站观点,与本站立场无关。若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:66553826@qq.com

上一篇:数据交换的复用 下一篇:直接数据交换通信