视音频处理(精选九篇)
视音频处理 篇1
20世纪末, 科学技术和艺术的关系越来越密切, 科学技术媒介被广泛的引入艺术实践领域, 信息时代的数字技术作为一种媒介机制与艺术相结合, 其中非线性编辑技术尤以其低成本、高效率、高质量和效果变换无穷的优点迅速进入了电影、电视、网络等传播领域。
非线性编辑是针对线性编辑而言的, 在传统的电视节目制作中, 节目的制作和编辑是在编辑机上进行的。编辑机一般是由一台放像机和一台录像机组成, 编辑人员在放像机中选择一段需要的素材, 然后把这段素材录制到录像机中的磁带上, 然后再搜索下一个镜头, 接着再进行记录工作, 之后重复以上的操作, 直到把所有需要的素材按照节目要求全部顺序记录下来。[1]
用磁带记录画面是顺序的, 所以无法在已有的画面之间插入别的画面, 也无法删除不需要的画面, 除非把这之后的画面全部重新录制一遍, 插入所需的画面, 最后再把之前复制的画面接上, 这种编辑方式就叫做线性编辑, 它给编辑人员带来很多的限制, 编辑效率非常的低下。
非线性编辑则是应用计算机图像技术, 在计算机中对各种原始素材进行各种编辑操作, 并将最终结果输出到计算机硬盘、磁带、录像带等记录介质上这一系列完整的工作过程。所有的原始素材是被数字化后才存储到计算机硬盘上的, 信息存储的位置都是并列平行的, 所以与原始素材输入到计算机时间的先后顺序没有关系。于是, 我们就可以对存储在硬盘上的数字化音视频素材进行随意的排列组合, 并可进行各种修改。这样, 非线性编辑的优势就体现出来了, 工作效率也提高了很多。编辑人员现在所要做的就是如何去创作他的作品, 如何发挥他的想象力, 再也不用受线性编辑的限制了。[2]
任何非线性编辑的工作流程, 都可以简单地看成输入、编辑、输出这样三个步骤。当然由于不同软件功能的差异, 其使用流程还可以进一步细化。以大洋D3-Edit为例, 其使用流程主要分成如下5个步骤。
(1) 素材采集与导入:采集就是利用大洋D3-Edit, 将模拟视频、音频信号转换成数字信号存储到计算机硬盘中, 或者将外部的数字视频存储到计算机硬盘中, 成为可以处理的素材。导入主要是把其他视频、图片、声音等导入到大洋D3-Edit的素材库中。
(2) 素材剪辑:素材剪辑就是在原始素材中选取所需的各个小片段, 然后按照时间顺序组成不同新的素材的过程。
(3) 特技处理:对于视频素材, 特技处理大概分为转场、特效、合成叠加等。对于音频素材, 特技处理分为转场、特效等。令人震撼的画面效果, 就是在这一过程中产生的。而非线性编辑软件功能的强弱, 往往也是体现在这方面。配合某些硬件, 大洋D3-Edit还能够实现特技播放。
(4) 字幕制作:字幕是节目中非常重要的部分, 它包括文字和图形两个方面。大洋D3-Edit中制作字幕很方便, 可以实现各种预期达到的效果, 并且还有大量的模板可以选择。
(5) 输出与生成:节目编辑完成后, 就可以输出回录到录像带上;也可以生成视频文件, 保存到移动硬盘上、发布到网上、刻录VCD和DVD等。
由此可见, 音视频素材的采集与输入是整个非线性编辑流程的第一步, 也是至关重要的第一步。没有对素材优良的采集编码, 就谈不上好的非编系统, 下面我们就来详细深入地研究音视频输入系统。
二、非线性编辑系统中的视频处理
首先, 我们来说说人的视觉特性。人眼是依靠视网膜上光敏细胞一杆状细胞和锥状细胞获得了彩色视觉, 人眼仅对电磁波谱中的可见光区 (波长从380nm到780nm) 敏感, 人眼对亮度的敏感程度比对颜色的敏感程度高。
了解了人的视觉特性后, 我们再来研究视频信号。一般评价和描述视频信号的好坏, 就会提到一些指标, 如分辨率、帧速率和色彩数等参数。分辨率就是画面的精密度, 它反映了画面的清晰度。分辨率为384×288的电视图像与分辨率为384×576的电视图像的画面质量有明显的区别。电视节目后期制作中, 要求图像分辨率为720×576或768×576 (PAL制) 。帧速率是指每秒钟刷新的画面的帧数, 也可以理解为画面处理器每秒钟能够刷新几次。PAL制电视节目的帧速率为25fps (帧每秒) ;制作多媒体光盘出版物时一般选15fps的帧速率。电影和NTSC制式电视的帧速率分别为24fps和30/29.97fps。色彩数就是屏幕上最多显示多少种颜色的总数。描述每一像素的字节数决定了最多可同屏显示多少种颜色, 一般为256色、65536色和16777216色 (即真彩色) 。色彩数越多, 能表现的彩色层次越丰富。[3]
视音频采集卡是非线性编辑系统的“引擎”, 在非线性编辑系统中起着举足轻重的作用, 它直接决定着整个系统的性能。它主要有以下功能:完成视、音频信号的A/D、D/A转换, 即进行视频、音频信号的采集、压缩/解压缩和最后的输出等功能, 也称这类卡为视音频处理卡。视音频处理卡是模拟信号与数字信号的分水岭, 所有模拟视音频信号在此经过A/D变换后, 每一段素材都成为了一个视频文件存放在硬盘阵列中, 供计算机进行数字域的处理。需要输出的视音频数码流经过D/A变换成为可供记录或直播的视音频信号。视音频处理卡上包括模拟信号接口如复合、分量、S—VIDEO, 已涵盖现有模拟电视系统的所有接口形式, 也包括像IEEE—1394和SDI这样的数字接口。
视频处理卡是非线性编辑系统产品的决定性部件。一套非线性编辑系统所能达到何种程度的视频质量, 与视频处理卡的性能密切相关。压缩与解压缩是视频处理卡的核心内容。在数字视频信号不能被有效而高质量地压缩时, 非线性编辑都是在昂贵的工作站上实现的。因为庞大的数字视频数据量使苹果机和普通PC机都不堪重负, 不能正常处理数码率高达216Mb/s的无压缩数字分量视频信号或者142Mb/s的无压缩数字复合数字视频信号, 从而无法胜任无压缩数字视频信号的非线性编辑工作。然而, 随着数字图像压缩技术的发展, 各种图像压缩算法日臻成熟, 使得在苹果机和PC机上进行视频非线性编辑成为了现实, 这些图像压缩算法是实现相对廉价的视频非线性编辑的关键所在。而视频处理卡正是采用这样的压缩算法。只不过它把压缩程序集成在硬件中。目前, 国内外的非线性编辑系统, 大都是采用Motion-JPEG算法。Motion-JPEG可以理解为活动图像的JPEG压缩, Motion-JPEG基于静态图像压缩格式JPEG, 对活动图像进行实时的帧内压缩, 帧内压缩有一个好处就是可以精确的定位每一帧图像, 这一点非常适合非线性编辑, 在编辑过程中, 可以随机存取任意一帧图像, 对于帧编辑十分理想。Motion-JPEG采用DCT编码技术。由于这种算法不太复杂, 可以用很小的压缩比 (2:1) 进行全帧采集, 从而实现广播级指标所要求的无损压缩。若采用广播级指标进行2∶1压缩, 经过压缩的数字视频信号其数码率仍有108Mb/s (分量视频) 或71Mb/s (复合视频) 。Motion-JPEG的压缩和解压缩是对称的, 可以由相同的硬件和软件来实现, 这对压缩/解压电路实现高度集成化有帮助。由于这种算法不太复杂, 可以用很小的压缩比 (2:1) 进行全帧采集, 从而实现广播级指标所要求的无损压缩。
Motion-JPEG的压缩过程 (如图1) 大概由5个主要部分组成:
色抽样:在视频处理器中处理的是分量信号 (YUV) , 因此输入的信号不是分量信号, 需要进行转换, 亮度信号 (Y) 、色度信号 (UV) 各用8比特表示, 每个采样共用24比特。信号转换后, 亮度信号直接进入DCT编码器中, 而色度信号需要进行再抽样、同步, 然后进入DCT编码器, 这个过程是个有损失的过程, 有些信息丢失后无法还原。色度抽样时, 处理U分量的同时, 丢失V分量;处理V分量时, 丢失U分量, 这样减少了数据量, 本来需要24比特来表示一个抽样, 现在只用16比特 (8比特的亮度信号, 8比特的色度信号) , 这就是常说的4:2:2 (Y:U:V) 。不同的厂家可能有不同的处理方法, 有的会提高压缩比, 有的可能不做处理, 而采用24比特的无损信号。色度抽样完成后, 色度信号与亮度信号输入到DCT变换器中, DCT变换器的作用主要是用频率变换来表示图像。
DCT:分量信号的图像进入DCT变换器中, 每帧被分割成许多8*8 (像素) 的正方形, 一幅图像可以分割成几千个这样的正方形, DCT变换器对这些正方形进行分析, 计算出其灰度变化, 然后用频率表示其灰度值, 比如大块图形或轮廓变化不大的部分用低频表示, 对边缘或细节这样变化大的部分用高频表示, DCT变换器对所有正方形分析完后, 在对下一幅图像进行分析。从DCT变换器输出的亮色信号使用频率来表示的, 进入下一个过程-量化。
量化:量化过程决定了整个压缩过程的压缩程度, 可以采用有损压缩或无损压缩, 一旦进行有损压缩, 丢失的信息无法还原。Motion-JPEG一般采用2:1的压缩比, 在回放时, 可以达到无压缩时的视觉效果。根据对人类视觉系统的分析, 人眼对亮度和色度的敏感程度不同, 在辨别一幅图形时, 亮度信号对人眼的刺激更为重要, 而色度信号在损失90%的情况下, 人眼仍然可以分辨出图形。数字视频压缩技术参考了人眼的这个特点, 对色度信号进行压缩, 来得到较高的压缩比。量化级数是量化的重要参数, 其范围从0到255, 级数越大, 图像信息丢失越多, 图像质量越差, 可以得到较高的压缩比。量化级数与每帧的数据量成反比, 级数大, 每帧图像的数据量小, 反之亦然。通过量化, 把图像的频率数据根据量化转换成一系列的数, 记录了图像的信息。
零记数:量化过程产生一个数组, 通过计算数组中的零的个数, 来帮助在传输过程中判断数组的尾端。这个过程多采用RLE (run-length encoding) 算法。
霍夫曼编码:霍夫曼编码是DCT编码的最后一步, 对数据进行冗余计算, 把多余的信息去掉, 传递更少的数据。霍夫曼编码得到的结果, 就是存储到计算机磁盘上的数据。如果要看视频影象, 将这些数据解码, 然后通过数字/模拟转换, 得到模拟的视频信号, 又可以在监视器上浏览或记录在录像带上了。[4]
从硬件构成的角度看, 视音频采集卡可分为单通道和双通道两种。这里通道的意思是指在内部视频混合器之前的独立的视频回放通道。目前绝大多数的非线性编辑系统使用的都是M-JPEG算法, 因此可分为只有一个M-JPEG Codec (编解码器) 的单通道系统和有两个M-JPEG Codec的双通道系统。单通道系统只能对一路视频信号进行压缩记录和解压回放, 这就意味着系统肯定无法完成多层画面的实时处理。双通道系统由于可以完成两路视频信号的解压回放, 再与系统内部其他处理单元相配合, 就可以完成两路活动画面的实时混合处理。
三、非线性编辑系统中的音频处理
自1895年法国卢米埃尔兄弟发明电影直到1927年影片《爵士歌王》出现以前, 在30年里, 电影一直是一个“伟大的哑巴”。在告别默片时代的今天, 声音已经越来越成为现代电影和电视艺术表现手段的一个重要组成部分, 它们与视觉画面一起共同构筑银屏空间, 推动叙事, 完成艺术形象的塑造。因此, 在非线性编辑过程中, 如何处理好音频也就显得非常重要。
录入非线性编辑系统中的声音多数以不压缩的采样波形文件的形式保存。在音频数字化时, 模数转换的采样频率和采样深度影响系统中存储的声音信号的质量和音频素材所占用的磁盘空间。采样频率越高, 采样深度越大, 录制的声音质量就越好, 相应占用的存储空间也越大。目前多数电视台播出时采用单声道的电视伴音信号, 一般采样频率22KHz以上, 采样深度16比特即可满足要求。[5]随着对伴音质量要求的提高, 部分电视台已过渡到使用立体声音频信号进行部分节目的播出, 相应地需要选择CD质量的声音处理方式, 即以44.1KHz的频率采样, 记录成16比特的立体声信号。
和视频处理卡一样, 音频处理卡对音频信号的处理也是一个编解码的过程。音频信号由模拟信号转变为数字信号, 使用压缩技术通过编码量化, 记录在磁盘上。音频压缩系统是将音频信号的表示从时域转换到频域, 以实现基于心理声学的音频压缩, 所得的频域系数即是接下来要编码的内容, 频域系数可数字量化, 因为产生的量化噪声将与音频信号在同一频率上, 由于心理声学掩蔽效应, 对低的信噪比是可接受的, 基于人类听觉的心理声学模型, 对于每个单独的频率系数, 比特分配操作决定了什么样的SNR (信噪比) 可以接受, 最后, 频域系数数字量化到所需精度, 并格式化音频的基本码流。基本码流包括了使音频解码器实现相同 (对编码器) 比特分配的必要信息, 这样, 解码器将基本码流频率系数进行分组拆装和反量化, 从而重建频率系数。合成滤波器组是分组滤波器组的逆过程, 它将重建的频率系数还原为时域信号。
我们再来了解音频卡中声音信号的处理过程 (如图2) 。输入的模拟音频信号经过前置放大器放大后, 由程序可控增益放大器进一步对输入信号的幅度进行控制。抗混滤波器根据采样频率滤除可能引起噪声的频率。经过模数转换 (A/D) 和采样保持 (S/H) 电路, 得到8位或16位数字化声音数据。DSP芯片对声音数据进行ADPCM压缩, 以DMA传送方式, 通过PC总线将数据存储在硬盘上。声音重放输出的过程正好相反, 从硬盘读出的编码声音数据, 被系统以DMA方式传道到DSP处理器, 经DSP解码和数模转换 (D/A) , 变成模拟信号, 再由重建滤波器进行低通平滑 (sinx/x) 滤波。声音信号的输出电平在软件的控制下, 经过功率放大器输出。
在质量较好的非线性编辑系统中, 音频处理卡与视频处理卡往往是集成在一块卡上的, 称之为视音频处理卡, 完成视音频处理工作, 如采集、合成、输出等。某些非线性编辑系统由于主处理卡没有音频处理功能, 是通过外插音频处理卡来解决音频处理问题, 如果使用普通的多媒体音频卡, 其音频通道的频响、信噪比、接口形式及是否平衡输出都满足不了广播电视的要求, 而且, 这种低档的音频卡, 处理速度缓慢, 在采集和回放时, 跟不上视频卡处理的速度, 出现视音频信号不同步现象, 为了保持视音频同步, 就会出现丢帧现象。虽然使用外插卡往往造成不同步现象, 并不是说使用外插卡就一定不能满足要求, 有些高档的专业音频处理卡, 性能优越, 可以保持视音频信号的同步, 提供专业音频接口, 只不过价格相当高昂。所以音视频处理集成在一块卡上是比较合理的设计, 既能保证音视频信号的同步, 又降低了成本, 在非线性编辑系统中普遍使用。[6]
四、结语
数字化电视系统发展的步伐日趋加快, 计算机技术逐步渗透到广播电视的各个领域。非线性编辑技术经历了多年的发展, 其软硬件技术日趋成熟。既能满足高端的电影特技制作逼真炫目的需要, 又能满足低端的新闻剪辑制作。非线性编辑系统功能将更加完善, 在广播电视行业占据的地位也会越来越重要, 作为一项朝阳技术, 其应用一定会迎来一个辉煌时代。
参考文献
[1]余胜泉.非线性编辑系统[M].中国传媒大学出版社, 2005
[2]张晓冬, 李刚.国内非线性编辑及网络技术发展综述[J].广播与电视技术, 2007 (2)
[3]宣长林, 鲁岩.非线性编辑技术发展
[4]张洪甫.线性编辑和非线性编辑[J].中国有线电视, 2007 (03/04)
[5]杨继荣.媒体数据传输及存储管理平台的发展思路[J].西部广播电视, 2004 (10)
视音频处理 篇2
规定要求,对于以下现场执法活动,公安机关应当进行现场执法视音频记录:
一是接受群众报警或者110指令后处警;
二是当场盘问、检查;
三是对日常工作中发现的违反治安管理、出入境管理、消防管理、道路交通安全管理等违法犯罪行为和道路交通事故等进行现场处置、当场处罚;
四是办理行政、刑事案件进行现场勘验、检查、搜查、扣押、辨认、扣留;
五是消防管理、道路交通安全管理等领域的排除妨害、恢复原状和强制停止施工、停止使用、停产停业等行政强制执行;
六是处置重大突发事件、群体性事件。
地方公安机关和各警种可根据本地区、本警种实际情况,确定其他进行现场执法视音频记录的情形。
该规定明确了使用执法记录仪的起止时间:公安机关开展现场执法视音频记录时,应当对执法过程进行全程不间断记录,自到达现场开展执法活动时开始,至执法活动结束时停止;从现场带回违法犯罪嫌疑人的,应当记录至将违法犯罪嫌疑人带入公安机关执法办案场所办案区时停止。
同时,现场执法视音频记录应当重点摄录5方面内容:执法现场环境;违法犯罪嫌疑人、被害人、被侵害人和证人等现场人员的体貌特征和言行举止;重要涉案物品及其主要特征,以及其他可以证明违法犯罪行为的证据;执法人员现场开具、送达法律文书和对有关人员、财物采取措施情况;还有其他应当记录的重要内容。
根据该规定,现场执法视音频资料的保存期限原则上应当不少于6个月。对于记录以下4类情形的现场执法视音频资料要永久保存:作为行政、刑事案件证据使用的;当事人或者现场其他人员有阻碍执法、妨害公务行为的;处置重大突发事件、群体性事件的;其他重大、疑难、复杂的警情。
而对具有“应当进行现场记录的执法活动未予记录,影响案事件处理或者造成其他不良影响的”“剪接、删改、损毁、丢失现场执法视音频资料的”“擅自对外提供或者公开发布现场执法视音频资料的”这3种情形之一的,应当依照有关规定,追究相关单位和人员的责任。
(本刊编辑部综合)
视音频转码技术初探 篇3
关键词:转码技术,视音频编解码,DirectShow,主动防毒
0 引言
在电视节目的编辑过程中,越来越多的直接利用外来的数字视音频数据,例如通过互联网回传的节目素材、媒体间通过互联网交换的素材、直接利用互联网中的视音频素材、各种非专业的采录设备(包括监控设备、隐蔽拍摄设备甚至新闻目击者利用手机、照相机拍摄的素材)采集的素材,这些素材虽然也都是数字形式的,但是由于来源复杂、格式多样,往往不能得到目前非线性编辑系统的直接支持。因此,为了更有效地利用这些素材,必须完成这些视音频资料的转码。
目前广电设备供应商可以提供的仅仅是现有各种核心业务网络间的转码工具(如编辑网络和媒资网络、播出网络间的转码服务器等),其支持格式往往是有限的,基本上没有提供用于素材采集的支持多格式的转码工具。
同时,大量利用通过互联网络传输的素材,必然影响到核心业务网络的安全性。即使在互联网和核心业务网络间进行严格的物理隔离,使用U盘等移动存储设备进行拷贝等方式,也难以杜绝病毒,因为目前的一些格式的媒体文件中同样可以传播病毒,例如,利用Real Player漏洞进行传播的“Real蛀虫”病毒、利用微软GDI+漏洞传播的图片病毒等等。另外,如果在媒体文件的尾部附加一些代码,媒体文件仍可正常播放,而且简单地通过检查文件头的方式来确认文件格式也难以发现这些附加代码,而通过杀毒软件查杀病毒则是被动的,不仅要及时升级病毒库,还要寄希望于未感染最新病毒,因此采用主动的防毒手段是最好的选择。转码就是一种较好的主动防毒手段,因为转码过程就是将源文件解码成为视音频流,然后重新编码的过程,这样即使源文件中含有非法的代码,但因为非法代码无法正常解码回放,因此也就不可能被重新编码至新的媒体文件中去,然后通过网闸等物理隔离设备,指定摆渡文件,就基本可以防止病毒的传播。
事实上,可以利用一些流行的第三方免费转码软件,例如格式工厂。格式工厂号称是万能格式转换软件,几乎支持所有格式间的转码,而且不断更新。但在实际的应用中却发现,即使完成了转码工作,但是也难以保证从转码完成到文件传输完成过程中文件的绝对安全,比如这中间可能需要通过U盘等移动存储设备拷贝,或不同计算机之间的拷贝,拷贝过程及其环境是否安全、洁净都难以确保,因此需要将转码和传输在一个过程中完成,这就需将转码过程嵌入到完成素材迁移的过程中去,研究转码技术十分必要。
1 利用第三方的控制台转码软件完成转码
目前,免费开源的转码器有很多,其中比较著名的有ffmpeg.exe和mencoder.exe两款,这两个都是控制台下运行的软件,即需要在DOS环境下通过输入命令的方式运行,互联网上很多转码软件都是利用它们进行转码的,包括格式工厂等软件。ffmpeg.exe和mencoder.exe除了在命令语法上有些区别外,用法基本相同。
ffmpeg本身是Linux下的LGPL开源程序,但可以在Windows平台下进行特定的编译,生成一个可执行文件,即ffmpeg.exe,当然在其官方网站上也可以直接下载得到它,下载网址为:http://www.ffmpeg.org/releases/。虽然它是一个控制台软件,但它的功能相当强大,包括视频文件截屏、屏幕录制、视音频采集以及绝大多数视音频文件格式之间的任意转换等。以电脑中D盘下flv格式文件“天籁.flv”转换成DVD格式为例,其语法如下(ffmpeg.exe在D盘根目录下):
ffmpeg.exe-i d:天籁.flv-target pal-dvd-ps2000000000-aspect 4∶3 d:天籁1.mpeg
语法参数在这里不做具体说明,互联网上对此的解释很详细。图1为其运行效果。
Mencoder.exe是Mplayer自带的一个编码工具,Mplayer原是Linux下著名的开源播放器,支持几乎所有视频格式的播放,现在有Windows和Mac两个版本,其下载网址为:http://www.mplayerhq.hu/MPlayer/releases/win32/。mencoder.exe的语法为:
mencoder.exe d:天籁.flv-o d:天籁2.mpeg-oac lavc-lavcopts
acodec=ac3:abitrate=96-srate 32000-ovc lavc-lavcopts vcodec=mpeg2video:vbitrate=6000-vf scale=720:576, harddup-ofps 25
运行效果如图2。
在实际程序设计上,我们采用图形化界面来让用户选择要转码传送的文件并启动转码任务,但在转码过程中把DOS运行界面屏蔽掉,使其只在后台运行,并且获取转码进度信息。这也是目前互联网上大多数转码软件所使用的方法,为了更好的支持更多格式的视频文件,我们把ffmpeg.exe和mencoder.exe都集成到了软件里,程序界面如图3所示。
在程序的具体的实现上,我们用CreateProcess (0, cmd.c_str () , &sa, &sa, TRUE, NORMAL_PRIORITY_CLASS, 0, 0, &si, &pi) 这个函数来启动转码任务,其中cmd.c_str () 参数是ffmpeg.exe和mencoder.exe的输入命令,也就是上面所示例的语法命令;&si参数是指向一个STARTUPINFO结构对象,该结构定义了新进程的主窗口将如何显示,其中wShowWindow属性设置为SW_HIDE时,窗口将不显示,也即屏蔽了DOS窗口界面;&pi参数是一个管道对象,用于获取DOS的输出信息,也就是上面图中的文字内容,这样我们就可以获取到转码过程中的相关信息。
因为程序中调用的ffmpeg.exe和mencoder.exe都是第三方可执行软件,除了DOS的输出信息外,我们无法读取其内部运行信息,所以转码进度是一个比较难以处理的问题。从图3中可以看出,ffmpeg的DOS输出信息中没有进度显示,但是它提供了原始视频的时长,也提供了当前已转码视频的时长,通过计算也可以得出进度。而mencoder的DOS输出信息则直接给出了进度显示,但在实际的测试中发现,该进度并不完全准确,当转码完成时,其显示的不是100%,少于和多于该值的情况都出现过,特别是某一些后缀名为mp4的视频文件,其进度显示一直为0,但实际上转码是一直在进行的。另外mencoder的DOS输出信息只有已转码的时长,但没有给出原始视频的时长,所以也无法通过计算得出。
由于进度显示的不确定性, 用它来判断转码任务是否结束就不十分准确了, 这就必须通过对系统进程和目标文件大小的检查来判断任务是否结束。当转码任务正常进行时, 系统中会有ffmpeg.exe或者mencoder.exe两个进程, 目标文件大小是在不断变化的, 当转码结束时进程自动关闭, 目标文件大小不再变化, 当然, 在转码任务启动失败, 或者遇到不能识别的文件格式时, 其进程也会自动退出, 但是这个时候目标文件大小为0或者是不存在。这样的话, 我们可以每隔一个固定时间去查询进程是否存在, 如果不存在则去查询目标文件大小, 如果为0或者不存在则转码失败, 如果大小不为0则转码完成;如果进程存在, 但目标文件大小连续5次没有变化, 我们判定转码失败, 并强制结束该进程, 但这种情况在测试中一直没有出现过, 但为了防止程序陷入死循环只能当作失败处理。具体的系统流程如图4所示。
可以看出,进度的显示和转码任务结束的判断是两个线程来完成的,对于进度显示不准确的情况,可以最后在转码完成时显示100%的进度以示完成,对于大于100%的在转码完成前都做99%来处理。当转码完成后,传输线程会马上启动,将目标文件传送到指定服务器上,这样也大大降低了感染病毒的几率。
所有外来素材必须转码的一个主要原因就是素材的安全问题。在设计过程中,我们曾做过这样一个测试,用文件合并器把一个视频文件和一个EXE的可执行文件合并成一个文件,顺序是视频文件在前,因为程序读文件的时候是先读文件头,里面会有该文件的类型、大小等信息,如果是可执行文件在前,那么合并后的文件就会被认为也是一个可执行文件而不是视频文件,转码软件自然就不能进行转码,播放器也不能播放该文件。当视频文件在前面时,播放器也能正常播放,转码也正常完成了,而且目标文件大小跟单独的视频文件转码后的大小一样,这就说明,转码器在转码过程中,会丢掉了视频文件中的非法部分, 也就是后面的可执行文件部分,这样来看转码后的目标文件是安全的,转码过程的确可以避免一些病毒的传播。
2 基于微软DirectShow的转码技术
Directshow是微软提供的一套针对视音频数据采集和显示的系统架构,其原来是DirectX家族中的一个成员,而目前已经从DirectX中分离出来,成为Windows平台SDK中的一部分了(最新版本包含在Microsoft Platform SDK for Windows Server 2003 R2中,下载地址:http://www.microsoft.com/downloads/details.aspx?displaylang=en&Family ID=484269e2-3b89-47e3-8eb7-1f2be6d7123a),而且目前国内的非线性编辑产品基本上都是基于DirectShow的。DirectShow架构被用于全方位的多媒体处理,包括采集、编解码、回放、视音频数据的存储等。DirectShow采用4种主要抽象来操作多媒体数据。这些抽象术语为过滤器(filter)、管脚(pin)、媒体样本(mediasample)和媒体类型(mediatypes)。将相应的过滤器(filter)加入到当前的Graph中,就可完成采集、编解码、回放等工作,当然也就可以完成转码工作。下面以两个例子具体描述一下Directshow在转码中的应用。
1.简单的视音频文件转码实例
有一款隐蔽摄像机,其文件格式为AVI,具体的媒体类型, 视频为MJPG (mediatypes:Majortype:Video、subtype:MJPG、Format:MJPG 640X480, 24 bits),音频为PCM (mediatypes:Majortype:Audio、subtype:PCM、Format:8000 Hertz, 8 Bits, 1 Channels) 。记者完成采访后,可利用格式工厂将其转码为MPEG2格式的MPG文件,引入非线编中后就可直接编辑使用。但当记者携带移动非编及隐蔽摄像机外出采访,试图利用格式工厂将文件转码为WMV格式,并引入移动非编时,移动非编竟不能识别转码后的WMV格式文件,尝试前文所述的ffmpeg转码,移动非编仍不能识别。为此,我们专门设计了一个专用的转码小软件,成功完成转码,并被移动非编识别。其界面如图5所示。
Directshow中提供了一个工具GraphEdit(缺省情况下其安装目录为C:Program FilesMicrosoft Platform SDK for Windows Server 2003 R2/Bin),可演示完成每个过滤器(filter)的连接和工作情况,如前文所述的MJPEG文件到WMV文件的转换如图6所示。
这是一个最简单的转码实例,只需通过调用
依次将File Source (Async.) 、A V ISplitter、MJPEG Decompressor、ASFWriter四个Filter加入到当前Filter Graph Manager中,并将相应的Pin连接成完整链条即可。这四个Filter中,File Source (Async.) 是打开并读出源文件的Source Filter, AVI Splitter则将AVI文件中的视音频分离,MJPEG Decompressor则将MJPEG格式的视频流解码为无压缩的视频流,ASFWriter则将无压缩的视音频流重新编码、混合、生成WMV格式的文件。
2.DVD素材采集
节目中经常会用到DVD中的素材,而普通的DVD机都是民用设备,只有模拟输出口,因此直接利用DVD机播放的信号进行采集质量会有所下降。利用Windows DVD Maker、格式工厂的工具也可以完成DVD的转码等工作,但是出于前文所述的为了方便将采集过程嵌入到传输过程中的考虑,我们自己设计了一款DVD素材的采集软件,可以完成DVD的播放、直接录制、打点录制的工作,软件界面如图7所示。
DVD的采集比较复杂,在Directshow SDK中有一个DVD播放的实例,直接使用DVDGraphBuilder完成DVD的播放,即调用DvdGraphBuilder的IDvdGraphBuilder接口下的RenderDvdVideoVolume方法,自动枚举Windows系统中的相应的Filter完成DVD播放。其可能的Filter Graph链路如图8。
如图8所示,DVD Navigator (DVD导航器) 将DVD中的视频、音频及子图片分离,视频及子图片交由视频解码Filter (Microsoft DTV-DVD Video Decoder) 完成解码,Line21 CC信息再由Line21 Decoder Filter完成解码后,交由VMR-9在屏幕上显示,而音频交由音频解码Filter(这里是AC3Filter)解码后交由缺省的音频硬件(一般是声卡)播出。因为Filter Graph的建立过程是自动枚举Windows系统中的相应的Filter完成的,所以由于不同的用户系统中安装的Filter不同,其选择的相应Filter也会不同。另外,由于DVD中视频都是按照MPEG2格式压缩的,但音频却可能是AC3、MPEG、LPCM、DTS、SDDS等多种格式,因此需要根据具体的音频格式选择相应的解码Filter(或者不需要解码)。其实,微软提供了一种音频解码Filter,即Microsoft DTV-DVD Audio Decoder,可以解码任何DVD格式的音频,但它只在使用File Source加MPEG-2 Splitter时才能正常使用,而和DVD Navigator配合,则任何格式的音频都没有声音输出。即使在DirectShow SDK中的实例中也一样,但也有例外,就是Microsoft自己的应用程序都可正常使用,其中的奥秘恐怕只有Microsoft知道了。顺便说一下,早期版本的DirectShow不提供MPEG2的解码器,要想播放DVD必须寻找第三方的解码Filter,至今msdn的帮助中还说Microsoft除了解码器外提供DVD的所有播出手段。目前版本的DirectShow提供了用于DVD的视音频解码Filter,但是还是在音频中留下了一点小秘密。
而我们的目的是在完成DVD播放的同时还要完成转码工作,因此不能使用DVDGraphBuilder,只能自己创建Filter Graph。具体的Filter Graph链路如图9。
比较图8、图9就会发现,多出了两个分支器(Smart tee), 多了一个视频解码(Microsoft DTV-DVD Video Decoder)以及MPEG2的重新编码(Microsoft MPEG-2Encoder)和文件写入(File Writer)。Smart tee将视频或音频有一路输入变为两路输出,以便于在录制的同时可以监看画面(监听声音)。实际上Microsoft提供的Smart tee是难担此任的,其Preview Pin的输出质量非常差,音频断断续续还有输出,视频有可能根本没有输出。所以,如果非常看重监看质量,一定要选一个质量好的第三方分支Filter。但无论如何,文件的写入一定要接入分支器的Capture Pin,以保证录制的文件质量。Smart tee之所以放在视频解码器的前面,是因为如果放在后面,Smart tee的输出需要再次改变格式才能和VMR-9连接,而且只有第三方的Filter才能完成。但Smart tee放在解码器前面,就需要每路输出都要解码,增加了系统开销。音频不存在此问题,因此Smart tee放在了音频解码器的后面。但这里使用了Microsoft DTV-DVD Audio Decoder,不是说它在这里可以用,而是想强调最好能够找到一个解码所有DVD中音频格式的Filter,第三方也有这样的解码器,如果找不到,只有枚举已有解码器根据不同格式分别解决,只是必须动态创建解码Filter,编程难度较高而已。
解码完成后,就可以进行MPEG2的重新编码,写入文件就行了。只是需要调用File Writer的IFileSinkFilter接口的SetFileName设置相应的文件名称和媒体格式。
对DVD的操作DVD Navigator中的IDvdControl2接口都提供如播放、停止、暂停、快进、快退、菜单、音频声道的选择、父母锁等等,也可以实现单帧步进。DVD Navigator中的IDvdInfo2接口中的各种方法可以查询到DVD的当前状态、精确到帧的当前时间、当前Title、当前Chapter等相关信息,和IDvdControl2中的一些方法配合,如PlayAtTimeInTitle,就可实现打点录制。
图9是录制情况下的Filter Graph状态,所播放的视音频同时被录制,在未按下录制键时的Filter Graph状态应如图10,按下录制键后,停下Filter Graph,分别将Microsoft DTV-DVD Video Decoder、Microsoft MPEG-2 Encoder和File Writer加入,连接相应的Pin,调用PlayAtTimeInTitle从当前时间重放。停止录制时,分别将Microsoft DTV-DVD Video Decoder、Microsoft MPEG-2 Encoder和File Writer之间的Pin连接断开,并从Filter Graph中将这些Filter删除,恢复播放状态下的Filter Graph。
目前Windows平台下的所有视音频处理几乎都是基于DirectShow技术的,不仅是前文提到的非线性编辑系统,多数媒体播放器和转码工具都是基于DirectShow,除了前文所述的ffmpeg的基于Linux的开放系统是直接编译获得的控制台软件外,其他都是基于DirectShow。例如格式工厂除了部分直接利用了ffmpeg内核外,也大量使用了编解码Filter,完美解码更是将ffmpeg改写成了基于DirectShow的编解码Filter, 因此我们可以利用各种资源建立自己的万能编解码软件,即建立一个动态的通过枚举系统中的所有可用的编解码Filter来完成所需的转码工作,如果系统拥有足够多的编解码Filter,就可成为真正的万能转码工具。
3 结束语
音频处理专家 篇4
传统的高清播放机经过了几年的发展,在高清视频解码上都已做到极致,很难再有上升空间,也不再有优劣之分,要想吸引消费者的眼球,就只能在某些功能上做出特色。DVICO 6600N就是这样一款机子,它在刚刚上市时就曾凭借其优异的视频解码功能和相对较高的价格摆出了“谁与争锋”的气势,而这次DVICO再度让6600N出山,自然是多了引以为傲的功能。
DIY你的碟架
插硬盘-开机-翻目录-播放,高播机玩久了,是否对欣赏影片之前的这些操作觉得厌倦?不要紧,6600N特有的电影目录封面制作功能会让你浏览影片目录也成为一种享受,通过自己的精心制作,你的电影目录不再是一排排文字和文件夹,取而代之的是碟片封面一排排的有序排列,点击后还能看到简短的影片介绍。当然,这些并不是高播机自己生成,而是需要你用勤劳的双手去亲力打造,别嫌麻烦,这本身就是很有趣味的一件事。
强劲的音频处理能力
这次6600N最显著的增强就是在音频处理上。很多DIY发烧友对于温度补偿晶体振荡器(TCXO)都不陌生,这是一些骨灰级发烧友的必修课。温补晶振广泛应用于无线和移动通信系统,而在音频处理方面,如果用的适当,可以带来非常好的效果,目前在成品机中,只有安桥的一款DVD使用了温补晶振,这次6600N使用温补晶振,无疑是一次极大胆的尝试。
本刊用安桥的TX-NR708功放搭配KEF的Q900,用这套2.0系统来体验6600N的声音输出效果,并和此前的6600N做一下对比。结果表明,改进后的6600N对音乐的解析力提升了很多,在轻音乐、乡村音乐方面尤为明显,人声更加突出,层次分明;流行音乐和摇滚音乐上,低频也十分突出,总体而言,6600N在音乐上的表现力可以和中端的CD机相媲美。
视音频多路信源集成监控系统应用 篇5
关键词:多路信源,集成监控,应用
1 信号流程、系统结构与监测原理
多路信源信号经过视音频采集卡, 转换为计算机可识别的码流信号, 输入计算机内部存储器, 经过程序存储运算, 以固定格式分别输出至显卡和声卡, 再经过接口转换, 视频以DVI/VGA信号输出至显示器, 音频以模拟信号输出至音箱。每路信源对应一个物理采集传输通道, 每个通道对应一个显示窗口, 每个通道都定义一个标识符号。在程序操作指令下, 顺序执行取样与存储、运算, 将输出结果定向在固定的区间中, 并进行实时动态显示。多画面与单画面嵌套, 并可任意在两者之间进行切换, 形成类似“电视墙”和单屏电视的效果。
2 视音频多路信源集成监控系统的基本功能
2.1 图像/图形监视
分区显示的图像及图形化窗口分布由用户自定义编辑。任意一个电视通道的图像可以全屏显示。当视频信号丢失, 或视频幅度低于阀值, 或音频低于-50d B时, 显示图形/图像的边框为红色, 视频显示区显示“无视频信号”字符。
2.2 音频监听
音频监听由声卡输出至音箱。当单击某个视频窗口或音量柱图形时, 该窗口会出现绿色边框, 表示为当前选中窗口, 声卡输出这路伴音用于监听。
3 视音频多路信源集成监控系统的建立
从硬件、软件两个系统进行设计。
3.1 硬件设计、连接及安装
(1) 信源的物理设计。根据接口类型、阻抗匹配、电平大小等物理特性进行电路设计。视音频接口一般采用BNC口。视频采用同轴线缆, 音频采用不平衡。电平要经过均衡调整。 (2) 根据信源数量多少配置信号采集卡, 配置支持多屏显示的显卡。配置计算机及附属设备。 (3) 根据信源设备的类型进行信号分级。 (4) 对信号源进行连接, 并调试。 (5) 对计算机内部及外部设备进行安装。 (6) 连接多路信源的监测线路至计算机。
3.2 软件系统安装及调试
(1) 计算机系统软件的安装。在Windows XP操作系统下, 安装硬件驱动程序, 配置显示器等外设。
(2) 用户监控软件的编写、安装。根据用户要求编写监控应用程序, 包括数据库、子程序等;配置子单元窗口, 包括以下几个方面。 (1) 频道设置:根据信源的来源, 输出的频道, 编写相应的对话框栏目。 (2) 通道配置:根据信源来源、信源类型、频道编号配置通道的编号及类型。 (3) 显示窗口配置:根据多屏窗口控制台生成的选项卡, 对相应的显示器进行操作。在选项卡上添加并设置窗口属性, 将显示窗口投射到相应显示器上。 (4) 时钟配置:根据用户爱好, 选取时钟的显示窗口格式, 并配置其位置及大小。 (5) 用户权限设置:对不同用户设置不同的权限。 (6) 报警配置:对视频、音频信源的监测质量设置报警门限值, 并配置报表、报警生成参数及报警显示方式。 (7) 切换配置:根据对信源监测质量判断, 设置自动、手动“切换台”窗口。 (8) GSM配置:根据用户管理信息, 对已配置用户设置短信报警类型。
所有子系统配置安装完成以后, 整个系统就可以进入调试运行。
4 视音频多路信源集成监控应用实例
图1是一个实际投入应用的系统。
该计算机集成监控系统监测五套广播电视节目, 接入21路信号, 编入2个通道, 选用24路视音频采集卡。主机采用支持多屏显示功能的显卡, 接入主、辅共三台显示器, 主显作为桌面显示用;辅显作为三套电视节目的9路图像 (V) 信号及其伴音 (A) 信号音量显示, 以及对二套立体声调频广播的12路音频信号分别以左 (L) 、右 (R) 声道音量柱图形显示。同时, 声卡输出接音箱, 提供声音监听。
基于前端切换视音频监控系统的实现 篇6
近年来,人们越来越关注生存环境,重视突发灾害的预警与紧急应对措施的建立,迫切希望提高生产和生活管理的智能化水平,视频监控系统也作为人类视觉的延伸越来越受到重视,得到了广泛的应用[1]。
传统的视音频监控系统都是通过独立的电缆把视频和音频信号传送到监控中心,切换和控制也是在监控中心进行,因此需要铺设大量的电缆。笔者提出了一种前端切换视音频视频监控系统,所有监控点与监控中心只要3条总线电缆相连接,视音频切换分散在监控点进行;各监控点的视频信号线,音频信号线和控制线都分别连接在这3条总线上;视音频切换信息和前端设备控制信息在同一条电缆上传输。该系统对监控点实行分区管理,它可以将所有的监控点划分为16个分区,每个分区可以有16个监控点。
1 系统总体介绍
基于前端切换视音频监控系统的总体结构图如图1所示。监控中心与前端监控点通过3条总线连接。各监控点的视频输出,音频输出和地址切换与动作控制电路均分别连接在这3条总线上。每个监控点都有自己特有的地址编码,进行视音频切换时,监控中心发出所要切入视音频信号的监控点地址,与所发出的地址一致的监控点就会将它们的视频信号和音频信号分别接入视频总线和音频总线,然后送到监控中心。
2 监控系统的硬件部分开发实现
2.1 监控中心电路结构及原理
本系统监控中心电路主要由PC、电平转换芯片MAX232、单片机8051、2块74LS164和1块VD5026芯片组成,其电路连接如图2所示。其工作的原理是:首先由控制PC产生出8位的地址编码和4位的动作编码(共需2 byte),经过电平转换后,发送至单片机的串口,再由单片机的串口将接收到的地址编码和动作编码输出至74LS164实现串并转换,然后传送给VD5026,并由单片机的P0.1口发出1个低电平至VD5026的14脚即发射指令端,使VD5026将地址编码和动作编码传输到监控前端解码器,控制摄像头的选择、云台的转动、摄像头焦距的远近、光圈大小及镜头伸缩等。
计算机和单片机的通信以及单片机和74LS164之间的数据传输都采用串口通信。其中单片机的RXD端既要接收从计算机发过来的数据,还要发送数据到74LS164,因此为了避免冲突,在计算机向单片机传输的线路上加了1个起隔离作用的二极管。
2.2 监控前端电路
2.2.1 监控前端解码电路结构
监控前端解码电路主要由VD5027、4514、驱动电路等组成,如图3所示。
2.2.2 监控前端工作原理
前端解码器由接收解码集成电路VD5027、切换控制电路、动作控制译码器与输出电路组成。
1)接收解码集成电路VD5027
VD5027是与监控中心编码发送电路VD5026配对的接收解码集成电路,监控中心控制器发送的地址与动作编码脉冲经隔离与抗干扰电路进入非门G1和非门G2整形,然后送入接收解码集成电路VD5027。监控点所在分区的编码由VD5027的地址端A5~A8设定,地址端A1~A4则确定监控点在该分区中的具体位置。VD5027要连续接收到2帧完全相同的地址与动作编码才会确认为有效。接收到第1帧串行码,它将其中的地址位与自身设定的地址编码相比较,若一致,就将串行码后串段的数据位暂存起来,若不一致,则不做任何处理。接收到的第2帧串行码时,如果地址码再次与自身地址编码一致,则把接收到的数据位与暂存的数据进行逐位比较,如果2次接收到的数据位也完全相同时,数据被转移到输出寄存器,并由数据端D0~D3输出。与此同时,VD5027的接收有效输出端VT输出高电平。
2)切换控制电路
接收解码集成电路VD5027的VT端连接R-S触发器的S端,它输出的高电平使R-S触发器Q端输出高电平,2个开关导通,该监控点的音频信号和视频信号分别进入总线。与此同时,应该断开原来输出视音频信号监控点解码器中的模拟开关,图3下方虚线框中电路为原解码器控制模拟开关的相关电路。当前解码器VD5027的VT端输出的高电平通过D1由前端环线进入原解码器,原解码器VD5027的VT端输出的高电平不会作用到R-S触发器的S端,但是由前端环线进入的高电平使异或门G5输出电平由低变高,R-S触发器R端高电平,它的Q端输出低电平,关掉其控制的模拟开关。原解码器开关的关闭和当前解码器开关的导通,使视音频信号的切换得以实现。其余监控点的解码器由二极管的隔离,由前端环线进入的高电平不会作用到R-S触发器的S端,Q端也就保持低电平输出,其控制的模拟开关保持关闭的状态。
3)动作控制译码与输出电路
当监控中心对前端设备进行操控时,VD5027的VT端输出高电平,然后经过非门G3反相置4514的禁止端INH低电平,接下来4514将VD5027的D0~D3输出的动作码译码,在相应的端口输出高电平,最后经驱动电路使前端设备工作。
3 计算机与单片机通信的软件实现
软件实现通信过程为:首先由计算机发出一呼叫信号,并做好接收单片机信号的准备,单片机收到呼叫信号后响应,并转入相应的服务程序,同时向计算机发送响应信号[2,3,4]。这样计算机就可以向单片机发送用户所要求的地址码和动作码,单片机在接收到计算机发过来的编码后,将编码通过串口发送到串并转换芯片74LS164。
3.1 控制码编码规则
在计算机和单片机之间握手成功之后,就可以进行控制数据传送了。本系统的控制编码格式为:控制码=动作码+地址码。
传输控制码时,先传地址码,然后再传动作码。前端监控现场的解码器收到控制码后,先验证是否是传输给本监控点的控制码。如果不是,不作任何反应;如果是,就将控制码接收下来,并将动作码解码后去驱动控制电机实现对前端摄像头动作的控制。
VD5026地址编码线有8条,动作编码线有4条,因此计算机向单片机传送监控现场的地址码和动作码共需2 byte,1 byte是地址码,1 byte是动作码,它们都用2位的十六进制数表示。可编码的地址共256(2的8次方)个,分为16个分区(用地址码的高4位表示),每个分区有16个摄像头(用地址码的低4位表示),例如,11H表示第1个分区中的第1个摄像头。可实现的编码动作有16(2的4次方)个。动作编码如表1和表2所示。
需要注意的是,由于VD5026只有4条动作编码线,故动作编码字节的高4位不能用于动作编码。
这部分编程设计主要用到的是Windows下串行口通信技术。
3.2 计算机端程序的实现
首先约定计算机和单片机的通信协议:PC机与单片机通信使用PC机的串口1(COM1),波特率为9 600baud/s,信息格式为8个数据位,1个停止位,无奇偶校验位。
为了实现通信,在VB语言环境下设置1个用作控制通信的窗体,并设置1个通信的控件Mscomm1、1个握手(shakehand)按钮、1个timer的控件。
'shakehand程序如下:
在计算机和单片机完成握手之后,计算机就可以向单片机发送地址编码和动作编码了,其实现程序与以上程序类似,故在此不再赘述。
3.3 单片机端程序的实现
单片机接收到计算机发来的握手信号时,向计算机发送已接收信号,双方握手通信完成。然后,单片机就可以接收计算机发出的地址和动作编码,并将其传给74LS164。
1)单片机与计算机的握手程序段如下:
2)单片机接收地址码和动作码的程序段如下:
3)单片机向74LS164通过串口发送地址编码和动作编码的程序段:
需要注意的是:在单片机将控制码全部发送给74LS164后,单片机的P0.1口要发出一个低电平至VD5026的14脚即发射指令端,从而启动VD5026向监控前端的解码器发送控制码。
4 小结
笔者提出了一种全新的视音频切换方式,打破了视音频切换集中在监控中心实现的传统切换方式,这样的视频监控系统既可以节省大量的线材和人工费用,又可降低施工难度,减少了传输线路故障隐患,提高了系统可靠性,应用前景良好。
摘要:设计了一种全新的基于前端切换的视音频监控系统。详细介绍了前端切换视音频监控系统的总体结构,监控中心和监控前端电路、程序的实现以及工作原理。该系统可以节省大量线材和人工,减少了传输线路故障隐患,提高了系统可靠性。
关键词:视音频监控,视音频切换,前端切换
参考文献
[1]刘富强.数字视频监控系统开发及应用[M].北京:机械工业出版社,2003.
[2]王保义,张少敏.接口与通信[M].北京:中国电力出版社,2008.
[3]于英民,于佳.计算机接口技术[M].北京:电子工业出版社,2004.
视音频文件自动技审的检测模板解析 篇7
随着电视节目生产环境向全程网络化、文件化逐步转变, 传统对基带信号进行人工技审的方式, 无论从技术手段还是审查效率, 都已完全不能适应新的无带化制播体系。从节目制作端, 经过打包合成、入库、审片、转码、迁移、播出等诸多环节, 在关键节点部署自动技审, 对数字化的压缩视音频内容验证检测, 实现全台网络环境下的技术质量控制保障安全播出, 是技术发展的必然趋势。
智能化自动化技审的实现程度、技审效率和准确性, 依赖于检测模板的设计。结合台内媒体数据链路的流转流程, 以及压缩视音频文件自身的特点, 本文从三个层次解析数字化后的自动技审检测模板, 逻辑结构如图1。
1 文件结构检测
文件结构 (File Structure) 检测包括对文件头的检测和全文件的检测。文件结构检测的特点是不需要进行解码, 检测速度快。
1.文件头的检测是通过对文件最基本部分的解析, 获取该视音频文件的一些公共信息, 可以包括以下内容:StoredWidth、StoredHeight、SampledWidth、SampledHeight、Display Height、Display Width、视频分辨率 (Resolution of the Video) 、视频色度格式 (Chroma Format of the Video) 、视频帧频 (Frame Rate of the Video) 、亮度和色度的采样分辨率 (Bits per Sample for Luma and Chroma) 、视频取样宽高比 (Sample Aspect Ratio of the Video) 、视频显示宽高比 (Display Aspect Ratio of the Video) 、视频平均比特率 (Average Bitrate of the Video) 、视频格式或视频信号类型 (Format or Signal Type in the Video) 、图像扫描类型 (Picture Scanning Type) 、视频隐藏字幕数据 (Closed Caption Data in the Video) 、视频分辨率变化 (Change in Resolution of the Video) 、视频时长 (Duration of the Video) 、格式专用检验 (Format Specific Checks such as the Profile/Level) 。
2.全文件的检测实际是对文件的物理结构进行检测, 虽然也不需要进行解码, 但需要对整个文件进行读取和解析, 因此比文件头检测要费时。以MXF文件为例, 全文件的检测可以包括KLV结构检测、IndexTableMatch索引表匹配度检测等内容。
除了一些公共信息的检测外, 该部分还可以包括一些个性化的元信息检测, 如AFD值。
1) KLV结构检测
MXF文件的所有数据都采用Key-Length-Value (KLV) 进行编码以获得格式的灵活性和可扩展性, KLV编码标准定义在SMPTE 336M中, Key关键字 (唯一标识符) , Length数据长度, Value数据内容。实际上MXF文件就是若干连续KLV数据包的序列。
KLV的检测从一个MXF的头分区包 (HPP, Header Partition Pack) 或是兰德索引表来定位每个分区包的位置, 并从每个分区包的Key开始, 逐级检测相关的KLV结构, 如图2所示。比如HPP中相应检测首部元数据及索引表等的KLV结构, 对于其中的非KLV数据给出错误提示。KLV结构错误是MXF的严重错误。
2) 索引表与编辑单元的对应检测
索引表按时间索引随机存取MXF文件的内容, 如果你需要存取某个时码处的音频或视频, 可通过索引表获得该时码对应的视音频数据在文件中的偏移地址。
检测按照每个索引表记录的位置, 可以准确定位到每个编辑单元并正确解析出其中的视频与音频数据, 索引表记录的帧类型和时间信息等与实际帧数据相符合。SMPTE 377M-2004的索引表19给出了规范描述。
3.元数据逻辑结构检测。元数据的逻辑关联检测是相对更高层次的检测, 在此之前还需要对元数据合法性进行检测, 主要依据SMPTE377M-2004、SMPTE380M-2004等相关标准。
1) 元数据合法性检测
以SMPTE377M-2004的首部元数据为例, 说明合法性检测项的具体内容, 首部元数据的模式结构定义如下:
元数据模式是一个XML Schema文件, 可以用来对记录中的元数据的合法性进行检测。其中Primer Pack的结构如图3所示。
2) 元数据逻辑关联检测
首部元数据 (Header Metadata) 包含了MXF文件最基本的信息。元数据是与视音频数据结合在一起的辅助信息, 它记录了与节目制作相关的信息, 这些信息在节目制作、传送、复制及播出的各个阶段, 始终与视音频数据密切结合。首部元数据是包含在文件头中的元数据, 它使用面向对象的方法进行封装, 方便和有效地描述数据元素之间的关系。元数据分为结构性元数据 (Structural Metadata) 和描述性元数据 (Descriptive Metadata) 两类, 前者必须有, 后者为可选。
结构元数据用于将文件中不同的元素绑定在一起, 需要对文件的基本结构进行定义, 描述了文件中视频、音频、时码等轨道之间的关联关系, 其逻辑关系的正确直接影响到是否可以准确解码该文件。描述性元数据用于提供诸如节目名称、场景描述等特别信息, 其内容不参与视音频数据的解码过程, 正确与否不影响文件播放。SMTPE的标准字典和规范中定义了大量的元数据类型。
结构性元数据依次包含如下几个部分 (描述性元数据也是通过UID构成一个关系图, 详见标准SMPTE 380M-2004) :
⑴Primer Pack[1个];
⑵Preface Set[1个];
⑶Identification Set[>=1个];
⑷Content Storage Set[1个];
⑸Essence Container Data Set[1个];
⑹Material Package Set[1个];
⑺Source Package (Top-level File Package) Set[1个]。
Primer Pack相当于一个查询表, 里面存储了该MXF文件用到的所有元数据的唯一识别符 (UID, Unique Identifier) , 通过这张表, 可以确定是否有不同的元数据使用了相同的UID。由于MXF的元数据之间主要通过UID进行链接、查找和关联, 从而把线性的物理存储关系变成复杂的树状或网状逻辑关系, 所以保证每个元数据只有唯一的UID非常重要。
Preface Set中主要包含操作模式标识Operational Pattern UL, DMS (Descriptive Metadata Schemes) 标识和视音频数据标识。通过Preface Set可以大概知道文件中存储的视音频数据格式 (比如DV还是MPEG) , 并预先判断出文件结构的复杂度 (比如OP1a还是Atom) 。
Identification中包含公司名称、产品名称、版本号、修改时间等信息, 每次修改MXF文件后, 都会加入新的Identification, 用以记录修改的内容。
Content Storage中主要包含了文件中用到的各种Package (Material Package, Source Package等) 的标识和Essence Container Data的标识。
Material Package和Source Package/File Package数据结构相同, 都是Generic Package的实例。从逻辑上来说, 它们都各自包含了三种轨道, 分别是时码轨 (Timecode Track) , 视频轨 (Picture Track) 和音轨 (Sound Track) 。视频轨和音频轨上可能又会有多个视频或音频序列 (Sequence) , 这些序列对应了实际的源素材 (Source Clip) 。
根据以上的描述, 元数据的检测首先要保证各个Set的UID唯一, 再要保证各个Set的逻辑关系正确。
2 编码合法性检测
编码合法性检查主要是指视音频基本流检测。该部分包括视音频基本参数检测和视音频基本流合法性检测。对于基本流的检测, 与采用的具体编码技术相关, 需要相关厂商的支持, 下面以MPEG-2为例进行说明。
1.视音频的基本参数检测
视频检测参数主要有信号标准、编码格式、码率、类/级、帧率、帧组 (GOP) 结构检测、分辨率、长宽比、颜色格式检测和现用格式描述符 (AFD) 。
音频检测参数包括音频格式、声道数量、采样率、量化精度。
此外还有视音频文件长度检测 (实际长度与标称长度比较) 、视音频是否对齐检测等。
2.视频基本流的码流合法性检测
该检测基本等同于传统码流分析设备进行的检测, 通过合法检测的基本流可以保证被解码器正常解码, 不会出现解码器死机、图像破损的情况。
以MPEG为例, 码流合法性检测参数包括编码标准符合性检测、Profile符合性检测 (Main Profile正确性检测、High Profile正确性检测、Profile 422正确性检测、Profile与编码标准符合性检测) 、Level符合性检测 (High Level检测、Main Level检测、Level与编码标准符合性检测) 、图形格式检测 (图像的宽高、图像格式与编码格式符合性检测) 、交织格式检测。
3 视音频内容检测
1.视频内容客观检测如表1所示。
2.音频内容客观检测如表2所示。
4 结束语
视音频处理 篇8
对话嘉宾:
中兴云计算&IT经营部政企业务市场总监........钱敏
Polycom中国大区副总裁、中国区总经理.........李钢
在当前的IT行业, 云无疑是大家关注的焦点, 在视频会议领域也不例外。在“涉云”的热潮之下, 视频会议的发展也深受影响。本期《通信世界周刊》将与各专家从视频会议角度探讨云计算的应用服务。
复杂IT管理的解放
《通信世界周刊》:
云视频会议能为客户带来什么样的价值和影响?与现有视频会议模式相比, 其最大的区别在哪里, 优势何在?
钱敏:
云的技术对于视频会议的影响可分短期、长期两个角度。
从广义云概念出发, 传统的用户自建视频会议系统可看作企业自建的私有云, 从业务形态上, 已具有云管端模式。例如我们率先帮运营商实现的IMS多媒体会议系统则是典型的公有云的形态, 具备了分布式、自动化的特征, 所以云的概念对视频会议而言, 并不是新鲜词, 它本身就是一个云服务。
从狭义云的角度来讲, 通常是指云计算技术——虚拟化、分布式、自动化、SOA、云安全等作为技术在视频会议中的运用。那么云计算技术如何渗透到视频会议中去, 选用哪些技术来解决目前视频会议遇到的问题, 我认为需要围绕用户体验来进行, 不能盲目为了引入而引入。如虚拟桌面技术, 这是个很好的技术, 虽然可以解决长期以来困扰视频通信软终端发展的穿越防火墙、与电脑兼容性的问题, 但仍然需要攻克的是能不能把其延时降到最低。双向的视音频业务对实时性非常敏感。长远来看, 分布式、自动化、SOA的技术应用让用户开会变得像打电话一样方便。
我们的愿景是让大家随时随地享受身临其境的面对面视频业务, 就如云服务所提倡的随取随用理念, 特别是随着移动宽带、移动终端的发展, 人们期望更佳的用户体验。所以众多厂商也纷纷努力, 如采用H.264high profile编解码, 实现IVVR应用等, 在尽可能节省带宽、降低成本的同时, 使视频会议能够更随时随地的召开, 满足人们对人临其境, “幻”想成“真”的追求。
李钢:
云计算正在改变着各个相关行业的未来发展。云视频技术是云计算在视频服务方面的一种具体应用模式, 通过视频服务的“云”技术, 让用户从复杂的终端设备、硬件维护和难以管理的软件中解放出来, 让这一切复杂的东西交由云端的专业人员与专业的服务器去处理。简单来说, 云视频概念就是让现在的各种终端用户在享用视频体验的时候回归到像打开电视一样那么简单。
更广泛的用户参与
《通信世界周刊》:
在您看来, 云视频会议服务 (将) 为视频通信产业带来的最大改变是什么?
钱敏:
云计算的加入, 可以让更多的人能够享受视频会议服务。虽然视频会议多年保持高速增长, 但真正能应用并享受到该服务的仍是少数, 广大的中小企业还未完全进入这个领域, 很多中小企业仍停留于音频会议, 而这其中最大的收益者将是企业用户。例如刚起步企业, 没能力建设自己的视频会议服务系统, 但可以找云服务提供商来实现, 并且随着将来越多厂商来提供视频会议云服务, 将可能出现更多的企业转向并享受视频云服务。
李钢:
网络环境的日益成熟, 人们对于视频会议的要求也在不断提升, 视觉的舒适性、视频服务的功能全面性已经成为用户选购考虑的首要因素。基于云视频解决方案建设的视频会议运营平台, 将为用户提供更优的音视频、内容共享质量, 提供更全面的视频应用功能。
当前, 云视频运营平台需要支持多种接入方式、支持各种视频、音频终端的接入、支持UC融合, 全方位地为企业用户提供随时随地的“面对面”互联互通。
而云视频核心平台的录播功能将支持高清音频、视频、共享内容的录制功能;支持多路的并发高清录制;支持高清会议直播、多种方式的会议点播及回放功能;提供大规模的录制内容存储及FTP定时上传功能, 提供最稳定可靠的、最全面的录播服务。
与此同时, 云视频解决方案还需要与其他合作伙伴的UC解决方案无缝连接, 提供独特的联合解决方案, 实现视频会议及各种办公系统的灵活应用, 从而最大限度地保护企业的已有投资, 提供更灵活全面的视频会议应用模式。
提升用户体验是关键
《通信世界周刊》:
目前关于云视频会议服务, 业界存在部分质疑的声音, 认为在炒作概念, 对于这种观点您怎样看待?要推动云视频会议服务切实落地, 您认为产业链各方应该需要做出什么样的努力?
钱敏:
事实上没有云概念的时候, 产业已经朝着这个方向演变, 当云的概念开始迅速火热后, 大家便用“云”来包装。
视音频处理 篇9
广州广播电视台数字电视移动演播直播车的系统设计应具备功能完备、兼容扩展性强的特点, 并符合国家有关数字电视标准, 按照数字化、网络化、智能化、模块化的设计思路, 满足安全、完善和快捷操作的直播要求。
广州数字电视移动演播直播车项目主要是配置一台可在移动中实现电视直播功能的直播车, 要求有:电视直播演播室功能;视音频切换、录像、放像功能;电视信号移动传输覆盖;通过可靠技术手段和技术方式在市区范围内实现移动过程中同步传输信号;在发生突发事件时能实时将现场信号传输至与电视台连接的各指挥中心。
该车能实现个性化资讯服务、突发事件信息传输、简单要求现场直播等功能。直播车分为车体、视音频系统、车载发射传输系统、接收回传系统等子系统。本文只介绍视音频系统设计和集成。
2 系统设计和集成
本项目要求配置一套3讯道车载演播室视音频系统, 系统以飞行箱的方式安装, 按照数字电视移动演播直播车视音频系统集成项目技术要求进行系统设计和集成。
2.1 视频系统
视频通路主要分为两大部分, 如图1所示, 一部分以视频切换台为中心的主通道, 另一部分是以16×16矩阵为中心的应急通道。摄像机信号、录像机信号、硬盘录像机信号、字幕机信号、外来经延时器或帧同步机信号和同步发生器信号等分别接入视频切换台和数字视频矩阵, 视频切换台的输出信号和视频矩阵的第一路输出信号经帧同步板和加字幕后, 再经视频2选1开关接入数字视频分配放大器, 它输出4路供给外部接口板SDI输出, 一路供给微波发射机主输入, 一路供给视频矩阵IN12输入, 一路供给车载移动发射机编码器输入, 一路供给PGM监视用。
CCU输出、帧同步机输出、录像机输出、硬盘录像机输出、字幕机输出、延时器输出均可由4联4液晶显示器监看。系统还有跳线排作为主通道和应急通道的信号调配和技术监测, 因此在直播和节目录制过程中可方便地跳开故障设备而不影响正常操作。与此同时, 为了增加系统的安全性和可靠度, 预留增加备份视频2选1切换开关、备份同步发生器、备份4联4液晶监视器的功能。
2.1.1 系统信号源
系统信号源设置如下:
1) 视频系统设计配置3讯道, 包括1台便携式演播室摄像机、1台摄录一体机 (配合万向微波系统使用) 、1台室外摄像机 (安装于车顶) 。
选用1台14 bit标清广播级演播室摄像机BVP-E30P, 适配器选用CA-590P, 控制单元选用CCU-590P, 遥控面板选用RCP-750。该摄像机运用ADSP数字处理技术, 画面质量异常出色, CCD单元采用120万像素POWER HAD EX CCD, 灵敏度达到F11, 水平清晰度达到900线, 信噪比达到65 d B, 调制深度超过80%, 拖尾电平达到-145 dB。
万向微波系统的发射单元采用Gigawave产品, 其发射频率范围为2.1~2.5 GHz, 发射功率为100 m W, 信号传输方向为水平全向/垂直半球, 输入视频信号为SDI/CVBS/BARS, 输入音频为模拟, 平衡600Ω, 嵌入音频, 本机测试1.8 kHz, 整机功耗为18 W, 直流电源来源为摄像机电源/外接电源 (如摄像机电源适配器) , 工作电压范围为11~16 V。信道调制方式为COFDM DVB-T 2k (编码正交频分复用) 。
室外摄像机采用Panasonic的AW-E750MC, 总像素大约为795×596。信噪比为65 dB (开启DNR) 。水平清晰度为850线 (开启DTL, 中央区域) 。配备AW-PH650MC室外防雨防尘云台。配备AW-PB504MC功能卡, 用于SDI接口设备的SDI输出卡。
镜头选用广播级内聚焦数字镜头Fujinon A18X7.6BERM-MC, 其变焦倍率为18X。最小物距为0.6 m。配备半伺服控制系统MS-11。
2) 系统设计配置2台帧同步机、1台带延时器、1块帧同步板用作外来信号扩展。
采用Leitch的X75-DPS575-2帧同步机。其具有模数、数模信号转换, 上下、交叉变换和宽高比变换, 模拟视频信号处理, 自动时基校正, 自动检测多格式 (PAL-B, PAL-M, NTSC/SECAM) , SDTV与HDTV自动降噪等功能。
延时器采用波视TB2000D-EB, 其带宽为6.0 MHz, 视频取样频率为13.5 MHz, 取样方式为4∶2∶2。
3) 录、放像系统设计配置1台3通道数字硬盘录像机, 1台单通道数字硬盘录像机, 1台Digital BETACAM格式编辑录像机 (兼容SP, SX, IMX等格式磁带重放) 。
选用Thomson TURBO-1数字硬盘录像机, 其为广播级3通道视频服务器, 配备使用方便的功能软件。其具有一录两放通道, 操作方便灵活。具有SDI视频输入/输出, 模拟或数字音频输入/输出, 独立的模拟音频单元。可以每路录两通道音频输入, 每路放两通道音频输出。
数字BETACAM编辑录像机选用Sony DVW-M2000P。其数字BETACAM记录格式可兼容重放Betacam/Betacam SP/Betacam SX/MPEG IMX磁带。可记录4声道20 bit数字音频信号。
4) 系统设计配置1台数字字幕机, 要求性能可靠, 操作方便, 适合直播需要。本台选用了大洋电视图文创作系统 (数字型) 。
2.1.2 视频切换系统及周边设备
系统设计切换台为16路输入、8路输出、1级M/E的标清切换台, 切换台主机及面板均要求配置双电源。视频切换台输入有CCU1输出信号、万向微波输出经帧同步机输出信号、车顶室外摄像机输出信号、CCU4输出信号、磁带录像机输出信号、主备硬盘录像机输出信号、字幕机输出信号、外接口板输入经延时器和帧同步机输出信号、同步发生器输出信号。视频切换台输出有:PVW MON信号, 2路PGM信号分别送给2个视频2选1开关, 1路SDI输出给字幕机, 2路SDI输出给外接口板, 2路SDI输出给16×16矩阵。
选用Sony MFS-2000作为视频切换器。其主输入为16路, SMPTE292M (HDTV) , SMPTE259-C (SDTV) 。主输出为8路, SMPTE292M (HDTV) , SMPTE259-C (SDTV) 。具有多格式配置。其利用成熟技术处理高清和标清的视频信号。1 M/E控制面板, 19 in机架宽, 12个直切键按钮, 1 M/E配置提供了2个全功能键和2个下游键, 每个全功能键都可以设置为线性键、亮键、色键和模式键, 并且具有边缘调整和遮挡的功能。由于采用了专门的帧存, 在调整键边缘宽度时不会有任何的键下垂, 功能全面的M/E划像包括增强型划像模式, 并且支持快拍和宏调用。拥有M/E和特技的快拍记忆功能。采用先进的宏调用功能, 可以设计一系列的操作, 进行编辑, 然后设置到控制面板的按键上, 用于今后便捷的调用。
系统设计配置一台16×16标清数字视频矩阵, 主机要求配置主备双电源。该视频矩阵用作信号调度、技术监视, 其中一个输出通道用作切换台的应急备份, 此通道输出端应配置带帧存的键控器。视频矩阵输入有CCU1输出信号、万向微波输出经帧同步机输出信号、CCU4输出信号、磁带录像机输出信号、主备硬盘录像机输出信号、字幕机输出信号、外接口板输入经延时器和帧同步机输出的信号、FNL PGM1、FNL PGM2、F.B1信号、同步发生器输出信号。视频矩阵输出有:1路经帧同步板和键控器给视频2选1开关一的应急输入, 1路给预留的波形监视器输入, 1路给视频2选1开关二的应急输入, 1路给磁带录像机输入, 1路给备份硬盘录像机输入, 2路给监视编码器输入, 4路给画面分割器输入, 5路给外接口板输出。
选用LEITCH的P16X16SRO作为数字视频矩阵。其SDI输入数量为16。信号类型为SMPTE 259M, SMPTE344M, SMPTE 292M Signal Formats (HS only) 。主机具备双电源, 选用所配矩阵1路作为应急通道, 在通道上配置了带帧存和单字幕数字下游键设备。
系统设计周边设备 (包括视音频分配、D/A、帧同步板等) 选用品质高、稳定的国际知名品牌, 采用集成度高、可混插的机箱板卡结构。机箱双电源备份, 安装有散热扇, 可充分散热。设备模块化设计、方便检查和维护。
2.1.3 同步系统
同步信号发生器采用Tektronix的SPG300。它为车内的CCU1、CCU4、帧同步机1、室外摄像机控制器、磁带录像机、主硬盘录像机、备硬盘录像机、视频切换器、备硬盘录像机、16×16矩阵、编码器、帧同步板、键控器、预留波形监视器、主备微波设备提供黑场色同步信号作为同步源, 同时为视频切换器和16×16矩阵提供测试信号, 为字幕机提供数字信号作为基准。备份同步机SPG300通过ECO-4220来实现主用同步机SPG300在故障情况下的系统同步。
2.1.4 监视系统
主监/预监采用广播级8.4 in液晶监视器2台, SDI输入。4 in 4联液晶监视器2台, 模拟复合输入, 用于信号源的监看。8.4 in液晶监视器1台, SDI输入, 用于主持人监看。4画面分割器及37 in液晶监视器各1台, 用于车内壁挂监视器。
2.2 时钟系统
采用模块化时钟设计, 各功能采用模块化方式。时钟系统采用GPS授时控制器的方式。工作区有1U双窗6位时钟显示, 正计时显示和倒计时功能。
2.3 通话系统
系统设计导演区配置1台4通道通话主站, 给摄像机等设备配备对应的2/4线转换设备1台, 如图2所示。采用美国Telex的MCE-325作为4通道通话主站, Telex的SSA-324作为2通道2线/4线转换器。
系统设计无线单向发射机1台, 主持人的单向IFB腰包2套。采用Telex的TT-16无线单向发射机。无线IFB只听腰包选用TR-16。
系统设计无线对讲机系统为中继转发器1台, 双工器 (装入中继站) 1套, 无线对讲机4套。无线对讲系统设计要求能够接入通话系统, 无线通信范围半径大于300 m。中继转发器选用Motorola的GR3118。无线对讲机选用Motorola的GP328。系统配置无线对讲机系统收发天线及安装附件。
2.4 音频系统
系统设计设备与视频系统配套, 符合立体声广播级标准要求。音色应符合专业人员的主观评价要求。系统结构类似于视频系统, 同样由1个调音台和1个音频矩阵为中心的设备组成, 如图3所示。采用稳定可靠的模拟系统, 调音台的音源输入可分为3个部分:第1部分为MIC输入, 1路车内MIC信号, 2路车外MIC信号, 预留1路MIC信号, 它们都以提供现场拾音;第2部分为LINE输入, 1路为磁带录像机输出信号, 1路为外接口板输入经延时器输出的信号, 1路为CCU1 MIC输出信号, 由摄像机提供现场音频信号;第3部分为主备硬盘录像机和外接口板输入经帧同步机输出的音频信号。调音台的输出信号也可分为3个部分:第1部分为监听MON信号, 这部分信号被送至2个监听音箱;第2部分为MIX信号, 这部分信号被送至立体声音频2选1开关, 并送至音频分配放大器, 经分配放大器分配后被送至微波、主备硬盘录像机、磁带录像机、DVD和INTERCOM使用;第3部分为AUX信号。音频矩阵的输入为磁带录像机和DVD输出音频信号。
系统设计采用广播级模拟调音台1台, 模拟输入8路以上, 4个立体声输入, 不少于8个输入物理推子, 具有3个辅助输出。调音台应界面简洁, 操作简便。系统配置1台8×8模拟音频矩阵带面板作为备份。监听采用专业有源监听音箱1对及高质量监听耳机1付。现场拾音传声器2个。
模拟调音台选用英国SOUNDCRAFT的FX8, 具有8路模拟输入, 4路立体声输入, 多声道记录的直接输出, 4个AUX输出, 8个输入物理推子等功能。其拥有专利UltraMic传声器放大器。内置广播级的Lexicon莱思康效果器, 双效果, 可编程, 可修改参数。
模拟音频矩阵选用挪威NETWORK的A0808CP。其为8×8模拟音频矩阵, 机身带面板。
2.5 接口系统
系统设计考虑了与其他系统的级联, 包括视频、音频、Tally、通话、同步、时钟和计算机网络接口。转播车外接口盘视频输入为1路数字外来输入、1路BB黑场信号输入。转播车外接口盘除了配置常规接口外, 还包括1个三同轴接口盘 (该接口可内连CCU, 外连电缆盘上的三同轴电缆) 。考虑到今后的发展和灵活的配置, 外接口盘预留足接口。视频有数字和模拟输入接口、数字和模拟输出接口。音频有模拟输入接口、模拟输出接口、传声器输入接口、综合电缆接口。联络有Tally、通话、电话、时钟和网络接口等。
2.6 飞行箱
直播车内所有设备箱体采用国内知名品牌, 550 mm深6RU 19 in标准机柜箱4个, 550 mm深8RU 19 in标准机柜箱8个, 所有箱体配备相对应的带轮滑板车, 可固定于直播车内。
2.7 系统集成
项目由具有丰富的集成经验、并完成过同等规模工程项目的系统集成项目的集成商完成。系统按3讯道设计, 并预留一路数字万向微波的接入通道。系统安装要求合理、可靠, 视音频电缆、视音频连接器、视频跳线、连接头、音频跳线及工程辅料等均采用国际名牌产品。并与车体改装厂合作良好, 施工工艺精良。要求布局科学, 布线合理规范, 线号清晰。
3 总结
广州数字电视移动演播直播车于2009年5月基本完成安装并进行试用。这一全新的模式开创了电视业界移动演播直播的先河, 在每场移动直播的过程中都得到上级领导的极大关注和指导。一年多来, 本台数字电视移动演播直播车圆满完成了一系列全国各省市党政考察代表团移动直播接待任务, 尤其是在广州亚运会、亚残会火炬在中山传递、佛山传递和广州传递等重大节目中发挥了重要作用, 多次受到上级领导的肯定和赞赏。
摘要:广州数字电视移动演播直播车是一种全新概念直播车, 它完成了全国各省市党政考察代表团来广州考察时的实时移动直播, 并在广州亚运会和亚残会火炬在中山传递、佛山传递和广州传递等重大节目中发挥了重要作用。概述了广州广播电视移动演播直播车项目, 重点阐述了车载视音频系统的设计思路和集成方案。
相关文章:
数字媒体应用技术专业01-10
数字图书馆核心技术及其发展趋势01-10
平利县2009年退耕还林工程建设项目报告01-10
技术应用数字电视01-10
数字化技术应用01-10
音频内容认证01-10
音频指纹提取01-10
音频控制01-10
音频设计01-10
音频系统改造01-10