免费智能真题库 > 历年试卷 > 多媒体应用设计师 > 2011年上半年 多媒体应用设计师 下午试卷 案例
  第1题      
  知识点:   声音   音乐合成   MIDI   模拟信号   数字信号   信号   音频   总线

 
计算机能够对音频信号进行采集、加工处理、存储和传递,并能使之与其他媒体信息之间能建立起有机的逻辑联系。使计算机能够采集、处理、播放音频信息的部件是声音子系统一声卡(总线插卡或主板集成)。具体来讲声卡的功能主要包括:模拟信号数字信号之间相互转换、数字音频的录制与播放、MIDI功能支持与音乐合成、多路音源的混合与处理等。图1-1所示是声卡的简单原理框图。

 
问题:1.1   声卡上的功能部件用来完成各种特定的功能,其中数字声音信号处理器主要完成什么功能?
 
问题:1.2   通常声卡上的信号输入/输出连接器(接口)有哪些?
 
问题:1.3   我们可以用Windows提供的录音机程序录制一首自己唱的歌,并用音频压缩软件将其压缩编码成MP3格式。①在MP3编码选项中,有CBR和VBR两种模式,请解释其含义。②在相同的平均码率下,哪种编码模式的MP3文件重放的音质更优?
 
 
 

   知识点讲解    
   · 声音    · 音乐合成    · MIDI    · 模拟信号    · 数字信号    · 信号    · 音频    · 总线
 
       声音
        人能够很好地判定声源的方向。在水平方向上,人们靠声音的相位差及强度差确定声音的方向,因为声音到达两只耳朵的时间或距离有所不同。常见的立体声效果就是靠左、右耳听到在不同位置录制的不同声音实现的,所以会有方向感。现实生活中,当头部转动时,听到的声音的方向就会改变,但在VR系统中,声音的方向与用户头部的运动无关。
 
       音乐合成
        MIDI文件是一种描述性的“音乐语言”,它将所要演奏的乐曲信息用字节进行描述。例如在某一时刻使用什么乐器、以什么音符开始、以什么音调结束、加什么伴奏等。要想形成计算机音乐,必须通过音乐合成。
        目前,音乐合成的方法主要有两种:一种是频率调制(Frequency Modulation, FM)合成,另一种是波表合成。早期的ISA声卡普遍使用的是FM合成,目前基本上使用的是波表合成。
        ①FM合成。
        FM合成方式是由波形的组合而产生的,它是使高频震荡波的频率按调制信号规律变换的一种调制方式。采用不同的调制波频率和调制指数可以方便地合成具有不同频谱分布的波形,再现某些乐器的音色,而且可以创造出丰富多彩甚至真实乐器不具备的音色。理论上,波形有无限多组,可以模拟任何声音,但实际上使用得最多的只有通过4个正弦波产生器模拟音色,所以FM合成在发出General MIDI中的乐器声时,其真实效果较差。
        ②波表合成。
        波表合成采用真实的声音样本进行播放,音乐效果更逼真,但由于需要额外的存储器存储音色库,因此成本较高。波表中的钢琴声就是对钢琴声进行录音,再利用PCM编码将钢琴声作为数字信号样本存入ROM中(而FM则是用波形进行模拟的),所以当接口卡要发出钢琴的声音时,波表发出的是真正的钢琴声,而FM则是用波形模拟合成的。
 
       MIDI
        MIDI是音乐与计算机结合的产物。MIDI(Musical Instrument Digital Interface)是乐器数字接口的缩写,泛指数字音乐的国际标准。
        MIDI消息实际上就是乐谱的数字表示。与波形声音相比,MIDI数据不是声音而是指令,因此它的数据量要比波形声音少得多。例如30分钟的立体声高品质音乐,用波形文件无压缩录制,约需300MB的存储空间;同样的MIDI数据,则只需200KB,两者相差1500倍之多。另外,对MIDI的编辑很灵活,可以自由地改变曲调、音色等属性,波形声音就很难做到这一点。波形声音与设备无关,MIDI数据是与设备有关的。
 
       模拟信号
        在电话通信中,电话线上传送的电信号是模拟用户声音大小的变化而变化的。这个变化的电信号无论在时间上或是在幅度上都是连续的,这种信号称为模拟信号。
        模拟信号的优点就是直观、容易实现,但有两个明显的缺点,即保密性差和抗干扰能力差。
        电信号在沿线路的传输过程中会受到外界和通信系统内部的各种噪声干扰,噪声和信号混合后难以分开,从而使通信质量下降。线路越长,噪声的积累也就越多。
 
       数字信号
        在电报通信中,其电报信号是用“点”和“划”组成的电码(叫做莫尔斯电码)来代表文字和数字。如果用有电流代表“1”、无电流代表“0”,那么“点”就是1、0,“划”就是1、1、1、0。莫尔斯电码是用一点一划代表A,用一划三点代表B,所以A就是101110,B就是1110101010……这种离散的、不连续的信号,称为数字信号。
        数字信号的优越性主要体现在以下几个方面:
        (1)加强了通信的保密性。语音信号经A/D(Analog to Digital,模拟信号转换为数字信号)变换后,可以先进行加密处理,再进行传输,在接收端解密后再经D/A(Digital to Analog,数字信号转换为模拟信号)变换还原成模拟信号。例如,某图像信号X转换成为01110,可以通过某种加密算法,如向右循环移一位变成Y=00111,对方得到Y后很难反推到X。可见,数字化为加密处理提供了十分有利的条件,且密码的位数越多,破译密码就越困难。
        (2)提高了抗干扰能力。数字信号在传输过程中会混入杂音,可以利用电子电路构成的门限电压(称为阈值)去衡量输入的信号电压,只有达到某一电压幅度,电路才会有输出值,并自动生成整齐的脉冲(称为整形或再生)。较小杂音电压到达时,由于它低于阈值而被过滤掉,不会引起电路动作。因此再生的信号与原信号完全相同,除非干扰信号大于原信号才会产生误码。为了防止误码,在电路中设置了检验错误和纠正错误的方法,即在出现误码时,可以利用后向信号使对方重发。因而数字传输适用于较远距离的传输,也能适用于性能较差的线路。
        (3)可构建综合数字通信网。采用时分交换后,传输和交换统一起来,可以形成一个综合数字通信网。
        数字信号的主要缺点如下:
        (1)技术要求复杂,尤其是同步技术要求精度很高。接收方要能正确地理解发送方的意思,就必须正确地把每个码元区分开来,并且找到每个信息组的开始,这就需要收发双方严格实现同步,如果组成一个数字网的话,同步问题的解决将更加困难。
        (2)占用频带较宽。因为线路传输的是脉冲信号,传送一路数字化语音信息需占20~64kHz的带宽,而一个模拟话路只占用4kHz带宽,即一路PCM(Pulse Code Modulation,脉码调制)信号占了几个模拟话路。
        (3)进行A/D转换时会产生量化误差。
 
       信号
        任务间同步的另一种方式是异步信号。在两个任务之间,可以通过相互发送信号的方式,来协调它们之间的运行步调。
        所谓的信号,指的是系统给任务的一个指示,表明某个异步事件已经发生了。该事件可能来自于外部(如其他的任务、硬件或定时器),也可能来自于内部(如执行指令出错)。异步信号管理允许任务定义一个异步信号服务例程ASR(Asynchronous Signal Routine),与中断服务程序不同的是,ASR是与特定的任务相对应的。当一个任务正在运行的时候,如果它收到了一个信号,将暂停执行当前的指令,转而切换到相应的信号服务例程去运行。不过这种切换不是任务之间的切换,因为信号服务例程通常还是在当前任务的上下文环境中运行的。
        信号机制与中断处理机制非常相似,但又各有不同。它们的相同点是:
        .都具有中断性:在处理中断和异步信号时,都要暂时地中断当前任务的运行;
        .都有相应的服务程序;
        .都可以屏蔽响应:外部硬件中断可以通过相应的寄存器操作来屏蔽,任务也能够选择不对异步信号进行响应。
        信号机制与中断机制的不同点是:
        .中断是由硬件或特定的指令产生,而信号是由系统调用产生;
        .中断触发后,硬件会根据中断向量找到相应的处理程序去执行;而信号则通过发送信号的系统调用来触发,但系统不一定马上对它进行处理;
        .中断处理程序是在系统内核的上下文中运行,是全局的;而信号处理程序是在相关任务的上下文中运行,是任务的一个组成部分。
        实时系统中不同的任务经常需要互斥地访问共享资源。当任务试图访问资源时被正使用该资源的其他任务阻塞,可能出现优先级反转的现象,即当高优先级任务企图访问已被某低优先级任务占有的共享资源时,高优先级任务必须等待直到低优先级任务释放它占有的资源。如果该低优先级任务又被一个或多个中等优先级任务阻塞,问题就更加严重。由于低优先级任务得不到执行就不能访问资源、释放资源。于是低优先级任务就以一个不确定的时间阻塞高优先级的任务,导致系统的实时性没有保障。下图为是一个优先级反转的示例。
        
        一个优先级反转的示例
        如上图所示,系统存在任务1、任务2、任务3(优先级从高到低排列)和资源R。某时,任务1和任务2都被阻塞,任务3运行且占用资源R。一段时间后,任务1和任务2相继就绪,任务1抢占任务3运行,由于申请资源R失败任务1被挂起。由于任务2的优先级高于任务3,任务2运行。由于任务3不能运行和释放资源R,因此任务1一直被阻塞。极端情况下,任务1永远无法运行,处于饿死状态。
        解决优先级反转问题的常用算法有优先级继承和优先级天花板。
               优先级继承协议
               L. Sha、R. Rajkumar和J. P. Lehoczky针对资源访问控制提出了优先级继承协议(Priority Inheritance Protocol,PIP)。
               PIP协议能与任何优先级驱动的抢占式调度算法配合使用,而且不需要有关任务访问资源情况的先验知识。优先级继承协议的执行方式是:当低优先级任务正在使用资源,高优先级任务抢占执行后也要访问该资源时,低优先级任务将提升自身的优先级到高优先级任务的级别,保证低优先级任务继续使用当前资源,以尽快完成访问,尽快释放占用的资源。这样就使高优先级任务得以执行,从而减少高优先级任务被多个低优先级任务阻塞的时间。低优先级任务在运行中,继承了高优先级任务的优先级,所以该协议被称作优先级继承协议。
               由于只有高优先级任务访问正被低优先级任务使用的资源时,优先级继承才会发生,在此之前,高优先级任务能够抢占低优先级任务并执行,所以优先级继承协议不能防止死锁,而且阻塞是可以传递的,会形成链式阻塞。另外,优先级继承协议不能将任务所经历的阻塞时间减少到尽可能小的某个范围内。最坏情况下,一个需要μ个资源,并且与v个低优先级任务冲突的任务可能被阻塞min(μ,v)次。
               优先级冲顶协议
               J. B. Goodenough和L. Sha针对资源访问控制提出了优先级冲顶协议(Priority Ceiling Protocol,PCP)。
               PCP协议扩展了PIP协议,能防止死锁和减少高优先级任务经历的阻塞时间。该协议假设所有任务分配的优先级都是固定的,每个任务需要的资源在执行前就已确定。每个资源都具有优先级冲顶值,等于所有访问该资源的任务中具有的最高优先级。任一时刻,当前系统冲顶值(current priority ceiling)等于所有正被使用资源具有的最高冲顶值。如果当前没有资源被访问,则当前系统冲顶值等于一个不存在的最小优先级。当任务试图访问一个资源时,只有其优先级高于当前系统冲顶值,或其未释放资源的冲顶值等于当前系统冲顶值才能获得资源,否则会被阻塞。而造成阻塞的低优先级任务将继承该高优先级任务的优先级。
               已经证明,PCP协议的执行规则能防止死锁,但其代价是高优先级任务可能会经历优先级冲顶阻塞(Priority ceiling blocking)。即高优先级任务可能被一个正使用某资源的低优先级任务阻塞,而该资源并不是高优先级任务请求的。这种阻塞又被称作回避阻塞(avoidance blocking),意思是因为回避死锁而引起的阻塞。即使如此,在PCP协议下,每个高优先级任务至多被低优先级任务阻塞一次。使用PCP协议后,能静态分析和确定任务之间的资源竞争,计算出任务可能经历的最大阻塞时间,从而能分析任务集合的可调度性。在PCP协议下,高优先级任务被阻塞时会放弃处理器,因此,访问共享资源的任务可能会产生4次现场切换。
 
       音频
               声音信号
               声音是通过空气传播的一种连续的波,称为声波。声波在时间和幅度上都是连续的模拟信号,通常称为模拟声音(音频)信号。
               1)声音的3个指标
               声音主要有音量、音调和音色3个指标。
               .音量(也称响度):声音的强弱程度取决于声音波形的幅度,即取决于振幅的大小和强弱。
               .音调:人对声音频率的感觉表现为音调的高低,取决于声波的基频。基频越低,给人的感觉越低沉,频率高则声音尖锐。
               .音色:人们能够分辨具有相同音高的不同乐器发出的声音,就是因为它们具有不同的音色。一个声波上的谐波越丰富,音色越好。
               2)声音信号的带宽
               对声音信号的分析表明,声音信号由许多频率不同的信号组成,通常称为复合信号,而把单一频率的信号称为分量信号。声音信号的一个重要参数就是带宽(bandwidth),它用来描述组成声音信号的频率范围。PC处理的音频信号主要是人耳能听到的音频信号(audio),它的频率范围是20~20kHz。可听声包括如下内容。
               .话音(也称语音):人的说话声,频率范围通常为300~3400Hz。
               .音乐:由乐器演奏形成(规范的符号化声音),其带宽可达到20~20kHz。
               .其他声音:如风声、雨声、鸟叫声、汽车鸣笛声等,它们起着效果声或噪声的作用,其带宽范围也是20Hz~20kHz。
               3)幅度和频率
               声音信号的两个基本参数是幅度和频率。幅度是指声波的振幅,通常用动态范围表示,一般用分贝(dB)为单位来计量。频率是指声波每秒钟变化的次数,用Hz表示。
               声音信号的数字化
               声音信号的数字化即用二进制数字的编码形式来表示声音。最基本的声音信号数字化方法是采样一量化法,可以分成以下3个步骤。
               1)采样
               采样是把时间连续的模拟信号转换成时间离散、幅度连续的信号。在某些特定时刻获取的声音信号幅值叫作采样,由这些特定时刻采样得到的信号称为离散时间信号。一般是每隔相等的一小段时间采样一次,其时间间隔称为采样周期,它的倒数称为采样频率。为了不产生失真,采样频率不应低于声音信号最高频率的二分之一。因此,语音信号的采样频率一般为8kHz,音乐信号的采样频率则应在40kHz以上。采样频率越高,可恢复的声音信号分量越丰富,其声音的保真度越好。
               2)量化
               量化处理是把在幅度上连续取值(模拟量)的每一个样本转换为离散值(数字量)表示,因此量化过程有时也称为A/D转换(模数转换)。量化后的样本是用二进制数来表示的,二进制数位数的多少反映了度量声音波形幅度的精度,称为量化精度,也称为量化分辨率。例如,每个声音样本若用16位(2B)表示,则声音样本的取值范围是0~65 536;精度是1/65 536;若只用8位(1B)表示,则样本的取值范围是0~255,精度是1/256。量化精度越高,声音的质量越好,需要的存储空间也越多;量化精度越低,声音的质量越差,而需要的存储空间越少。
               3)编码
               为了便于计算机的存储、处理和传输,按照一定的要求对采样和量化处理后的声音信号进行数据压缩和编码,即选择某一种或者几种方法对它进行数据压缩,以减少数据量,再按照某种规定的格式将数据组织成为文件。
               声音的表示
               计算机中的数字声音有两种不同的表示方法:一种称为波形声音(也称为自然声音),通过对实际声音的波形信号进行数字化(采样和量化)而获得,能高保真地表示现实世界中任何客观存在的真实声音,波形声音的数据量比较大;另一种是合成声音,它使用符号(参数)对声音进行描述,然后通过合成的方法生成声音。
               波形声音信息是一个用来表示声音振幅的数据序列,它是通过对模拟声音按一定间隔采样获得的幅度值,再经过量化和编码后得到的便于计算机存储和处理的数据格式。
               未经压缩的数字音频数据传输率可按下式计算:
               数据传输率(b/s)=采样频率(Hz)×量化位数(bit)×声道数
               数据传输率以每秒比特(b/s)为单位;采样频率以Hz为单位;量化以比特(b)为单位。
               波形声音经过数字化后所需占用的存储空间可用如下公式计算:
               声音信号数据量=数据传输率×持续时间/8(B)
               数字语音的数据压缩方法主要有以下三种。
               (1)波形编码。波形编码是一种直接对取样量化后的波形进行压缩处理的方法。波形编码的特点是通用性强,不仅适用于数字语音的压缩,而且对所有使用波形表示的数字声音都有效,可获得高质量的语音,但很难达到高的压缩比。
               (2)参数编码。参数编码(也称为模型编码)是一种基于声音生成模型的压缩方法,从语音波形信号中提取生成的话音参数,使用这些参数通过话音生成模型重构出话音。它的优点是能达到很高的压缩比,缺点是信号源必须已知,而且受声音生成模型的限制,质量不太理想。
               (3)混合编码。波形编码虽然可提供高质量的语音,但数据率比较高,很难低于16kb/s;参数编码的数据率虽然可降低到3kb/s甚至更低,但它的音质根本不能与波形编码相比。混合编码是上述两种方法的结合,它既能达到高的压缩比,又能保证一定的质量。
               数字语音压缩编码有多种国际标准,如G.711、G.721、G.726、G.727、G.722、G.728、G.729A、G.723.1、IS96(CDMA)等。
               在国际标准MPEG中,先后为视频图像伴音的数字宽带声音制定了MPEG-1 Audio、MPEG-2 Audio、MPEG-2AAC、MPEG-4 Audio等多种数据压缩编码的标准。MPEG处理的是10~20 000Hz频率范围的声音信号,数据压缩的主要依据是人耳的听觉特性,特别是人耳存在着随声音频率变化的听觉域,以及人耳的听觉掩蔽特性。
               声音合成
               由计算机合成的声音,包括语音合成和音乐合成。
               1)语音合成
               语音合成目前主要指从文本到语音的合成,也称为文语转换。语音合成从合成采用的技术讲可分为发音参数合成、声道模型参数合成和波形编辑合成,从合成策略上讲可分为频谱逼近和波形逼近。
               (1)发音参数合成。发音参数合成对人的发音过程进行直接模拟,它定义了唇、舌、声带的相关参数,如唇开口度、舌高度、舌位置、声带张力等。由这些发音参数估计声道截面积函数,进而计算声波。由于人发音生理过程的复杂性,理论计算与物理模拟之间的差异,语音合成的质量暂时还不理想。
               (2)声道模型参数合成。声道模型参数合成基于声道截面积函数或声道谐振特性合成语音,如共振峰合成器、LPC合成器。国内外也有不少采用这种技术的语音合成系统。这类合成器的比特率低、音质适中。为改善音质,发展了混合编码技术,主要手段是改善激励,如码本激励、多脉冲激励、长时预测规则码激励等,这样,比特率有所增大,同时音质得到提高。作为压缩编码算法,该合成广泛用于通信系统和多媒体应用系统中。
               (3)波形编辑语音合成。波形编辑语音合成技术是指直接把语音波形数据库中的波形级联起来,输出连续语流。这种语音合成技术用原始语音波形替代参数,而且这些语音波形取自自然语音的词或句子,它隐含了声调、重音、发音速度的影响,合成的语音清晰自然。该合成质量普遍高于参数合成。
               2)音乐合成
               音乐是用乐谱进行描述并由乐器演奏而成的。乐谱的基本组成单元是音符(notes),最基本的音符有7个,所有不同音调的音符少于128个。
               音符代表的是音乐,音乐与噪声的区别主要在于它们是否有周期性。音乐的要素有音调、音色、响度和持续时间。
               .音调指声波的基频,基频低,声音低沉;基频高,声音高昂。
               .响度即声音的强度。
               .一首乐曲中每一个乐音的持续时间是变化的,从而形成旋律。
               .音乐可以使用电子学原理合成出来(生成相应的波形),各种乐器的音色也可以进行模拟。
               电子乐器由演奏控制器和音源两部分组成。
               (1)演奏控制器。演奏控制器是一种输入和记录实时乐曲演奏信息的设备。它的作用是像传统乐器那样用于演奏,驱动音源发声,同时它也是计算机音乐系统的输入设备。其类型有键盘、气息(呼吸)控制器、弦乐演奏器等。
               (2)音源。音源是具体产生声音波形的部分,即电子乐器的发声部分。它通过电子线路把演奏控制器送来的声音合成起来。最常用的音源有以下两类。
               .数字调频合成器(FM):FM是使高频振荡波的频率按调制信号规律变化的一种调制方式。
               .PCM波形合成器(波表合成法):这种方法是把真实乐器发出的声音以数字的形式记录下来,再将它们放在一个波形表中,合成音乐时以查表匹配方式获取真实乐器波形。
               MIDI
               MIDI是音乐与计算机结合的产物。MIDI(Musical Instrument Digital Interface)是乐器数字接口的缩写,泛指数字音乐的国际标准。
               MIDI消息实际上就是乐谱的数字表示。与波形声音相比,MIDI数据不是声音而是指令,因此它的数据量要比波形声音少得多。例如30分钟的立体声高品质音乐,用波形文件无压缩录制,约需300MB的存储空间;同样的MIDI数据,则只需200KB,两者相差1500倍之多。另外,对MIDI的编辑很灵活,可以自由地改变曲调、音色等属性,波形声音就很难做到这一点。波形声音与设备无关,MIDI数据是与设备有关的。
               声音文件格式
               1)Wave文件(.WAV)
               WAV是微软公司的音频文件格式,它来源于对声音模拟波形的采样。用不同的采样频率对声音的模拟波形进行采样可以得到一系列离散的采样点,以不同的量化位数(8位或16位)把这些采样点的值转换成二进制数,然后存入磁盘,这就产生了声音的WAV文件,即波形文件。利用该格式记录的声音文件能够和原声基本一致,质量非常高,但文件数据量却大。
               2)Module文件(.MOD)
               MOD格式的文件里存放乐谱和乐曲使用的各种音色样本,具有回放效果优异、音色种类无限等优点。
               3)MPEG音频文件(.MP3)
               MP3是现在最流行的声音文件格式,因其压缩率大,在网络可视电话通信方面应用广泛,但和CD唱片相比,音质不能令人非常满意。
               4)RealAudio文件(.RA)
               RA格式具有强大的压缩量和较小的失真,它也是为了解决网络传输带宽资源而设计的,因此主要目标是压缩比和容错性,其次才是音质。
               5)MIDI文件(.MID/.RMI)
               MID是目前较成熟的音乐格式,实际上已经成为一种产业标准,General MIDI就是最常见的通行标准。文件的长度非常小。RMI可以包括图片标记和文本。
               6)Voice文件(.VOC)
               Creative公司波形音频文件格式,也是声霸卡(Sound Blaster)使用的音频文件格式。每个VOC文件由文件头块(Header Block)和音频数据块(Data Block)组成。文件头包含一个标识版本号和一个指向数据块起始的指针。数据块分成各种类型的子块。
               7)Sound文件(.SND)
               Sound文件是NeXT Computer公司推出的数字声音文件格式,支持压缩。
               8)Audio文件(.AU)
               Audio文件是Sun Microsystems公司推出的一种经过压缩的数字声音文件格式,它是互联网上常用的声音文件格式。
               9)AIFF文件(.AIF)
               AIF是Apple计算机的音频文件格式。利用Windows自带的工具可以把AIF格式的文件转换成Microsoft的WAV格式的文件。
               10)CMF文件(.CMF)
               CMF是Creative公司的专用音乐格式,与MIDI差不多,音色、效果上有些特色,专用于FM声卡,兼容性较差。
 
       总线
        所谓总线(Bus),是指计算机设备和设备之间传输信息的公共数据通道。总线是连接计算机硬件系统内多种设备的通信线路,它的一个重要特征是由总线上的所有设备共享,因此可以将计算机系统内的多种设备连接到总线上。
               总线的分类
               微机中的总线分为数据总线、地址总线和控制总线3类。不同型号的CPU芯片,其数据总线、地址总线和控制总线的条数可能不同。
               数据总线(Data Bus,DB)用来传送数据信息,是双向的。CPU既可通过DB从内存或输入设备读入数据,也可通过DB将内部数据送至内存或输出设备。DB的宽度决定了CPU和计算机其他设备之间每次交换数据的位数。
               地址总线(Address Bus,AB)用于传送CPU发出的地址信息,是单向的。传送地址信息的目的是指明与CPU交换信息的内存单元或I/O设备。存储器是按地址访问的,所以每个存储单元都有一个固定地址,要访问1MB存储器中的任一单元,需要给出220个地址,即需要20位地址(220=1M)。因此,地址总线的宽度决定了CPU的最大寻址能力。
               控制总线(Control Bus,CB)用来传送控制信号、时序信号和状态信息等。其中有的信号是CPU向内存或外部设备发出的信息,有的是内存或外部设备向CPU发出的信息。显然,CB中的每一条线的信息传送方向是单方向且确定的,但CB作为一个整体则是双向的。所以,在各种结构框图中,凡涉及控制总线CB,均是以双向线表示。
               总线的性能直接影响整机系统的性能,而且任何系统的研制和外围模块的开发都必须依从所采用的总线规范。总线技术随着微机结构的改进而不断发展与完善。
               在计算机的概念模型中,CPU通过系统总线和存储器之间直接进行通信。实际上在现代的计算机中,存在一个控制芯片的模块。CPU需要和存储器、I/O设备等进行交互,会有多种不同功能的控制芯片,称之为控制芯片组。对于目前的计算机结构来说,控制芯片集成在主板上,典型的有南北桥结构和单芯片结构。与芯片相连接的总线可以分为前端总线(FSB)、存储总线、I/O总线、扩展总线等。
                      南北桥芯片结构
                      北桥芯片直接与CPU、内存、显卡、南桥相连,控制着CPU的类型、主板的总线频率、内存控制器、显示核心等。前端总线(FSB)是将CPU连接到北桥芯片的总线。内存总线是将内存连接到北桥芯片的总线,用于和北桥之间的通信。显卡则通过I/O总线连接到北桥芯片。
                      南桥芯片主要负责外部设备接口与内部CPU的联系。其中,通过I/O总线将外部I/O设备连接到南桥,比如USB设备、ATA和SATA设备以及一些扩展接口。扩展总线则是指主板上提供的一些PCI、ISA等插槽。
                      单芯片结构
                      单芯片组方式取消了北桥。由于CPU中内置了内存控制器,不再需要通过北桥来控制,这样就能提高内存控制器的频率,减少延迟。还有一些CPU集成了显示单元,使得显示芯片的频率更高,延迟更低。
               常见总线
               常见总线包括:
               (1)ISA总线。ISA是工业标准总线,只能支持16位的I/O设备,数据传输率大约是16MB/s,也称为AT标准。
               (2)EISA总线。EISA是在ISA总线的基础上发展起来的32位总线。该总线定义32位地址线、32位数据线以及其他控制信号线、电源线、地线等共196个接点。总线传输速率达33MB/s。
               (3)PCI总线。PCI总线是目前微型机上广泛采用的内总线,采用并行传输方式。PCI总线有适于32位机的124个信号的标准和适于64位机的188个信号的标准。PCI总线的传输速率至少为133MB/s,64位PCI总线的传输速率为266MB/s。PCI总线的工作与CPU的工作是相互独立的,也就是说,PCI总线时钟与处理器时钟是独立的、非同步的。PCI总线上的设备是即插即用的。接在PCI总线上的设备均可以提出总线请求,通过PCI管理器中的仲裁机构允许该设备成为主控设备,主控设备与从属设备间可以进行点对点的数据传输。PCI总线能够对所传输的地址和数据信号进行奇偶校验检测。
               (4)PCI Express总线。PCI Express简称为PCI-E,采用点对点串行连接,每个设备都有自己的专用连接,不需要向整个总线请求带宽,而且可以把数据传输率提高到一个很高的频率。相对于传统PCI总线在单一时间周期内只能实现单向传输,PCI Express的双单工连接能提供更高的传输速率和质量。
               PCI Express的接口根据总线位宽不同而有所差异,包括X1、X4、X8以及X16(X2模式将用于内部接口而非插槽模式),其中X1的传输速度为250MB/s,而X16就是等于16倍于X1的速度,即是4GB/s。较短的PCI Express卡可以插入较长的PCI Express插槽中使用。PCI Express接口能够支持热拔插。同时,PCI Express总线支持双向传输模式,还可以运行全双工模式,它的双单工连接能提供更高的传输速率和质量,它们之间的差异与半双工和全双工类似。因此连接的每个装置都可以使用最大带宽。
               (5)前端总线。微机系统中,前端总线(Front Side Bus,FSB)是将CPU连接到北桥芯片的总线。选购主板和CPU时,要注意两者的搭配问题,一般来说,如果CPU不超频,那么前端总线是由CPU决定的,如果主板不支持CPU所需要的前端总线,系统就无法工作。也就是说,需要主板和CPU都支持某个前端总线,系统才能工作。通常情况下,一个CPU默认的前端总线是唯一的。北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并与南桥芯片连接。CPU通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片与内存、显卡交换数据。FSB是CPU和外界交换数据的最主要通道,因此FSB的数据传输能力对计算机整体性能作用很大,如果没足够快的FSB,再强的CPU也不能明显提高计算机整体速度。
               (6)RS-232C。RS-232C是一条串行外总线,其主要特点是所需传输线比较少,最少只需三条线(一条发、一条收、一条地线)即可实现全双工通信。传送距离远,用电平传送为15m,电流环传送可达千米。有多种可供选择的传送速率。采用非归零码负逻辑工作,电平≤-3V为逻辑1,而电平≥+3V为逻辑0,具有较好的抗干扰性。
               (7)SCSI总线。小型计算机系统接口(SCSI)是一条并行外总线,广泛用于连接软硬磁盘、光盘、扫描仪等。其中,SCSI-1是第一个SCSI标准,传输速率为5MB/s;Ultra2 SCSI的传输速率为80MB/s;Ultra160 SCSI也称Ultra3 SCSI LVD,传输速率为160MB/s;Ultra320 SCSI也称Ultra4 SCSI LVD,传输速率可高达320MB/s。
               (8)SATA。SATA是Serial ATA的缩写,即串行ATA。它主要用作主板和大量存储设备(如硬盘及光盘驱动器)之间的数据传输。SATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。
               (9)USB。通用串行总线(USB)当前风头正劲,目前得到十分广泛的应用。USB由4条信号线组成,其中两条用于传送数据,另外两条传送+5V容量为500mA的电源。可以经过集线器(Hub)进行树状连接,最多可达5层。该总线上可接127个设备。USB 1.0有两种传送速率:低速为1.5Mb/s,高速为12Mb/s。USB 2.0的传送速率为480Mb/s。USB 3.0的传送速率为5Gb/s。USB总线最大的优点还在于它支持即插即用,并支持热插拔。
               (10)IEEE-1394。IEEE-1394是高速串行外总线,近几年得到广泛应用。IEEE-1394也支持外设热插拔,可为外设提供电源,省去了外设自带的电源,能连接多个不同设备,支持同步和异步数据传输。IEEE-1394由6条信号线组成,其中两条用于传送数据,两条传送控制信号,另外两条传送8~40V容量为1500mA的电源,IEEE-1394总线理论上可接63个设备。IEEE-1394的传送速率从400Mb/s、800Mb/s、1600Mb/s直到3.2Gb/s。
               (11)IEEE-488总线。IEEE-488是并行总线接口标准。微计算机、数字电压表、数码显示器等设备及其他仪器仪表均可用IEEE-488总线连接装配,它按照位并行、字节串行双向异步方式传输信号,连接方式为总线方式,仪器设备不需中介单元直接并联于总线上。总线上最多可连接15台设备。最大传输距离为20m,信号传输速率一般为500KB/s,最大传输速率为1MB/s。
   题号导航      2011年上半年 多媒体应用设计师 下午试卷 案例   本试卷我的完整做题情况  
1 /
2 /
3 /
4 /
 
第1题    在手机中做本题