售前电话
135-3656-7657
售前电话 : 135-3656-7657
视音频信号数字化后所产生的数据速率相当大,例如一分钟的双声道立体声.采样频率为11.025kHz,8bit量化,其数据速率达176.4kbit/s,存储容量需要1.323MB,而数字化激光唱盘的CD-DA红皮书标准是采用44.1kHz釆样,16bit量化,双声道一分钟其存储容量达10.584MB。
视频信息数字化后数据量更大,以分量编码的数字视频信号为例,其数据率高达216Mbit/s,在此情况下,1小时的电视节目需要近80GB的存储容量,要远距离传送这样一路高速率的数字视频信号,通常要占用108?216MHz的信道带宽,显然这样大的数码率在现有的数字信道中传输或在现有的媒体上存储,其成本是十分昂贵的。因此为了提高信道利用率和在有限的信道容量下传输更多的信息,必须对视音频数据进行压缩。
1.数据压缩的理论依据
在数据压缩技术中Shannon所创立的信息论对数据压缩有着极其重要的指导意义,它一方面给出了数据压缩的理论极限,一方面指明了数据压缩的技术途径。
由信息论基础知识可知,信源概率分布越均匀其熵越大;反之,其熵越小。离散无记忆信源只要其概分布不均匀就存在着信息的冗余,因而就存在着数据压缩的可能性。而信源压缩编码的基本途径之一,就是在一定信源概率分布条件下,尽可能使编码平均码长接近于信源的熵,减少冗余信息。
信源往往并不是无记忆的,其前后出现的信源符号常常具有一定的相关性。两信源符号间的相关性越大,冗余也越大,因此.数据压缩的另一个基本途径则是去除信源中各信源符号间的相关性。
2.限失真压缩编码
由信息论基础知识可知,信源冗余来自信源本身的相关性和信源概率分布的不均匀性。因此,通过去除信源的相关及改变信源概率分布模型,则可达到压缩数据量的目的。限失真压缩编码即是在允许解码后信号有一定失真的情况下,通过去除信源的自相关来达到压缩数据的目的。在允许失真不超过某一限度时,压缩编码的比特率是受限的,存在着一个下限,这个下限由率失真函数来定义。
率失真理论虽然没有给出怎样达到比特率下限的具体方法,但从理论上指明了方向。即在给定信号允许失真度的条件下,为了减少信号传输的比特率,应尽量减小传输信号的方差。目前.在视音频编码中普遍采用的预测编码和变换编码,正是根据这一理论对原始视音频信号进行适当处理’使处理后信号的方差减小,最终达到压缩编码的目的。
3.无失真压缩编码
预测编码和变换编码都是基于去除样值间的相关性而达到数据压缩的目的。如果信源已经是无记忆的,即各样值间已没有相关性或相关性很小。这时只要各事件出现的概率不相等,该信源就仍然有冗余度存在,就还有进一步进行数据压缩的可能性。无失真压缩编码的基本原理则是去除信源的概率分布不均匀性,使编码后的数据接近其信息炳而不产生失真,因此,这种编码方法又叫炳编码。另外,由于这种编码完全基于信源的统计特性因而也可称其为统计编码。无失真压缩编码的方法主要有:基于信号样值概率分布特性的Huffman编码、算术编码和基于信号样值相关性的游程编码。
(1)Huffman编码
变字长编码的最佳编码定理:在变字长编码中,对于岀现概率大的信息符号编以短字长的码,对于概率小的符号编以长字长的码。如果码字长度严格按所对应符号出现概率大小逆顺序排列.则平均码字长度一定小于其他任何符号顺序排列方式。
Huffman编码是根据可变长度最佳编码定理,应用Huffman算法而得到的一种编码方法。可以证明,在给定符号集和概率模型时,没有任何其他整数码比Huffman码有更短的平均码长,也即它是一种最优码。
虽然Huffman码是变长的,码流中又没有分隔码字的标识符,但由于它的无歧义性,完全能够正确地恢复原信源所输出的符号序列来。
需要注意的是,由于Huffman构码过程的最基本依据是信源的离散概率,如果信源的实际概率模型与构码时所假设的概率模型有差异,实际的码长将大于预期值,编码效率将下降。
(2)算术编码
算术编码是另一种利用信源概率分布特性、能够趋近熵极限的编码方法。尽管它也是对出现概率大的符号采用短码,对出现概率小的符号采用长码,但其编码原理与Huffman编码却不相同。而且在信源概率分布比较均匀的情况下其编码效率高于Huffman编码。它和Huffman编码的最大区别在于它不是使用整数码。算术编码的特点在于