颜色空间

来自NMM Doc
跳转至: 导航搜索

RIP的时候通常会遇到一些关于颜色方面的术语,比如YUV、RGB、YV12、4:2:2、4:2:0等等。不少人刚接触到这些东西的时候,会觉得晕头转向,不知所云。再如,不少文章中强调影片在VDM处理的过程中要选Fast recompress,但是Fast recompress、Normal recompress、Full processing mode之间又有什么区别呢?

本文是一篇总结性的文章,所以不少段落都是直接摘自其他的文章的。在这里向原作者表示谢意。本文参考了原载于DVD Benchmark由Don Munsil & Stacey Spears原作的《The Chroma Upsampling Error(颜色Upsampling错误)》和Silky的文章。

RGB

RGB是通过红绿蓝三原色来描述颜色的颜色空间,R=Red、G=Green、B=Blue。

YUV/YCbCr/YPbPr

YUV是通过亮度-色差来描述颜色的颜色空间。

亮度信号经常被称作Y,色度信号是由两个互相独立的信号组成。视颜色系统和格式不同,两种色度信号经常被称作UV或PbPr或CbCr。这些都是由不同的编码格式所产生的,但是实际上,他们的概念基本相同。在DVD中,色度信号被存储成Cb和Cr(C代表颜色,b代表蓝色,r代表红色)。

什么是4:4:4、4:2:2、4:2:0

在最近十年中,视频工程师发现人眼对色度的敏感程度要低于对亮度的敏感程度。在生理学中,有一条规律,那就是人类视网膜上的视网膜杆细胞要多于视网膜锥细胞,说得通俗一些,视网膜杆细胞的作用就是识别亮度,而视网膜锥细胞的作用就是识别色度。所以,你的眼睛对于亮和暗的分辨要比对颜色的分辨精细一些。正是因为这个,在我们的视频存储中,没有必要存储全部颜色信号。既然眼睛看不见,那为什么要浪费存储空间(或者说是金钱)来存储它们呢?

像Beta或VHS之类的消费用录像带就得益于将录像带上的更多带宽留给黑—白信号(被称作“亮度”),将稍少的带宽留给彩色信号(被称作“色度”)。

在MPEG2(也就是DVD使用的压缩格式)当中,Y、Cb、Cr信号是分开储存的(这就是为什么分量视频传输需要三条电缆)。其中Y信号是黑白信号,是以全分辨率存储的。但是,由于人眼对于彩色信息的敏感度较低,色度信号并不是用全分辨率存储的。

YUV 4:4:4

(图1)YUV 4:4:4采样概念图,画面中每个象素都有与之对应的色度和亮度采样信息。

色度信号分辨率最高的格式是4:4:4,也就是说,每4点Y采样,就有相对应的4点Cb和4点Cr。换句话说,在这种格式中,色度信号的分辨率和亮度信号的分辨率是相同的。这种格式主要应用在视频处理设备内部,避免画面质量在处理过程中降低。当图像被存储到Master Tape,比如D1或者D5,的时候,颜色信号通常被削减为4:2:2。

YUV 4:2:2

(图2)YUV 4:2:2采样概念图。

其次就是4:2:2,每4点Y采样,就有2点Cb和2点Cr。在这里,每个象素都有与之对应的亮度采样,同时一半的色度采样被丢弃,所以我们看到,色度采样信号每隔一个采样点才有一个。当着张画面显示的时候,缺少的色度信息会由两侧的颜色通过内插补点的方式运算得到。就像上面提到的那样,人眼对色度的敏感程度不如亮度,大多数人并不能分辨出4:2:2和4:4:4颜色构成的画面之间的不同。

YUV 4:2:0

(图3)非交错的YUV 4:2:0概念图。

图3表示了概念上4:2:0颜色格式非交错画面中亮度、色度采样信号的排列情况。同4:2:2格式一样,每条扫描线中,只有一半的色度采样信息。与4:2:2不同的是,不光是横向的色度信息被“扔掉”了一半,纵向的色度信息也被“扔掉”了一半,整个屏幕中色度采样只有亮度采样的四分之一。同时,YUV 4:2:0是所有采样方式中颜色分辨率最低的一种。

请注意,在4:2:0颜色格式中,色度采样被放在了两条扫描线中间。为什么会这样呢?很简单:DVD盘上的颜色采样是由其上下两条扫描线的颜色信息“平均”而来的。比如,图三中,第一行颜色采样(Line 1和Line 2中间夹着的那行)是由Line 1和Line 2“平均”得到的,第二行颜色采样(Line 3和Line 4中间夹着的那行)也是同样的道理,是由Line 3和Line 4得到的。

虽然文章中多次提到“平均”这个概念,但是这个“平均”可不是我们通常意义上的(a+B)/2的平均。颜色的处理有极其复杂的算法保证其最大限度地减少失真,接近原始质量。

事实上4:2:0是一个混乱的称呼,按照字面上理解,4:2:0应该是每4点Y采样,就有2点Cb和0点Cr,但事实上完全不是这样。事实上,4:2:0的意思是,色度采样在每条横向扫描线上只有亮度采样的一半,扫描线的条数上,也只有亮度的一半!换句话说,无论是横向还是纵向,色度信号的分辨率都只有亮度信号的一半。举个例子,如果整张画面的尺寸是720*480,那么亮度信号是720*480,色度信号只有360*240。在4:2:0中,“缺失”的色度采样不单单要由左右相邻的采样通过内插补点计算补充,整行的色度采样也要通过它上下两行的色度采样通过内插补点运算获得。这样做的原因是为了最经济有效地利用DVD的存储空间。诚然,4:4:4的效果很棒,但是如果要用4:4:4存储一部电影,我们的DVD盘的直径至少要有两英尺(六十多厘米)!

什么是YV12,什么是YUY2

在个人计算机上,这些YUV读出来以后会以一些格式包装起来,送给软件或硬件处理。包装的方式分成两种,一种是Packed format,把Y和相对应的UV包在一起。另一种是Planar format,把Y和U和V三种分别包装,拆成三个plane(平面)。

其中YV12和YUY2都是一种YUV的包装格式,YV12是Planar format,YUY2則是Packed format。

YV12和YUY2的不同,在于YV12是YUV 4:2:0格式,也就是DVD/VCD上原本储存的格式。YUY2则是YUV 4:2:2格式。

为什么影片在VDM处理的过程中要选Fast recompress

选择Fast recompress的原因,现得从Avisynth 2.5讲起。

Avisynth 2.5最大的特色,就是支持YV12直接处理。我们知道原始MPEG数据是YUV4:2:0,也就是YV12的格式,以前我们在做DivX/XviD压缩的时候,处理流程是: DVD/VCD(YUV 4:2:0) -> DVD2AVI(YUV 4:2:0 ->YUV4:2:2 ->YUV4:4:4 -> RGB24) -> VFAPI(RGB24) -> TMPGEnc/AviUtl/VirtualDub(RGB24) -> DivX/XviD Codec(RGB24 ->YUV4:2:0) -> MPEG-4(YUV 4:2:0)

(VFAPI 内部只能以 RGB24 传递数据,所以会转成 RGB24 输出)

或是

DVD/VCD(YUV 4:2:0) -> MPG2DEC.DLL(YUV 4:2:0 ->YUV4:2:2) -> Avisynth 2.0.x(只能用支援YUV4:2:2 的滤镜,不能用 RGB24/32 的 filter) -> VirtualDub(YUV 4:2:2,不能使用 VD 的 filter,因为 VD 的 filetr 都是在 RGB32 上处理,压缩时要选 Fast recompress,才会直接原封不动的送YUV4:2:2,也就是 YUY2 的数据给 Codec 压缩) -> DivX/XviD Codec(YUV 4:2:2 ->YUV4:2:0) -> MPEG-4(YUV 4:2:0)

所以以前的处理流程中间要经过好几次YUV<-> RGB 的转换。这个转换是有损的,做得越多次,原始的色彩信息就损失的越严重。而且这个转换的计算又耗时。那么有人(Marc FD)就想到,反正最后转成 MPEG 都要存成YUV4:2:0 的格式,那么为什么不干脆一路到底,全程都以YV12处理,也就是所有的 filter 都改写成YV12的版本,直接在YV12上做调整色彩、滤噪讯、IVTC 等工作,这样:

  • 处理的数据量少。(YV12的资料,UV 比YUY2少一半,比RGB 24/32少更多)
  • 不用转换计算

所以速度快。再加上又可以避免YUV<-> RGB 转换的损失,岂不是一举两得?所以支持YV12的 Avisynth 2.5 就诞生了。但是目前VirtualDub还是不支持 YV12,即使选 Fast recompress,VD还是会将YV12的输入转为 YUY2。所以要得到全程YV12处理的好处,必须使用VirtualDubMod才行,这个改版才有支持YV12。只有在选择Fast recompress的时候,VDM才不会进行任何处理,直接将数据丢给编码器压缩,这样就能保留YV12,实现了全程YV12。

参考文献