2025年yuv444和yuv422区别大吗(yuv444yuv420选哪个)

yuv444和yuv422区别大吗(yuv444yuv420选哪个)nbsp nbsp nbsp nbsp 这里不是说 B 站动画的画质差 比如犬夜叉 1080p 画质 比起当年的 DVD 画质好太多了 再加上赛璐璐动画特有的那种质感 观感也许真的不比 2021 年的新番差 nbsp nbsp nbsp nbsp 以此为契机我想写篇关于视频压缩失真的专栏 但解释这些现象前就不得不解释清楚 视频 到底是什么东西 于是就有了这篇文章 nbsp nbsp nbsp nbsp 我们都知道 一个视频容器里往往有多个轨道 视频轨 音频轨以及字幕轨等 这里讨论的 视频 指的是视频轨里的内容 视频轨封装的内容是一张张的图像 一张张连续的图像就组成了视频 每一张这样的图像叫



    这里不是说B站动画的画质差,比如犬夜叉1080p画质,比起当年的DVD画质好太多了。再加上赛璐璐动画特有的那种质感,观感也许真的不比2021年的新番差。

    以此为契机我想写篇关于视频压缩失真的专栏,但解释这些现象前就不得不解释清楚“视频”到底是什么东西,于是就有了这篇文章。


    我们都知道,一个视频容器里往往有多个轨道,视频轨、音频轨以及字幕轨等。这里讨论的“视频”指的是视频轨里的内容。视频轨封装的内容是一张张的图像,一张张连续的图像就组成了视频。每一张这样的图像叫。帧变化的快慢叫,一般用即每秒有多少帧来表示。

则是表示单位时间内视频数据的大小,可以理解为视频体积÷视频时间,但这种说法不能解释等现象,建议以第一种理解方式为准。


    就是用利用三原色光的原理,将每种三原色颜色分一个通道,每个通道的储存精度为用数字表示范围就是0-255(2的8次方)。它可以产生一千六百万种颜色组合(256 × 256 × 256 = 16,777,216),对人类的眼睛来说,其中有许多颜色已经是无法确切的分辨。用数字表示范围就是0-1024(2的10次方),能够表现10.7亿种颜色。

    则是把RGB三个通道通过数学转换换成了Y通道亮度、U、V两个色度通道。这就是最初的YUV格式。YUV的发明是在彩色电视与黑白电视的过渡时期。彩色电视最早的构想是使用RGB三原色来同时传输。这种设计方式是原来黑白带宽的3倍,在当时并不是很好的设计。而YUV最大的优点在于只需占用极少的带宽。,从而达到减少带宽的目的。黑白电视只有Y(亮度)的信号,到了彩色电视规格的制定就用UV视作表示色度,如果忽略色度的UV信号,那么剩下的Y信号就跟之前的黑白电视频号相同,这样一来还能解决彩色电视机与黑白电视机的兼容问题。

   不是一种绝对色彩空间,是YUV压缩和偏移的版本。我们在视频用的不是这种最初的YUV而是它的翻版YCbCr。YCbCr的Y与YUV中的Y含义一致,Cb和Cr与UV同样都指色彩,Cb指蓝色色度,Cr指红色色度,在应用上很广泛。

    

    前面介绍YUV时提及到,人眼对亮度最为敏感,因此可以压缩色度信息。像视频的实际储存和传输中,通常将 Y 以全分辨率记录,UV 以减半甚至 1/4 的分辨率记录。这个手段被称为。色度半采样可以有效减少传输带宽,和加大 UV 平面的压缩率。

YUV 4:4:4采样,每一个Y对应一组UV分量。

YUV 4:2:2采样,每两个Y共用一组UV分量。 

YUV 4:2:0采样,每四个Y共用一组UV分量。 


(2).AVC/H.264压缩

    是编码标准的基本处理单元,通常它的大小也为16x16像素。16X16 的宏块上可以划分出更小的子块。子块的大小可以是 8X16、 16X8、 8X8、 4X8、 8X4、 4X4。这主要看图像细节的丰富程度

完成分块后就采用以下几种方法进行压缩的操作:

经过压缩后的帧分为:I帧,P帧和B帧:

I帧:关键帧,完整的编码帧,采用帧内压缩技术。

P帧:向前参考帧,在压缩时,只参考前面已经处理的帧。采用帧间压缩技术

B帧:双向参考帧,在压缩时,它即参考前而的帧,又参考它后面的帧。采用帧间压缩技术。

除了I/P/B帧外,还有图像序列GOP。

GOP:两个I帧之间是一个图像序列,在一个图像序列中只有一个I帧。如下图所示:

    H.265/HEVC的编码架构大致上和H.264/AVC的架构相似,也包含帧内预测、帧间预测、转换、量化、去区块滤波器、熵编码等模块。为了提高高 清视频的压缩编码效率,H.265提出了超大尺寸四叉树编码架构,并采用编码单元(Coding Unit,CU)、预测单元(Predic tUnit,PU)和转换单元(Transform Unit,TU)三个基本单元执行整个编码过程。在此混合编码框架下,H.265进行了大量的技术创新,例如:基于大尺寸四叉树块的分割结构和残差编码结 构、多角度帧内预测技术、运动估计融合技术、高精度运动补偿技术、自适应环路滤波技术以及基于语义的熵编码技术。

(3).编码技术受码率的影响

    在视频处理中,的概念指的是一帧图片以内。跟相对,时间的概念就强调帧与帧之间的变换。

1.

    亮度变化较快,变动幅度大的区域,我们称之为。否则,亮度变化缓慢且不明显的区域,我们称为。

    有时候,线条和纹理统称为线条,平面又叫做非线条。这是亮度平面。色度平面,高频低频,线条等概念也同样适用,就是描述色度变化的快慢轻重。一般我们所谓的“细节”,就是指图像中的高频信息。一般来说,一张图的高频信息越多,意味着这张图信息量越大,所需要记录的数据量就越多,编码所需要的运算量也越大。如果一个视频包含的空间性高频信息很多(通俗点说就是每一帧内细节很多),意味着这个视频的空间复杂度很高。码率在一张图内不同部分的分配,叫做。分配较好的时候,往往整幅图目视观感比较统一。

2.

    一段视频如果很高,变化剧烈,我们称为时间复杂度较高,时域上的高频信息多。否则如果视频本身舒缓多静态,我们称为时间复杂度低,时域上的低频信息多。

    一般来说,一段视频的时域高频信息多,动态的信息量就大,所需要记录的数据量就越多,编码所需要的运算量也越大。但是另一方面,如何权衡以上两点去分配码率,被称为码率的时间分配。分配较好的时候,看视频无论动态还是静态效果都较好;分配不好的时候往往是静态部分看着还行,动态部分糊烂掉;或者动态部分效果过分的好,浪费了大量码率,造成静态部分欠码,瑕疵明显。

(1).

    是指取样信号被还原成连续信号时产生彼此交叠而失真的现象。当混叠发生时,原始信号无法从取样信号还原。即对模拟信号进行抽样,当抽样频率小于(为防止信号混叠需要定义最小采样频率)的2倍时,信号在频域会产生混叠效应。


    而在图像或视频领域,表现为


(2).

    图像处理中,对一幅图像进行滤波处理,若选用的频域滤波器具有陡峭的变化,则会使滤波图像产生“振铃”,所谓“振铃”,就是指输出图像的灰度剧烈变化处产生的震荡,就好像钟被敲击后产生的空气震荡

    振铃现象产生的本质原因是,对于辛格函数sinc而言,经过傅里叶变换之后的函数形式为窗函数(理想低通滤波器)形式,用图像表示如下:

    因此凡具有接近窗函数的滤波器,IFT之后,其空域函数形式多少接近sinc函数。sinc是进行图像滤波的主要因素,两边的余波将对图像产生振铃现象。

由卷积定理可将下面两种增强联系起来:

频域增强:

空域卷积:

其中f,g,h分别为输入图像,增强图像,空域滤波函数;F,G,H分别为各自的傅里叶变换。*为卷积符号。

在空间域将低通滤波作为卷积过程来理解的关键是h(x,y)的特性:可将h(x,y)分为两部分:原点处的中心部分,中心周围集中的成周期分布的外围部分。前者决定模糊,后者决定振铃现象。若外围部分有明显的震荡,则g(x,y)会出现振铃。利用傅里叶变换,我们发现,若频域滤波函数具有陡峭变化,则傅里叶逆变换得到的空域滤波函数会在外围出现震荡。

理想型:

(3).


而8bit的精度不足就容易导致了。

10bit 的优势不只在于显示精度的提高,在提高视频压缩率,减少失真方面,相对 8bit 也有优势。


(4).


编程小号
上一篇 2025-03-01 19:01
下一篇 2025-08-30 10:46

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ri-ji/46688.html