一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

用于图像和视频编码的基于全局跳过连接的CNN滤波器的制作方法

2022-12-31 15:48:01 来源:中国专利 TAG:
用于图像和视频编码的基于全局跳过连接的cnn滤波器
技术领域
:1.本发明实施例大体上涉及图像处理领域,更具体地,涉及用于图像和视频编码的基于神经网络的滤波。
背景技术
::2.视频译码(视频编码和解码)广泛用于数字视频应用,例如广播数字电视(tv)、基于互联网和移动网络的视频传输、视频聊天、视频会议等实时会话应用、dvd和蓝光光盘、视频内容采集和编辑系统以及安全应用的可携式摄像机。3.即使在视频较短的情况下,也需要大量的视频数据来描述,当数据要在带宽容量有限的通信网络中发送或以其它方式传输发送时,这样可能会造成困难。因此,视频数据通常要先压缩,然后通过现代电信网络进行传输。由于内存资源可能有限,当在存储设备上存储视频时,该视频的大小也可能成为问题。视频压缩设备通常在信源侧使用软件和/或硬件对视频数据进行编码,然后进行传输或存储,从而减少表示数字视频图像所需的数据量。然后,解码视频数据的视频解压缩设备在目的地侧接收压缩数据。在网络资源有限以及对更高视频质量的需求不断增长的情况下,需要改进压缩和解压缩技术,这些改进的技术能够在几乎不牺牲图像质量的前提下提高压缩比。4.一般来说,图像压缩可以是无损的或有损的。在无损图像压缩中,原始图像可以根据压缩图像完美地重建。然而,压缩率相当低。相比之下,有损图像压缩可以具有高压缩率,缺点是无法完美重建原始图像。尤其是在低码率下使用时,有损图像压缩会引入可见的空间压缩伪影。技术实现要素:5.本发明涉及用于图像修改(例如图像增强或其它类型的修改)的方法和装置。6.本发明由独立权利要求的范围限定。从属权利要求中提供了一些有利的实施例。7.特别地,本发明的实施例通过使用机器学习的特征提供了一种高效的图像修改方法。8.根据第一方面,提供了一种用于修改输入图像的方法,其中,所述方法包括:通过使用神经网络处理所述输入图像来生成校正图像,其中,所述使用神经网络进行的处理包括:图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段;通过将所述输入图像与所述校正图像组合来修改所述输入图像。9.这种方法提供了一种高效的处理,其中,仅学习和产生校正图像而不是整个图像,以便修改输入图像。10.在一种示例性实现方式中,所述校正图像和所述输入图像具有相同的垂直尺寸和水平尺寸。所述校正图像是差分图像,并且通过将所述差分图像添加到所述输入图像来进行所述组合。11.提供与所述输入图像相同大小的差异图像可以实现低复杂度的组合和处理。12.例如,所述神经网络是基于u-net的。为了建立所述神经网络,通过向这样的u-net引入跳过连接来修改所述u-net,所述跳过连接适于将所述输入图像与所述输出图像相连。13.u-net具有有利于图像处理的结构。u-net的使用还能够至少部分地利用某些处理阶段的一些可用实现方式或进一步修改这些实现方式,可能产生更简单的实现方式。14.在一个实施例中,所述神经网络根据表示所述输入图像的失真量或失真类型的参数的值参数化。15.用失真类型或失真量参数化神经网络可能有助于专门针对不同类型和量的失真训练网络,从而提供更准确的结果。16.根据一个实施例,所述图像下采样是通过应用跨步卷积和/或应用填充卷积执行的。17.应用所述跨步卷积可以降低复杂性,而使用填充卷积可能有利于在整个处理过程中保持图像大小。18.在一种示例性实现方式中,所述神经网络的激活函数是泄露型修正线性单元(rectifiedlinearunit,relu)激活函数。一个泄露型relu接近sigmoid函数,并允许改进学习。19.根据一个方面,提供了一种用于根据码流重建经编码图像的方法。所述方法包括:从所述码流中解码所述经编码图像,并应用如上所述用于修改输入图像的方法,其中,所述输入图像是所述经解码图像。这对应于处理作为后滤波器的应用,例如减少压缩伪影,或解决观众的特定感知偏好。20.根据一个方面,提供了一种用于重建视频的压缩图像的方法,包括:根据存储在存储器中的参考图像,使用图像预测重建图像;应用如上所述的用于修改输入图像的方法,其中,所述输入图像是所述重建图像;将所述修改后的图像存储在所述存储器中作为参考图像。这对应于将处理作为环内滤波器的应用,例如,在编码和/或解码过程中减少压缩伪影。改进不仅是在解码图像的水平上,而且由于环内应用,预测也可以得到改进。21.根据一个方面,提供了一种用于训练神经网络以修改失真图像的方法,其中,所述方法包括:将作为目标输入的失真图像和作为目标输出的校正图像对输入到所述神经网络,其中,所述校正图像是根据原始图像获取的,其中,使用所述神经网络进行的处理包括图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段,根据所述输入的对调整所述滤波的至少一个参数。22.例如,根据与均方差(meansquarederror,mse)对应的损失函数调整所述滤波的所述至少一个参数。23.替代地或另外,根据包括多个颜色通道的平方差加权平均值的损失函数调整所述滤波的所述至少一个参数。24.根据一个方面,提供了一种计算机程序,其中,当在一个或多个处理器上执行时,使所述一个或多个处理器执行根据上文所述的方法的步骤。25.根据一个方面,提供了一种用于修改输入图像的设备。所述设备包括:处理单元,用于通过使用神经网络处理所述输入图像来生成校正图像,其中,所述使用神经网络进行的处理包括:图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段;修改单元,用于通过将所述输入图像与所述校正图像组合来修改所述输入图像。26.根据一个方面,提供了一种用于根据码流重建经编码图像的设备,其中,所述设备包括:解码单元,用于从所述码流中解码所述经编码图像,所述设备用于如上所述修改所述经解码图像。27.根据一个方面,提供了一种用于重建视频的压缩图像的设备,其中,所述设备(装置)包括:重建单元,用于根据存储在存储器中的参考图像,使用图像预测重建图像;所述设备用于如上所述修改所述经解码图像;存储单元,用于存储所述修改后的图像作为参考图像。28.根据一个方面,提供了一种用于训练神经网络以修改失真图像的设备,其中,所述设备包括:训练输入单元,用于将作为目标输入的失真图像和作为目标输出的校正图像对输入到所述神经网络,其中,所述校正图像是根据原始图像获取的;处理单元,用于使用所述神经网络进行处理,其中,使用所述神经网络进行的处理包括:图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段;调整单元,用于根据所述输入的对调整所述滤波的至少一个参数。29.此外,还提供了与上述处理电路执行的步骤相对应的方法。30.根据一个方面,提供了一种计算机产品,包括用于执行根据上述方法所述的程序代码。所述计算机产品可以提供在非瞬时性介质上,并包括指令,当在一个或多个处理器上执行时,这些指令执行所述方法的步骤。31.上述任一装置都可以实施在集成芯片上。32.上述实施例和示例性实现方式中的任何一个都可以被组合。附图说明33.下文参考以下附图详细描述本发明实施例,其中:34.图1为用于修改图像的方法的示例性流程图;35.图2为遵循u形的通用机器学习系统的示意图;36.图3为特定示例性u-net类结构的示意图;37.图4为u-net在图像分割中的已知应用的示意图;38.图5为输入图像与产生修改图像的校正图像的组合的示意图;39.图6为具有全局跳过连接的特定示例性u-net类结构的示意图;40.图7为在使用神经网络处理中的某些类型的连接的示意图;41.图8为跨步最大池化操作的示意图;42.图9a为步长等于1的非跨步卷积的示意图;43.图9b为步长等于2的跨步卷积的示意图;44.图10为填充卷积的示意图;45.图11为用于修改图像的示例性设备的框图;46.图12为用于实现本发明实施例的视频编码系统的示例的框图;47.图13为用于实现本发明实施例的视频译码系统的另一示例的框图;48.图14为用于实现本发明实施例的视频编码器的示例的框图;49.图15为用于实现本发明实施例的视频解码器的示例性结构的框图;50.图16为应用图像修改作为后滤波器的解码设备的框图;51.图17为应用图像修改作为环路滤波器的解码设备的框图;52.图18为用于训练神经网络的训练装置的框图;53.图19为编码装置或解码装置的示例的框图;54.图20为编码装置或解码装置的另一示例的框图。具体实施方式55.在以下描述中,参考构成本发明一部分的附图,附图通过说明的方式示出了本发明实施例的特定方面或可使用本发明实施例的特定方面。应理解,本发明的实施例可用于其它方面,并且包括未在附图中描绘的结构或逻辑变化。因此,以下详细的描述并不当作限定,本发明的范围由所附权利要求书界定。56.可以理解的是,与所描述的方法有关的公开内容对于与用于执行方法对应的设备或系统也同样适用,反之亦然。例如,如果描述了一个或多个特定方法步骤,则对应的设备可以包括一个或多个单元,例如,功能单元,用于执行所描述的一个或多个方法步骤(例如,执行所述一个或多个步骤的一个单元,或各自执行所述多个步骤中的一个或多个步骤的多个单元),即使图中未明确描述或说明此类一个或多个单元。另一方面,例如,如果根据一个或多个单元(例如,功能单元)来描述特定装置,对应的方法可以包括一个步骤来执行一个或多个单元的功能(例如,执行所述一个或多个单元的功能的一个步骤,或各自执行所述多个单元中的一个或多个单元的功能的多个步骤),即使图中未明确描述或说明此类一个或多个步骤。此外,应理解,除非另外具体指出,否则本文中描述的各种示例性实施例和/或方面的特征可彼此组合。57.视频译码(coding)通常指对构成视频或视频序列的图像序列进行的处理。在视频译码的领域中,术语“帧(frame)”或“图像(picture/image)”可以用作同义词。视频译码(或通常称为译码)包括视频编码和视频解码两部分。在源侧执行视频编码,通常包括处理(例如,通过压缩)原始视频图像,以减少表示视频图像所需的数据量(以进行更高效的存储和/或传输)。在目的地侧执行视频解码,通常包括相对于编码器的逆处理以重建视频图像。实施例涉及的视频图像(或通常称为图像)“译码”应理解为涉及视频图像或相应视频序列的“编码”或“解码”。编码部分和解码部分也合称为编解码(codec)(编码和解码)。58.在无损视频译码的情况下,可以重建原始视频图像,即,重建视频图像与原始视频图像的质量相同(假设在存储或传输过程中没有传输损失或其它数据丢失)。在有损视频译码的情况下,进一步执行压缩(例如,通过量化)以减少表示无法在解码器中完全重建的视频图像的数据量,即,与原始视频图像相比,经重建视频图像的质量较低或较差。59.若干个视频译码标准属于“有损混合视频编解码器”组(即,将样本域中的空间和时间预测与2d变换译码相结合,以在变换域中进行量化)。视频序列中的每个图像通常分割成不重叠的块集合,通常在块层级进行译码。换句话说,在编码器中,通常以块(视频块)为单位对视频进行处理(即编码),例如,通过空间(帧内)预测和时间(帧间)预测来生成预测块;从当前块(当前处理/待处理的块)中减去预测块,获得残差块;在变换域中变换残差块并量化残差块,以减少待传输(压缩)的数据量,而在解码器中,将相对于编码器的逆处理部分应用于经编码或压缩的块,以重建当前块以进行表示。此外,编码器的处理环路与解码器的处理环路相同,使得两者将产生相同的预测(例如,帧内预测和帧间预测)块和/或重建块,以对后续块进行处理(即,译码)。60.到目前为止,存在大量的图像压缩编解码器。为了便于描述,例如,通过参考当前最先进的图像编解码器来描述本发明的实施例。目前最先进的图像编解码器是更好的可移植图形(betterportablegraphics,bpg),基于视频压缩标准高效视频编码(hevc,h.265)的帧内编码。bpg已被提议取代联合摄影专家组(jointphotographicexpertsgroup,jpeg)标准,作为图像质量和文件大小方面更具压缩效率的替代方案。本领域普通技术人员应理解本发明实施例不限于这些标准。61.然而,由于有损图像压缩可以实现高压缩率,所有压缩编解码器的缺点是可见的空间压缩伪影。bpg图像编解码器的一些示例性压缩伪影可以是块效应、模糊、振铃、楼梯或基本图案。然而,可以发生更多种类的伪影,本发明不限于上述伪影。62.近年来,神经网络受到了关注,导致人们提出了将其用于图像处理。特别地,卷积神经网络(convolutionalneuralnetwork,cnn)已被用于此类应用。一种可能性是完全用神经网络取代压缩管道。然后,cnn端到端学习图像压缩。文献中提出了这种方法的多种出版物。虽然在学习的图像压缩中,特别是结构压缩伪影大大减少,但只有最近的出版物显示出与bpg一样好的压缩率。63.减少这些压缩伪影的另一种可能性是在压缩后应用滤波器。hevc压缩标准中已经存在简单的环内滤波器。文献中提出了更复杂的滤波器,特别是基于卷积神经网络(convolutionalneuralnetwork,cnn)的滤波器。然而,视觉质量的改进只是有限的。64.神经网络是一种支持机器学习的信号处理模型,这种模型模仿人脑,包括多个相互连接的神经元。在神经网络实现方式中,两个神经元连接处的信号是一个数字,而且每个神经元的输出是通过其加权输入和的某一非线性函数计算出的。这些连接称为边。神经元和边通常具有随着学习进行调整的权重。权重增加或减少连接处的信号强度。加权和的非线性函数也被称为“激活函数”或“神经元的传递函数”。在一些简单的实现方式中,输出可以是二进制的,取决于加权和是否大于某一阈值,对应于作为非线性激活函数的阶跃函数(stepfunction)。在其它实现方式中,可以使用其它激活函数,例如sigmoid等。通常,神经元聚集成一层一层的。不同的层可以对其输入执行不同的变换。信号从第一层(输入层)传输到最后一层(输出层),可能在穿越多层之后。权重是通过训练学习的,训练可以通过监督学习或无监督学习执行。需要说明的是,上述模型只是一种通用模型。对于具体应用,神经网络可以具有不同的处理阶段,这些处理阶段可以对应于cnn层且适用于期望输入,例如图像等。65.cnn是神经网络的一个子类,它使用共享权重来减少可训练参数的数量。它们最常用于视觉图像。66.在本技术的一些实施例中,训练深度卷积神经网络(convolutionalneuralnetwork,cnn)以减少压缩伪影并增强图像的视觉质量,同时保持高压缩率。67.特别地,根据一个实施例,提供了一种用于修改输入图像的方法。在这里,修改是指任何修改,例如通常通过滤波或其它图像增强方法进行的修改。修改的类型可能取决于特定的应用。方法包括以下步骤:通过使用神经网络处理输入图像来生成校正图像,其中,所述使用神经网络进行的处理包括:图像下采样和对下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段;通过将输入图像与校正图像组合来修改输入图像。这里的术语“校正图像”是指除了输入图像之外的图像,并且用于修改输入图像。68.根据本实施例的方法100的示例在图1和图2中示出。69.下采样和滤波120可以是收缩路径299,上采样和滤波130可以是神经网络(也称为“神经网”或“网络”)的扩展路径298。收缩路径是一个卷积网络,可以包括重复应用卷积,每个卷积之后都是激活函数和对图像进行下采样。70.根据本实施例的方法可以分别在下采样和上采样中使用至少一个卷积阶段和至少一个激活函数阶段。在收缩过程中,空间信息减少,而特征信息增加。扩展路径通过一系列上卷积和级联与收缩路径中的高分辨率特征组合特征和空间信息。71.例如,激活函数可以是修正线性单元(rectifiedlinearunit,relu)。对于所有负数,relu为0,对于正数,relu为线性函数(斜坡)。然而,本发明并不限于此,通常可以使用不同的激活函数,如sigmoid或阶跃函数等。relu函数的形状接近sigmoid,但没有那么复杂。72.一般来说,下采样可以以许多不同的方式执行。例如,图像的每第二行(row/line)可以被舍弃。或者,可以应用最大池化操作,该操作将x个样本替换为x个样本中具有最大值的样本。另一种可能性是用等于x个样本平均值的样本替换x个样本。本发明不限于任何特定的方法,并且其它类型的下采样也是可以的。73.将输入图像110与校正图像组合140可以更高效地使用神经网络,因为校正图像不必类似于完整的修改图像。这与上述下采样和上采样结合可能特别有利。74.输入图像110可以是视频帧或静止图像。修改可以包括减少压缩伪影、由存储/通道错误引起的伪影或图像或视频中的任何其它缺陷,并提高图像的感知质量。这还可以包括减少缺陷或提高数字化图像或视频帧的质量,例如以低质量记录或存储的图像或视频。改进还可以包括黑白录音的着色或改进或修改录音的着色。事实上,使用旧设备或非最佳设备录制的图像或视频的任何伪影或不需要的特征都可以减少。例如,修改还可以包括超级分辨率、艺术或其它视觉效果和深度伪影。75.在示例性实现方式中,神经网络的架构可以基于u形机器学习结构。这种结构的一个示例是u-net。u-net是一种卷积神经网络(convolutionalneuralnetwork,cnn),最初是为生物医学图像分割而开发的,但也被用于其它相关
技术领域
:,如超分辨率。在下文中,术语u-net以更广泛的方式使用,指的是一般的u形神经网(网络)结构。76.图1中示出了小型u形网络(u-net)的示例。图2示出了具有更多处理阶段的示例。u-net显示了收缩路径299和扩展路径298,这使它具有u形结构。收缩路径是一种卷积网络,包括卷积的重复阶段,每个阶段随后对图像进行下采样,例如修正线性单元(rectifiedlinearunit,relu)激活函数和最大池化操作。在收缩过程中,空间信息减少,而特征信息增加。扩展路径通过一系列上卷积和级联与收缩路径中的高分辨率特征组合特征和空间信息。换句话说,图2中的示例性u-net包括具有下采样和(至少一个)卷积的多个处理阶段,以及具有上采样和卷积的多个阶段。下采样模块降低了其输入中图像的分辨率。因此,在收缩路径的每个阶段,图像的分辨率变得更小。因此,在每个阶段,卷积模块从细到粗分析图像特征,这些特征对特定分辨率至关重要。卷积是指特征分析,它对卷积模式输入中的图像的每个样本使用预定义的掩模(模式)。从数学上讲,为图像的每个样本计算卷积,作为预定义掩模和所述样本位置处的图像的样本乘积的总和。需要说明的是,这里示例的卷积只是一个有利的选择。一般来说,本发明不限于这种卷积。如上所述,一般来说,可以应用任何类型的滤波,包括任何类型的特征提取机制。特征分析可以包括例如梯度或边检测,或其它特征。77.图3示出了与https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net中使用的类似u-net结构相对应的更详细的示例。图3所示的u-net中的收缩路径遵循卷积网络的架构。本示例性u-net的元素也可以用于本技术的实施例。它显示了两个3×3卷积(这里是无填充卷积)的重复应用(到图像分块(tile)),每个卷积之后是修正线性单元(rectifedlinearunit,relu)399和2×2最大池化操作398,步长为2,进行下采样。图3中的每个框对应于一个多通道特征图。特别地,处理大小为572×572个样本的输入图像分块。在第一卷积和第二卷积之后,生成64个特征通道。输入图像的位置与特征通道(570×570和568×568)大小之间的差异是由于卷积没有被填充,因此,对于图像边界处的样本,无法正确计算卷积。在每个下采样步骤中,特征通道的数量都会翻倍(请参见以下阶段128、256、512,最后是1024个特征通道)。78.扩展路径中的每一个步骤都包括对特征图进行上采样,然后是将特征通道数量减半的2×2卷积(上卷积)397、与收缩路径中相应裁剪的特征图的级联,以及两个3×3卷积,每个卷积之后是relu。裁剪396是因为上面提到的每个卷积中的边界像素丢失。在最后一层,使用1×1卷积395将每个64分量特征向量映射到所需数量的类别。这个示例性网络总共有23个卷积层。为了有助于输出分段映射的无缝分块,可以选择输入分块大小,以便将所有2×2最大池化操作应用于具有均匀x和y大小的层。79.u-net是一种卷积神经网络(convolutionalneuralnetwork,cnn),最初是为生物医学图像分割而开发的。在分割中,网络输入是图像,网络输出是分割掩模,它将每个像素分配给特定的类标签。这种输入和输出的示例如图4所示,来自https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net。输入是神经元结构的电子显微镜图像401,其使用u-net进行分割以生成分割掩模402。为了使用u-net进行图像滤波,例如后处理和环内滤波,其中网络输入和网络输出都是图像,具有如上所述结构的传统u-net可能不适合。80.上述网络结构可以通过一些修改由本发明的方法和装置使用,这将在稍后更详细地描述。神经网络通常有两种工作模式:学习模式和操作模式。学习通常可以是监督学习,也可以是无监督学习。在监督学习期间,网络被呈现为包括输入图像(例如,失真图像)和期望输出图像(例如,增强图像)对的训练数据集。为了实现图像修改的目的,可以采用监督学习。需要说明的是,本发明并不限于同时支持学习模式和操作模式的情况。一般来说,网络不一定要经历学习过程。例如,权重可以从其它来源获取,网络可以直接配置适当的权重。换句话说,一旦一个神经网络被适当训练,权重可以被存储以供以后使用和/或提供来配置其它网络。81.期望图像可以是原始图像,例如,未受干扰的图像。输入图像可以是原始图像的干扰版本。例如,未受干扰的图像可以是未压缩或无损压缩的图像。干扰图像可以基于压缩和随后解压缩后的未干扰图像。例如,在压缩解压缩中,bpg或hevc可以在训练和测试期间使用。然后,cnn可以学习滤波器以减少压缩伪影并增强图像。82.在本示例中,在学习期间,网络的参数被调整为使增强图像比解压缩图像更像未压缩图像。这可以在原始、未压缩图像和增强图像之间的损失函数的帮助下完成。83.然而,输入图像也可以是未干扰图像,而原始图像是手动或以其它方式修改的图像。在这种配置中,神经网络可以修改图像,使得它们类似于在某种程度上类似于训练集的未干扰图像的更多图像中对训练图像集应用的修改。84.相应地,当校正图像与输入图像组合时,所得图像可以比输入图像更好地类似于原始图像。例如,将校正图像与输入图像组合可以对应于添加两个图像的像素值,即逐个像素添加。然而,这只是一个示例,并且可以使用将校正图像与输入图像组合的进一步方法,如后面所述。需要说明的是,在本发明中,术语“像素”和“样本”可互换地使用。85.根据一些实施例,所述处理不直接输出增强/修改图像。相反,它输出校正图像。在一个示例中,校正图像可以是差分图像。例如,校正图像可以对应于输入图像和原始图像(通常也可以称为期望图像或目标图像)之间的差值。86.根据一个实施例,校正图像和输入图像具有相同的大小,即具有相同的水平和垂直尺寸以及相同的分辨率,并且校正图像是差分图像,并且通过将差分图像添加到输入图像来执行组合。87.图5显示了差分图像与输入图像组合的示意图示例。在本例中,510是输入图像。神经网络创建校正图像520。添加输入图像和校正图像可以产生输入图像的增强版本530。优点可能包括神经网络只需要创建差分图像,而不需要创建完整的修改图像。例如,在本方法用于改进视频的帧的情况下,差分图像通常可以比最终修改的图像简单。这可以意味着校正图像包括的自由度(信息)比增强图像的少。因此,神经网络可以更高效地运行。88.然而,将校正图像与输入图像组合也可以对应于其它操作,例如,使用校正图像平均、滤波输入图像或使用来自校正图像的像素替换输入图像的像素。在替换像素的配置中,例如,组合可以根据阈值选择要替换的像素。可以选择由高于阈值的值表示的校正图像的那些像素来替换输入图像中的相应像素。此外,组合可以例如基于两个图像的加权或局部组合。此外,输入图像与校正图像的组合可以可替换地或附加地包括非线性操作,如剪裁、乘法等。89.在所述示例中,校正图像和输入图像具有相同的x方向和y方向。然而,在一些实施例中,校正图像可以具有不同的尺寸。例如,校正图像可以提供一个或多个要与输入图像组合的局部补丁。此外,校正图像可以与输入图像不同,因为具有不同的分辨率。例如,校正图像的分辨率可以比输入图像的高。在这种配置中,例如,校正图像可以用于锐化输入图像的特征和/或增加图像或视频的分辨率。90.图2示出了在本实施例中应用的神经网络的示例。图2中所示的示例性网络显示了收缩路径和扩展路径,这使其具有u形结构。此外,网络将收缩和扩展路径产生的校正图像与输入图像的未修改副本结合起来。在收缩过程中,空间信息减少,而特征信息增加。扩展路径通过一系列上卷积和级联与收缩路径中的高分辨率特征组合特征和空间信息。本示例中的收缩路径是卷积网络,其中包括重复应用卷积,每个卷积之后是修正线性单元(rectifiedlinearunit,relu)激活函数和最大池化操作,以如上所述对图像进行下采样。然而,可以使用不同的下采样操作和激活函数,如本发明的各种实施例后面所述。91.图6示出了可在下面将更详细地描述的不同示例性实施例中使用的技术的概述。特别是,图6示出了与图2的u-net有些相似的u形神经网络结构。然而,有一些技术应用于u-net,以提高其性能。这些技术可以替代地或组合地应用。组合可以是两种或多种技术或所有技术的任何组合。图6中圆圈的个位数数字显示了这些技术在网络中的应用位置。例如,如上所述,学习的下采样598可以用于下采样阶段。下面将更详细地解释与其中一个带圆圈的个位数数字相对应的每种技术。92.如上所述,根据本技术的网络的收缩和扩展路径也可以在u-net中找到。相应地,根据本技术的方法可以被认为是基于修改后的u-net。93.特别地,在示例性实现方式中,神经网络基于u-net,为了建立所述神经网络,通过将跳过连接599引入到所述u-net来修改所述u-net,跳过连接599用于将输入图像与输出图像相连。跳过连接599可以通过将输入图像的副本存储在不受神经网络影响的存储器中来实现。当神经网络创建校正图像时,输入图像的副本可以被检索并与由神经网络创建的校正图像组合。94.如上所述的图像修改可以轻易地应用于现有或未来的视频编解码器(编码器和/或解码器)。特别地,图像修改可以用于编码器和解码器侧的环内滤波的目的。替代地或另外,图像修改可以在解码器侧的后滤波器中使用。环内滤波器是在重建量化图像后在编码器和解码器中使用的滤波器,目的是将重建图像存储在缓冲器/存储器中,以便将其用于预测(时间或空间)。图像修改可用于在此处增强图像并减少压缩伪影。后置滤波器是在渲染图像之前应用于解码器侧的经解码图像的滤波器。后滤波器还可用于减少压缩伪影和/或使图像在视觉上令人愉快,或为图像提供一些特效、颜色校正等。95.在图像/视频后处理和环内滤波中,网络输入信号和神经网络输出信号都是图像。需要说明的是,图像修改可用于静态图像和/或视频帧的编码和/或解码。然而,编码和解码并不是本发明的唯一应用。相反,独立的图像修改部署是可能的,例如通过添加一些效果来增强图像或视频的应用程序,如上所述。96.在编码/解码的使用情况下,输入图像和输出图像主要相似,因为cnn只尝试反转压缩伪影。因此,引入网络的从输入图像到输出图像的全局跳过连接599是特别有利的。图7中也示出了这个示例。因此,cnn只需要学习输入图像(解压缩图像)和原始图像(未压缩图像)之间的区别,而不是将输入图像转换为原始图像。这样简化了网络的训练。在图7所示的示例中,x是解压缩的输入图像、y是原始未压缩图像,是滤波后的输出图像。在标准连接的正常情况下,cnn通过应用学习的滤波器将图像x转换为图像97.然而,由于图像x和y非常相似,通过使用全局跳过连接599转发来简化学习。网络现在只学习x和y之间的差d98.d=y-x。99.或者,可以将网络的输出从[0100][0101]重写为[0102][0103]并相应地调整损失函数。这里,表示由函数f获取的校正图像的估计,该函数f是描述神经网络处理的函数。[0104]根据另一个实施例,神经网络根据表示所述输入图像的失真量或失真类型的参数的值参数化。[0105]压缩图像始终是压缩率和图像质量之间的折衷。一般来说,图像被压缩的越少,压缩图像的图像质量就越好。由于不同的压缩级别引入了不同的压缩伪影,而不是训练单个cnn来处理所有不同的压缩等级,而是可以为每个压缩等级训练特定的cnn。这可以进一步改善滤波后图像的视觉质量,因为特定网络可以更好地适应特定的压缩等级。[0106]在一些实现方式中,一个或多个参数可以表示使用哪个压缩等级和/或哪个压缩技术(编解码器)来压缩图像或视频。这些参数可以表示应使用哪种cnn结构来增强解压缩的图像或视频。这些参数可用于在学习中以及在将神经网络应用于解压缩图像时确定神经网络的结构。在一些实现方式中,参数可以与图像数据一起传输或存储。然而,在一些实现方式中,相应的参数可以从解压缩的图像中确定。换句话说,解压缩图像的属性可用于确定神经网络的结构,然后用于改进解压缩图像。例如,这样的参数可以是量化步骤或反映量化步骤的另一个量化参数。此外或可替换地,可以使用预测设置等其它编码器参数。例如,帧内预测和帧间预测可以产生不同的伪影。本公开不限于任何特定参数。位深度和在编码和解码期间接近的特定变换或滤波的应用是可用于参数化或训练神经网络的参数的其它示例。[0107]此外,在一些实现方式中,完全描述神经网络的一组参数可以与图像或视频或图像集或视频集一起传输或存储。参数集可以包括所有参数,包括使用对应的图像集学习的权重。[0108]在其它实现方式中,神经网络的权重可以通过训练数据集进行学习。训练数据可以是任一图像集或视频集。然后,相同的权重可用于改进任何输入数据。具体地,使用相同的压缩技术和相同的压缩率压缩的所有视频或图像可以使用相同的神经网络改进,并且不需要与每个视频或图像一起传输或存储单独的权重。优点可以是可以使用更大的训练数据集来训练神经网络,并且在传输或存储压缩图像或视频时需要更少的数据开销。[0109]根据一个实施例,图像下采样是通过应用跨步卷积和/或应用填充卷积597执行的。[0110]原始的u-net使用最大池化对收缩路径上的输入图像进行下采样。最大池化是非线性下采样的一种形式。将输入图像划分为一组非重叠矩形,并对于每个这种子区域输出最大值。图8示出了最大池化的示例。给定图像x、池化掩模s的大小以及行索引r和列索引c,它们标识x的像素,最大池化操作定义如下:[0111][0112]在图8所示的示例中,示出了具有2×2滤波器的示例性最大池化操作。在此示例中,4×4像素池化为2×2像素。同样的方法也可以应用于维度不是4×4的阵列。首先,在本示例中,4×4输入以2×2阵列分隔。从每个2×2阵列中,确定最大值。然后,每个最大值的值用于填充新的2×2像素阵列中的对应字段。[0113]因此,具有池化大小s=2的最大池化分辨率为x的四分之一,即x的宽度减半,高度减半。这自然会导致信息丢失。为了限制这种损失,根据本实施例的方法使用跨步卷积来对图像进行下采样,而不是使用最大池化。步长定义了遍历图像时内核的步长。虽然它的默认值通常是1,但可以使用步长2以类似于最大池化对图像进行下采样。但是,也可以使用其它步长。而在标准(非跨步)卷积中,卷积的步长是1,在跨步卷积中,卷积的步长大于1。这导致对输入图像进行学习下采样598。标准(非跨步)卷积和跨步卷积之间的区别如图9a和图9b所示。[0114]特别地,图9a示出了步长等于1(非跨步)的卷积。具有4×4样本大小的图像920a的部分被下采样到具有2×2样本大小的图像910a。下采样图像910a的每个样本是根据图像920a的3×3子区域的9个样本获取的。贡献于下采样图像910a的样本的子区域重叠,并且它们的中心在相邻样本中,即彼此距离1个样本,对应于步长等于1。[0115]图9b示出了步长为2的卷积。与图9a类似,具有5×5样本大小的图像920b的部分被下采样到具有2×2样本大小的图像910b。下采样图像910b的每个样本是根据图像920a的3×3子区域的9个样本获取的。贡献于下采样图像910a的样本的子区域重叠,并且它们的中心彼此相距2个样本的距离,对应于步长等于2。[0116]再次让x为输入图像,深度为kin,w为网络的权重,kout为下采样后的深度,通常是输入图像的两倍,即kout=2·kin。然后,卷积图像和下采样图像定义为:[0117][0118]换句话说,权重w确定来自图像920a、920b的相应样本对经采样的图像910a、910b的贡献。因此,权重在执行下采样的同时对输入图像进行滤波。这些权重可以在某些实现方式中固定。然而,群众也可以经过训练。[0119]跨步卷积在此应用为下采样。尽管如此,在下采样之后执行滤波,如图6所示。然而,需要说明的是,在一些实现方式中,滤波的至少一部分可以已经通过具有适当设置权重的卷积执行(以执行所需的特征提取/滤波)。在这种实现方式中,可以通过这种联合下采样和滤波来节省计算能力。[0120]此外,除了跨步卷积之外或可选地,可以使用填充卷积597。由于原始u-net中的未填充卷积,网络输出的分辨率小于恒定边界宽度的网络输入的分辨率,如上面参考图2所讨论。对于后处理和环内滤波(环路滤波),这种行为可能是不利的,因为输入图像和输出图像应该具有相同的分辨率。[0121]因此,可以使用填充卷积而不是非填充卷积。在填充卷积中,在输入图像的边界周围填充预定义值的597个额外像素,从而增加了图像的分辨率,然后在卷积后将其降低到原始分辨率,用于其它目的。通常,额外像素的值可以全部设置为0。但是,可以选择不同的策略来填充额外的像素。这些策略中的一些可以包括用附近像素的平均值或例如用附近像素的最小值填充对应像素。附近的像素可以是相邻的像素或预定半径内的像素。图10示出了填充卷积的概念。虚线框1025是围绕原始图像1020填充的附加像素,以保持卷积后产生卷积图像1010的分辨率。特别地,如在图10中的一系列图像中的第一张中可以看到,当对角样本的位置执行卷积时,在两侧(图10的第一个图像中的左上方,图10的最后一个图像中的右上方)上没有其它样本。为了仍然允许卷积的计算,附加样本1025被添加到紧邻图像1020的位置。这种添加可以是图像1020的像素的外插,或固定和预定义的值等。需要说明的是,在这个简单的示例中,由于卷积掩模大小为3×3,在图像1020边界上只需要一个额外的样本。然而,对于较大的掩模尺寸,在图像1020周围需要一个以上的额外样本。填充卷积和跨步卷积可以组合应用。[0122]然而,需要说明的是,本发明不限于使用填充卷积597。相反,可以应用无填充卷积或其它处理边界的技术。[0123]在一个实施例中,神经网络的激活函数是泄露型修正线性单元(rectifiedlinearunit,relu)激活函数596。[0124]原始u-net使用修正线性单元(rectifiedlinearunit,relu)作为非线性激活函数,定义如下:[0125]f(x)=max(0,x)。[0126]换句话说,这意味着负值被削减到0。因此,以前为负的值中没有更多的梯度。[0127]由于零梯度信息,在训练期间使用这样的标准relu可能会有问题。值x始终低于0将导致无法学习网络。[0128]然而,由于更多的梯度信息,使用泄露型relu作为激活函数,可能会导致更快的学习和更好的收敛。泄露型relu定义如下:[0129][0130]换句话说,大于0的值不受影响,负值将缩放。缩放因子可以是小于1的数字,以便减小负值的绝对幅度。或者,可以使用任何其它激活函数,例如,软加激活函数。[0131]为了提高视频帧的视觉质量,本公开提供了可以用作后处理滤波器或作为环内滤波器的方法和装置。[0132]如上所述,图像滤波可以以不同的方式用于视频处理。编码器和解码器都试图重建尽可能接近原始图像的图像。在这样做的过程中,在重建视频时对视频的每一帧进行滤波是有利的。然后,滤波后的图像可用于更好地预测下一帧(循环滤波)。[0133]在一些实施例中,图像的后处理可能是有利的。在这种情况下,在帧或图像被显示、保存或缓冲之前,滤波器可以在解码后应用于每个帧。下一帧的预测,可能仍然基于解码但未滤波的最后一帧。根据一个实施例,提供了一种用于根据码流重建经编码图像的方法,其中,所述方法包括:从码流中解码经编码图像,并应用根据上述任何实施例的用于修改输入图像的方法,其中,输入图像是经解码图像。[0134]在这种方法中,可以使用任何视频编解码技术。之后对帧进行滤波。换句话说,滤波可以独立于编解码应用。这可能有助于在不改变编码/解码方法的情况下提高任何压缩视频的视觉质量。如上所述,滤波器可以适应编码方法和/或压缩率。[0135]或者,在视频编码中,可以对帧进行环内滤波(环路滤波器)。这可能意味着在用于预测其它帧之前对这些帧进行滤波。相应地,根据一个实施例,提供了一种用于重建视频的压缩图像的方法,包括:根据存储在存储器中的参考图像,使用图像预测重建图像;应用如上所述的用于修改输入图像的方法,其中,输入图像是重建图像;将修改后的图像存储在存储器中作为参考图像。[0136]在连续帧的预测中使用滤波后的图像,帧或块的区域可以促进和/或提高预测的准确性。这可以减少存储或传输视频所需的数据量,而不降低连续块或帧的预测精度。[0137]在视频解码中使用的相同环路滤波器也可以在编码中使用。[0138]对于根据本技术实施例的神经网络,以修改图像和视频,使得修改后的图像类似于目标图像,需要对网络参数(即神经网络的权重)进行高效的训练。因此,提供了一种用于训练神经网络以修改失真图像的方法,其中,所述方法包括:将作为目标输入的失真图像和作为目标输出的校正图像对输入到神经网络,其中,校正图像是根据原始图像获取的,其中,使用神经网络进行的处理包括图像下采样和对下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段,根据输入的对调整滤波的至少一个参数。[0139]根据本实施例,监督学习技术可用于优化网络参数。学习的目的可以是网络从目标输入创建校正图像作为目标输出。为了实现这一目标,在将神经网络应用于目标输入后,生成的输出(校正图像)被添加到目标输出的副本中。这可以通过跳过连接599来实现。随后,可以计算损失函数。[0140]根据一个实施例,根据与均方差(meansquarederror,mse)对应的损失函数595调整滤波的至少一个参数。[0141]最初的u-net是为生物医学图像分割而开发的。在分割中,网络的输入是图像,网络的输出是分割掩模。分割掩模将每个图像像素分配给特定的类标签。作为损失函数,使用了交叉熵,它测量了两个概率分布之间的距离。[0142]对于环内滤波,交叉熵损失函数可能不是最佳的。为了测量有损图像压缩的重建质量,峰值信噪比(peaksignal-to-noiseratio,psnr)可能是一个更好的度量,它可以通过均方差(meansquarederror,mse)定义。给定具有宽度w和高度h的原始未压缩图像y以及对应的滤波输出图像mse损失函数595定义为:[0143][0144]然而,本发明不限于使用mse作为损失函数595。可以使用其它损失函数,其中一些可能类似于mse损失函数595。一般来说,可以使用根据图像质量评估已知的替代的其它功能。在一些实施例中,可以使用优化用于测量图像或视频帧的感知视觉质量的损失函数。例如,可以使用加权损失函数,其可以对例如减少某些类型的缺陷或残差进行加权平均。在其它实施例中,损失函数可以在图像的某些区域上进行加权平均。一般来说,将损失函数调整神经网络应用于的图像修改类型可能是有利的。[0145]此外,在损失函数中使用几个输出通道(颜色通道)可能是有利的。根据一个实施例,对滤波的至少一个参数的调整基于包括多个颜色通道594的平方差加权平均值的损失函数。[0146]本实施例提供的网络具有多个输出通道594,而不是使用单个网络输出计算损失函数。例如,在图6中,是处理3个输出1、2和3:这允许在网络训练期间对损失函数内不同部分进行加权平均的重要性。设x为解压缩后的输入图像,y为原始的未压缩图像,为滤波后的增强图像,α、β和γ为标量加权常数。此外,让图像位于rgb颜色空间中,红色为r、绿色为g和蓝色为b。然后,多个输出的均方差损失函数可以计算如下:[0147][0148]在具有亮度y、色度u和v的yuv颜色空间中,损失函数计算如下:[0149][0150]需要说明的是,本发明不限于这些示例。一般来说,没有必要对所有颜色通道进行加权平均。例如,可以仅对三个通道中的两个通道进行加权平均等。[0151]图11示出了用于根据上述任何方法修改输入图像的设备1100的示例。处理单元1110用于通过使用神经网络处理输入图像,生成校正图像。使用神经网络进行的处理包括:图像下采样和对下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段;修改单元1120用于通过将输入图像与校正图像组合来修改输入图像。[0152]这里,滤波参数(权重)可以是机器学习(训练)的。然而,如上所述,可以学习更多的参数,例如用于下采样的卷积的卷积权重。[0153]如上所述,参考图6描述的技术也可以单独应用。例如,当应用于图2的神经网络时,跨步卷积也提供了好处,而不与图6中所示的一个或多个修改进行组合。对应地,提供了一种用于修改输入图像的方法,包括:通过使用神经网络处理输入图像来生成输出图像,其中,所述使用神经网络进行的处理包括:图像下采样和对下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段,其中,图像下采样是通过应用跨步卷积执行的。[0154]跨步卷积的优点是可以降低复杂性。在一个示例性实施例中,跨步卷积的步长为2。此值代表了下采样的复杂性和质量之间的良好折衷。[0155]根据一种示例性实现方式,神经网络基于u-net,为了建立所述神经网络,通过将跳过连接引入到u-net来修改所述u-net,跳过连接用于将输入图像与输出图像相连。[0156]例如,神经网络根据表示输入图像的失真量或失真类型的参数的值参数化。替代地或另外,神经网络的激活函数是泄露型修正线性单元(rectifiedlinearunit,relu)激活函数。[0157]为了进一步保持图像大小不受具有不可用像素的图像边界的影响,图像下采样是通过应用填充卷积来执行的。[0158]在一些实施例中,输出图像是校正图像,并且该方法还包括通过将输入图像与校正图像组合来修改输入图像。[0159]例如,校正图像和输入图像具有相同的垂直尺寸和水平尺寸,并且校正图像是差分图像,并且通过将差分图像添加到输入图像来执行组合。[0160]根据一个实施例,提供了一种用于根据码流重建经编码图像的方法,其中,所述方法包括:从所述码流中解码所述经编码图像,并应用本发明中所述用于修改输入图像的方法,其中,所述输入图像是所述经解码图像。[0161]根据一个方面,提供了一种用于重建视频的压缩图像的方法,包括:根据存储在存储器中的参考图像,使用图像预测重建图像;应用如上所述的用于修改输入图像的方法,其中,所述输入图像是所述重建图像;将所述修改后的图像存储在所述存储器中作为参考图像。[0162]根据一个方面,提供了一种用于训练神经网络以修改失真图像的方法,其中,所述方法包括:将作为目标输入的失真图像和目标输出图像对输入到所述神经网络,其中,所述目标输出图像是基于原始图像,其中,使用所述神经网络进行的处理包括图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段,其中,所述图像下采样是通过应用跨步卷积来执行的;根据所述输入的对调整所述滤波的至少一个参数。[0163]特别地,根据与均方差(meansquarederror,mse)对应的损失函数调整所述滤波的所述至少一个参数。[0164]替代地或另外,根据包括多个颜色通道的平方差加权平均值的损失函数调整所述滤波的所述至少一个参数。[0165]根据一个方面,提供了一种用于修改输入图像的设备,其中,所述设备包括:处理单元,用于通过使用神经网络处理所述输入图像来生成输出图像,其中,所述使用神经网络进行的处理包括:图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段,其中,所述图像下采样是通过应用跨步卷积执行的。[0166]根据一个方面,提供了一种用于根据码流重建经编码图像的设备,其中,所述设备包括:解码单元,用于从所述码流中解码所述经编码图像,所述设备用于如上所述修改所述经解码图像。[0167]根据一个方面,提供了一种用于重建视频的压缩图像的设备,其中,所述设备包括:重建单元,用于根据存储在存储器中的参考图像,使用图像预测重建图像;所述设备用于如上所述修改所述经解码图像;存储单元,用于存储所述修改后的图像作为参考图像。[0168]根据一个方面,提供了一种用于训练神经网络以修改失真图像的设备,其中,所述设备包括:训练输入单元,用于将作为目标输入的失真图像和作为目标输出的原始图像对输入到所述神经网络;处理单元,用于使用所述神经网络进行处理,其中,使用所述神经网络进行的处理包括:图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段,其中,所述下采样是通过应用跨步卷积执行的;调整单元,用于根据所述输入的对调整所述滤波的至少一个参数。[0169]图12示出了可以部署上述处理的示例性系统是编码器-解码器处理链(译码系统10)。译码系统10包括视频编码器20和视频解码器30,视频编码器20和视频解码器30基于图14和图15进行了详细描述,并且可以在环内滤波器或后滤波器的位置上实现上述图像修改。[0170]图12为可以利用本技术技术的示例性译码系统10,例如,视频译码系统10(或简称为译码系统10)。视频译码系统10的视频编码器20(或简称为编码器20)和视频解码器30(或简称为解码器30)表示可用于根据本技术中描述的各种示例执行各技术的设备示例。[0171]如图12所示,译码系统10包括源设备12,例如,所述源设备12用于将经编码图像数据21提供到目的地设备14以对经编码图像数据13进行解码。源设备12包括编码器20,另外即可选地,可包括图像源16、图像预处理器18等预处理器(或预处理单元)18、通信接口或通信单元22。[0172]图像源16可以包括或可以是任何类型的图像捕获设备,例如用于捕获真实世界图像的摄像机,和/或任何类型的图像生成设备,例如用于生成计算机动画图像的计算机图形处理器,或用于获取和/或提供真实世界图像、计算机生成图像(例如,屏幕内容、虚拟现实(virtualreality,vr)图像)和/或其任何组合(例如,增强现实(augmentedreality,ar)图像)的任何类型的其它设备。所述图像源可以为存储任一上述图像的任何类型的存储器(memory/storage)。[0173]区别于预处理器18和预处理单元18执行的处理,图像或图像数据17也可以称为原始图像或原始图像数据17。预处理器18用于接收(原始)图像数据17,对图像数据17进行预处理,以获得预处理图像19或预处理图像数据19。预处理器18执行的预处理可包括修剪(trimming)、颜色格式转换(例如从rgb转换为ycbcr)、颜色校正或去噪等。应理解,预处理单元18可以是可选组件。应当注意,本发明涉及图像修改的实施例也可以用于预处理,以便图像(视频帧)进行增强或去噪。[0174]视频编码器20用于接收预处理图像数据19并提供经编码图像数据21(下面将根据图14等进一步描述)。[0175]源设备12中的通信接口22可用于:接收经编码图像数据21并通过通信信道13向目的地设备14等另一设备或任何其它设备发送经编码图像数据21(或其它任何处理后的版本),以便存储或直接重建。[0176]目的地设备14包括解码器30(例如,视频解码器30),另外即可选地,可包括通信接口或通信单元28、后处理器32(或后处理单元32)和显示设备34。目的地设备14中的通信接口28用于直接从源设备12或从存储设备等任何其它源设备接收经编码图像数据21(或其它任何处理后的版本),例如,存储设备为经编码图像数据存储设备,并将经编码图像数据21提供给解码器30。[0177]通信接口22和通信接口28可以用于通过源设备12与目的地设备14之间的直接通信链路(例如,直接有线或无线连接),或通过任何类型的网络(例如,有线或无线网络或其任何组合,或任何类型的专用和公共网络),或其任何组合发送或接收经编码图像数据21或经编码数据13。[0178]例如,通信接口22可用于将经编码图像数据21封装为报文等合适的格式,和/或使用任何类型的传输编码或处理来处理经编码图像数据,以便在通信链路或通信网络上进行传输。[0179]例如,与通信接口22对应的通信接口28可用于接收发送的数据,并使用任何类型的对应传输解码或处理和/或解封装对发送的数据进行处理,以获得经编码图像数据21。[0180]通信接口22和通信接口28均可配置为图12中从源设备12指向目的地设备14的通信信道13的箭头所表示的单向通信接口,或者配置为双向通信接口,并且可以用于发送和接收消息等,以建立连接、确认并交换与通信链路和/或数据传输(例如经编码的图像数据传输)相关的任何其它信息等。[0181]解码器30用于接收经编码图像数据21并提供经解码图像数据31或经解码图像31。如上所述,解码器可以在环内滤波器内和/或后滤波器内实现图像修改。[0182]目的地设备14的后处理器32用于对经解码图像数据31(也称为经重建图像数据)(例如,经解码图像31)进行后处理,以获取后处理图像数据33(例如,后处理图像33)。后处理单元32执行的后处理可以包括颜色格式转换(例如从ycbcr转换为rgb)、调色、修剪或重采样,或者任何其它处理,以便提供经解码图像数据31由显示设备34等显示,等等。应当注意,在上述实施例和示例性实现方式中描述的图像修改也可以在此用作解码器30之后的后处理。[0183]目的地设备14中的显示设备34用于接收后处理图像数据33向用户或观看者等显示图像。显示设备34可以是或可以包括任何类型的用于表示经重建图像的显示器,例如集成或外部显示器或显示屏。例如,显示器可以包括液晶显示器(liquidcrystaldisplay,lcd)、有机发光二极管(organiclightemittingdiode,oled)显示器、等离子显示器、投影仪、微型led显示器、硅基液晶显示器(liquidcrystalonsilicon,lcos)、数字光处理器(digitallightprocessor,dlp)或任何类型的其它显示器。[0184]尽管图12将源设备12和目的地设备14作为单独的设备进行描述,但是设备实施例还可以包括两种设备或两种功能,即源设备12或对应功能以及目的地设备14或对应功能。在这些实施例中,源设备12或对应功能以及目的地设备14或对应功能可以使用相同的硬件和/或软件或通过单独的硬件和/或软件或其任意组合来实现。[0185]根据描述,图12所示的源设备12和/或目的地设备14中具有和(准确)划分的不同单元或功能可能根据实际设备和应用而有所不同,这对技术人员来说是显而易见的。[0186]编码器20(例如,视频编码器20)或解码器30(例如,视频解码器30),或编码器20和解码器30两者均可通过如图13所示的处理电路46实现,例如一个或多个微处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(application-specificintegratedcircuit,asic)、现场可编程门阵列(field-programmablegatearray,fpga)、离散逻辑、硬件、视频译码专用处理器或其任意组合。编码器20可以通过处理电路46实现,以体现各种模块和/或本文描述的任何其它编码器系统或子系统。解码器30可以由处理电路46实现,以体现结合解码器30所述的各种模块和/或本文描述的任何其它解码器系统或子系统。处理电路46可用于执行稍后将论述的各种操作。如图20中所示,当所述技术部分地以软件形式实现时,设备可将软件的指令存储在合适的非瞬时性计算机可读存储介质(可以使用的存储器44)中,并且可以使用(处理电路46中的)一个或多个处理器以硬件形式执行所述指令,以执行本发明的技术。可以为系统40提供其它处理器,所述处理器可以控制例如显示设备45、成像设备41和天线42或其它设备。视频编码器20或视频解码器30可作为组合编码器/解码器(编解码器)的一部分集成在单个设备中,如图13所示。[0187]源设备12和目的地设备14可以包括多种设备中的任一种,包括任何类型的手持或固定设备,例如,笔记本电脑或膝上型电脑、手机、智能手机、平板电脑(tablet/tabletcomputer)、摄像机、台式计算机、机顶盒、电视机、显示设备、数字媒体播放器、视频游戏机、视频流设备(如内容服务服务器或内容分发服务器)、广播接收器设备、广播发射器设备等,并且可以不使用或使用任何类型的操作系统。在一些情况下,源设备12和目的地设备14可配备用于无线通信的组件。因此,源设备12和目的地设备14可以是无线通信设备。[0188]在一些情况下,图12所示的视频译码系统10仅仅是示例性的,本技术提供的技术可适用于视频译码设置(例如,视频编码或视频解码或后处理),这些设置不一定包括编码设备与解码设备之间的任何数据通信。在其它示例中,数据从本地存储器中检索,通过网络发送,等等。视频编码设备可以对数据进行编码并将数据存储到存储器中,和/或视频解码设备可以从存储器中检索数据并对数据进行解码。在一些示例中,编码和解码和后处理由相互不通信而只是将数据编码到存储器和/或从存储器中检索数据并对数据进行解码的设备来执行。[0189]图14为用于实现本技术技术的示例性视频编码器20的示意性框图。在图14的示例中,视频编码器20包括输入端201(或输入接口201)、残差计算单元204、变换处理单元206、量化单元208、反量化单元210和逆变换处理单元212、重建单元214、环路滤波单元220、解码图像缓冲区(decodedpicturebuffer,dpb)230、模式选择单元260、熵编码单元270和输出端272(或输出接口272)。模式选择单元260可以包括帧间预测单元244、帧内预测单元254和分割单元262。帧间预测单元244可以包括运动估计单元和运动补偿单元(未示出)。图14所示的视频编码器20也可以称为混合视频编码器或基于混合视频编解码器的视频编码器。需要说明的是,本发明不限于在这种混合编码器中的应用。图像修改的本质是,不管视频编码和解码的其它阶段如何,它可以用于任何类型的编码或解码来修改图像。[0190]残差计算单元204、变换处理单元206、量化单元208和模式选择单元260可以组成编码器20的前向信号路径,而反量化单元210、逆变换处理单元212、重建单元214、缓冲区216、环路滤波器220、解码图像缓冲区(decodedpicturebuffer,dpb)230、帧间预测单元244和帧内预测单元254可以组成视频编码器20的后向信号路径,其中,视频编码器20的后向信号路径对应于解码器(参见图3中的视频解码器30)的信号路径。反量化单元210、逆变换处理单元212、重建单元214、环路滤波器220、解码图像缓冲区(decodedpicturebuffer,dpb)230、帧间预测单元244和帧内预测单元254还组成视频编码器20的“内置解码器”。[0191]编码器20可用于通过输入端201等接收图像17(或图像数据17),例如,形成视频或视频序列的图像序列中的图像。接收的图像或图像数据也可以是预处理图像19(或预处理图像数据19)。为了简单起见,以下描述使用图像17。图像17也可称为当前图像或待译码的图像(尤其是在视频译码中将当前图像与其它图像区分开时,其它图像例如同一视频序列,即也包括当前图像的视频序列中的之前经编码图像和/或经解码图像)。[0192](数字)图像是或可为具有强度值的样本的二维阵列或矩阵。阵列中的样本也可以称为像素(图像元素的简短形式)。阵列或图像的水平和垂直方向(或轴)的样本数限定了图像的大小和/或分辨率。为了表示颜色,通常使用三种颜色分量,即,该图像可以表示为或包括三个样本阵列。在rbg格式或颜色空间中,一个图像包括对应的红色、绿色和蓝色样本阵列。但是,在视频译码中,每个像素通常以亮度和色度格式或在颜色空间中表示,例如,ycbcr,包括y表示的亮度分量(有时也用l表示)和cb和cr表示的两个色度分量。亮度分量y表示亮度或灰阶强度(例如,如同灰阶图像中),两个色度分量cb和cr表示色度或颜色信息分量。相应地,ycbcr格式的图像包括亮度样本值(y)的亮度样本阵列和色度值(cb和cr)的两个色度样本阵列。rgb格式的图像可以转换或变换为ycbcr格式,反之亦然。该过程也称为颜色变换或转换。如果图像是单色的,则图像可以仅包括亮度样本阵列。相应地,例如,图像可以为单色格式的亮度样本阵列或4:2:0、4:2:2和4:4:4颜色格式的亮度样本阵列和两个对应的色度样本阵列。[0193]视频编码器20可以包括图像分割单元(图14中未示出),用于将图像17分割成多个(通常不重叠)图像块203。这些块也可以称为根块、(h.264/avc中的)宏块,或(h.265/hevc和vvc中的)编码树块(codingtreeblock,ctb)或编码树单元(codingtreeunit,ctu)。图像分割单元可用于对视频序列中的所有图像使用相同的块大小和使用限定块大小的对应网格,或在图像或图像子集或图像组之间改变块大小,并将每个图像分割成对应块。[0194]在其它实施例中,视频编码器可以用于直接接收图像17的块203,例如组成图像17的一个、几个或所有块。图像块203也可以称为当前图像块或待译码图像块。[0195]与图像17一样,图像块203同样是或可认为是具有强度值(样本值)的样本组成的二维阵列或矩阵,但是图像块203的大小比图像17的小。即,例如,块203可以包括,例如,一个样本阵列(例如黑白图像17情况下的亮度阵列,或者在彩色图像情况下的亮度或色度阵列)或三个样本阵列(例如,在彩色图像17情况下的亮度阵列和两个色度阵列)或依据所应用的色彩格式的任何其它数量和/或类型的阵列。块203的水平和垂直方向(或轴)的样本数限定了块203的大小。因此,块可以为m×n(m列×n行)个样本阵列,或m×n个变换系数阵列等。[0196]在一个实施例中,图14所示的视频编码器20用于逐块对图像17进行编码,例如,对每个块203执行编码和预测。[0197]图14所示的视频编码器20的实施例还可以用于使用条带(也称为视频条带)对图像进行分割和/或编码,其中,可以使用一个或多个条带(通常为非重叠的)对图像进行分割或编码。每个条带可以包括一个或多个块(例如,ctu)或一个或多个块组(例如,分块(tile)(h.265/hevc和vvc)或砖(brick)(vvc)用于启用平行解码)。应用图像分割可以有助于降低处理的复杂性。特别地,无论是否用于基于块的编码器和/或解码器,用于修改图像的处理也可以根据块或分块或任何其它类型的图像部分执行。这允许限制网络大小,并使其适用于不同的图像大小和/或分辨率。[0198]在一个实施例中,图14所示的视频编码器20还可以用于使用条带/分块组(也称为视频分块组)和/或分块(也称为视频分块)对图像进行分割和/或编码,其中图像可以分割成一个或多个条带/分块组(通常为不重叠的)或使用一个或多个条带/分块组(通常为不重叠的)进行编码,每个条带/分块组可包括一个或多个块(例如ctu)或一个或多个分块等,其中每个分块可以为矩形等形状,可包括一个或多个完整或部分块(例如ctu)。[0199]残差计算[0200]残差计算单元204用于通过如下方式根据图像块203和预测块265(后续详细介绍了预测块265)来计算残差块205(也称为残差205):例如,逐个样本(逐个像素)从图像块203的样本值中减去预测块265的样本值,得到样本域中的残差块205。[0201]变换[0202]变换处理单元206用于对残差块205的样本值执行离散余弦变换(discretecosinetransform,dct)或离散正弦变换(discretesinetransform,dst)等,得到变换域中的变换系数207。变换系数207也可以称为变换残差系数,表示变换域中的残差块205。[0203]变换处理单元206可以用于应用dct/dst(例如为h.265/hevc指定的变换)的整数近似。与正交dct变换相比,这种整数近似通常通过某一因子进行缩放。为了保持正逆变换处理的残差块的范数,在变换过程中应用了其它的缩放因子。缩放因子通常是根据某些约束条件来选择的,例如缩放因子是用于移位运算的2的幂、变换系数的位深度、准确性与实施成本之间的权衡等。例如,通过逆变换处理单元212等为逆变换(以及在视频解码器30处通过逆变换处理单元312等为对应逆变换)指定具体的缩放因子,以及相应地,可以在编码器20中通过变换处理单元206等为正变换指定对应的缩放因子。[0204]视频编码器20(对应为变换处理单元206)的实施例可以用于直接输出或由熵编码单元270进行编码或压缩后输出变换参数(例如,一种或多种变换的类型),例如使得视频解码器30可以接收并使用变换参数进行解码。[0205]量化[0206]量化单元208用于通过例如标量量化或矢量量化对变换系数207进行量化,得到量化系数209。量化系数209也可以称为量化变换系数209或量化残差系数209。[0207]量化过程可以减少与部分或全部变换系数207相关的位深度。例如,可在量化期间将n位变换系数向下取整到m位变换系数,其中,n大于m。可通过调整量化参数(quantizationparameter,qp)修改量化程度。例如,对于标量量化,可以应用不同的缩放来实现更精细或更粗略的量化。较小的量化步长对应于更精细的量化,而较大的量化步长对应于更粗略的量化。适用的量化步长可以通过量化参数(quantizationparameter,qp)表示。例如,量化参数可以是一组预定义的适用量化步长的索引。例如,较小量化参数可以对应于精细量化(较小量化步长),较大量化参数可以对应于粗略量化(较大量化步长),反之亦然。量化可以包含除以量化步长以及例如通过反量化单元210执行的对应的量化或反量化,或者可以包含乘以量化步长。根据hevc等一些标准的实施例可以用于使用量化参数来确定量化步长。通常,量化步长可以根据使用包括除法的等式的定点近似法的量化参数来计算。量化和解量化可以引入其它缩放因子以恢复残差块的范数,由于在量化步长和量化参数的方程的定点近似法中使用的缩放,可能会修改残差块的范数。在一种示例性实现方式中,可以合并逆变换和解量化的缩放。或者,可以使用自定义量化表并由编码器通过码流等方式向解码器指示(signal)。量化是有损操作,损失随着量化步长的增大而增大。[0208]在实施例中,视频编码器20(对应为量化单元208)可用于输出量化参数(quantizationparameter,qp),例如,直接输出或由熵编码单元270进行编码后输出,例如使得视频解码器30可接收并使用量化参数进行解码。[0209]反量化[0210]反量化单元210用于对量化系数执行量化单元208的反量化,得到解量化系数211,例如,根据或使用与量化单元208相同的量化步长执行与量化单元208所执行的量化方案的反量化方案。解量化系数211也可称为解量化残差系数211,对应于变换系数207,但是由于量化造成损耗,解量化系数211通常与变换系数不完全相同。[0211]逆变换[0212]逆变换处理单元212用于执行变换处理单元206执行的变换的逆变换,例如,逆离散余弦变换(discretecosinetransform,dct)或逆离散正弦变换(discretesinetransform,dst),以在样本域中得到重建残差块213(或对应的解量化系数213)。重建残差块213也可以称为变换块213。[0213]重建[0214]重建单元214(例如,加法器或求和器214)用于将变换块213(即重建残差块213)添加到预测块265,以在样本域中得到重建块215,例如,将重建残差块213的样本值和预测块265的样本值相加。[0215]滤波[0216]环路滤波单元220(或简称“环路滤波器”220)用于对重建块215进行滤波,获得滤波块221,或通常用于对重建样本进行滤波,得到经滤波样本值。根据本技术的方法可以用于环路滤波器。图17中示出了本技术提供的可用作环路滤波器的滤波器的示例,其中重建单元对应于214,存储单元1730对应于解码图像缓冲区230,以及设备1700对应于环路滤波器220。例如,环路滤波单元用于顺利进行像素转变或提高视频质量。环路滤波单元220可以包括一个或多个环路滤波器,如去块效应滤波器、样本自适应偏移(sample-adaptiveoffset,sao)滤波器或一个或多个其它滤波器,例如自适应环路滤波器(adaptiveloopfilter,alf)、噪声抑制滤波器(noisesuppressionfilter,nsf)或其任何组合。在一个示例中,环路滤波单元220可以包括去块效应滤波器、sao滤波器和alf滤波器。滤波过程的顺序可以是去块效应滤波器、sao滤波器和alf。再例如,增加一个称为具有色度缩放的亮度映射(lumamappingwithchromascaling,lmcs)(即自适应环内整形器)的过程。该过程在去块效应滤波之前执行。再例如,去块效应滤波过程也可以应用于内部子块边缘,例如仿射子块边缘、atmvp子块边缘、子块变换(sub-blocktransform,sbt)边缘和帧内子分割(intrasub-partition,isp)边缘。虽然环路滤波单元220在图14中示出为环内滤波器,但是在其它配置中,环路滤波单元220可以实现为后环路滤波器。滤波块221也可称为经滤波重建块221。[0217]在视频编码器20的实施例中,视频编码器20(对应地,环路滤波单元220)可以用于,例如,直接输出或通过熵编码单元270进行编码后输出环路滤波器参数(例如sao滤波器参数、alf滤波器参数或lmcs参数),使得解码器30可以接收并使用相同或不同的环路滤波器参数进行解码。上述两个或多个(或全部)的组合的滤波器中的任何一个可以实现为图像修改设备1700。[0218]解码图像缓冲区[0219]解码图像缓冲区(decodedpicturebuffer,dpb)230可以是存储参考图像或参考图像数据以供视频编码器20对视频数据进行编码的存储器。dpb230可以由多种存储器设备中的任一种形成,例如动态随机存取存储器(dynamicrandomaccessmemory,dram),包括同步dram(synchronousdram,sdram)、磁阻ram(magnetoresistiveram,mram)、电阻ram(resistiveram,rram)或其它类型的存储设备。解码图像缓冲区(decodedpicturebuffer,dpb)230可用于存储一个或多个滤波块221。解码图像缓冲区230还可用于存储同一当前图像或之前的重建图像等不同图像的其它之前的滤波块,例如之前的重建和滤波块221,并可提供完整的之前重建即经解码图像(和对应参考块和样本)和/或部分重建的当前图像(和对应参考块和样本),例如进行帧间预测。如果重建块215未由环路滤波单元220进行滤波,则解码图像缓冲区(decodedpicturebuffer,dpb)230还可以用于存储一个或多个未经滤波的重建块215,或通常存储未经滤波的重建样本,或未进行任何其它处理的重建块或重建样本。[0220]模式选择(分割和预测)[0221]模式选择单元260包括分割单元262、帧间预测单元244和帧内预测单元254,用于从解码图像缓冲区230或其它缓冲区(例如,行缓冲区,图中未显示)接收或获得原始图像数据,例如原始块203(当前图像17的当前块203),以及重建图像数据,例如同一(当前)图像和/或一个或多个之前经解码图像的滤波和/或未经滤波的重建样本或重建块。重建图像数据用作帧间预测或帧内预测等预测所需的参考图像数据,以得到预测块265或预测值265。[0222]模式选择单元260可用于为当前块预测模式(包括不分割)和预测模式(例如帧内或帧间预测模式)确定或选择分割类型,并生成对应的预测块265,以对残差块205进行计算和对重建块215进行重建。[0223]视频编码器20用于从(例如,预定的)预测模式集中确定或选择最佳或最优的预测模式。例如,预测模式集可以包括帧内预测模式和/或帧间预测模式。本上下文中如“最佳”、“最小”、“最优”等术语不一定指总体上“最佳”、“最小”、“最优”等,也可以指满足终止或选择标准,例如,值超过或低于阈值或其它约束条件,可能会进行“次优选择”,但是降低了复杂度和处理时间。[0224]帧内预测[0225]帧内预测模式集可包括种不同的帧内预测模式,例如,像dc(或均值)模式和平面模式的非方向性模式,或如hevc定义的方向性模式,或者可包括种不同的帧内预测模式,例如,像dc(或均值)模式和平面模式的非方向性模式,或如vvc中定义的方向性模式。例如,几种传统角度帧内预测模式自适应地替换为vvc中定义的非正方形块的广角帧内预测模式。又如,为了避免dc预测的除法运算,仅使用较长的一侧来计算非方形块的平均值。而且,平面模式的帧内预测结果还可以使用位置相关帧内预测组合(positiondependentintrapredictioncombination,pdpc)方法进行修改。[0226]帧内预测单元254用于根据帧内预测模式集中的帧内预测模式,使用同一当前图像的邻块的重建样本来生成帧内预测块265。[0227]帧内预测单元254(或通常为模式选择单元260)还用于将帧内预测参数(或通常为指示块的选定帧内预测模式的信息)以语法元素266的形式输出到熵编码单元270,以包括到经编码图像数据21中,例如使得视频解码器30可以接收并使用预测参数进行解码。[0228]帧间预测[0229](可能的)帧间预测模式集合取决于可用的参考图像(即,例如上述存储在dbp230中的至少部分经解码图像)和其它帧间预测参数,例如取决于是否使用整个参考图像或只使用参考图像的一部分(例如当前块的区域周围的搜索窗口区域)来搜索最佳匹配的参考块,和/或例如取决于是否应用像素插值,例如二分之一像素、四分之一像素和/或1/16像素插值。[0230]除上述预测模式外,还可以采用跳过模式、直接模式和/或其它帧间预测模式。[0231]帧间预测单元244可以包括运动估计(motionestimation,me)单元和运动补偿(motioncompensation,mc)单元(两者在图2中均未示出)。运动估计单元可用于接收或获取图像块203(当前图像17的当前图像块203)和经解码图像231,或至少一个或多个之前重建块,例如,一个或多个其它/不同的之前经解码图像231的重建块,以进行运动估计。例如,视频序列可以包括当前图像和之前的经解码图像231,或者换句话说,当前图像和之前的经解码图像231可以是组成视频序列的图像序列的一部分或形成视频序列的图像序列。[0232]例如,编码器20可用于从多个其它图像中的相同或不同图像的多个参考块中选择参考块,并将参考图像(或参考图像索引)和/或参考块的位置(x坐标、y坐标)与当前块的位置之间的偏移(空间偏移)作为帧间预测参数提供给运动估计单元。这个偏移也称为运动矢量(motionvector,mv)。[0233]运动补偿单元用于获取(例如接收)帧间预测参数,并根据或使用帧间预测参数进行帧间预测,以获得帧间预测块265。由运动补偿单元执行的运动补偿可能涉及根据通过运动估计确定的运动/块矢量来提取或生成预测块,还可能包括对子像素精度进行插值。插值滤波可以从已知像素的样本中生成其它像素的样本,从而可能增加可用于对图像块进行译码的候选预测块的数量。在接收当前图像块的pu对应的运动矢量时,运动补偿单元可以在其中一个参考图像列表中定位运动矢量所指向的预测块。[0234]运动补偿单元还可以生成与所述块和视频条带相关的语法元素,以供视频解码器30用于对视频条带的图像块进行解码。除了条带和相应语法元素或作为条带和相应语法元素的替代,还可以接收和/或使用分块组(tilegroup)和/或分块以及相应语法元素。[0235]熵译码[0236]熵编码单元270用于将熵编码算法或方案(例如可变长度编码(variablelengthcoding,vlc)方案、上下文自适应vlc(contextadaptivevlcscheme,cavlc)方案、算术编码方案、二值化,上下文自适应二进制算术编码(contextadaptivebinaryarithmeticcoding,cabac)、基于语法的上下文自适应二进制算术编码(syntax-basedcontext-adaptivebinaryarithmeticcoding,sbac)、概率区间分割熵(probabilityintervalpartitioningentropy,pipe)编码或其它熵编码方法或技术)等应用于或不应用于(无压缩)量化系数209、帧间预测参数、帧内预测参数、环路滤波器参数和/或其它语法元素,得到可以通过输出端272以经编码码流21等形式输出的经编码的图像数据21,使得视频解码器30等可以接收并使用这些参数进行解码。可将经编码码流21传输到视频解码器30,或将其保存在存储器中稍后由视频解码器30传输或检索。[0237]视频编码器20的其它结构变体可用于对视频流进行编码。例如,基于非变换的编码器20可以在没有变换处理单元206的情况下直接对某些块或帧的残差信号进行量化。在另一种实现方式中,编码器20可以包括组合成单个单元的量化单元208和反量化单元210。[0238]图15示出了用于实现本技术技术的视频解码器30的示例。视频解码器30用于接收例如由编码器20编码的经编码图像数据21(例如,经编码码流21),得到经解码图像331。经编码图像数据或码流包括用于对所述经编码图像数据进行解码的信息,例如表示经编码视频条带(和/或分块组或分块)的图像块的数据和相关的语法元素。[0239]在图15的示例中,解码器30包括熵解码单元304、反量化单元310、逆变换处理单元312、重建单元314(例如求和器314)、环路滤波器320和后处理滤波器321、解码图像缓冲区(decodedpicturebuffer,dpb)330、模式应用单元360、帧间预测单元344和帧内预测单元354。帧间预测单元344可以为或包括运动补偿单元。在一些示例中,视频解码器30可执行通常与图14的视频编码器100描述的编码过程相反的解码过程。[0240]根据本技术的方法可以例如用于环路滤波器320和后处理滤波器321中。图17示出了可用作环路滤波器320的设备的示例,如上面参考编码器提到的。图11示出了可用作后处理滤波器的设备的示例。[0241]图16示出了本发明实施例提供的解码器30的实现方式。解码器包括:解码单元1810,用于从码流中解码经编码图像;修改单元1820,用于根据上述实施例修改经解码图像。[0242]图17示出了用于重建压缩图像或视频帧的设备的实现方式。所述设备包括:重建单元1710,用于根据存储在存储器中的参考图像,使用图像预测来重建图像;设备1100用于根据上述实施例修改经解码图像;存储单元1730,用于存储修改后的图像作为参考图像。例如,可以使用这种设备。[0243]图18示出了用于训练神经网络以修改失真图像的设备2000,包括:训练输入单元2010,用于将作为目标输入的还真图像和作为目标输出的校正图像对输入到神经网络,其中,所述校正图像是根据原始图像获取的;处理单元2020,用于使用神经网络进行处理,其中,所述使用神经网络进行额处理包括:图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段;调整单元2030,用于根据输入的对调整所述滤波的至少一个参数2040。[0244]图19为本发明实施例提供的视频译码设备(或通常为图像修改设备)400的示意图。视频译码设备400适用于实现本文中描述的公开实施例。在一个实施例中,视频译码设备400可以是解码器(如图14的视频解码器30)或编码器(如图15的视频编码器20)。在上述实施例中描述的图像修改的独立实现方式的情况下,设备400可以是图像修改设备1100而不是视频编码设备。[0245]视频译码设备400包括用于接收数据的入端口410(或输入端口410)和接收单元(receiverunit,rx)420,用于处理数据(包括本技术的预先预处理)的处理器、逻辑单元或中央处理单元(centralprocessingunit,cpu)430,用于发送数据的发送单元(transmitterunit,tx)440和出端口450(或输出端口450)以及用于存储数据的存储器460。视频译码设备400还可以包括与入端口410、接收单元420、发送单元440和出端口450耦合的光电(optical-to-electrical,oe)组件和电光(electrical-to-optical,eo)组件,用作光信号或电信号的出口或入口。[0246]处理器430通过硬件和软件来实现。处理器430可以实现为一个或多个cpu芯片、一个或多个核(例如多核处理器)、一个或多个fpga、一个或多个asic和一个或多个dsp。处理器430与入端口410、接收单元420、发送单元440、出端口450和存储器460通信。处理器430包括译码模块470。译码模块470实现上文所公开的实施例。例如,译码模块470执行、处理、准备或提供各种译码操作。因此,通过译码模块470为视频译码设备400的功能提供了实质性的改进,并且影响了视频译码设备400到不同状态的切换。或者,以存储在存储器460中并由处理器430执行的指令来实现译码模块470。[0247]存储器460可以包括一个或多个磁盘、磁带机和固态硬盘,可以用作溢出数据存储设备,用于在选择执行程序时存储这些程序,并且存储在程序执行过程中读取的指令和数据。例如,存储器460可以是易失性和/或非易失性的,并且可以是只读存储器(read-onlymemory,rom)、随机存取存储器(randomaccessmemory,ram)、三态内容寻址存储器(ternarycontent-addressablememory,tcam)和/或静态随机存取存储器(staticrandom-accessmemory,sram)。上述存储器模块可以是存储器的一部分,也可以在某些实现方式中作为单独的存储器提供。[0248]图20为示例性实施例提供的装置800的简化框图,所述装置800可用作图5中的源设备512和目的地设备514中的任一个或两个。装置800还可以单独实现预处理518。[0249]装置800中的处理器802可以是中央处理器。或者,处理器802可以是现有的或今后将研发出的能够操控或处理信息的任何其它类型的设备或多个设备。虽然可以使用如图所示的处理器802等单个处理器来实现所公开的实现方式,但使用一个以上的处理器可以提高速度和效率。[0250]在一种实现方式中,装置800中的存储器804可以是只读存储器(readonlymemory,rom)设备或随机存取存储器(randomaccessmemory,ram)设备。任何其它合适类型的存储设备都可以用作存储器804。存储器804可以包括处理器802通过总线812访问的代码和数据806。存储器804还可包括操作系统808和应用程序810,应用程序810包括使得处理器802执行本文所述方法的至少一个程序。例如,应用程序810可以包括应用1至应用m,还可以包括执行本文所述方法的视频后处理应用、视频解码应用或视频编码应用。[0251]装置800还可以包括一个或多个输出设备,例如显示器818。在一个示例中,显示器818可以是将显示器与可用于感测触摸输入的触敏元件组合的触敏显示器。显示器818可以通过总线812耦合到处理器802。[0252]虽然装置800中的总线812在本文中描述为单个总线,但是总线812可以包括多个总线。此外,辅助存储器814可以直接耦合到装置800的其它组件或可以通过网络访问,并且可以包括存储卡等单个集成单元或多个存储卡等多个单元。因此,装置800可以具有各种各样的配置。[0253]总结,本发明涉及图像处理,尤其涉及使用神经网络等处理对图像进行修改。执行所述处理以根据输入图像生成校正图像。然后,通过将所述输入图像与所述校正图像组合来修改所述输入图像。所述使用所述神经网络进行的处理包括图像下采样和对所述下采样图像进行滤波的至少一个阶段;图像上采样的至少一个阶段。这种方法的一个优点是提高了所述神经网络的效率,从而可以加快学习速度并且提高性能。本发明的实施例提供了用于使用训练后的神经网络进行处理的方法和装置,以及用于训练这种神经网络进行图像修改的方法和装置。当前第1页12当前第1页12
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献