CN116647703A - 解码器和包括该解码器的数据处理装置 - Google Patents

解码器和包括该解码器的数据处理装置 Download PDF

Info

Publication number
CN116647703A
CN116647703A CN202310130742.5A CN202310130742A CN116647703A CN 116647703 A CN116647703 A CN 116647703A CN 202310130742 A CN202310130742 A CN 202310130742A CN 116647703 A CN116647703 A CN 116647703A
Authority
CN
China
Prior art keywords
data
decoded
error
decoder
average value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310130742.5A
Other languages
English (en)
Inventor
眞梶康彦
吉山雅彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Display Co Ltd filed Critical Samsung Display Co Ltd
Publication of CN116647703A publication Critical patent/CN116647703A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/25Error detection or forward error correction by signal space coding, i.e. adding redundancy in the signal constellation, e.g. Trellis Coded Modulation [TCM]
    • H03M13/251Error detection or forward error correction by signal space coding, i.e. adding redundancy in the signal constellation, e.g. Trellis Coded Modulation [TCM] with block coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/3707Adaptive decoding and hybrid decoding, e.g. decoding methods or techniques providing more than one decoding algorithm for one code
    • H03M13/3715Adaptation to the number of estimated errors or to the channel state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Neurology (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

提供了一种数据处理装置和解码器。所述数据处理装置包括:平均校正处理器,基于输入数据的平均值来校正输入数据并且输出平均校正数据,并且对所述平均值进行可逆编码和解码以生成解码平均值;不可逆编码器/解码器,对平均校正数据进行编码和解码,并且输出第一解码数据和第二解码数据;二分类预测器,基于第一解码数据和解码平均值来预测包括在第二解码数据中的恢复误差的大小,并且输出预测结果作为二分类数据;误差估计器,基于第一解码数据、第二解码数据和解码平均值来输出估计误差;以及运算电路,基于第二解码数据、二分类数据、估计误差和解码平均值来输出输出数据。

Description

解码器和包括该解码器的数据处理装置
本申请要求于2022年2月23日提交的第10-2022-0023906号韩国专利申请的优先权以及从其获得的所有权益,该韩国专利申请的内容通过引用全部包含于此。
技术领域
这里描述的公开的实施例涉及一种数据处理装置。
背景技术
用于对数据进行编码和/或解码的技术可以被广义地分类为可逆方法和不可逆方法。可逆方法没有损失,但具有低的压缩效果,不可逆方法导致损失,但压缩效果相对高。
如上所述,根据目的分别使用具有不同特性的可逆方法和不可逆方法。例如,当期望高压缩比时,可以采用不可逆方法。
发明内容
例如,当由于数据的压缩变形引起的恢复误差大时,数据质量可能是问题。例如,包括在数据中的高频分量在不可逆编码中引起相对大的恢复误差。
公开的实施例提供了一种能够在使编码数据的大小的增加最小化的同时使恢复误差最小化的数据处理装置。
公开的实施例提供了一种能够恢复编码数据的解码器。
在公开的实施例中,数据处理装置包括:平均校正处理器,计算输入数据的平均值,基于平均值来校正输入数据以输出平均校正数据,并且对平均值进行可逆编码和解码以生成解码平均值;不可逆编码器/解码器,对平均校正数据进行编码和解码以输出第一解码数据和第二解码数据;二分类预测器,基于第一解码数据和解码平均值来预测包括在第二解码数据中的恢复误差的大小,并且输出预测结果作为二分类数据;误差估计器,基于第一解码数据、第二解码数据和解码平均值来输出估计误差;以及运算电路,基于第二解码数据、二分类数据、估计误差和解码平均值来输出输出数据。
在实施例中,平均校正处理器可以包括:平均值计算器,计算输入数据的平均值;减法器,计算输入数据与平均值之间的差,并且输出所述差作为平均校正数据;可逆编码器,对平均值进行可逆编码,并且输出编码平均值;存储器,存储编码平均值;以及可逆解码器,对编码平均值进行解码,并且输出解码平均值。
在实施例中,不可逆编码器/解码器可以包括:自动编码器,对平均校正数据进行不可逆编码以输出压缩信号;量化器,对压缩信号进行量化以输出量化信号;可逆编码器,对量化信号进行可逆编码以输出编码数据;存储器,存储编码数据;可逆解码器,对存储在存储器中的编码数据进行解码以输出第一解码数据;以及自动解码器,对第一解码数据进行解码以输出第二解码数据。
在实施例中,二分类预测器可以在恢复误差小于参考值时输出第一值的二分类数据,并且可以在恢复误差大于或等于参考值时输出第二值的二分类数据。
在实施例中,误差估计器可以包括神经网络。
在实施例中,运算电路可以基于二分类数据和估计误差对第二解码数据的误差进行校正,可以基于第二解码数据的校正误差生成误差校正数据,并且可以基于误差校正数据和解码平均值来输出输出数据。
在实施例中,运算电路可以包括:第一运算器,将估计误差乘以二分类数据;第二运算器,将第一运算器的输出与第二解码数据相加以输出误差校正数据;以及第三运算器,将误差校正数据和解码平均值相加以输出输出数据。
在实施例中,不可逆编码器/解码器可以被训练以使平均校正数据与第二解码数据之间的均方误差最小化。
在实施例中,二分类预测器可以被训练以使根据恢复误差小于参考值的第一概率和恢复误差大于或等于参考值的第二概率计算的二分类交叉熵误差最小化。
在公开的实施例中,解码器包括:平均校正处理器,对编码平均值进行解码以生成解码平均值;不可逆编码器/解码器,对编码数据进行解码以输出第一解码数据和第二解码数据;二分类预测器,基于第一解码数据和解码平均值来预测包括在第二解码数据中的恢复误差的大小,并且输出预测结果作为二分类数据;误差估计器,基于第一解码数据、第二解码数据和解码平均值来输出估计误差;以及运算电路,基于第二解码数据、二分类数据、估计误差和解码平均值来输出输出数据。
在实施例中,平均校正处理器可以包括:存储器,存储编码平均值;以及无损解码器,对编码平均值进行解码以输出解码平均值。
在实施例中,不可逆编码器/解码器可以包括:存储器,存储编码数据;无损解码器,对存储在存储器中的编码数据进行解码以输出第一解码数据;以及自动解码器,对第一解码数据进行解码以输出第二解码数据。
在实施例中,二分类预测器可以在恢复误差小于参考值时输出第一值的二分类数据,并且可以在恢复误差大于或等于参考值时输出第二值的二分类数据。
在实施例中,误差估计器可以包括神经网络。
在实施例中,运算电路可以基于二分类数据和估计误差对第二解码数据的误差进行校正,可以基于第二解码数据的校正误差生成误差校正数据,并且可以基于误差校正数据和解码平均值来输出输出数据。
在实施例中,运算电路可以包括:第一运算器,将估计误差乘以二分类数据;第二运算器,将第一运算器的输出与第二解码数据相加以输出误差校正数据;以及第三运算器,将误差校正数据和解码平均值相加以输出输出数据。
在实施例中,不可逆编码器/解码器可以被训练以使平均校正数据与第二解码数据之间的均方误差最小化。
在实施例中,二分类预测器可以被训练以使根据恢复误差小于参考值的第一概率和恢复误差大于或等于参考值的第二概率计算的二分类交叉熵误差最小化。
附图说明
通过参照附图详细描述公开的实施例,公开的以上和其他实施例及特征将变得明显。
图1是根据公开的数据处理装置的实施例的框图。
图2A和图2B是示出作为示例的校准数据的图。
图3是示出作为示例的校准数据的压缩的图。
图4是示出不可逆编码器/解码器的配置的框图。
图5是用于描述平均校正处理器的操作的图。
图6是用于描述二分类预测器的操作的图。
图7是示出误差估计器的配置的实施例的框图。
图8是根据公开的解码器的实施例的框图。
具体实施方式
在说明书中,当一个组件(或区域、层、部分等)被称为“在”另一组件“上”、“连接到”或“结合到”另一组件时,应当理解的是,前者可以直接在后者上、连接到或结合到后者,并且还可以经由第三居间组件在后者上、连接到或结合到后者。
同样的附图标记表示同样的组件。此外,在附图中,为了有效地描述技术内容,夸大了组件的厚度、比率以及尺寸。术语“和/或”包括相关所列项的一种或更多种组合。
术语“第一”、“第二”等用于描述各种组件,但是组件不受术语限制。这些术语仅用于将一个组件与另一组件区分开。例如,在不脱离公开的精神或范围的情况下,第一组件可以被命名为第二组件,反之亦然。除非另外说明,否则单数形式包括复数形式。
此外,术语“在……下方”、“在……之下”、“在……上”、“在……上方”用于描述附图中所示的组件之间的关系。术语是相对的,并且参照附图中指示的方向进行描述。
将理解的是,术语“包括”、“包含”、“具有”等说明存在说明书中描述的特征、数量、步骤、操作、元件或组件或它们的组合,不排除存在或添加一个或更多个其他特征、数量、步骤、操作、元件或组件或它们的组合的可能性。
除非另外定义,否则这里使用的所有术语(包括技术术语和科学术语)具有与本公开所属领域的普通技术人员通常理解的含义相同的含义。此外,术语(诸如在通用词典中定义的术语)应被解释为具有与相关技术的背景下的含义一致的含义,而不应被解释为理想化或过于形式化的含义,除非在公开中明确定义。
在下文中,将参照附图描述公开的实施例。
图1是根据公开的数据处理装置1000的实施例的框图。
参照图1,数据处理装置1000包括不可逆编码器/解码器100、平均校正处理器200、二分类预测器300、误差估计器400和运算电路500。
在实施例中,数据处理装置1000可以处理用于校准光发射元件和光接收元件的数据。
难以将作为二维半导体器件的光发射元件和光接收元件制造为具有均匀的质量。例如,当所制造的光发射元件被按原样组装到显示装置中然后被驱动以发光时,在许多情况下发生所谓的亮度不均匀(Mura)现象。用于减少Mura现象的方法之一是以像素(光发射元件或光接收元件)为单位准备校准数据,并且在发光时校正发光强度。
随着像素(光发射元件或光接收元件)的数量增加,用于存储校准数据的存储器的尺寸增大,并且要处理的数据的量增加。
当校准数据被不可逆地压缩以使校准数据最小化并且当在显示装置或光接收装置内的存储器中使用校准数据时,恢复准确性是重要的。当恢复误差相当大时,由于恢复误差会影响产品的质量,因此期望尽可能低地抑制恢复误差。
图2A和图2B是示出作为示例的校准数据CA_D1和CA_D2的图。
如图2A和图2B中所示,校准数据CA_D1和CA_D2可以包括由半导体制造工艺引起的随机噪声。
在图2A中所示的校准数据CA_D1中,像素之间的亮度偏差基本上不大。然而,图2B中所示的校准数据CA_D2包括高亮度数据B_D和低亮度数据D_D。
图3是示出作为示例的校准数据CA_D的压缩的图。
参照图3,例如,校准数据CA_D可以以四个像素为单位被不可逆地压缩。校准数据CA_D可以包括与四个像素对应的数据p0、p1、p2和p3,并且数据p1可以是图2B中所示的高亮度数据B_D。
校准数据CA_D由编码器压缩并且由解码器恢复。恢复数据R_D可以包括与四个像素对应的数据p0'、p1'、p2'和p3'。
由于高亮度像素和低亮度像素是高频分量,因此压缩后的恢复数据R_D包括大的误差ERR。误差ERR会使显示装置的显示质量劣化。
返回参照图1,在实施例中,数据处理装置1000可以以四个像素(或通道ch)为单位执行编码/解码。与一个像素对应的数据可以是8位(字节,bit)信号。数据处理装置1000接收与四个像素(或四个通道)对应的校准数据作为输入数据IN_DA。
平均校正处理器200计算输入数据IN_DA的平均值AV。此外,平均校正处理器200计算输入数据IN_DA与平均值AV之间的差,并且输出平均校正数据Seq.X。平均校正数据Seq.X被提供给不可逆编码器/解码器100。平均校正处理器200对平均值AV进行可逆编码以生成编码平均值C_AV,并且对编码平均值C_AV进行解码以输出解码平均值Seq.A。在实施例中,平均校正处理器200包括稍后将描述的减法器201、平均值计算器202、可逆编码器203、存储器204和可逆解码器205。
不可逆编码器/解码器100对平均校正数据Seq.X进行解码,并且输出第一解码数据Seq.F。在实施例中,不可逆编码器/解码器100包括稍后将描述的自动编码器101、量化器102、可逆编码器(或无损编码器)103、存储器104、可逆解码器(或无损解码器)105和自动解码器106。
二分类预测器300接收其中3通道的第一解码数据Seq.F和1通道的解码平均值Seq.A组合的4通道数据301。第一解码数据Seq.F可以左移4位,然后提供给二分类预测器300。在实施例中,从可逆解码器105输出的第一解码数据Seq.F的一个通道可以是4位,并且提供给二分类预测器300的第一解码数据Seq.F的一个通道可以是8位。二分类预测器300基于第一解码数据Seq.F和解码平均值Seq.A来预测包括在第二解码数据Seq.Y中的恢复误差的大小,并且输出预测结果作为二分类数据BD。当作为不可逆编码器/解码器100的解码结果的第二解码数据Seq.Y的恢复误差被预测为小于参考值时,二分类数据BD可以是“0”。在实施例中,当第二解码数据Seq.Y的恢复误差大于或等于参考值时,二分类数据BD可以是“1”。
误差估计器400接收其中3通道的第一解码数据Seq.F和1通道的解码平均值Seq.A组合的4通道数据,并且接收4通道的第二解码数据Seq.Y。第一解码数据Seq.F可以左移4位,然后提供给误差估计器400。在实施例中,从可逆解码器105输出的第一解码数据Seq.F的一个通道可以是4位,并且提供给误差估计器400的第一解码数据Seq.F的一个通道可以是8位。误差估计器400输出4通道的估计误差OUT_ERR。
运算电路500包括运算器501、502和503。运算电路500接收来自误差估计器400的4通道的估计误差OUT_ERR、来自二分类预测器300的二分类数据BD、来自不可逆编码器/解码器100的第二解码数据Seq.Y以及来自平均校正处理器200的解码平均值Seq.A。运算电路500基于估计误差OUT_ERR和二分类数据BD来校正第二解码数据Seq.Y的误差,并且输出误差校正数据Seq.Z。此外,运算电路500通过将误差校正数据Seq.Z和解码平均值Seq.A相加来输出输出数据OUT_DA。
图4是示出不可逆编码器/解码器100的配置的框图。
参照图4,自动编码器101不可逆地压缩4通道的平均校正数据Seq.X,并且输出3通道的压缩信号。量化器102可以输出通过将来自自动编码器101的压缩信号量化为4位信号而获得的量化信号。可逆编码器103对量化信号进行可逆编码以输出编码数据C_DA。
输入到不可逆编码器/解码器100的4通道的平均校正数据Seq.X可以通过自动编码器101、量化器102和可逆编码器103转换为3通道的编码数据C_DA。在实施例中,平均校正数据Seq.X的一个通道可以是8位,并且编码数据C_DA的一个通道可以是4位。编码数据C_DA可以存储在存储器104中。
可逆解码器105对编码数据C_DA进行解码,并且输出第一解码数据Seq.F。
自动解码器106对第一解码数据Seq.F进行解码,并且输出第二解码数据Seq.Y。第二解码数据Seq.Y可以是4通道的数据,并且每个通道可以是8位。
图4示出了自动编码器101和自动解码器106的功能块。然而,公开不限于此。
在实施例中,可逆编码器103和可逆解码器105可以应用算术码方法、霍夫曼码方法等。
图5是用于描述平均校正处理器200的操作的图。
参照图1和图5,平均校正处理器200减轻输入数据IN_DA的随机噪声并且减小像素之间的亮度偏差。
如图5中所示,平均校正处理器200中的平均值计算器202接收输入数据IN_DA并且以4通道(像素)为单位来计算平均值AV。减法器201计算平均值AV与输入数据IN_DA之间的差。在实施例中,例如,当平均值AV为AV1时,平均值AV与输入数据IN_DA之间的差为AV1-IN_DA,并且当平均值AV为AV2时,平均值AV与输入数据IN_DA之间的差为AV2-IN_DA。
平均值AV与输入数据IN_DA之间的差可以作为平均校正数据Seq.X提供给不可逆编码器/解码器100。
从平均值计算器202输出的平均值AV通过可逆编码器203压缩,以输出编码平均值C_AV。编码平均值C_AV可以存储在存储器204中。
可逆解码器205对编码平均值C_AV进行解码,并且输出解码平均值Seq.A。
图6是用于描述二分类预测器300的操作的图。
参照图1和图6,二分类预测器300接收其中3通道的第一解码数据Seq.F和1通道的解码平均值Seq.A彼此组合的4通道数据301。
负责二分类预测器300的类别分类的神经网络可以包括用于计算二分类发生概率的全连接层302和SoftMax层303,全连接层302包括激活函数ReLU。SoftMax层303的输出可以是二分类数据BD。
在实施例中,当预测在不可逆编码器/解码器100的解码结果(即,4通道的第二解码数据Seq.Y)中不包括大的恢复误差时,二分类数据BD可以是“0”。
在实施例中,当预测在不可逆编码器/解码器100的解码结果(即,4通道的第二解码数据Seq.Y)中包括大的恢复误差时,二分类数据BD可以是“1”。
图7是示出误差估计器400的配置的实施例的框图。
参照图1和图7,误差估计器400接收8通道的输入IN_ERR。8通道的输入IN_ERR包括其中3通道的第一解码数据Seq.F和1通道的解码平均值Seq.A彼此组合的4通道数据以及4通道的第二解码数据Seq.Y。
负责误差估计的神经网络402具有与图4中所示的不可逆编码器/解码器100的自动编码器101和自动解码器106之间的直接连接相同的配置,并且神经网络402的层的数量与自动编码器101和自动解码器106相比相对少。神经网络402输出4通道的估计误差OUT_ERR。在实施例中,神经网络402可以是卷积神经网络(“CNN”),但是公开不限于此。
运算电路500包括运算器501、502和503。
运算器(也称为第一运算器)501将来自误差估计器400的4通道的估计误差OUT_ERR乘以来自二分类预测器300的二分类数据BD。
运算器(也称为第二运算器)502通过将运算器501的输出与来自不可逆编码器/解码器100的第二解码数据Seq.Y相加来输出误差校正数据Seq.Z。
运算器(也称为第三运算器)503通过将作为运算器502的输出的误差校正数据Seq.Z与来自平均校正处理器200的解码平均值Seq.A相加来输出输出数据OUT_DA。
在实施例中,当预测在不可逆编码器/解码器100的解码结果(即,4通道的第二解码数据Seq.Y)中不包括大的恢复误差时,二分类数据BD可以是“0”。在这种情况下,可以通过运算器501输出“0”。可以通过运算器502和503将第二解码数据Seq.Y和解码平均值Seq.A相加,以输出输出数据OUT_DA。也就是说,在输出数据OUT_DA中没有反映4通道的估计误差OUT_ERR。
当预测在不可逆编码器/解码器100的解码结果(即,4通道的第二解码数据Seq.Y)中包括大的恢复误差时,二分类数据BD可以是“1”。在这种情况下,可以通过运算器501输出4通道的估计误差OUT_ERR。可以通过运算器502和503将第二解码数据Seq.Y、4通道的估计误差OUT_ERR和解码平均值Seq.A相加,以输出输出数据OUT_DA。因此,当预测在4通道的第二解码数据Seq.Y中包括大的恢复误差时,可以在输出数据OUT_DA中反映4通道的估计误差OUT_ERR。
不可逆编码器/解码器100、二分类预测器300和误差估计器400可能需要训练神经网络。用于机器学习不可逆编码器/解码器100的神经网络的损失函数“Loss A”由下面的式1表示。
[式1]
在式1中,MSE表示均方误差,“X”表示输入到自动编码器101的平均校正数据Seq.X,“Y”表示从自动解码器106输出的第二解码数据Seq.Y,n是正整数,i是等于或小于n的正整数。
不可逆编码器/解码器100可以被训练,以使平均校正数据Seq.X和第二解码数据Seq.Y之间的均方误差最小化。
用于机器学习二分类预测器300的神经网络的损失函数“Loss B”如下面的式2中所示。
[式2]
在式2中,BCE表示二分类交叉熵,“ti”表示真值标签,“Pi”表示针对第i类的SoftMax概率。二分类预测器300可以被训练,以使二分类交叉熵误差最小化,二分类交叉熵误差根据在解码结果中不包括大于或等于预定值的误差的概率P0和在解码结果中包括大于或等于预定值的误差的概率P1计算而得。
用于机器学习误差估计器400的神经网络的损失函数“Loss C”如下面的式3中所示。
[式3]
在式3中,MSE表示均方误差,MAX表示最大值之和,“Z”表示从运算器502输出的误差校正数据Seq.Z,“X”表示输入到自动编码器101的平均校正数据Seq.X,k是正整数。
误差估计器400的损失函数“Loss C”是输入到自动编码器101的平均校正数据Seq.X和最终的误差校正数据Seq.Z之间的均方误差“LossMSE”与通过提取“Z”和“X”的k个最大误差并求和而获得的损失“LossMAX”之和。“α”表示LossMSE与LossMAX的比率。在实施例中,“α”为0.5。“n”对应于机器学习的批次数,例如,“n”是根据机器学习环境的值。此外,“k”(<n)可以是排列中的高亮度像素和低亮度像素的数量。
根据以下步骤执行数据处理装置1000的机器学习。首先,训练不可逆编码器/解码器100。然后,训练二分类预测器300。然后,通过反映不可逆编码器/解码器100的机器学习结果和二分类预测器300的机器学习结果来训练误差估计器400。
可以并行地独立训练不可逆编码器/解码器100和二分类预测器300。在完成不可逆编码器/解码器100和二分类预测器300的机器学习之后,可以训练误差估计器400。
通过将二分类预测器300的机器学习结果与误差估计器400的机器学习结果相乘,作为结果,仅对包括大的恢复误差的数据反映估计误差是重要的。
图8是根据公开的解码器2000的实施例的框图。
参照图8,解码器2000包括不可逆解码器2100、平均值解码器(或平均校正处理器)2200、二分类预测器2300、误差估计器2400和运算电路2500。
图8中所示的解码器2000的一些配置与图1中所示的数据处理装置1000的配置相同,因此将省略附加的描述以避免冗余。
平均值解码器2200包括存储器2204和可逆解码器2205。存储器2204和可逆解码器2205可以与图1中所示的存储器204和可逆解码器205类似地操作。
存储器2204存储编码平均值C_AV。编码平均值C_AV可以是由图1中所示的数据处理装置1000预先计算的值。
可逆解码器2205对编码平均值C_AV进行解码,并且输出解码平均值Seq.A。
不可逆解码器2100包括存储器2104、可逆解码器2105和自动解码器2106。
存储器2104存储编码数据C_DA。编码数据C_DA可以是由图1中所示的数据处理装置1000的可逆编码器103预先处理的数据。
可逆解码器2105对编码数据C_DA进行解码,并且输出第一解码数据Seq.F。
自动解码器2106对第一解码数据Seq.F进行解码,并且输出第二解码数据Seq.Y。
二分类预测器2300可以包括用于计算二分类发生概率的全连接层2302和SoftMax层2303。二分类预测器2300接收其中3通道的第一解码数据Seq.F和1通道的解码平均值Seq.A彼此组合的4通道数据2301。第一解码数据Seq.F可以左移4位,然后提供给二分类预测器2300。在实施例中,从可逆解码器2105输出的第一解码数据Seq.F的一个通道可以是4位,并且提供给二分类预测器2300的第一解码数据Seq.F的一个通道可以是8位。二分类预测器2300基于第一解码数据Seq.F和解码平均值Seq.A来预测第二解码数据Seq.Y的恢复误差,并且输出与预测结果对应的二分类数据BD。当作为不可逆编码器/解码器100的解码结果的第二解码数据Seq.Y的恢复误差被预测为小于参考值时,二分类数据BD可以是“0”。在实施例中,当第二解码数据Seq.Y的恢复误差大于或等于参考值时,二分类数据BD可以是“1”。
误差估计器2400接收其中3通道的第一解码数据Seq.F和1通道的解码平均值Seq.A彼此组合的4通道数据以及4通道的第二解码数据Seq.Y。第一解码数据Seq.F可以左移4位,然后提供给误差估计器2400。在实施例中,从可逆解码器2105输出的第一解码数据Seq.F的一个通道可以是4位,并且提供给误差估计器2400的第一解码数据Seq.F的一个通道可以是8位。误差估计器2400输出4通道的估计误差OUT_ERR。误差估计器2400可以包括可以与图1的实施例中的神经网络402类似的神经网络2402。
运算电路2500包括运算器2501、2502和2503。运算电路2500接收来自误差估计器2400的4通道的估计误差OUT_ERR、来自二分类预测器2300的二分类数据BD、来自不可逆解码器2100的第二解码数据Seq.Y以及来自平均值解码器2200的解码平均值Seq.A。运算电路2500基于估计误差OUT_ERR和二分类数据BD来校正第二解码数据Seq.Y的误差,并且输出误差校正数据Seq.Z。此外,运算电路2500通过将误差校正数据Seq.Z和解码平均值Seq.A相加来输出输出数据OUT_DA。
图8中所示的解码器2000可以应用于诸如相机的光接收装置和诸如显示器的发光显示装置。
在公开的实施例中,数据处理装置可以在使编码数据的大小的增加最小化的同时使恢复误差最小化。此外,在公开的实施例中,解码器可以恢复编码数据。
尽管已经出于说明性目的描述了公开的实施例,但是本领域技术人员将理解的是,在不脱离如所附权利要求中公开的公开的范围和精神的情况下,各种修改和替换是可能的。因此,公开的技术范围不限于本说明书的详细描述,而是应当由权利要求限定。

Claims (10)

1.一种数据处理装置,所述数据处理装置包括:
平均校正处理器,计算输入数据的平均值,基于所述输入数据和所述平均值输出平均校正数据,对所述平均值进行编码和解码,并且生成解码平均值;
不可逆编码器/解码器,对所述平均校正数据进行编码和解码,并且输出第一解码数据和第二解码数据;
二分类预测器,基于所述第一解码数据和所述解码平均值来预测包括在所述第二解码数据中的恢复误差的大小,并且输出预测结果作为二分类数据;
误差估计器,基于所述第一解码数据、所述第二解码数据和所述解码平均值来输出估计误差;以及
运算电路,基于所述第二解码数据、所述二分类数据、所述估计误差和所述解码平均值来输出输出数据。
2.根据权利要求1所述的数据处理装置,其中,所述平均校正处理器包括:
平均值计算器,计算所述输入数据的所述平均值;
减法器,计算所述输入数据与所述平均值之间的差,并且输出所述差作为所述平均校正数据;
可逆编码器,对所述平均值进行可逆编码,并且输出编码平均值;
存储器,存储所述编码平均值;以及
可逆解码器,对所述编码平均值进行解码,并且输出所述解码平均值。
3.根据权利要求1所述的数据处理装置,其中,所述不可逆编码器/解码器包括:
自动编码器,对所述平均校正数据进行不可逆编码并且输出压缩信号;
量化器,对所述压缩信号进行量化并且输出量化信号;
可逆编码器,对所述量化信号进行可逆编码并且输出编码数据;
存储器,存储所述编码数据;
可逆解码器,对存储在所述存储器中的所述编码数据进行解码,并且输出所述第一解码数据;以及
自动解码器,对所述第一解码数据进行解码,并且输出所述第二解码数据。
4.根据权利要求1所述的数据处理装置,其中,当所述恢复误差小于参考值时,所述二分类预测器输出第一值的所述二分类数据,并且
其中,当所述恢复误差大于或等于所述参考值时,所述二分类预测器输出第二值的所述二分类数据。
5.根据权利要求1所述的数据处理装置,其中,所述运算电路基于所述二分类数据和所述估计误差对所述第二解码数据的误差进行校正,基于所述第二解码数据的校正误差生成误差校正数据,并且基于所述误差校正数据和所述解码平均值来输出所述输出数据。
6.根据权利要求5所述的数据处理装置,其中,所述运算电路包括:
第一运算器,将所述估计误差乘以所述二分类数据;
第二运算器,将所述第一运算器的输出与所述第二解码数据相加,并且输出所述误差校正数据;以及
第三运算器,将所述误差校正数据和所述解码平均值相加,并且输出所述输出数据。
7.根据权利要求1所述的数据处理装置,其中,所述不可逆编码器/解码器被训练以使所述平均校正数据与所述第二解码数据之间的均方误差最小化。
8.一种解码器,所述解码器包括:
平均校正处理器,对编码平均值进行解码,并且生成解码平均值;
不可逆编码器/解码器,对编码数据进行解码,并且输出第一解码数据和第二解码数据;
二分类预测器,基于所述第一解码数据和所述解码平均值来预测包括在所述第二解码数据中的恢复误差的大小,并且输出预测结果作为二分类数据;
误差估计器,基于所述第一解码数据、所述第二解码数据和所述解码平均值来输出估计误差;以及
运算电路,基于所述第二解码数据、所述二分类数据、所述估计误差和所述解码平均值来输出输出数据。
9.根据权利要求8所述的解码器,其中,所述平均校正处理器包括:
存储器,存储所述编码平均值;以及
可逆解码器,对所述编码平均值进行解码,并且输出所述解码平均值。
10.根据权利要求8所述的解码器,其中,所述不可逆编码器/解码器包括:
存储器,存储所述编码数据;
可逆解码器,对存储在所述存储器中的所述编码数据进行解码,并且输出所述第一解码数据;以及
自动解码器,对所述第一解码数据进行解码,并且输出所述第二解码数据。
CN202310130742.5A 2022-02-23 2023-02-08 解码器和包括该解码器的数据处理装置 Pending CN116647703A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220023906A KR20230126777A (ko) 2022-02-23 2022-02-23 디코더 및 그것을 포함하는 데이터 처리 장치
KR10-2022-0023906 2022-02-23

Publications (1)

Publication Number Publication Date
CN116647703A true CN116647703A (zh) 2023-08-25

Family

ID=87574694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310130742.5A Pending CN116647703A (zh) 2022-02-23 2023-02-08 解码器和包括该解码器的数据处理装置

Country Status (3)

Country Link
US (1) US11996864B2 (zh)
KR (1) KR20230126777A (zh)
CN (1) CN116647703A (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3406275B2 (ja) 1999-05-21 2003-05-12 日本電信電話株式会社 ディジタル信号符号化方法、ディジタル信号復号化方法、これらの装置及びその各プログラム記録媒体
EP1292036B1 (en) * 2001-08-23 2012-08-01 Nippon Telegraph And Telephone Corporation Digital signal decoding methods and apparatuses
US7787541B2 (en) * 2005-10-05 2010-08-31 Texas Instruments Incorporated Dynamic pre-filter control with subjective noise detector for video compression
US8239728B1 (en) * 2008-06-27 2012-08-07 Link—A—Media Devices Corporation Set partitioning and multilevel coding
BRPI0919542A2 (pt) * 2008-10-03 2015-12-08 Thomson Licensing método e aparelho para adaptação de um intercalador de bits em códigos ldpc e modulações sob condições de canal awgn usando canais substitutos de emenda binária
JP6157114B2 (ja) 2012-12-28 2017-07-05 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム

Also Published As

Publication number Publication date
US20230268933A1 (en) 2023-08-24
US11996864B2 (en) 2024-05-28
KR20230126777A (ko) 2023-08-31

Similar Documents

Publication Publication Date Title
EP2961164B1 (en) Data processing apparatus for organic light emitting display device
US10834425B2 (en) Image compression/decompression method and device, and image processing system
KR100837410B1 (ko) 주관적인 무손실 이미지 데이터 압축 방법 및 장치
US20080226183A1 (en) DPCM with Adaptive Range and PCM Escape Mode
US11308873B2 (en) Redundancy assisted noise control for accumulated iterative compression error
KR20150139464A (ko) 디스플레이 패널, 디스플레이 패널의 픽셀 휘도 보상 방법 및 픽셀 파라미터들을 보상하기 위한 방법
US10609382B2 (en) Method and apparatus for compressing video data
US10803791B2 (en) Burrows-wheeler based stress profile compression
US20060133675A1 (en) Image processing method, system, and apparatus for facilitating data transmission
CN116647703A (zh) 解码器和包括该解码器的数据处理装置
US11245924B2 (en) Methods and devices for coding and decoding a data stream representative of at least one image
US11770535B2 (en) Systems and methods for joint color channel entropy encoding with positive reconstruction error
US8379715B2 (en) System and method for video compression using non-linear quantization and modular arithmetic computation
US9501717B1 (en) Method and system for coding signals using distributed coding and non-monotonic quantization
US20220224907A1 (en) Encoding apparatus, encoding method, and program
US11343512B1 (en) Systems and methods for compression with constraint on maximum absolute error
US7016541B2 (en) Image processing method for facilitating data transmission
US11955067B2 (en) Simplified rate control for an additive iterative compression system
CN110087073B (zh) 一种多阈值串匹配数据压缩方法
KR20180059158A (ko) 보상 데이터 처리 장치 및 방법과 이를 이용한 유기 발광 다이오드 표시 장치
EP4027643A1 (en) Systems and methods for compression with constraint
US11503311B2 (en) Hybrid palette-DPCM coding for image compression
US20240146901A1 (en) System and method for encoding
WO2024081223A1 (en) Training method of an end-to-end neural network based compression system
US7263645B2 (en) Communication system using correlation matrix, correlation matrix learning method, correlation matrix learning device and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication