CN113347422B - 一种粗粒度上下文熵编码方法 - Google Patents

一种粗粒度上下文熵编码方法 Download PDF

Info

Publication number
CN113347422B
CN113347422B CN202110521800.8A CN202110521800A CN113347422B CN 113347422 B CN113347422 B CN 113347422B CN 202110521800 A CN202110521800 A CN 202110521800A CN 113347422 B CN113347422 B CN 113347422B
Authority
CN
China
Prior art keywords
tensor
block
context
sending
coded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110521800.8A
Other languages
English (en)
Other versions
CN113347422A (zh
Inventor
刘家瑛
王德昭
胡越予
郭宗明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202110521800.8A priority Critical patent/CN113347422B/zh
Publication of CN113347422A publication Critical patent/CN113347422A/zh
Application granted granted Critical
Publication of CN113347422B publication Critical patent/CN113347422B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种粗粒度上下文熵编码方法。本方法为:1)从图像数据集中选取一原始图像并送入神经网络的编码器中进行编码;2)对编码后的张量进行划分;将每一子张量视为一待编码块;3)熵编码网络对每一待编码块进行上下文熵编码,获得待编码块的上下文信息;4)将每一上下文信息送入概率预测网络中,获得对应待编码块所有元素的概率分布参数;5)根据概率分布参数计算张量信息熵;将张量送入解码器,得到解码重建图像并计算失真项损失函数的损失值;6)根据步骤5)所得结果计算率失真损失函数的损失值并反向传播到神经网络各层;7)重复步骤1)‑6)直到神经网络收敛;8)将目标图像送入训练后的神经网络得到目标图像的编码。

Description

一种粗粒度上下文熵编码方法
技术领域
本发明属于图像视频编码领域,主要涉及端到端的图像视频方法。可以用于减少图片视频码率。
背景技术
在数字图像与视频的使用传播过程中,有损压缩是一项不可或缺的关键技术。有损压缩通过对图像和视频进行编码端的编码压缩以及解码端的解码恢复,极大地降低了数字图像与视频在存储和传输过程中的开销,使得其在日常生活得以被普遍使用。
随着深度学习的发展,基于端到端的深度图像与视频压缩技术也得到广泛且深入的研究。以图像压缩为例端到端的图像压缩利用深度神经网络,对像素域的图像实行变换,通过量化以及熵编码进行编码;并通过熵解码以及深度神经网络进行解码。训练时利用率失真函数进行约束,得到了与传统编码器相当甚至更优的效果。
其中,上下文熵编码器是常用的熵编码技术,其利用待编码元素的上下文信息,进行对当前元素概率分布的推理,从而减少编码该元素所需码流。上下文熵编码器尽管可以逼近待编码元素的概率分布,但是限于其并行性低的特点,需要串行解码,因此解码端所需时间较长,从而使得端到端图像与视频压缩模型难以落地运行。
发明内容
针对现有技术存在的技术问题,本发明的目的在于提供一种粗粒度上下文熵编码方法。与每次预测一个元素的概率分布不同,本发明每次上下文熵编码预测一个块内所有元素的概率分布;通过并行计算,极大加速了编解码,且对整体率失真性能影响较小。上下文熵编码过程主要基于一个深度卷积神经网络实现,如附图1所示。
本发明提出的网络的输入待编码块的上下文信息,输出为待编码块的概率分布参数值。接下来结合附图1描述本发明方法的主要步骤。
一、训练过程:
步骤1:收集一批自然图像数据集,将原始图像送入神经网络的编码器中进行编码,其本身则被视作网络输出的目标被保存。本发明的神经网络包含编码器、解码器、熵编码网络(包含超先验的提取、上下文的提取)、概率预测网络(利用超先验、上下文计算分布的参数)。
步骤2:对该原始图像编码后的张量进行划分。每个张量被划分得到的子张量中包含多个元素。子张量的维数可以是1维至张量本身的维数中的任意维。将每一子张量视为一待编码块。
步骤3:将运算窗口(通常是卷积运算)置于第一个待编码块,对待编码块进行上下文熵编码。
步骤4:获得当前待编码块的上下文信息,即相邻前序编码块的元素值。
步骤5:将上下文信息送入概率预测网络中,通过前向传递,获得待编码块所有元素的概率分布参数。概率预测网络是端到端模型中都会使用的一个模块,通常由多层卷积以及全连接层组成,功能是给出一个张量在某个先验分布(通常是高斯)下的参数(均值与方差),参考Chen T,Liu H,Ma Z,et al.End-to-End Learnt Image Compression viaNon-Local Attention Optimization and Improved Context Modeling[J].IEEETransactions on Image Processing,2021,PP(99)。
步骤6:将运算窗口移动至下一个待编码块。
步骤7:重复步骤4-步骤6直到该原始图像对应的所有待编码块的概率分布得到估计。
步骤8:根据得到的该原始图像的各概率分布,计算编码后的张量信息熵,作为码率项损失函数的损失值。
步骤9:将该原始图像编码后的张量送入解码器,得到解码重建图像,计算该原始图像的失真项损失函数。
步骤10:计算率失真损失函数,反向传播到神经网络各层,以更新各层权值(可以采用Adam优化器进行更新,或使用SGD或其他优化器),在下次迭代中使得结果更接近目标效果。本发明的神经网络结构可以使用不同的基线模型(比如编解码器的构造可以选择不同的超参数,但一般的端到端图像编解码网络都是由多层卷积与激活函数组成)。本发明的基线模型是Chen T,Liu H,Ma Z,et al.End-to-End Learnt Image Compression viaNon-Local Attention Optimization and Improved Context Modeling[J].IEEETransactions on Image Processing,2021,PP(99).
步骤11:重复步骤1-步骤10直到神经网络的率失真损失函数收敛。
二、编码过程
步骤1:将原始图像送入训练完毕的编码器中进行编码,获得待熵编码的张量。
步骤2:对编码后的张量进行划分。每个被划分的子张量中包含多个元素。子张量的维数可以是1维至张量本身的维数中的任意维。将该子张量视为待编码块。
步骤3:将运算窗口(通常是卷积运算)置于第一个待编码块,准备开始上下文熵编码。
步骤4:获得当前待编码块的上下文信息,即相邻前序编码块的元素值。
步骤5:将上下文信息送入神经网络中,通过前向传递,获得待编码块所有元素的概率分布参数。
步骤6:将运算窗口移动至下一个待编码块。
步骤7:重复步骤4-步骤6直到所有待编码块的概率分布得到估计。
步骤8:根据得到的概率分布,利用算术编码对编码后的张量进行熵编码,得到张量对应的码流。
步骤9:将语法元素码流以及张量对应的码流写入码流文件。语法元素包含图像的元信息、长、宽、分块信息。
三、解码过程
步骤1:读取码流文件,载入解码器模型。
步骤2:获得第一块待解码块的上下文信息(边界处上下文信息空缺时通常采用0填充空缺部分),送入上下文熵编码模型中,获得第一块待解码块的概率分布。
步骤3:读取第一块的熵编码元素,根据其概率分布进行算数解码,获得第一块待解码块的重建块(即是第一块待解码块的上下文信息)。
步骤4:将第一块重建块送入上下文熵编码模型的上下文缓冲区中。
步骤5:从熵编码模型的上下文缓冲区中获得下一块待解码块的上下文信息,送入上下文熵编码模型中,获得当前待解码块的概率分布。
步骤6:读取当前块的熵编码元素,根据其概率分布进行算数解码,获得当前块的重建块。
步骤7:将当前块的重建块送入上下文熵编码模型的上下文缓冲区中。
步骤8:重复步骤5-7,直到熵解码得到所有的重建块。
步骤9:将解码的块组合,送入解码器模型中,获得重建图像。
与现有技术相比,本发明的积极效果为:
与逐元素编解码上下文基线模型[1](Chen T,Liu H,Ma Z,et al.End-to-EndLearnt Image Compression via Non-Local Attention Optimization and ImprovedContext Modeling[J].IEEE Transactions on Image Processing,2021,PP(99))相比,解码阶段在高分辨率图像上可以达到60倍的加速,率失真性能损失仅在2%左右。
表1.不同分辨率图像编解码时间对比
Figure BDA0003064319520000031
Figure BDA0003064319520000041
附图说明
图1为本发明方法流程图。
图2为二维与三维块划分示意图;
(a)未划分,(b)二维划分,(c)三维划分。
图3为二维与三维块划分上下文信息示意图;
(a)二维划分,(b)三维划分。
具体实施方式
为了对本发明的技术方法进一步阐述,下面结合说明书附图和具体实例,对本发明的粗粒度上下文熵编码模型进行进一步的详细说明。
本实例将重点详细阐述该技术方法中粗粒度上下文熵编码模型中的概率估计部分在编码以及解码中的实现。本实例中包括了三维块划分与二维块划分的两种实现,其划分方式如附图2所示,对应的上下文信息如附图3所示。本实例利用一个掩模三维卷积网络实现具体的上下文信息提取。
一、三维块划分
1.编码过程
假设已经获得了经由编码器生成的待熵编码张量z,通道数为C,高度为H,宽度为W(简写为C×H×W,后续表述类似)。
每次概率估计中,第p个待预测块大小为Cp×Hp×Wp
熵编码概率预测网络利用掩模三维卷积,将待预测的元素位置置为0,且不可训练。
掩模三维卷积的输入通道数为1,输出通道数为待预测块的元素个数,即Cp*Hp*Wp;在深度、高度、宽度三个维度的步长分别为Cp,Hp,Wp
步骤1:将待预测张量z′的尺寸设置为1×C×H×W,其中通道数为1,深度为C,高度与宽度分别为H与W。
步骤2:将z′送入掩模三维卷积,获得输出张量
Figure BDA0003064319520000044
步骤3:将每个通道相同位置的元素(即深度、高度、宽度上位置一致的元素)
Figure BDA0003064319520000042
取出,d、h、w表示这些元素的深度、高度、宽度值。按通道顺序组成一个与待预测块尺寸相同的张量
Figure BDA0003064319520000043
步骤4:将所有的
Figure BDA0003064319520000051
按顺序组成与z尺寸大小相同的张量zcontext。此时,zcontext中每个元素的值,都基于z中相同位置的元素的上下文生成。
步骤5:将zcontext送入后续概率预测网络,生成张量里所有的元素的概率估计(即所有块的概率分布参数)。
2.解码过程:
假设我们已经读取码流文件,并载入掩模三维卷积层的参数。
步骤1:将n设为1
步骤2:读入第n个待解码块zn的上下文信息cn,将其送入掩模三维卷积层,获得输出cn’,尺寸为Cp*Hp*Wp×1×1×1。
步骤3:将cn’每个通道的元素取出,按通道顺序组成一个与待预测块尺寸相同的张量,即
Figure BDA0003064319520000052
步骤4:将
Figure BDA0003064319520000053
送入后续概率预测网络,生成zn的概率分布。并根据zn的概率分布参数,对第n个待解码块的码流进行算术解码,获得重建的zn
步骤5:将重建的zn送入上下文缓冲区,以作为后续块的上下文信息。
步骤6:将n的值加一。
步骤7:重复步骤2-6,直到所有块被解码。
步骤8:将{z1,z2,…zn}按顺序组合为z,即获得了熵解码的张量。
步骤9:将z送入解码器网络中,获得重建图像y。
二、二维块划分
1.编码过程
假设已经获得了经由编码器生成的待熵编码张量z,通道数为C,高度为H,宽度为W(简写为C×H×W,后续表述类似)。
每次概率估计中,待预测块大小为Hp×Wp
熵编码概率预测网络利用掩模三维卷积,将待预测的元素位置置为0,且不可训练。
掩模三维卷积的输入通道数为1,输出通道数为待预测块的元素个数,即Hp*Wp;在深度、高度、宽度三个维度的步长分别为1,Hp,Wp
步骤1:将待预测张量z′的尺寸设置为1×C×H×W,其中通道数为1,深度为C,高度与宽度分别为H与W。
步骤2:将z′送入掩模三维卷积,获得输出张量
Figure BDA0003064319520000054
步骤3:将每个通道相同位置的元素(即深度、高度、宽度上位置一致的元素)
Figure BDA0003064319520000061
取出,d、h、w表示这些元素的深度、高度、宽度值。按通道顺序组成一个与待预测块尺寸相同的张量
Figure BDA0003064319520000062
步骤4:将所有的
Figure BDA0003064319520000063
按顺序组成与z尺寸大小相同的张量zcontext。此时,zcontext中每个元素的值,都基于z中相同位置的元素的上下文生成。
步骤5:将zcontext送入后续概率预测网络,生成具体的概率估计。
2.解码过程:
假设我们已经读取码流文件,并载入掩模三维卷积层的参数。
步骤1:将n设为1
步骤2:读入第n个待解码块zn的上下文信息cn,将其送入掩模三维卷积层,获得输出cn”,尺寸为Hp*Wp×1×1×1。
步骤3:将cn”每个通道的元素取出,按通道顺序组成一个与待预测块尺寸相同的张量,即
Figure BDA0003064319520000064
步骤4:将
Figure BDA0003064319520000065
送入后续概率预测网络,生成zn的概率分布。并根据zn的概率分布参数,对第n个待解码块的码流进行算术解码,获得重建的zn
步骤5:将重建的zn送入上下文缓冲区,以作为后续块的上下文信息。
步骤6:将n的值加一。
步骤7:重复步骤2-6,直到所有块被解码。
步骤8:将{z1,z2,…zn}按顺序组合为z,即获得了熵解码的张量。
步骤9:将z送入解码器网络中,获得重建图像y。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.一种粗粒度上下文熵编码方法,其步骤包括:
1)从图像数据集中选取一原始图像并送入神经网络的编码器中进行编码;所述神经网络包括编码器、解码器、熵编码网络和概率预测网络;
2)对该原始图像编码后的张量进行划分;其中每个张量被划分得到的子张量中包含多个元素,将每一子张量视为一待编码块;
3)熵编码网络对每一待编码块进行上下文熵编码,获得该待编码块的上下文信息;
4)将每一所述上下文信息送入概率预测网络中,通过前向传递,获得对应待编码块所有元素的概率分布参数;
5)概率预测网络根据该原始图像对应的所有概率分布参数,计算编码后的张量信息熵,作为码率项损失函数的损失值;将该原始图像编码后的张量送入解码器,得到解码重建图像,并计算失真项损失函数的损失值;
6)根据步骤5)得到的码率项损失函数的损失值和失真项损失函数的损失值,计算率失真损失函数的损失值并反向传播到神经网络各层,以更新各层权值;
7)重复步骤1)-步骤6)直到神经网络的率失真损失函数收敛;
8)将目标图像送入训练后的神经网络中进行编码,并对编码后的张量进行划分,将划分后的每一子张量视为一待编码块并计算每一待编码块所有元素的概率分布参数,然后根据该目标图像对应的所有概率分布参数,对编码后的张量进行编码得到张量对应的码流;
9)将该目标图像的语法元素码流以及张量对应的码流写入码流文件,完成该目标图像的编码。
2.如权利要求1所述的方法,其特征在于,步骤2)、步骤8)中,对编码后的张量进行三维划分;设编码后的张量为z,其通道数为C、高度为H、宽度为W,第p个待预测块大小为Cp×Hp×Wp;所述概率预测网络为掩模三维卷积网络;将待预测张量z′的尺寸设置为1×D×H×W,其中通道数为1、深度为D、高度为H、宽度为W;将z′送入掩模三维卷积,获得输出张量
Figure FDA0003568297210000011
将每个通道相同位置的元素
Figure FDA0003568297210000012
取出并按通道顺序组成一个与待预测块尺寸相同的张量
Figure FDA0003568297210000013
将所有的
Figure FDA0003568297210000014
按顺序组成与z尺寸大小相同的张量zcontext;将zcontext送入概率预测网络,生成概率分布参数;其中,d、h、w表示元素的深度、高度、宽度值。
3.如权利要求1所述的方法,其特征在于,步骤2)、步骤8)中,对编码后的张量进行二维划分;设编码后的张量为z,其通道数为C、高度为H、宽度为W,第p个待预测块大小为Hp×Wp;所述概率预测网络为掩模三维卷积网络;将待预测张量z′的尺寸设置为1×D×H×W,其中通道数为1、深度为D、高度为H、宽度为W;将z′送入掩模三维卷积,获得输出张量
Figure FDA0003568297210000021
将每个通道相同位置的元素
Figure FDA0003568297210000022
取出并按通道顺序组成一个与待预测块尺寸相同的张量
Figure FDA0003568297210000023
将所有的
Figure FDA0003568297210000024
按顺序组成与z尺寸大小相同的张量zcontext;将zcontext送入概率预测网络,生成概率分布参数;其中,d、h、w表示元素的深度、高度、宽度值。
4.如权利要求1或2或3所述的方法,其特征在于,所述子张量的维数为1维至张量本身的维数中的任意维。
5.如权利要求1或2或3所述的方法,其特征在于,利用算术编码对编码后的张量进行编码,得到张量对应的码流。
6.一种对基于权利要求1所述粗粒度上下文熵编码方法所得码流进行解码的方法,其步骤包括:
1)将目标图像的码流文件载入解码器,获得第i块待解码块的上下文信息并将其送入上下文熵编码模型中,获得第i块待解码块的概率分布;
2)读取第i块待解码块的熵编码元素,根据其概率分布进行算术解码,获得第i块待解码块的重建块并将其送入上下文熵编码模型的上下文缓冲区中;
3)从所述上下文缓冲区中获得第i+1块待解码块的上下文信息,并将其送入上下文熵编码模型中,获得第i+1块待解码块的概率分布;
4)读取第i+1块待解码块的熵编码元素,根据其概率分布进行算术解码,获得第i+1块待解码块的重建块并将其送入上下文熵编码模型的上下文缓冲区中;
5)重复步骤3)-4),直到得到该目标图像对应的所有待解码块的重建块;
6)将步骤5)所得重建块送入解码器中,获得重建图像。
CN202110521800.8A 2021-05-13 2021-05-13 一种粗粒度上下文熵编码方法 Active CN113347422B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110521800.8A CN113347422B (zh) 2021-05-13 2021-05-13 一种粗粒度上下文熵编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110521800.8A CN113347422B (zh) 2021-05-13 2021-05-13 一种粗粒度上下文熵编码方法

Publications (2)

Publication Number Publication Date
CN113347422A CN113347422A (zh) 2021-09-03
CN113347422B true CN113347422B (zh) 2022-07-12

Family

ID=77468439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110521800.8A Active CN113347422B (zh) 2021-05-13 2021-05-13 一种粗粒度上下文熵编码方法

Country Status (1)

Country Link
CN (1) CN113347422B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118120233A (zh) * 2021-10-20 2024-05-31 华为技术有限公司 基于注意力的图像和视频压缩上下文建模
CN114302150B (zh) * 2021-12-30 2024-02-27 北京超维景生物科技有限公司 视频编码方法及装置、视频解码方法及装置、电子设备
CN114697632B (zh) * 2022-03-28 2023-12-26 天津大学 一种基于双向条件编码的端到端立体图像压缩方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381145A (en) * 1993-02-10 1995-01-10 Ricoh Corporation Method and apparatus for parallel decoding and encoding of data
JP3929312B2 (ja) * 2002-01-09 2007-06-13 パナソニック コミュニケーションズ株式会社 算術符号化装置および画像処理装置
US8077064B2 (en) * 2010-02-26 2011-12-13 Research In Motion Limited Method and device for buffer-based interleaved encoding of an input sequence
GB2495468B (en) * 2011-09-02 2017-12-13 Skype Video coding
CN112702592B (zh) * 2020-12-28 2021-10-29 北京航空航天大学 端到端双目图像联合压缩方法、装置、设备和介质

Also Published As

Publication number Publication date
CN113347422A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN113347422B (zh) 一种粗粒度上下文熵编码方法
US11843777B2 (en) Image encoding and decoding, video encoding and decoding: methods, systems and training methods
Mentzer et al. Conditional probability models for deep image compression
CN109889839B (zh) 基于深度学习的感兴趣区域图像编码、解码系统及方法
EP3811614B1 (en) Neural network powered codec
US11785216B2 (en) Point cloud coding methods, encoder, and decoder
KR20200089635A (ko) 다수의 상이한 비트레이트로 영상 압축을 하기 위한 시스템들 및 방법들
CN113747163B (zh) 基于上下文重组建模的图像编码、解码方法及压缩方法
TW202042559A (zh) 用以壓縮類神經網路參數之方法與裝置
JP2012124890A (ja) 符号化信号を、この符号化信号と副情報との間の統計的依存性に基づいて復号する方法および復号器
Li et al. Deep learning-based image compression with trellis coded quantization
Chen Context modeling based on context quantization with application in wavelet image coding
CN114386595B (zh) 一种基于超先验架构的sar图像压缩方法
CN117980914A (zh) 用于以有损方式对图像或视频进行编码、传输和解码的方法及数据处理系统
CN113467949B (zh) 边缘计算环境下用于分布式dnn训练的梯度压缩方法
CN112329923B (zh) 一种模型压缩方法、装置、电子设备及可读存储介质
JP2023523272A (ja) 最近傍検索方法、エンコーダ、デコーダ、及び記憶媒体
EP3994625A1 (en) Neural network for variable bit rate compression
US20220392117A1 (en) Data compression and decompression system and method thereof
CN109788288A (zh) 码率控制中i帧量化步长的估算方法及装置
Ingole et al. A review on fractal compression and motion estimation techniques
JP7356052B2 (ja) 画像処理方法、データ処理方法、画像処理装置、およびプログラム
US20240020887A1 (en) Conditional variational auto-encoder-based online meta-learned image compression
Ajitha et al. Side Information Extraction using Bernoulli Distribution based Deep Learning Technique for Video Transmission
CN116095333A (zh) 图像压缩方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant