CN109996067B - 一种基于深度的全光图像自适应卷积编码方法 - Google Patents

一种基于深度的全光图像自适应卷积编码方法 Download PDF

Info

Publication number
CN109996067B
CN109996067B CN201910272902.3A CN201910272902A CN109996067B CN 109996067 B CN109996067 B CN 109996067B CN 201910272902 A CN201910272902 A CN 201910272902A CN 109996067 B CN109996067 B CN 109996067B
Authority
CN
China
Prior art keywords
image
coding
depth
plenoptic
optical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910272902.3A
Other languages
English (en)
Other versions
CN109996067A (zh
Inventor
金欣
钟婷婷
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201910272902.3A priority Critical patent/CN109996067B/zh
Publication of CN109996067A publication Critical patent/CN109996067A/zh
Application granted granted Critical
Publication of CN109996067B publication Critical patent/CN109996067B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种基于深度的全光图像自适应卷积编码方法,包括:A1:将全光图像中宏像素结构与基于块的图像/视频编码标准的编码单元网格对齐;A2:计算全光图像的深度信息,并根据深度信息体现的图像成像响应选择编码过程中需要的参考块;A3:根据选择的参考块与当前编码块的关系,设计一种端到端的基于深度的全光图像预测网络模型;A4:选取训练集,对全光图像预测网络模型进行模型的训练,实现利用已编码的全光图像对未编码全光图像的准确预测。本发明提出的基于深度的全光图像自适应卷积编码方法,高效地实现了对未编码全光图像的准确预测。

Description

一种基于深度的全光图像自适应卷积编码方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于深度的全光图像自适应卷积编码方法。
背景技术
近年来,像Lytro和Raytrix这样的全光相机引起了学术界和工业界的极大关注。与传统相机不同,全光相机使用单次曝光捕获三维(3D)场景的光的空间和角度强度。全光数据可以应用到的领域非常广,例如数字重聚焦、合成视点、深度估计,由于记录了光线的方向和位置的全光图像是超高清图像,因此高效地进行全光图像压缩在全光图像实际应用中就显得十分重要。
现有的压缩方案按照压缩形式大致分为两类,一是直接压缩全光图像,二是利用全光图像渲染出的子孔径图像间的时间和空域之间的关系生成伪视频序列,进而使用视频编码器或者多视点编码器编码。然而,子孔径图像的生成将会损失全光图像的一部分的空域相关性,限制了全光图像编码的有效提升。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
为解决上述技术问题,本发明提出一种基于深度的全光图像自适应卷积编码方法,高效地实现对未编码全光图像的准确预测。
为了达到上述目的,本发明采用以下技术方案:
本发明公开了一种基于深度的全光图像自适应卷积编码方法,包括以下步骤:
A1:将全光图像中宏像素结构与基于块的图像/视频编码标准的编码单元网格对齐;
A2:计算全光图像的深度信息,并根据深度信息体现的图像成像响应选择编码过程中需要的参考块;
A3:根据选择的参考块与当前编码块的关系,设计一种端到端的基于深度的全光图像预测网络模型;
A4:选取训练集,对步骤A3设计的全光图像预测网络模型进行模型的训练,实现利用已编码的全光图像对未编码全光图像的准确预测。
优选地,步骤A4中的选取训练集具体包括:输入全光图像数据集在HM编码平台上进行编码,将编码结果中已编码的图像作为输入,输入的原始全光图像作为输出,得到选取的全光图像预测网络模型的训练集。
优选地,步骤A4还包括将基于深度的全光图像预测网络模型作为一种帧内预测模式嵌入到HM编码平台,然后采用该HM编码平台对全光图像进行自适应卷积编码。
优选地,步骤A1具体包括:采用全光数据规则化算法将全光图像中宏像素结构与基于块的图像/视频编码标准的编码单元网络对齐。
优选地,步骤A2中根据深度信息体现的图像成像响应选择编码过程中需要的参考块具体包括确定参考块的数量和位置。
优选地,步骤A2中根据深度信息体现的图像成像响应确定参考块的数量和位置具体包括:对于3D空间中的物点,对于给定物距,其图像响应的分布随着相机的焦距而变化:
Figure BDA0002018989470000021
其中,Lα(x′,y′,u,v)是在深度为α的新聚焦平面,L(x,y,u,v)是当前聚焦平面,深度α取值在[0.5,1.5]范围内。
优选地,步骤A3中设计的端到端的基于深度的全光图像预测网络模型需满足:输出的预测块大小与当前编码块大小一致。
优选地,步骤A3中设计的端到端的基于深度的全光图像预测网络模型需满足:输入和输出的序列长度均固定,且输入和输出序列长度有对应关系。
优选地,步骤A3中设计的端到端的基于深度的全光图像预测网络模型包括N个2D卷积层的网络,其中除了最后一层之外的每个2D卷积层均具有ReLU激活函数,N为正整数。
与现有技术相比,本发明的有益效果在于:本发明的基于深度的全光图像自适应卷积编码方法通过分析全光图像中宏像素结构特点及深度信息,然后基于该深度信息准确地提取图像成像响应以选择编码过程中需要的参考块,并基于此设计基于深度学习的全光图像预测网络模型,高效地实现利用已编码的图像对未编码的全光图像的准确预测。
在进一步的方案中,采用HM编码平台的编码输入和输出作为训练集对前述设计的基于深度学习的全光图像预测网络模型进行训练,并将训练好的预测网络模型嵌入到HM编码平台原有的帧内预测模式中,最终实现全光图像编码效率的有效提升,对全光图像压缩编码的研究具有重大意义。
附图说明
图1是本发明优选实施例的基于深度的全光图像自适应卷积编码方法的流程图;
图2a是深度α=0.5时的成像响应分布示意图;
图2b是深度α=1时的成像响应分布示意图;
图2c是深度α=1.5时的成像响应分布示意图;
图3a是聚焦块的参考块的选择示意图;
图3b是散焦块的参考块的选择示意图;
图4是基于CNN网络的帧内预测网络结构的示意图;
图5是对全光图像预测网络模型的训练示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
如图1所示,本发明优选实施例公开了一种基于深度的全光图像自适应卷积编码方法,包括以下步骤:
A1:分析全光图像中宏像素的结构特点,将全光图像的宏像素结构与基于块的图像/视频编码标准的编码单元网格对齐;
设计基于深度学习的全光图像预测网络模型可以是多种形式的,其中需要与基于块的编码结构相匹配,以便于后期嵌入在HM编码平台上。
具体地,原始全光图像由多个六角形的宏像素组成,记录光线的空间和角度信息,原始全光图像通常具有超高分辨率;六角形的宏像素与基于块的编码结构不匹配,可以通过一些像素变换、差值和规则化使得变换后的全光图像与基于块的编码结构匹配。在本实施例中,采用全光数据规则化算法将全光图像中的宏像素结构与基于块的图像/视频编码标准的编码单元网格对齐,具体地,全光数据规则化算法的过程就是将宏像素分别进行垂直和水平变换对齐后再根据插值算法将空像素填充,得到整张宏像素对齐的图像。
本实施例中采用由Lytro Illum相机拍摄的空间分辨率是7228×5368,角度分辨率是15×15的全光图像,宏像素对齐后可以将每一个宏像素放入不重叠的n×n(n为整数)的块中,使得对齐后的全光图像与基于块的编码结构匹配。
A2:根据全光图像重聚焦公式计算出图像的深度信息,并根据深度信息体现的图像成像响应确定参考块的数量和位置,选取编码过程中需要的参考块;
在本实施例中,全光图像深度信息作为设计或选择参考块和预测网络模型的重要依据。
首先根据深度信息选择参考块,使用双平面参数化,L(x,y,u,v)表示当前聚焦平面(也即全光图像中的像素),其中(x,y)是3D空间中的物点的空间坐标,(u,v)是3D空间中的物点的发出光线方向的角度坐标。对于3D空间中的物点,即对于给定物距,其图像响应的分布随着相机的焦距而变化:
Figure BDA0002018989470000041
其中,Lα(x′,y′,u,v)是在深度为α的新聚焦平面,α是新聚焦平面Lα(x′,y′,u,v)和当前聚焦平面L(x,y,u,v)的相关深度;当α等于1代表着新聚焦平面与当前聚焦平面重合,物点的成像响应将会汇集到同一宏像素上,如图2b所示;当α大于或者小于1,物点的成像响应将会发散到不同的宏像素上,如图2a和图2c所示。
利用
Figure BDA0002018989470000042
可以计算出,当大于或者小于1时,物点的成像响应发散到周围的宏像素的位置(x′,y′),这给参考块的选择提供了更准确的选择,使参考块不局限于当前编码块的毗邻块。
统计EPFL全光图像数据集中物点的选择,深度α在[0.5,1.5]范围内的物点最多。如图2c所示,当α=1.5时,成像响应分布在当前编码块周围的两到三个宏像素距离中,如图2a所示,当α=0.5时,成像响应分布在当前编码块周围的七到八个宏像素距离时,这需要更大的片上存储器来缓冲参考像素块。考虑到帧内预测中选择参考块而引入的计算复杂度和存储复杂性开销,参考块的选择范围需要有一定限制,这一限制根据计算复杂度和存储复杂性而定。
在本实施例中,限制参考块的选择范围在两到三个宏像素距离的区域中时,聚焦块和散焦块的参考块如图3a和图3b所示。对于聚焦块(也即深度α取值接近1或者等于1),如图3a所示,当前编码块和参考块的尺寸为32、16或8时,均选择左侧、左上、顶部和右上方宏像素中的四个块作为CNN网络的参考块;对于散焦块(也即深度α取值大于1或者小于1),如图3b所示,当前编码块和参考块的尺寸为32时,选择左侧、左上、顶部和右上方宏像素中的四个块作为CNN网络的参考块,而在当前编码块和参考块的尺寸为16、8时,选择相邻宏像素中的十个并置参考块作为CNN网络的输入。
A3:设计基于深度学习的全光图像预测网络模型,模型是一个确定的端到端模型。
其中,在网络模型的设计应充分利用参考块与当前编码块位置结构的关系,输出的预测块大小与当前编码块大小一致;且还应考虑引入的时间和计算复杂度来确定网络的参数结构;当编码时,网络的参数结构将决定增加的程序复杂性程度,当解码时,它虽然也带来复杂性,但是比编码时小,因为在解码时不需要确定CU划分。
设计的该模型是一种确定的端到端的神经网络模型,输入和输出的序列长度均固定,并且输入输出序列长度有对应关系。在本实施例中,提出的基于CNN(卷积神经网络)的帧内预测网络结构如图4所示,包含N个2D卷积层(Con)的网络,每个2D卷积层除了最后一层之外具有ReLU激活函数,卷积层的数量N根据网络实际训练情况拟定。在一具体实施例中,拟定的三层卷积网络参数如下:网络输入是维度为m×m×n的参考块,其中m是当前编码块的大小,n是参考块的数量;在第一卷积层过滤器的数量为256,大小为5×5,步长为1,填充为2;在第二卷积层中,滤波器的数量为128,大小为1×1,步长为1,没有填充;在第三层的卷积层中,滤波器的数量为64,大小为3×3,并且一个步长为1,填充为1;其中,在所有卷积层中,输入均被填充,使得每层输出的特征具有与输入相同的大小;最后,网络的输出即是预测的当前编码块。
A4:输入EPFL全光图像数据集在HM编码平台上进行编码,得到编码好的图像,然后将编码好的图像最为输入,原始图像作为输出,从而得到深度学习网络的训练集。最后进行模型的训练,实现利用已编码的图像对未编码的全光图像的准确预测,过程如图5所示,将编码好的参考块作为输出,原始图像作为输出标签,进行模型训练得到训练好的模型。通过训练好的模型即可对全光图像进行自适应卷积编码。
进一步地,将基于深度学习的输出预测(也即基于深度学习的全光图像预测网络模型)作为一种帧内预测模式嵌入到HM编码平台,使其成为一种与HM编码其他的三十五种并行的一种帧内预测模式,完成模型嵌入工作之后,完成算法测试及性能分析。使得全光图像的压缩编码的效率进一步得到提高。
本发明优选实施例针对由微透镜图像构成的原始全光图像,将全光图像的结构和压缩工具HM编码平台结合起来,提出了面向全光图像的一种基于深度的全光图像自适应卷积编码方法,利用全光图像的特有宏像素结构结合深度信息,设计基于深度学习的预测模型以提高全光图像的编码效率;也即从全光图像的结构特点出发,利用全光图像的深度信息准确地提取图像成像响应以选择编码过程中的参考块,并基于此训练适用于全光图像结构的基于深度学习的预测模型,然后,将该基于深度学习的输出预测作为一种帧内预测模式,嵌入到HM原有的帧内预测模式中,从而实现全光图像高效的压缩编码,对全光图像压缩的研究具有重大意义。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (9)

1.一种基于深度的全光图像自适应卷积编码方法,其特征在于,包括以下步骤:
A1:将全光图像中宏像素结构与基于块的图像/视频编码标准的编码单元网格对齐;
A2:计算全光图像的深度信息,并根据深度信息体现的图像成像响应选择编码过程中需要的参考块;
A3:根据选择的参考块与当前编码块的关系,设计一种端到端的基于深度的全光图像预测网络模型;
A4:选取训练集,对步骤A3设计的全光图像预测网络模型进行模型的训练,实现利用已编码的全光图像对未编码全光图像的准确预测;
其中,步骤A2具体包括:
计算全光图像的深度信息,并根据深度信息选择参考块,使用双平面参数化,L(x,y,u,v)表示当前聚焦平面,其中(x,y)是3D空间中的物点的空间坐标,(u,v)是3D空间中的物点的发出光线方向的角度坐标;对于3D空间中的物点,即对于给定物距,其图像响应的分布随着相机的焦距而变化:
Figure FDA0002716298340000011
其中,Lα(x′,y′,u,v)是在深度为α的新聚焦平面,α是新聚焦平面Lα(x′,y′,u,v)和当前聚焦平面L(x,y,u,v)的相关深度;
利用
Figure FDA0002716298340000012
可以计算出,当α大于或者小于1时,物点的成像响应发散到周围的宏像素的位置(x′,y′),作为选择参考块的依据,其中所选择的参考块是帧内预测的参考块。
2.根据权利要求1所述的全光图像自适应卷积编码方法,其特征在于,步骤A4中的选取训练集具体包括:输入全光图像数据集在HM编码平台上进行编码,将编码结果中已编码的图像作为输入,输入的原始全光图像作为输出,得到选取的全光图像预测网络模型的训练集。
3.根据权利要求2所述的全光图像自适应卷积编码方法,其特征在于,步骤A4还包括将基于深度的全光图像预测网络模型作为一种帧内预测模式嵌入到HM编码平台,然后采用该HM编码平台对全光图像进行自适应卷积编码。
4.根据权利要求1所述的全光图像自适应卷积编码方法,其特征在于,步骤A1具体包括:采用全光数据规则化算法将全光图像中宏像素结构与基于块的图像/视频编码标准的编码单元网络对齐。
5.根据权利要求1所述的全光图像自适应卷积编码方法,其特征在于,步骤A2中根据深度信息体现的图像成像响应选择编码过程中需要的参考块具体包括确定参考块的数量和位置。
6.根据权利要求5所述的全光图像自适应卷积编码方法,其特征在于,深度α取值在[0.5,1.5]范围内。
7.根据权利要求1所述的全光图像自适应卷积编码方法,其特征在于,步骤A3中设计的端到端的基于深度的全光图像预测网络模型需满足:输出的预测块大小与当前编码块大小一致。
8.根据权利要求1所述的全光图像自适应卷积编码方法,其特征在于,步骤A3中设计的端到端的基于深度的全光图像预测网络模型需满足:输入和输出的序列长度均固定,且输入和输出序列长度有对应关系。
9.根据权利要求1所述的全光图像自适应卷积编码方法,其特征在于,步骤A3中设计的端到端的基于深度的全光图像预测网络模型包括N个2D卷积层的网络,其中除了最后一层之外的每个2D卷积层均具有ReLU激活函数,N为正整数。
CN201910272902.3A 2019-04-04 2019-04-04 一种基于深度的全光图像自适应卷积编码方法 Active CN109996067B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910272902.3A CN109996067B (zh) 2019-04-04 2019-04-04 一种基于深度的全光图像自适应卷积编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910272902.3A CN109996067B (zh) 2019-04-04 2019-04-04 一种基于深度的全光图像自适应卷积编码方法

Publications (2)

Publication Number Publication Date
CN109996067A CN109996067A (zh) 2019-07-09
CN109996067B true CN109996067B (zh) 2021-02-02

Family

ID=67130890

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910272902.3A Active CN109996067B (zh) 2019-04-04 2019-04-04 一种基于深度的全光图像自适应卷积编码方法

Country Status (1)

Country Link
CN (1) CN109996067B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116016952B (zh) * 2022-12-20 2024-05-14 维悟光子(北京)科技有限公司 用于光学成像系统的图像编解码模型的训练方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015106031A2 (en) * 2014-01-10 2015-07-16 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3d imaging systems
CN106375766A (zh) * 2016-09-08 2017-02-01 电子科技大学 一种光场图像压缩方法
WO2017068022A1 (en) * 2015-10-21 2017-04-27 Thomson Licensing Method for encoding and method for decoding a light field based image and corresponding devices
US10003806B2 (en) * 2015-02-16 2018-06-19 Canon Kabushiki Kaisha Optimized plenoptic image encoding

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107027025B (zh) * 2017-03-28 2019-06-28 清华大学深圳研究生院 一种基于宏像素块自适应预测的光场图像压缩方法
CN107135393B (zh) * 2017-05-03 2020-11-06 北京航空航天大学 一种光场图像的压缩方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015106031A2 (en) * 2014-01-10 2015-07-16 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3d imaging systems
US10003806B2 (en) * 2015-02-16 2018-06-19 Canon Kabushiki Kaisha Optimized plenoptic image encoding
WO2017068022A1 (en) * 2015-10-21 2017-04-27 Thomson Licensing Method for encoding and method for decoding a light field based image and corresponding devices
CN106375766A (zh) * 2016-09-08 2017-02-01 电子科技大学 一种光场图像压缩方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Depth estimation by analyzing intensity distribution for light-field cameras;Yatong Xu等;《 2015 IEEE International Conference on Image Processing (ICIP)》;20151210;全文 *
Light Field Image Compression Based on Convolutional Neural Networks and Linear Approximation;Nader Bakir等;《 2018 25th IEEE International Conference on Image Processing (ICIP)》;20181206;全文 *
Light Field Image Compression Based on Deep Learning;Zhenghui Zhao;《2018 IEEE International Conference on Multimedia and Expo (ICME)》;20181011;全文 *
Macro-Pixel Prediction Based on Convolutional Neural Networks for Lossless Compression of Light Field Images;Ionut Schiopu;《 2018 25th IEEE International Conference on Image Processing (ICIP)》;20181206;全文 *
Plenoptic Image Coding Using Macropixel-Based Intra Prediction;Xin Jin;《IEEE Transactions on Image Processing》;20180302;全文 *
基于多视点伪序列的光场图像压缩;马晓辉等;《信号处理》;20190331;全文 *

Also Published As

Publication number Publication date
CN109996067A (zh) 2019-07-09

Similar Documents

Publication Publication Date Title
Liu et al. Learned video compression via joint spatial-temporal correlation exploration
US10652577B2 (en) Method and apparatus for encoding and decoding light field based image, and corresponding computer program product
CN107027025B (zh) 一种基于宏像素块自适应预测的光场图像压缩方法
US10536718B2 (en) Method and device for encoding and decoding a light field based image, and corresponding computer program product
CN104704819B (zh) 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置
US10785502B2 (en) Method and apparatus for encoding and decoding a light field based image, and corresponding computer program product
CN106134191A (zh) 用于低延迟亮度补偿处理以及基于深度查找表的编码的方法
WO2023134482A1 (zh) 图像处理方法、智能终端及存储介质
CN102291579B (zh) 一种快速的多目立体视频分形压缩与解压缩方法
CN104662910A (zh) 3d视频编码中的虚拟深度值的方法和装置
Jin et al. Plenoptic image coding using macropixel-based intra prediction
CN106375766A (zh) 一种光场图像压缩方法
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
CN104202612A (zh) 基于四叉树约束的编码单元的划分方法及视频编码方法
CN109996067B (zh) 一种基于深度的全光图像自适应卷积编码方法
CN106791869B (zh) 基于光场子孔径图像相对位置关系的快速运动搜索方法
CN111416983B (zh) 基于成像相关的多焦距光场视频帧内预测方法和装置
Zhao et al. Light field image compression via CNN-based EPI super-resolution and decoder-side quality enhancement
CN110191344B (zh) 一种光场图像智能编码方法
CN106961605B (zh) 一种基于宏像素边界匹配的光场图像压缩方法
CN114584776A (zh) 帧内预测模式的译码方法和装置
CN107135393B (zh) 一种光场图像的压缩方法
Xiang et al. Auto-regressive model based error concealment scheme for stereoscopic video coding
CN105122808A (zh) 用于三维及多视图视频编码的视差向量推导的方法及装置
CN105359529B (zh) 用于三维或多视图视频编码的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant