CN103716641B - 预测图像生成方法和装置 - Google Patents

预测图像生成方法和装置 Download PDF

Info

Publication number
CN103716641B
CN103716641B CN201210376819.9A CN201210376819A CN103716641B CN 103716641 B CN103716641 B CN 103716641B CN 201210376819 A CN201210376819 A CN 201210376819A CN 103716641 B CN103716641 B CN 103716641B
Authority
CN
China
Prior art keywords
value
pixels
coordinate
pixel
boundary value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210376819.9A
Other languages
English (en)
Other versions
CN103716641A (zh
Inventor
虞露
张熠辰
赵寅
洪英杰
李明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Zhejiang University ZJU
Original Assignee
ZTE Corp
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp, Zhejiang University ZJU filed Critical ZTE Corp
Priority to CN201210376819.9A priority Critical patent/CN103716641B/zh
Priority to PCT/CN2013/083084 priority patent/WO2014048242A1/zh
Priority to US14/441,445 priority patent/US10154282B2/en
Priority to EP13841502.1A priority patent/EP2903283B1/en
Publication of CN103716641A publication Critical patent/CN103716641A/zh
Priority to US16/168,289 priority patent/US10708619B2/en
Application granted granted Critical
Publication of CN103716641B publication Critical patent/CN103716641B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种预测图像生成方法和装置,其中,该方法包括:根据参数信息确定参考矩形像素块,其中,参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;通过参考视点的深度信息将参考矩形像素块向目标视点进行前向投影得到投影矩形像素块;从投影矩形像素块中获取预测图像。本发明解决了现有技术中在生成预测图像的过程中需要同时用到目标视点的深度图像和参考视点的深度图像而造成的对数据的依赖性较大的技术问题,达到了减少对数据的依赖和提高编解码效率的技术效果。

Description

预测图像生成方法和装置
技术领域
本发明涉及通信领域,具体而言,涉及一种预测图像生成方法和装置。
背景技术
图像预测,是指在视频编/解码过程中,通过运动矢量、参考帧索引等信息,从已经编/解码完成的图像中直接拷贝或者通过亚像素插值等方法获取部分图像,作为当前编/解码图像块的预测图像。在编码端,将该预测图像与原始图像相减,可以得到图像残差并编码写入码流;在解码端,将该预测图像与码流中解码得到的图像残差相加,可以得到重建图像,通过这种预测图像的方式进行编解码可以有效提升编解码的效率。
目前,常用的生成预测图像的方式是采用前向投影的方式,即指利用参考视点中的每个像素点或者每个像素块的深度信息,将参考视点的图像投影至目标视点得到目标视点的图像。目前,常用的基于块的前向投影一般都是按照以下方式实现:
为了在目标视点中生成一个目标像素块Bt,在参考视点中用于生成Bt的参考像素块Br的大小以及位置是由Bt的大小、位置以及Bt中各像素点对应的深度值决定的,即,在该方法中需要通过目标视点的深度信息来确定参考像素块。
在上述方法中,通过统计Bt中各像素点对应的视差值中的最大值Dmax与最小值Dmin其中,视差值由各像素点对应的深度值转换而来,将Bt的左边界减去Dmax,Bt的右边界减去Dmin,保持上下边界不变,得到一组新的边界值,将该新的边界值作为Br的边界。将Br投影至目标视点并填充Bt内未被投影到的像素点,得到被投影的Bt,并将Bt作为预测图像,在投影的过程中需要用到参考视点的深度信息,从而生成所需的预测图像。
上述的空洞填充就是在图像中物体的边界区域等深度变化的地方,经过虚拟视投影以后会出现空洞。被投影视点的图像投影至目标视点以后,目标视点中未被投影到的单个点或者连续的点段被称为空洞。空洞的出现与深度、纹理的采样率有关,同时也是由于三维场景中物体的遮挡关系引起的。处于物体背后的场景在拍摄时无法被获取,经过投影以后就无法复现原本位于物体背后的图像。出现空洞时,需要采用空洞填充技术将整幅投影后的图像填充完整。空洞填充的方法通常是取空洞两侧的两个已投影像素中属于背景区域(基于两个像素的相对前景和背景之间的关系)的像素值填充整个空洞;若空洞只有一侧有已投影像素(一般出现在图像边界上),则取这一仅有的已投影像素填充整个空洞。上述仅是空洞填充技术的一种方式,还可以采用其它多种方式实现。
由上述描述可知,现有技术中在进行前向投影时,需要利用参考视点的深度信息确定参考像素块,在进行投影时又需要用到目标视点的深度信息,因此,在生成预测图像的过程中需要同时用到目标视点的深度信息和参考视点的深度信息,对数据的依赖性比较大。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明提供了一种预测图像生成方法和装置,以至少解决现有技术中在生成预测图像的过程中需要同时用到目标视点的深度信息和参考视点的深度信息而造成的对数据的依赖性较大的技术问题。
根据本发明的一个方面,提供了一种预测图像生成方法,包括:根据参数信息确定参考矩形像素块,其中,上述参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;通过上述参考视点的深度信息将上述参考矩形像素块向目标视点进行前向投影得到投影矩形像素块;从上述投影矩形像素块中获取预测图像。
优选地,上述参考视点的深度信息包括以下至少之一:上述参考视点的深度图像、上述参考视点的摄像机参数信息。
优选地,当上述参数信息包括目标矩形像素块的位置时,根据参数信息确定参考矩形像素块包括:将上述目标矩形像素块的左边界值减去第一预定偏移值后的值作为上述参考矩形像素块的左边界值;将上述目标矩形像素块的右边界值减去第二预定偏移值后的值作为上述参考矩形像素块的右边界值;将上述目标矩形像素块的上边界值作为上述参考矩形像素块的上边界值;将上述目标矩形像素块的下边界值作为上述参考矩形像素块的下边界值;将确定的参考矩形像素块的左边界值、右边界值、上边界值以及下边界值作为上述参考矩形像素块的边界信息以在参考视点中确定上述参考矩形像素块。
优选地,上述第一预定偏移值与上述第二预定偏移值是预先设定的一个不为0的数值。
优选地,当上述参数信息包括目标矩形像素块的位置和参考视点的深度信息时,根据参数信息确定参考矩形像素块包括:根据上述目标矩形像素块的位置确定上述参考矩形像素块的第一组边界值;根据上述参考视点的深度信息对上述第一组边界值进行更新,将更新后得到的结果作为上述参考矩形像素块的第二组边界值,其中,上述第二组边界值对应的参考矩形像素块的面积小于上述第一组边界值对应的参考矩形像素块的面积;根据上述第二组边界值在参考视点中确定上述参考矩形像素块。
优选地,根据上述目标矩形像素块的位置确定上述参考矩形像素块的第一组边界值包括:将上述目标矩形像素块的左边界值减去第三预定偏移值后的值作为上述参考矩形像素块的上述第一组边界值中的左边界值;将上述目标矩形像素块的右边界值减去第四预定偏移值后的值作为上述参考矩形像素块的上述第一组边界值中的右边界值;将上述目标矩形像素块的上边界值作为上述第一组边界值中的上边界值;将上述目标矩形像素块的下边界值作为上述第一组边界值中的下边界值。
优选地,上述第三预定偏移值与上述第四预定偏移值是预先设定的一个不为0的数值。
优选地,上述第三预定偏移值包括:上述参考视点与上述目标视点之间的最大视差值,上述第四预定偏移值包括:上述参考视点与目标视点之间的最小视差值。
优选地,根据上述参考视点的深度信息对上述第一组边界值进行更新包括:根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定一个或多个边界范围值,其中,上述边界范围值包括左边界范围值和/或右边界范围值;根据确定的一个或多个边界范围值对上述第一组边界值进行更新。
优选地,根据确定的一个或多个边界范围值对上述第一组边界值进行更新包括:从一个或多个左边界范围值中选择一个作为上述第一组边界值中的左边界值,其中,上述左边界范围值为上述目标矩形像素块左边界上的像素点对应的边界范围值;和/或从一个或多个右边界范围值中选择一个作为上述第一组边界值中的右边界值,其中,上述右边界范围值为上述目标矩形像素块右边界上的像素点对应的边界范围值。
优选地,根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定一个或多个左边界范围值的步骤包括:从上述目标矩形像素块的左边界上选择一个像素点作为第一像素点;将上述第一组边界值中的左边界值作为第一像素点对应的左边界范围值;将上述第一像素点的坐标偏移一个默认视差后得到的第一坐标作为上述参考视点中的第二坐标;根据上述第二坐标在上述参考视点中所对应的像素点的深度信息确定上述第二坐标所对应的像素点在上述目标视点中的第一投影坐标;当上述第一投影坐标的水平分量小于等于上述第一组边界值中的左边界值时,更新上述第一像素点对应的左边界范围值为上述第二坐标的水平分量;和/或根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定一个或多个右边界范围值包括:从上述目标矩形像素块的右边界上选择一个像素点作为第二像素点;将上述第一组边界值中的右边界值作为上述第二像素点对应的右边界范围值;将上述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为上述参考视点中的第四坐标;根据上述第四坐标在上述参考视点中所对应的像素点的深度信息确定上述第四坐标所对应的像素点在上述目标视点中的第二投影坐标;当上述第二投影坐标的水平分量大于等于上述第一组边界值中的右边界值时,更新上述第二像素点对应的右边界范围值为上述第四坐标的水平分量。
优选地,上述默认视差是上述参考视点与上述目标视点之间的一个深度值所对应的视差值。
优选地,在判断不满足上述第一投影坐标的水平分量小于等于上述第一组边界值中的左边界值的条件,或者更新上述第一像素点对应的左边界范围值为上述第二坐标的水平分量之后,上述方法还包括:对上述第一像素点对应的左边界范围值进行更新;和/或在判断不满足上述第二投影坐标的水平分量大于等于上述第一组边界值中的右边界值的条件,或者更新上述第二像素点对应的右边界范围值为上述第四坐标的水平分量之后,上述方法还包括:对上述第二像素点对应的右边界范围值进行更新。
优选地,对上述第一像素点对应的左边界范围值进行更新包括:将上述第二坐标更新为当前第二坐标偏移第五预定偏移值之后的坐标;根据当前上述第二坐标在上述参考视点中所对应的像素点的深度信息确定当前上述第二坐标所对应的像素点在上述目标视点中的第三投影坐标;当上述第三投影坐标的水平分量小于等于上述第一组边界值中的左边界值,且当前上述第二坐标的水平分量大于当前上述第一像素点对应的左边界范围值时,更新上述第一像素点对应的左边界范围值为当前的上述第二坐标的水平分量;和/或对上述第二像素点对应的右边界范围值进行更新包括:将上述第四坐标更新为当前第四坐标偏移第六预定偏移值之后的坐标;根据当前上述第四坐标在上述参考视点中所对应的像素点的深度信息确定当前上述第四坐标所对应的像素点在上述目标视点中的第四投影坐标;当上述第四投影坐标的水平分量大于等于上述第一组边界值中的右边界值,且当前上述第四坐标的水平分量大于当前上述第二像素点对应的右边界范围值时,更新上述第二像素点对应的右边界范围值为当前的上述第四坐标的水平分量。
优选地,重复执行预定次数遍对上述第一像素点对应的左边界范围值进行更新的步骤,和/或,重复执行预定次数遍对上述第二像素点对应的左边界范围值进行更新的步骤。
优选地,上述第五预定偏移值是由上述第一像素点坐标的水平分量和上述第二坐标所对应的像素点在上述目标视点中的投影坐标的水平分量之间的差值确定的,和/或,上述述第六预定偏移值是由上述第二像素点坐标的水平分量和上述第二坐标所对应的像素点在上述目标视点中的投影坐标的水平分量之间的差值确定的。
优选地,根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定多个左边界范围值包括:采用并行方式根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定多个左边界范围值;和/或根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定多个右边界范围值包括:采用并行方式根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定多个右边界范围值。
优选地,根据确定的一个或多个边界范围值对上述第一组边界值进行更新包括:将上述第一组边界值中的左边界值更新为上述的一个或多个左边界范围值中的最大值或最小值或中值;和/或将上述第一组边界值中的右边界值更新为上述的一个或多个右边界范围值中的最大值或最小值或中值。
优选地,上述方法应用于3D图像编解码技术中。
根据本发明的一个方面,提供了一种预测图像生成装置,包括:参考矩形像素块确定模块,用于根据参数信息确定参考矩形像素块,其中,上述参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;投影模块,用于通过上述参考视点的深度信息将上述参考矩形像素块向目标视点进行前向投影得到投影矩形像素块;预测图像获取模块,用于从上述投影矩形像素块中获取预测图像。
优选地,上述参考矩形像素块确定模块包括:第一确定单元,用于当上述参数信息包括目标矩形像素块的位置和参考视点的深度信息时,根据上述目标矩形像素块的位置确定上述参考矩形像素块的第一组边界值;更新单元,用于根据上述参考视点的深度信息对上述第一组边界值进行更新,将更新后得到的结果作为上述参考矩形像素块的第二组边界值,其中,上述第二组边界值对应的参考矩形像素块的面积小于上述第一组边界值对应的参考矩形像素块的面积;第二确定单元,用于根据上述第二组边界值在参考视点中确定上述参考矩形像素块。
优选地,上述第一确定单元包括:左边界值确定子单元,用于将上述目标矩形像素块的左边界值减去第三预定偏移值后的值作为上述参考矩形像素块的上述第一组边界值中的左边界值;右边界值确定子单元,用于将上述目标矩形像素块的右边界值减去第四预定偏移值后的值作为上述参考矩形像素块的上述第一组边界值中的右边界值;上边界值确定子单元,用于将上述目标矩形像素块的上边界值作为上述第一组边界值中的上边界值;下边界值确定子单元,用于将上述目标矩形像素块的下边界值作为上述第一组边界值中的下边界值。
优选地,上述更新单元包括:边界范围值确定子单元,用于根据上述目标矩形像素块边界上的一个或多个像素点的位置信息和上述参考视点的深度信息确定一个或多个边界范围值,其中,上述边界范围值包括左边界范围值和/或右边界范围值;更新子单元,用于根据确定的一个或多个边界范围值对上述第一组边界值进行更新。
优选地,上述边界范围值确定子单元还用于按照以下方式确定一个或多个左边界范围值:从上述目标矩形像素块的左边界上选择一个像素点作为第一像素点;将上述第一组边界值中的左边界值作为第一像素点对应的左边界范围值;将上述第一像素点的坐标偏移一个默认视差后得到的第一坐标作为上述参考视点中的第二坐标;根据上述第二坐标在上述参考视点中所对应的像素点的深度信息确定上述第二坐标所对应的像素点在上述目标视点中的第一投影坐标;当上述第一投影坐标的水平分量小于等于上述第一组边界值中的左边界值时,更新上述第一像素点对应的左边界范围值为上述第二坐标的水平分量;和/或上述边界范围值确定子单元还用于按照以下方式确定一个或多个右边界范围值:从上述目标矩形像素块的右边界上选择一个像素点作为第二像素点;将上述第一组边界值中的右边界值作为上述第二像素点对应的右边界范围值;将上述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为上述参考视点中的第四坐标;根据上述第四坐标在上述参考视点中所对应的像素点的深度信息确定上述第四坐标所对应的像素点在上述目标视点中的第二投影坐标;当上述第二投影坐标的水平分量大于等于上述第一组边界值中的右边界值时,更新上述第二像素点对应的右边界范围值为上述第四坐标的水平分量。
在本发明中,提出了一种新的预测图像的生成方法,在生成参考矩形像素块时,仅需要采用目标矩形像素块的位置和/或参考视点的深度信息和/或目标视点的摄像机参数等信息,而并不需要通过目标视点的深度图像确定参考矩形像素块,在进行前向投影时同样通过参考视点的深度信息进行确定,在整个过程中都不需要知道目标视点的深度图像。通过上述方式解决了现有技术中在生成预测图像的过程中需要同时用到目标视点的深度图像和参考视点的深度图像而造成的对数据的依赖性较大的技术问题,达到了减少对数据的依赖和提高编解码效率的技术效果。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的预测图像生成方法的一种优选流程图;
图2是根据本发明实施例的预测图像生成方法的另一种优选流程图;
图3是根据本发明实施例的预测图像生成方法的又一种优选流程图;
图4是根据本发明实施例的预测图像生成方法的又一种优选流程图;
图5是根据本发明实施例的预测图像生成装置的一种优选结构框图;
图6是根据本发明实施例的预测图像生成装置的另一种优选结构框图;
图7是本发明实施例基于块的预测图像生成装置的一种优选示意图;
图8是本发明实施例6基于块的预测图像生成装置的一种优选示意图;
图9是本发明实施例7基于块的预测图像生成装置中的Bound计算模块的一种优选示意图;
图10是本发明实施例7基于块的预测图像生成装置的一种优选示意图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明实施例提供了一种优选的预测图像生成方法,如图1所示,包括以下步骤:
步骤S102:根据参数信息确定参考矩形像素块,其中,参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;
步骤S104:通过参考视点的深度信息将参考矩形像素块向目标视点进行前向投影得到投影矩形像素块;
步骤S106:从投影矩形像素块中获取预测图像。
在上述优选实施方式中,提出了一种新的预测图像的生成方法,在生成参考矩形像素块时,仅需要采用目标矩形像素块的位置和/或参考视点的深度信息和/或目标视点的摄像机参数等信息,而并不需要通过目标视点的深度图像确定参考矩形像素块,在进行前向投影时同样通过参考视点的深度信息进行确定,在整个过程中都不需要知道目标视点的深度图像。通过上述方式解决了现有技术中在生成预测图像的过程中需要同时用到目标视点的深度图像和参考视点的深度图像而造成的对数据的依赖性较大的技术问题,达到了减少对数据的依赖和提高编解码效率的技术效果。
在上述优选实施方式中,参考视点的深度信息可以包括但不限于以下至少之一:参考视点的深度图像、参考视点的摄像机参数信息。
在本实施例中提供了一种简单的确定参考矩形像素块的方法,在该方法中仅需要依据特定的偏移值和目标矩形像素块的边界值即可确定出一个参考矩形像素块。在一个优选实施方式中,当参数信息包括目标矩形像素块的位置时,根据参数信息确定参考矩形像素块包括以下步骤:
步骤S1:将目标矩形像素块的左边界值减去第一预定偏移值后的值作为参考矩形像素块的左边界值;
步骤S2:将目标矩形像素块的右边界值减去第二预定偏移值后的值作为参考矩形像素块的右边界值;
步骤S3:将目标矩形像素块的上边界值作为参考矩形像素块的上边界值;
步骤S4:将目标矩形像素块的下边界值作为参考矩形像素块的下边界值;
步骤S5:将确定的参考矩形像素块的左边界值、右边界值、上边界值以及下边界值作为参考矩形像素块的边界信息以在参考视点中确定参考矩形像素块。
对于上述的第一预定偏移值与第二预定偏移值是预先设定的一个不为0的数值,例如可以取100,200,150.5,-100,-200等等。
即,仅按照目标矩形像素块的边界值确定参考矩形像素块对应的边界值即可,实现起来较为简单,可以提高编解码的效率。
为了使得预测图像更为准确,本发明实施例还提供了较为精确的确定参考矩形像素块的方法,在该方法中需要用到参考视点的深度信息,具体的实现方法如图2所示,包括:
步骤S202:根据目标矩形像素块的位置确定参考矩形像素块的第一组边界值;
步骤S204:根据参考视点的深度信息对第一组边界值进行更新,将更新后得到的结果作为参考矩形像素块的第二组边界值,其中,第二组边界值对应的参考矩形像素块的面积小于第一组边界值对应的参考矩形像素块的面积;
步骤S206:根据第二组边界值在参考视点中确定参考矩形像素块。
即,通过参考视点的深度信息来对确定的参考矩形像素块进行调整,从而使得确定的编解码得到的图像更为精准。
在这个过程中可以将上述通过最简单的方法确定的参考矩形像素块作为调整的基础,即,按照上述的方式确定最基本的参考矩形像素块,将该最基本的参考矩形像素块的边界值作为第一组边界值。
然而,此时的第一预定偏移值可以是参考视点与目标视点之间的最大视差值,第二预定偏移值可以是参考视点与目标视点之间的最小视差值。
可以通过目标矩形像素块的左右边界上的像素点对第一组边界值进行调整。在一个优选实施方式中,根据参考视点的深度信息对第一组边界值进行更新包括:根据目标矩形像素块边界上的一个或多个像素点的位置信息和参考视点的深度信息确定一个或多个边界范围值,其中,边界范围值包括左边界范围值和/或右边界范围值;根据确定的一个或多个边界范围值对第一组边界值进行更新。即,可以选取目标矩形像素块边界上的多个点,然后为每个选取的边界上的点确定一个边界范围值,从中选择对第一组边界值进行更新的边界范围值,例如可以从左边界像素点对应的边界范围值中选择一个更新第一组边界值中的左边界值,可以从右边界像素点对应的边界范围值中选择一个更新第一组边界值中的右边界值,从而实现对第一组边界值的更新。
在一个优选实施方式中,根据确定的一个或多个边界范围值对第一组边界值进行更新包括:从一个或多个左边界范围值中选择一个作为第一组边界值中的左边界值,其中,左边界范围值为目标矩形像素块左边界上的像素点对应的边界范围值;和/或从一个或多个右边界范围值中选择一个作为第一组边界值中的右边界值,其中,右边界范围值为目标矩形像素块右边界上的像素点对应的边界范围值。
本发明实施例还给出了如何确定边界上的像素点所对应的边界范围值的方法,以左边界为例进行说明,如图3所示,根据目标矩形像素块边界上的一个或多个像素点的位置信息和参考视点的深度信息确定一个或多个左边界范围值的步骤包括:
步骤S302:从目标矩形像素块的左边界上选择一个像素点作为第一像素点;
步骤S304:将第一组边界值中的左边界值作为第一像素点对应的左边界范围值;
步骤S306:将第一像素点的坐标偏移一个默认视差后得到的第一坐标作为参考视点中的第二坐标;
步骤S308:根据第二坐标在参考视点中所对应的像素点的深度信息确定第二坐标所对应的像素点在目标视点中的第一投影坐标;
步骤S310:当第一投影坐标的水平分量小于等于第一组边界值中的左边界值时,更新第一像素点对应的左边界范围值为第二坐标的水平分量;上述的默认视差可以是参考视点与目标视点之间的一个深度值所对应的视差值,例如可以是深度值128对应的视差值。
为了进一步更新上述的边界范围值,无论上述步骤中对边界范围值的更新是否成功,都可以再重复执行以下操作对边界范围值进行更新,从而使得像素点对应的边界范围值最终确定的参考矩形像素块尽可能的小,从而提高图像编解码的精确度,如图4所示,包括以下步骤:
步骤S402:将第二坐标更新为当前第二坐标偏移第三预定偏移值之后的坐标,其中,第三预定偏移值可以由第一像素点坐标的水平分量和第二坐标所对应的像素点在目标视点中的投影坐标的水平分量之间的差值确定;
步骤S404:根据当前第二坐标在参考视点中所对应的像素点的深度信息确定当前第二坐标所对应的像素点在目标视点中的第三投影坐标;
步骤S406:当第三投影坐标的水平分量小于等于第一组边界值中的左边界值,且当前第二坐标的水平分量大于当前第一像素点对应的左边界范围值时,更新第一像素点对应的左边界范围值为当前的第二坐标的水平分量。
上述步骤S402至S406可以重复执行,即可以重复执行预定次数遍对第一像素点对应的左边界范围值进行更新的步骤从而使得该像素对应的边界范围值更为精准。
如果需要同时对多个边界上的像素点进行边界范围值的获取,既可以采用串行的方式也可以采用并行的方式,相应的采用串行的方式仅需要划分一个处理模块即可,如果采用并行的方式相应的就需要在系统中同时存在多个用于生成边界范围值的模块,便可以同时对多个边界像素点进行处理。
对于上述的根据确定的一个或多个边界范围值对第一组边界值进行更新可以包括:
将第一组边界值中的左边界值更新为的一个或多个左边界范围值中的最大值或最小值或者是大小位于最中间的那个数值。
以上描述主要是基于左边界进行描述的,优选地,右边界上像素点对应的范围值的确定方式与上述左边界上像素点对应的范围值的确定方式是相同的,在此不再赘述。
上述各个优选实施方式中所涉及的预测图像的获取方法可以应用于3D图像编解码技术中。
在本实施例中还提供了一种预测图像生成装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。图5是根据本发明实施例的预测图像生成装置的一种优选结构框图,如图5所示,包括:参考矩形像素块确定模块502和投影模块504、以及预测图像获取模块506,下面对该结构进行说明。
1)参考矩形像素块确定模块502,用于根据参数信息确定参考矩形像素块,其中,参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;
2)投影模块504,用于通过参考视点的深度信息将参考矩形像素块向目标视点进行前向投影得到投影矩形像素块;
3)预测图像获取模块506,用于从投影矩形像素块中获取预测图像。
在一个优选实施方式中,如图6所示,参考矩形像素块确定模块包括:第一确定单元602,用于当参数信息包括目标矩形像素块的位置和参考视点的深度信息时,根据目标矩形像素块的位置确定参考矩形像素块的第一组边界值;更新单元604,用于根据参考视点的深度信息对第一组边界值进行更新,将更新后得到的结果作为参考矩形像素块的第二组边界值,其中,第二组边界值对应的参考矩形像素块的面积小于第一组边界值对应的参考矩形像素块的面积;第二确定单元606,用于根据第二组边界值在参考视点中确定参考矩形像素块。
在一个优选实施方式中,第一确定单元包括:左边界值确定子单元,用于将目标矩形像素块的左边界值减去第三预定偏移值后的值作为参考矩形像素块的第一组边界值中的左边界值;右边界值确定子单元,用于将目标矩形像素块的右边界值减去第四预定偏移值后的值作为参考矩形像素块的第一组边界值中的右边界值;上边界值确定子单元,用于将目标矩形像素块的上边界值作为第一组边界值中的上边界值;下边界值确定子单元,用于将目标矩形像素块的下边界值作为第一组边界值中的下边界值。
在一个优选实施方式中,更新单元包括:边界范围值确定子单元,用于根据目标矩形像素块边界上的一个或多个像素点的位置信息和参考视点的深度信息确定一个或多个边界范围值,其中,边界范围值包括左边界范围值和/或右边界范围值;更新子单元,用于根据确定的一个或多个边界范围值对第一组边界值进行更新。
为了使得本发明的目的、技术方案和优点更加清楚,下面将结合几个具体的实施例对本发明进行进一步的详细描述,然而值得注意的是这些优选的实施例仅是为了更好地说明本发明,并不构成对本发明的不当限定。
首先,对下述实施例可能用到的几个名词进行说明。
1)根据投影关系计算投影坐标:例如,现在有一个参考视点中的一个像素点pA以及该像素点对应的深度值,为了计算pA在另一个目标视点中的投影坐标ppA’,可以利用pA在参考视点中的位置信息、pA对应的深度信息以及两个视点(参考视点与目标视点)的摄像机参数等信息,根据pA在空间中的位置等信息计算得到投影至目标视点中的投影坐标。投影坐标的值通常是经过量化的,即投影坐标的值一般可以表示为1/t的整数倍。
2)深度值:一个像素点对应的深度值表示的可以是该点对应的物理空间中物体上的那一点与摄像机之间的距离,也可以是经过转换后的中间参数,如该像素点相对于一个视点的视差值(disparity)、深度级(depth level)等。
其中,视差值(disparity)一般可以通过如下公式转换得到:
其中,disp表示视差,f表示摄像机焦距,z表示图像中像素点对应的点与摄像机的真实距离,(tv-tr)表示两台摄像机(视点)之间的平移关系,(cv-cr)表示两台摄像机(视点)之间基准点位置的差值。
深度级(depth level)一般可以通过如下公式转换得到:
其中,d表示深度级,z表示图像中像素点对应的点与摄像机的真实距离,znear,zfar分别表示当前图像中z的最大最小值,bitdepth表示深度级的数据位宽。
对两个视点来说(参考视点与目标视点),视差值的最大值MaxDisparity与最小值MinDisparity为:以深度级的数值范围为0-255为例,MaxDisparity为深度级从0至255对应的所有视差值中的最大值,MinDisparity为深度级从0至255对应的所有视差值中的最小值。
3)像素点,一个像素点包含它的像素值、以及其对应的坐标等信息。
4)矩形像素块,一个M*N大小的矩形像素块的左上角的像素点的坐标值为(XTL,YTL),则矩形像素块内所有像素点的坐标值可以表示为(XTL+i,YTL+j),其中0≤i<M,0≤j<N。
一个矩形像素块的位置可以由该矩形像素块上下左右四个侧面的边界所在的位置所决定。矩形像素块的上边界值为该块中最上侧的像素点的竖直方向坐标值,矩形像素块的下边界值为该块中最下侧的像素点的竖直方向坐标值,矩形像素块的左边界值为该块中最左侧的像素点的水平方向坐标值,矩形像素块的右边界值为该块中最右侧的像素点的水平方向坐标值。
下面结合几个具体的实施例进行描述:
实施例1
本实施例提供了一种基于块的预测图像生成方法,由目标视点中目标矩形像素块Bt的位置以及参考视点中的深度信息,在参考视点中确定参考矩形像素块Br并利用参考视点的深度信息将Br向目标视点进行前向投影,从投影得到的投影矩形像素块Bs中获取预测图像。
其中,Br中投影至目标视点的至少一个像素点落在Bt内。
Br的左边界值BrLeft赋值为Bt的左边界BtLeft偏移ShiftValueLeft后的值,即BrLeft=BtLeft-ShiftValueLeft;Br的右边界BrRight值赋值为Bt的右边界BtRight偏移ShiftValueRight后的位置,即BrRight=BtRight-ShiftValueRight;Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值。
在确定Br的边界范围以后,利用参考视点的深度信息将参考视点中的Br向目标视点进行前向投影,从投影得到的投影矩形像素块Bs中获取预测图像,预测图像小于等于Bs。
当预测图像小于Bs时,根据预测图像所在位置,从Bs中截取相应位置的像素点形成预测图像。
优选地,上述的变量ShiftValueLeft可以取100,200,150.5,-100,-200等值;上述的变量ShiftValueRight也可以取100,200,150.5,-100,-200等值。
实施例2
在本实施例中提供了一种基于块的预测图像生成方法,由目标视点中目标矩形像素块Bt的位置以及参考视点中的深度信息,在参考视点中确定参考矩形像素块Br并利用参考视点的深度信息将Br向目标视点进行前向投影,从投影得到的投影矩形像素块Bs中获取预测图像。
其中,Br中投影至目标视点的至少一个像素点落在Bt内。
其中,Br的左边界值BrLeft赋值为Bt的左边界值偏移MaxDisparity后的值,Br的右边界值BrRight为Bt的右边界值偏移MinDisparity后的值,Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值。优选地,MaxDisparity与MinDisparity分别为参考视点与目标视点之间的最大视差值与最小视差值。
Br的左边界值BrLeft赋值为Bt的左边界BtLeft偏移MaxDisparity后的值,即BrLeft=BtLeft-MaxDisparity;Br的右边界BrRight值赋值为Bt的右边界BtRight偏移MinDisparity后的位置,即BrRight=BtRight-MinDisparity;Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值其中MaxDisparity与MinDisparity分别为参考视点与目标视点之间的最大视差值与最小视差值。
在确定Br的边界范围以后,利用参考视点的深度信息将参考视点中的Br向目标视点进行前向投影,从投影得到的投影矩形像素块Bs中获取预测图像,预测图像小于等于Bs。当预测图像小于Bs时,根据预测图像所在位置,从Bs中截取相应位置的像素点形成预测图像。
实施例3
本实施例提供了一种基于块的预测图像生成方法,由目标视点中目标矩形像素块Bt的位置以及参考视点中的深度信息,在参考视点中确定参考矩形像素块Br并利用参考视点的深度信息将Br向目标视点进行前向投影,从投影得到的投影矩形像素块Bs中获取预测图像。
Br的左边界值BrLeft赋值为Bt的左边界BtLeft偏移MaxDisparity后的值,即BrLeft=BtLeft-MaxDisparity;Br的右边界BrRight值赋值为Bt的右边界BtRight偏移MinDisparity后的位置,即BrRight=BtRight-MinDisparity;Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值。优选地,MaxDisparity与MinDisparity分别为参考视点与目标视点之间的最大视差值与最小视差值。
在由目标视点中目标矩形像素块Bt的位置以及参考视点中的深度信息,在参考视点中确定参考矩形像素块Br的过程中,对目标矩形像素块Bt左右边界上的像素点中的至少一个像素点PBt进行以下操作:
1)初始化:若PBt位于Bt的左边界上,DirSign赋值为一负数,如DirSign=-1,Bound赋值为参考矩形像素块Br的左边界值BrLeft,即Bound=BrLeft;否则,DirSign赋值为一正数,如DirSign=1,Bound赋值为Br的右边界值BrRight,即Bound=BrRight。
2)①初始化Cr:坐标Cr等于PBt的坐标在水平方向偏移一个默认视差DefaultDisp后的坐标,记PBt的坐标值为(XPBt,YPBt),Cr的坐标值为(XCr,YCr),则XCr=XPBt–DefaultDisp,YCr=YPBt,其中,DefaultDisp的取值可以是参考视点与目标视点之间当深度值为128或其他深度值时对应的视差值。
②更新Bound:将位于Cr的像素点PCr结合PCr对应的深度信息根据投影关系计算PCr在目标视点中的投影坐标Ct,即Ct的坐标值为(XCt,YCt),若Ct与PBt的水平坐标差值与DirSign的乘积(XCt-XPBt)*DirSign≥0,则将Bound更新为Cr的水平坐标值,即Bound=XCr;3)重复非负整数遍以下步骤,即可以不执行也可以重复执行预定次数以下步骤:
①更新Cr:将Cr更新为Cr在水平方向偏移ShiftDisp后的坐标,即(XCr,YCr)=(XCr–ShiftDisp,YCr),其中,ShiftDisp的值由Ct与PBt的水平坐标差值决定,如ShiftDisp=a*(XCt-XPBt)+b,其中a与b均为实数,a的取值可以为1,-1,0,1.5,-1.5等,b的取值可以为1,-1,0等;
②更新Bound:将位于Cr的像素点PCr结合PCr对应的深度信息根据投影关系计算PCr在目标视点中的投影坐标Ct,即Ct的坐标值为(XCt,YCt),若Ct与PBt的水平坐标差值与DirSign的乘积(XCt-XPBt)*DirSign≥0,则将Bound更新为Cr的水平坐标值,即Bound=XCr;更新Br边界:当判断Bt左边界有像素点执行了上述操作之后,则从所有执行了上述操作的像素点对应的Bound值中选择一个用于更新BrLeft;优选地,可以记N个由Bt左边界上的像素点计算得到的Bound值为Bound(i),i=1,2,…,N,则BrLeft=Maximum(Bound(1),Bound(2),…,Bound(N)),或者BrLeft=Minimum(Bound(1),Bound(2),…,Bound(N)),或者BrLeft=Median(Bound(1),Bound(2),…,Bound(N));
若有Bt右边界上的像素点执行了上述操作,则从所有执行了上述操作的像素点对应的Bound值中选择一个用于更新BrRight;记M个由Bt右边界上的像素点计算得到的Bound值为Bound(j),i=1,2,…,M,则BrRight=Maximum(Bound(1),Bound(2),…,Bound(M)),或者BrRight=Minimum(Bound(1),Bound(2),…,Bound(M)),或者BrRight=Median(Bound(1),Bound(2),…,Bound(M));
其中,函数Maximum(x1,x2,…,xK)返回值是x1至xK这些数中的最大值,Minimum(x1,x2,…,xK)返回值是x1至xK这些数中的最小值,Median(x1,x2,…,xK)返回值是x1至xK这些数的处于最中间的数值。其中,BrLeft与BrRight分别为参考矩形像素块Br的左边界和右边界值。
在确定Br的边界范围以后,就可以利用参考视点的深度信息将参考视点中的Br向目标视点进行前向投影,从投影得到的投影矩形像素块Bs中获取预测图像,预测图像小于等于Bs,当预测图像小于Bs时,根据预测图像所在位置,从Bs中截取相应位置的像素点形成预测图像。
实施例4
本实施例提供了一种基于块的预测图像生成装置,如图7所示,包含参考矩形像素块确定模块、投影模块、预测图像获取模块。下面对这几个模块进行具体描述。
参考矩形像素块确定模块,输入为目标视点中目标矩形像素块Bt的位置、参考视点中的深度信息。在参考视点中确定参考矩形像素块Br,Br的左边界值BrLeft赋值为Bt的左边界BtLeft偏移ShiftValueLeft后的值,即BrLeft=BtLeft-ShiftValueLeft,Br的右边界BrRight值赋值为Bt的右边界BtRight偏移ShiftValueRight后的位置,即BrRight=BtRight-ShiftValueRight,Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值,将Br输出至投影模块。
优选地,上述的变量ShiftValueLeft可以取100,200,150.5,-100,-200等值;上述的变量ShiftValueRight也可以取100,200,150.5,-100,-200等值。
投影模块,输入为来自参考矩形像素块确定模块的参考矩形像素块Br、参考视点中的深度信息,用于利用参考视点的深度信息将Br向目标视点进行前向投影得到投影矩形像素块Bs,将Bs输出至预测图像获取模块。
预测图像获取模块,输入为预测图像的位置、来自投影模块的投影矩形像素块Bs,用于根据预测图像的位置从Bs中获取预测图像,其中,预测图像小于等于Bs,当预测图像小于Bs时,根据预测图像所在位置,从Bs中截取相应位置的像素点形成预测图像,输出预测图像。
实施例5
本实施例提供了一种基于块的预测图像生成装置包含参考矩形像素块确定模块、投影模块、预测图像获取模块:
参考矩形像素块确定模块,输入为目标视点中目标矩形像素块Bt的位置、参考视点中的深度信息。用于在参考视点中确定参考矩形像素块Br,Br的左边界值BrLeft赋值为Bt的左边界BtLeft偏移MaxDisparity后的值,即BrLeft=BtLeft-MaxDisparity;Br的右边界BrRight值赋值为Bt的右边界BtRight偏移MinDisparity后的位置,即BrRight=BtRight-MinDisparity;Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值,其中MaxDisparity与MinDisparity分别为参考视点与目标视点之间的最大视差值与最小视差值,将Br输出至投影模块。
投影模块,输入为来自参考矩形像素块确定模块的参考矩形像素块Br、参考视点中的深度信息,用于利用参考视点的深度信息将Br向目标视点进行前向投影得到投影矩形像素块Bs,将Bs输出至预测图像获取模块。
预测图像获取模块,输入为预测图像的位置、来自投影模块的投影矩形像素块Bs,用于根据预测图像的位置从Bs中获取预测图像,其中,预测图像小于等于Bs,当预测图像小于Bs时,根据预测图像所在位置从Bs中截取相应位置的像素点形成预测图像,输出预测图像。
实施例6
本实施例提供了一种基于块的预测图像生成装置,如图8所示,包含Br初始化模块、初始化模块、Cr初始化模块、Bound更新模块、Cr更新模块、Br边界更新模块、投影模块、预测图像获取模块:
Br初始化模块,输入为目标视点中目标矩形像素块Bt的位置、参考视点中的深度信息,用于在参考视点中确定参考矩形像素块Br,Br的左边界值BrLeft赋值为Bt的左边界BtLeft偏移MaxDisparity后的值,即BrLeft=BtLeft-MaxDisparity;Br的右边界BrRight值赋值为Bt的右边界BtRight偏移MinDisparity后的位置,即BrRight=BtRight-MinDisparity;Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值,其中MaxDisparity与MinDisparity分别为参考视点与目标视点之间的最大视差值与最小视差值,输出Br的位置至初始化模块、Br边界更新模块。
初始化模块,输入为像素点PBt,来自Br初始化模块的参考矩形像素块Br的位置。若PBt位于Bt的左边界上,DirSign赋值为一负数,如DirSign=-1,Bound0赋值为参考矩形像素块Br的左边界值BrLeft,即Bound0=BrLeft,否则DirSign赋值为一正数,如DirSign=1,Bound0赋值为Br的右边界值BrRight,即Bound0=BrRight,输出Bound0、DirSign至Bound更新模块。
Cr初始化模块,输入为像素点PBt、默认视差值DefaultDisp,坐标Cr0等于PBt的坐标在水平方向偏移DefaultDisp后的坐标,记PBt的坐标值为(XPBt,YPBt),Cr0的坐标值为(XCr0,YCr0),则XCr0=XPBt–DefaultDisp,YCr0=YPBt,其中DefaultDisp的取值可以为参考视点与目标视点之间当深度值为128或其他深度值时对应的视差值,输出Cr0至Bound更新模块。
Bound更新模块,输入为参考视点中的深度信息、像素点PBt、标志位Init、来自Cr初始化模块的坐标Cr0、来自初始化模块的DirSign、Bound0、来自Bound更新模块的Bound1、来自Cr更新模块的坐标Cr1;Cr的坐标值为(XCr,YCr),Cr1的坐标值为(XCr1,YCr1),当Init等于0时,将Bound赋值为Bound0,Cr赋值为Cr0,即Bound=Bound0,XCr=XCr0,YCr=YCr0,否则将Bound赋值为Bound1,Cr赋值为Cr1,即Bound=Bound1,XCr=XCr1,YCr=YCr1。其中,Init表示本模块是否已经接收过来自初始化模块与Cr初始化模块的数据,未接收时Init等于0,否则Init等于1;将位于Cr的像素点PCr结合PCr对应的深度信息根据投影关系计算PCr在目标视点中的投影坐标Ct,Ct的坐标值为(XCt,YCt),若Ct与PBt的水平坐标差值与DirSign的乘积(XCt-XPBt)*DirSign≥0,且当Init等于1时,还满足Cr的水平坐标值与Bound的差值与DirSign的乘积(XCr-Bound)*DirSign<0,则将Bound更新为Cr的水平坐标值,即Bound=XCr;将Bound1赋值为Bound(即Bound1=Bound)并输出至Bound更新模块、Br边界更新模块,将Cr2赋值为Cr(Cr2的坐标值为(XCr2,YCr2)=(XCr,YCr))并输出至Cr更新模块,输出Ct至Cr更新模块。
Cr更新模块,输入为像素点PBt、来自Bound更新模块的坐标Cr2、坐标Ct,将Cr1更新为Cr2在水平方向偏移ShiftDisp后的坐标,即(XCr1,YCr1)=(XCr2–ShiftDisp,YCr2),其中ShiftDisp的值由Ct与PBt的水平坐标差值决定,如ShiftDisp=a*(XCt-XPBt)+b,其中a与b均为实数,a的取值可以为1,-1,0,1.5,-1.5等,b的取值可以为1,-1,0等,输出Cr1至Bound更新模块。
Br边界更新模块,输入为来自Bound更新模块的Bound1、来自Br初始化模块的参考矩形像素块Br的位置,当本模块接收到了N个由Bt左边界上的像素点计算得到的Bound1值Bound1(1),Bound1(2),…,Bound1(N),则BrLeft=Maximum(Bound1(1),Bound1(2),…,Bound1(N)),或者BrLeft=Minimum(Bound1(1),Bound1(2),…,Bound1(N)),或者BrLeft=Median(Bound1(1),Bound1(2),…,Bound1(N));当本模块接收到了M个由Bt右边界上的像素点计算得到的Bound值Bound1(1),Bound1(2),…,Bound1(M),BrRight=Maximum(Bound1(1),Bound1(2),…,Bound1(M)),或者BrRight=Minimum(Bound1(1),Bound1(2),…,Bound1(M)),或者BrRight=Median(Bound1(1),Bound1(2),…,Bound1(M));其中函数Maximum(x1,x2,…,xK)返回值为从x1至xK这些数中的最大值,Minimum(x1,x2,…,xK)返回值为从x1至xK这些数中的最小值,Median(x1,x2,…,xK)返回值为从x1至xK这些数的中值;输出Br至投影模块。
投影模块,输入为参考视点中的深度信息、来自Br边界更新模块的参考矩形像素块Br。用于利用参考视点的深度信息将Br向目标视点进行前向投影得到投影矩形像素块Bs,将Bs输出至预测图像获取模块;
预测图像获取模块,输入为预测图像的位置、来自投影模块的投影矩形像素块Bs,根据预测图像的位置。用于从Bs中获取预测图像,其中,预测图像小于等于Bs。当预测图像小于Bs时,根据预测图像所在位置,从Bs中截取相应位置的像素点形成预测图像,输出预测图像。
实施例7
本实施例提供了一种基于块的预测图像生成装置,通过该装置可以并行生成多个像素点对应的Bound,如图10所示,包含Br初始化模块、Bound计算模块、Br边界更新模块、投影模块、预测图像获取模块。其中,Bound更新模块(如图9所示)包含初始化模块、Cr初始化模块、Bound更新模块、Cr更新模块等子模块。
Bound更新模块,输入为像素点PBt、来自Br初始化模块的参考矩形像素块Br的位置,输出Bound1至Br边界更新模块。
初始化模块,输入为像素点PBt,参考矩形像素块Br的位置,若PBt位于Bt的左边界上,DirSign赋值为一负数,如DirSign=-1,Bound0赋值为参考矩形像素块Br的左边界值BrLeft,即Bound0=BrLeft,否则DirSign赋值为一正数,如DirSign=1,Bound0赋值为Br的右边界值BrRight,即Bound0=BrRight,输出Bound0、DirSign至Bound更新模块。
Cr初始化模块,输入为像素点PBt、默认视差值DefaultDisp,坐标Cr0等于PBt的坐标在水平方向偏移DefaultDisp后的坐标,记PBt的坐标值为(XPBt,YPBt),Cr0的坐标值为(XCr0,YCr0),则XCr0=XPBt–DefaultDisp,YCr0=YPBt。其中,DefaultDisp的取值可以为参考视点与目标视点之间当深度值为128或其他深度值时对应的视差值,输出Cr0至Bound更新模块。
Bound更新模块,输入为参考视点中的深度信息、像素点PBt、标志位Init、来自Cr初始化模块的坐标Cr0、来自初始化模块的DirSign、Bound0、来自Bound更新模块的Bound1、来自Cr更新模块的坐标Cr1;Cr的坐标值为(XCr,YCr),Cr1的坐标值为(XCr1,YCr1),当Init等于0时,将Bound赋值为Bound0,Cr赋值为Cr0,即Bound=Bound0,XCr=XCr0,YCr=YCr0,否则将Bound赋值为Bound1,Cr赋值为Cr1,即Bound=Bound1,XCr=XCr1,YCr=YCr1。其中,Init表示本模块是否已经接收过来自初始化模块与Cr初始化模块的数据,未接收时Init等于0,否则Init等于1;将位于Cr的像素点PCr结合PCr对应的深度信息根据投影关系计算PCr在目标视点中的投影坐标Ct,Ct的坐标值为(XCt,YCt),若Ct与PBt的水平坐标差值与DirSign的乘积(XCt-XPBt)*DirSign≥0,且当Init等于1时,还满足Cr的水平坐标值与Bound的差值与DirSign的乘积(XCr-Bound)*DirSign<0,则将Bound更新为Cr的水平坐标值,即Bound=XCr;将Bound1赋值为Bound(即Bound1=Bound)并输出至Bound更新模块、Br边界更新模块,将Cr2赋值为Cr(Cr2的坐标值为(XCr2,YCr2)=(XCr,YCr))并输出至Cr更新模块,输出Ct至Cr更新模块。
Cr更新模块,输入为像素点PBt、来自Bound更新模块的坐标Cr2、坐标Ct,将Cr1更新为Cr2在水平方向偏移ShiftDisp后的坐标,即(XCr1,YCr1)=(XCr2–ShiftDisp,YCr2)。其中,ShiftDisp的值由Ct与PBt的水平坐标差值决定,如ShiftDisp=a*(XCt-XPBt)+b,其中,a与b均为实数,a的取值可以为1,-1,0,1.5,-1.5等,b的取值可以为1,-1,0等,输出Cr1至Bound更新模块。
Br初始化模块,输入为目标视点中目标矩形像素块Bt的位置、参考视点中的深度信息,在参考视点中确定参考矩形像素块Br,Br的左边界值BrLeft赋值为Bt的左边界BtLeft偏移MaxDisparity后的值,即BrLeft=BtLeft-MaxDisparity;Br的右边界BrRight值赋值为Bt的右边界BtRight偏移MinDisparity后的位置,即BrRight=BtRight-MinDisparity;Br的上边界值赋值为Bt的上边界值,Br的下边界值赋值为Bt的下边界值,其中MaxDisparity与MinDisparity分别为参考视点与目标视点之间的最大视差值与最小视差值,输出Br的位置至Bound计算模块、Br边界更新模块。
Br边界更新模块,输入为来自Bound更新模块的Bound(1)至Bound(L)、来自Br初始化模块的参考矩形像素块Br的位置,当本模块接收到了N个由Bt左边界上的像素点计算得到的Bound1值Bound(1),Bound(2),…,Bound(N),则BrLeft=Maximum(Bound(1),Bound(2),…,Bound(N)),或者BrLeft=Minimum(Bound(1),Bound(2),…,Bound(N)),或者BrLeft=Median(Bound(1),Bound(2),…,Bound(N));当本模块接收到了M个由Bt右边界上的像素点计算得到的Bound值Bound(1),Bound(2),…,Bound(M),BrRight=Maximum(Bound(1),Bound(2),…,Bound(M)),或者BrRight=Minimum(Bound(1),Bound(2),…,Bound(M)),或者BrRight=Median(Bound(1),Bound(2),…,Bound(M));其中N+M=L;其中函数Maximum(x1,x2,…,xK)返回值为从x1至xK这些数中的最大值,Minimum(x1,x2,…,xK)返回值为从x1至xK这些数中的最小值,Median(x1,x2,…,xK)返回值为从x1至xK这些数的中值;输出Br至投影模块。
投影模块,输入为参考视点中的深度信息、来自Br边界更新模块的参考矩形像素块Br,利用参考视点的深度信息将Br向目标视点进行前向投影得到投影矩形像素块Bs,将Bs输出至预测图像获取模块;
预测图像获取模块,输入为预测图像的位置、来自投影模块的投影矩形像素块Bs。用于根据预测图像的位置从Bs中获取预测图像。其中,预测图像小于等于Bs,当预测图像小于Bs时,根据预测图像所在位置,从Bs中截取相应位置的像素点形成预测图像,输出预测图像。
实施例8
本实施例提供了一种媒体内容,其中,该媒体内容生成图像的过程中可以通过实施例1至3中的任意一种基于块的预测图像生成方法实现。
在上述各个优选实施例中,预测图像还可以经过下采样、亚像素插值等处理方法生成新的预测图像。
在另外一个实施例中,还提供了一种软件,该软件用于执行上述实施例及优选实施方式中描述的技术方案。
在另外一个实施例中,还提供了一种存储介质,该存储介质中存储有上述软件,该存储介质包括但不限于:光盘、软盘、硬盘、可擦写存储器等。
从以上的描述中,可以看出,本发明实现了如下技术效果:提出了一种新的预测图像的生成方法,在生成参考矩形像素块时,仅需要采用目标矩形像素块的位置和/或参考视点的深度信息和/或目标视点的摄像机参数等信息,而并不需要通过目标视点的深度图像确定参考矩形像素块,在进行前向投影时同样通过参考视点的深度信息进行确定,在整个过程中都不需要知道目标视点的深度图像。通过上述方式解决了现有技术中在生成预测图像的过程中需要同时用到目标视点的深度图像和参考视点的深度图像而造成的对数据的依赖性较大的技术问题,达到了减少对数据的依赖和提高编解码效率的技术效果。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (23)

1.一种预测图像生成方法,其特征在于,包括:
根据参数信息确定参考矩形像素块,其中,所述参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;
通过所述参考视点的深度信息将所述参考矩形像素块向目标视点进行前向投影得到投影矩形像素块;
从所述投影矩形像素块中获取预测图像;
其中,所述方法应用于3D图像编解码技术中。
2.根据权利要求1所述的方法,其特征在于,所述参考视点的深度信息包括以下至少之一:
所述参考视点的深度图像、所述参考视点的摄像机参数信息。
3.根据权利要求1所述的方法,其特征在于,当所述参数信息包括目标矩形像素块的位置时,根据参数信息确定参考矩形像素块包括:
将所述目标矩形像素块的左边界值减去第一预定偏移值后的值作为所述参考矩形像素块的左边界值;
将所述目标矩形像素块的右边界值减去第二预定偏移值后的值作为所述参考矩形像素块的右边界值;
将所述目标矩形像素块的上边界值作为所述参考矩形像素块的上边界值;
将所述目标矩形像素块的下边界值作为所述参考矩形像素块的下边界值;
将确定的参考矩形像素块的左边界值、右边界值、上边界值以及下边界值作为所述参考矩形像素块的边界信息以在参考视点中确定所述参考矩形像素块。
4.根据权利要求3所述的方法,其特征在于,所述第一预定偏移值与所述第二预定偏移值是预先设定的一个不为0的数值。
5.根据权利要求1所述的方法,其特征在于,当所述参数信息包括目标矩形像素块的位置和参考视点的深度信息时,根据参数信息确定参考矩形像素块包括:
根据所述目标矩形像素块的位置确定所述参考矩形像素块的第一组边界值;
根据所述参考视点的深度信息对所述第一组边界值进行更新,将更新后得到的结果作为所述参考矩形像素块的第二组边界值,其中,所述第二组边界值对应的参考矩形像素块的面积小于所述第一组边界值对应的参考矩形像素块的面积;
根据所述第二组边界值在参考视点中确定所述参考矩形像素块。
6.根据权利要求5所述的方法,其特征在于,根据所述目标矩形像素块的位置确定所述参考矩形像素块的第一组边界值包括:
将所述目标矩形像素块的左边界值减去第三预定偏移值后的值作为所述参考矩形像素块的所述第一组边界值中的左边界值;
将所述目标矩形像素块的右边界值减去第四预定偏移值后的值作为所述参考矩形像素块的所述第一组边界值中的右边界值;
将所述目标矩形像素块的上边界值作为所述第一组边界值中的上边界值;
将所述目标矩形像素块的下边界值作为所述第一组边界值中的下边界值。
7.根据权利要求6所述的方法,其特征在于,所述第三预定偏移值与所述第四预定偏移值是预先设定的一个不为0的数值。
8.根据权利要求6所述的方法,其特征在于,所述第三预定偏移值包括:所述参考视点与所述目标视点之间的最大视差值,所述第四预定偏移值包括:所述参考视点与目标视点之间的最小视差值。
9.根据权利要求6所述的方法,其特征在于,根据所述参考视点的深度信息对所述第一组边界值进行更新包括:
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定一个或多个边界范围值,其中,所述边界范围值包括左边界范围值和/或右边界范围值;
根据确定的一个或多个边界范围值对所述第一组边界值进行更新。
10.根据权利要求9所述的方法,其特征在于,根据确定的一个或多个边界范围值对所述第一组边界值进行更新包括:
从一个或多个左边界范围值中选择一个作为所述第一组边界值中的左边界值,其中,所述左边界范围值为所述目标矩形像素块左边界上的像素点对应的边界范围值;和/或
从一个或多个右边界范围值中选择一个作为所述第一组边界值中的右边界值,其中,所述右边界范围值为所述目标矩形像素块右边界上的像素点对应的边界范围值。
11.根据权利要求9或10所述的方法,其特征在于,
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定一个或多个左边界范围值的步骤包括:
从所述目标矩形像素块的左边界上选择一个像素点作为第一像素点;
将所述第一组边界值中的左边界值作为第一像素点对应的左边界范围值;
将所述第一像素点的坐标偏移一个默认视差后得到的第一坐标作为所述参考视点中的第二坐标;
根据所述第二坐标在所述参考视点中所对应的像素点的深度信息确定所述第二坐标所对应的像素点在所述目标视点中的第一投影坐标;
当所述第一投影坐标的水平分量小于等于所述第一组边界值中的左边界值时,更新所述第一像素点对应的左边界范围值为所述第二坐标的水平分量;
和/或
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定一个或多个右边界范围值包括:
从所述目标矩形像素块的右边界上选择一个像素点作为第二像素点;
将所述第一组边界值中的右边界值作为所述第二像素点对应的右边界范围值;
将所述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为所述参考视点中的第四坐标;
根据所述第四坐标在所述参考视点中所对应的像素点的深度信息确定所述第四坐标所对应的像素点在所述目标视点中的第二投影坐标;
当所述第二投影坐标的水平分量大于等于所述第一组边界值中的右边界值时,更新所述第二像素点对应的右边界范围值为所述第四坐标的水平分量。
12.根据权利要求11所述的方法,其特征在于,所述默认视差是所述参考视点与所述目标视点之间的一个深度值所对应的视差值。
13.根据权利要求11所述的方法,其特征在于,
在判断不满足所述第一投影坐标的水平分量小于等于所述第一组边界值中的左边界值的条件,或者更新所述第一像素点对应的左边界范围值为所述第二坐标的水平分量之后,所述方法还包括:
对所述第一像素点对应的左边界范围值进行更新;
和/或
在判断不满足所述第二投影坐标的水平分量大于等于所述第一组边界值中的右边界值的条件,或者更新所述第二像素点对应的右边界范围值为所述第四坐标的水平分量之后,所述方法还包括:
对所述第二像素点对应的右边界范围值进行更新。
14.根据权利要求13所述的方法,其特征在于,
对所述第一像素点对应的左边界范围值进行更新包括:
将所述第二坐标更新为当前第二坐标偏移第五预定偏移值之后的坐标;
根据当前所述第二坐标在所述参考视点中所对应的像素点的深度信息确定当前所述第二坐标所对应的像素点在所述目标视点中的第三投影坐标;
当所述第三投影坐标的水平分量小于等于所述第一组边界值中的左边界值,且当前所述第二坐标的水平分量大于当前所述第一像素点对应的左边界范围值时,更新所述第一像素点对应的左边界范围值为当前的所述第二坐标的水平分量;
和/或
对所述第二像素点对应的右边界范围值进行更新包括:
将所述第四坐标更新为当前第四坐标偏移第六预定偏移值之后的坐标;
根据当前所述第四坐标在所述参考视点中所对应的像素点的深度信息确定当前所述第四坐标所对应的像素点在所述目标视点中的第四投影坐标;
当所述第四投影坐标的水平分量大于等于所述第一组边界值中的右边界值,且当前所述第四坐标的水平分量大于当前所述第二像素点对应的右边界范围值时,更新所述第二像素点对应的右边界范围值为当前的所述第四坐标的水平分量。
15.根据权利要求14所述的方法,其特征在于,重复执行预定次数遍对所述第一像素点对应的左边界范围值进行更新的步骤,和/或,重复执行预定次数遍对所述第二像素点对应的左边界范围值进行更新的步骤。
16.根据权利要求14所述的方法,其特征在于,所述第五预定偏移值是由所述第一像素点坐标的水平分量和所述第二坐标所对应的像素点在所述目标视点中的投影坐标的水平分量之间的差值确定的,和/或,所述述第六预定偏移值是由所述第二像素点坐标的水平分量和所述第二坐标所对应的像素点在所述目标视点中的投影坐标的水平分量之间的差值确定的。
17.根据权利要求11所述的方法,其特征在于,
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定多个左边界范围值包括:
采用并行方式根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定多个左边界范围值;
和/或
根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定多个右边界范围值包括:
采用并行方式根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定多个右边界范围值。
18.根据权利要求11所述的方法,其特征在于,根据确定的一个或多个边界范围值对所述第一组边界值进行更新包括:
将所述第一组边界值中的左边界值更新为所述的一个或多个左边界范围值中的最大值或最小值或中值;和/或
将所述第一组边界值中的右边界值更新为所述的一个或多个右边界范围值中的最大值或最小值或中值。
19.一种预测图像生成装置,其特征在于,包括:
参考矩形像素块确定模块,用于根据参数信息确定参考矩形像素块,其中,所述参数信息包括目标矩形像素块的位置和/或参考视点的深度信息;
投影模块,用于通过所述参考视点的深度信息将所述参考矩形像素块向目标视点进行前向投影得到投影矩形像素块;
预测图像获取模块,用于从所述投影矩形像素块中获取预测图像。
20.根据权利要求19所述的装置,其特征在于,所述参考矩形像素块确定模块包括:
第一确定单元,用于当所述参数信息包括目标矩形像素块的位置和参考视点的深度信息时,根据所述目标矩形像素块的位置确定所述参考矩形像素块的第一组边界值;
更新单元,用于根据所述参考视点的深度信息对所述第一组边界值进行更新,将更新后得到的结果作为所述参考矩形像素块的第二组边界值,其中,所述第二组边界值对应的参考矩形像素块的面积小于所述第一组边界值对应的参考矩形像素块的面积;
第二确定单元,用于根据所述第二组边界值在参考视点中确定所述参考矩形像素块。
21.根据权利要求20所述的装置,其特征在于,所述第一确定单元包括:
左边界值确定子单元,用于将所述目标矩形像素块的左边界值减去第三预定偏移值后的值作为所述参考矩形像素块的所述第一组边界值中的左边界值;
右边界值确定子单元,用于将所述目标矩形像素块的右边界值减去第四预定偏移值后的值作为所述参考矩形像素块的所述第一组边界值中的右边界值;
上边界值确定子单元,用于将所述目标矩形像素块的上边界值作为所述第一组边界值中的上边界值;
下边界值确定子单元,用于将所述目标矩形像素块的下边界值作为所述第一组边界值中的下边界值。
22.根据权利要求20所述的装置,其特征在于,所述更新单元包括:
边界范围值确定子单元,用于根据所述目标矩形像素块边界上的一个或多个像素点的位置信息和所述参考视点的深度信息确定一个或多个边界范围值,其中,所述边界范围值包括左边界范围值和/或右边界范围值;
更新子单元,用于根据确定的一个或多个边界范围值对所述第一组边界值进行更新。
23.根据权利要求22所述的装置,其特征在于,
所述边界范围值确定子单元还用于按照以下方式确定一个或多个左边界范围值:
从所述目标矩形像素块的左边界上选择一个像素点作为第一像素点;
将所述第一组边界值中的左边界值作为第一像素点对应的左边界范围值;
将所述第一像素点的坐标偏移一个默认视差后得到的第一坐标作为所述参考视点中的第二坐标;
根据所述第二坐标在所述参考视点中所对应的像素点的深度信息确定所述第二坐标所对应的像素点在所述目标视点中的第一投影坐标;
当所述第一投影坐标的水平分量小于等于所述第一组边界值中的左边界值时,更新所述第一像素点对应的左边界范围值为所述第二坐标的水平分量;
和/或
所述边界范围值确定子单元还用于按照以下方式确定一个或多个右边界范围值:
从所述目标矩形像素块的右边界上选择一个像素点作为第二像素点;
将所述第一组边界值中的右边界值作为所述第二像素点对应的右边界范围值;
将所述第二像素点的坐标偏移一个默认视差后得到的第三坐标作为所述参考视点中的第四坐标;
根据所述第四坐标在所述参考视点中所对应的像素点的深度信息确定所述第四坐标所对应的像素点在所述目标视点中的第二投影坐标;
当所述第二投影坐标的水平分量大于等于所述第一组边界值中的右边界值时,更新所述第二像素点对应的右边界范围值为所述第四坐标的水平分量。
CN201210376819.9A 2012-09-29 2012-09-29 预测图像生成方法和装置 Active CN103716641B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201210376819.9A CN103716641B (zh) 2012-09-29 2012-09-29 预测图像生成方法和装置
PCT/CN2013/083084 WO2014048242A1 (zh) 2012-09-29 2013-09-06 预测图像生成方法和装置
US14/441,445 US10154282B2 (en) 2012-09-29 2013-09-06 Method and device for generating predicted pictures
EP13841502.1A EP2903283B1 (en) 2012-09-29 2013-09-06 Prediction image generation method and device
US16/168,289 US10708619B2 (en) 2012-09-29 2018-10-23 Method and device for generating predicted pictures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210376819.9A CN103716641B (zh) 2012-09-29 2012-09-29 预测图像生成方法和装置

Publications (2)

Publication Number Publication Date
CN103716641A CN103716641A (zh) 2014-04-09
CN103716641B true CN103716641B (zh) 2018-11-09

Family

ID=50386972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210376819.9A Active CN103716641B (zh) 2012-09-29 2012-09-29 预测图像生成方法和装置

Country Status (4)

Country Link
US (2) US10154282B2 (zh)
EP (1) EP2903283B1 (zh)
CN (1) CN103716641B (zh)
WO (1) WO2014048242A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6365153B2 (ja) * 2014-09-10 2018-08-01 株式会社ソシオネクスト 画像符号化方法および画像符号化装置
CN106954082A (zh) * 2016-01-07 2017-07-14 中兴通讯股份有限公司 视频编解码方法、编解码装置及系统
CN107959855B (zh) 2016-10-16 2020-02-14 华为技术有限公司 运动补偿预测方法和设备
TWI657431B (zh) * 2017-04-10 2019-04-21 鈺立微電子股份有限公司 動態顯示系統
CN114727084B (zh) * 2021-01-04 2023-10-03 浙江大学 一种筛选图像的方法及装置
CN114079779B (zh) * 2022-01-12 2022-05-17 深圳传音控股股份有限公司 图像处理方法、智能终端及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102017627A (zh) * 2008-04-25 2011-04-13 汤姆森许可贸易公司 使用基于深度信息的视差估计的多视点视频编码

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002091302A2 (en) * 2001-05-04 2002-11-14 Legend Films, Llc Image sequence enhancement system and method
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
KR100918862B1 (ko) * 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
CN101483765B (zh) * 2008-01-11 2011-09-21 华为技术有限公司 一种图像处理方法、编解码方法及装置
CN101271583B (zh) * 2008-04-28 2010-04-21 清华大学 一种基于深度图的快速图像绘制方法
TWI463864B (zh) 2008-08-29 2014-12-01 Thomson Licensing 具試探式視圖融合之視圖合成
CN101754042B (zh) * 2008-10-30 2012-07-11 华为终端有限公司 图像重构方法和图像重构系统
US7845300B1 (en) 2008-09-05 2010-12-07 Marine Floats Corporation Modular floating marine dock
CN101521823B (zh) 2009-03-27 2010-12-01 北京航空航天大学 空间相关的全景数据压缩方法
JP2012019490A (ja) * 2010-07-09 2012-01-26 Sony Corp 画像処理装置及び画像処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102017627A (zh) * 2008-04-25 2011-04-13 汤姆森许可贸易公司 使用基于深度信息的视差估计的多视点视频编码

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Free-viewpoint scalable multi-view video coding using panoramic mosaic depth maps》;Shinya Shimizu ET AL;《16th European signal processing conference》;20080825;section2第2段 *

Also Published As

Publication number Publication date
US10708619B2 (en) 2020-07-07
US20190158875A1 (en) 2019-05-23
WO2014048242A1 (zh) 2014-04-03
US10154282B2 (en) 2018-12-11
CN103716641A (zh) 2014-04-09
US20150296219A1 (en) 2015-10-15
EP2903283A4 (en) 2015-09-30
EP2903283B1 (en) 2021-11-03
EP2903283A1 (en) 2015-08-05

Similar Documents

Publication Publication Date Title
CN103716641B (zh) 预测图像生成方法和装置
JP7012642B2 (ja) アーチファクトを意識したビュー合成のための補助データ
CN110324664B (zh) 一种基于神经网络的视频补帧方法及其模型的训练方法
US7321374B2 (en) Method and device for the generation of 3-D images
US9843776B2 (en) Multi-perspective stereoscopy from light fields
US9030469B2 (en) Method for generating depth maps from monocular images and systems using the same
JP4658223B2 (ja) 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
US10349058B2 (en) Method for predicting depth map coding distortion of two-dimensional free viewpoint video
WO2013158784A1 (en) Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects
JP5197683B2 (ja) 奥行き信号生成装置及び方法
TW201029442A (en) View synthesis with heuristic view merging
JP7202087B2 (ja) 映像処理装置
CN100542298C (zh) 一种柱面全景视频编码的块尺寸计算方法和传输方法
CN106791768A (zh) 一种基于图割优化的深度图帧率提升方法
CN113347416B (zh) 色度帧内预测方法和装置、及计算机存储介质
Luo et al. Fast MRF-based hole filling for view synthesis
CN104270624A (zh) 一种分区域的3d视频映射方法
EP2355515A2 (en) Scalable video coding
CN106973281B (zh) 一种虚拟视点视频质量预测方法
CN106447761B (zh) 一种阴影渲染方法
KR102091860B1 (ko) 영상 부호화 방법 및 장치
CN105612748A (zh) 活动图像编码方法、活动图像解码方法、活动图像编码装置、活动图像解码装置、活动图像编码程序、以及活动图像解码程序
CN115861145A (zh) 一种基于机器视觉的图像处理方法
CN103514593B (zh) 图像处理方法及装置
US8754891B2 (en) Method for image processing and an apparatus thereof

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant