CN106464898B - 用于导出视图间运动合并候选的方法和装置 - Google Patents

用于导出视图间运动合并候选的方法和装置 Download PDF

Info

Publication number
CN106464898B
CN106464898B CN201580024064.8A CN201580024064A CN106464898B CN 106464898 B CN106464898 B CN 106464898B CN 201580024064 A CN201580024064 A CN 201580024064A CN 106464898 B CN106464898 B CN 106464898B
Authority
CN
China
Prior art keywords
inter
block
view
current block
reference block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580024064.8A
Other languages
English (en)
Other versions
CN106464898A (zh
Inventor
朴光勋
许瑛秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
NEO LAB CONVERGENCE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEO LAB CONVERGENCE Inc filed Critical NEO LAB CONVERGENCE Inc
Priority to CN202010032169.0A priority Critical patent/CN111343459B/zh
Publication of CN106464898A publication Critical patent/CN106464898A/zh
Application granted granted Critical
Publication of CN106464898B publication Critical patent/CN106464898B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提供了用于导出视图间运动合并候选的方法和装置。根据本发明实施例的用于导出视图间运动合并候选的方法能包括步骤:基于借助于当前块的视差向量导出的视图间参考块的编码信息,来确定当前块的视图间运动合并是否可能;和如果确定当前块的视图间运动合并不可能,则使用与视图间参考块空间相邻的相邻块的编码信息,来生成当前块的视图间运动合并候选。

Description

用于导出视图间运动合并候选的方法和装置
技术领域
本发明一般涉及用于导出视图间运动合并候选的方法和装置,并更具体地,涉及用于使用参考块的编码信息导出运动合并候选、以便导出当前块的运动合并候选的方法和装置。
背景技术
国际标准化组织(ISO)/国际电子技术委员会(IEC)活动图像专家组(MPEG)和国际电信联盟(ITU-T)视频编码专家组(VCEG)的电信标准化部门在2010年组织了视频编码的联合协作团队(JCT-VC),并开始开发已知为高效视频编码(HEVC)的下一代视频标准技术,并然后在2013年1月完成了该技术的开发。HEVC使得与先前已知为在现有视频压缩标准之中展现最高压缩性能的H.264/AVC高配置文件相比、能将压缩效率改进大约50%。
其间,三维(3D)视频向用户逼真地提供立体感体验,如同他或她正通过3D立体显示装置来观看并感知真实世界。作为与该技术相关的研究,3D视频标准的开发由3D视频编码扩展开发的联合协作团队(JCT-3V)继续推进,该JCT-3V是ISO/IEC MPEG和VCEG的联合标准化组。3D视频标准包括先进数据格式、和与该先进数据格式相关的技术标准,该先进数据格式可使用实际视频及其深度信息图、来支持不仅立体视频而且自动立体视频的重放等。
此外,作为HEVC的3D扩展的其标准化正在开发的3D-HEVC可使用运动合并处理作为预测编码工具。运动合并处理是用于没有改变地继承从当前块的相邻块导出的运动信息、并利用所继承的运动信息作为关于当前块的运动的信息的方法。3D-HEVC中的运动合并处理基于HEVC。
此外,3D-HEVC可使用基于多个视图处的图像的、视图间运动合并处理。即,在3D-HEVC中,可从相邻视图中的块之中的、在与当前块的位置对应的位置处的块(其后称为“参考块”),导出运动信息。
然而,3D-HEVC的问题在于,当运动是均匀的时,不能从参考块导出关于当前块的运动的信息,并由此不能使用视图间运动合并处理。
其间,韩国专利申请公开第10-2013-7027419号(名为“Method and Apparatus ofMotion and Disparity Vector Prediction and Compensation for 3D Video Coding”)公开了用于在3D视频编码中与当前画面的块的跳过模式、合并模式或帧间模式关联地获得运动向量(MV)/运动向量预测符(MVP)或视差向量(DV)/视差向量预测符(DVP)的方法。
发明内容
技术问题
本发明的一些实施例的目的意欲允许参考块从与参考块空间邻近的相邻块继承诸如运动信息的预定信息,并且当执行用于当前块的视图间运动合并处理时,如果参考块被帧内编码,则利用继承的信息用于当前块的运动合并处理。
然而,本实施例意欲实现的技术目的不限于上述技术目的,并且可存在其它技术目的。
技术方案
为了实现以上目的,根据本发明实施例的用于生成视图间运动合并候选的方法包括:基于通过当前块的视差向量导出的视图间参考块的编码信息,来确定视图间运动合并处理对于当前块是否可能;和如果确定视图间运动合并处理对于当前块不可能,则使用与视图间参考块空间相邻的相邻块的编码信息,来生成用于当前块的视图间运动合并候选。此外,根据本发明实施例的用于导出视图间运动合并候选的装置包括:块搜索单元,用于从通过当前块和与参考块空间相邻的至少一个相邻块的视差向量导出的视图间参考块、个别获取编码信息;信息分析单元,用于基于视图间参考块的编码信息,来确定视图间运动合并处理对于当前块是否可能;和候选生成单元,用于如果确定视图间运动合并处理对于当前块不可能,则使用相邻块的编码信息,来生成用于当前块的视图间运动合并候选。
另外,用于生成视图间运动合并候选的方法可进一步包括:如果确定视图间运动合并处理对于当前块可能,则使用视图间参考块的编码信息,来生成用于当前块的视图间运动合并候选。
此外,所述基于通过当前块的视差向量导出的视图间参考块的编码信息来确定视图间运动合并处理对于当前块是否可能的步骤可被配置为基于视图间参考块的编码信息,来确定是否对视图间参考块进行帧内编码。
此外,所述如果确定视图间运动合并处理对于当前块不可能、则使用与视图间参考块空间相邻的相邻块的编码信息、来生成用于当前块的视图间运动合并候选的步骤可被配置为使用与视图间参考块空间相邻的多个相邻块之中的、在包括参考块的目标区域中包括的高度相关相邻块的编码信息,来生成视图间运动合并候选。
此外,所述如果确定视图间运动合并处理对于当前块不可能、则使用与视图间参考块空间相邻的相邻块的编码信息、来生成用于当前块的视图间运动合并候选的步骤可被配置为使用与视图间参考块空间相邻的多个相邻块之中的、取决于层级优先级确定的高度相关相邻块的编码信息,来生成视图间运动合并候选,并且该层级优先级可取决于视图间参考块和个别相邻块的编码顺序来预置。
这里,所述高度相关相邻块可以是在视图间参考块之后编码的相邻块。
此外,该候选生成单元可被配置为如果确定视图间运动合并处理对于当前块可能,则使用视图间参考块的编码信息,来生成用于当前块的视图间运动合并候选。
此外,该信息分析单元可使用视图间参考块的编码信息,来确定是否对视图间参考块进行帧内编码。
此外,该信息分析单元可参考包括指示是否使用编码信息的标志的报头来执行确定。
此外,该报头可以是视频参数集扩展。
此外,该参考块的编码信息可包括该参考块的深度信息和运动信息,并且该相邻块的编码信息可包括该相邻块的深度信息和运动信息。
此外,该候选生成单元可使用与视图间参考块空间相邻的多个相邻块之中的、在包括参考块的目标区域中包括的高度相关相邻块的编码信息,来生成视图间运动合并候选。
此外,该候选生成单元可使用与视图间参考块空间相邻的多个相邻块之中的、取决于层级优先级确定的高度相关相邻块的编码信息,来生成视图间运动合并候选,并且该层级优先级按照视图间参考块、在该视图间参考块之后编码的相邻块、和在该视图间参考块之前编码的相邻块的顺序来预置。
有利效果
根据本发明的技术方案,当不能导出视图间运动合并候选时,本发明使用用于从视图间参考块的相邻块导出运动信息的方法。所以,当编码3D视频时,本发明可改进运动合并处理的编码效率。此外,当执行解码时,本发明可降低计算复杂度和存储复杂度。
附图说明
图1是示出了视频编码器的实施例的框图;
图2是示出了视频解码器的实施例的框图;
图3图示了传统方法中不可能进行视图间运动合并候选的生成的情况;
图4图示了帧内编码的块的示例;
图5是示出了根据本发明实施例的用于生成视图间运动合并候选的装置的框图;
图6是示出了根据本发明实施例的用于生成视图间运动合并候选的方法的应用的图;
图7是示出了根据本发明实施例的用于生成视图间运动合并候选的方法的流程图;
图8是示出了根据本发明另一实施例的用于生成视图间运动合并候选的方法的应用的图;和
图9是示出了根据本发明另一实施例的用于生成视图间运动合并候选的方法的流程图。
具体实施方式
参考附图来描述本发明的实施例,以便详细描述本发明,使得具有本发明所属技术领域的普通知识的技术人员能容易地实践本发明。然而,本发明可按照各种形式实现,并且不受到以下实施例的限制。在图中,为了本发明的清楚描述,将省略与本发明不直接相关的组件的说明,并且贯穿图中使用相同附图标记来指定相同或相似元件。
此外,贯穿整个说明书,应理解的是,指示第一组件“连接”到第二组件的表示可包括其中第一组件电气连接到第二组件并在其间插入有某一其它组件的情况、以及其中第一组件“直接连接”到第二组件的情况。此外,应理解的是,指示第一组件“包括”第二组件的表示意味着可进一步包括其它组件,不排除将添加其它组件的可能性,除非在上下文中特别指出相反的描述。
将参考附图来详细描述本发明的详细实施例。然而,本发明的精神不限于提出的实施例,并且可经由与本发明相同精神的范围内的组件的添加、修改、删除或插入,而容易地设计其它实施例,但是可理解的是,这些其它实施例也可以被包括在本发明的范围中。
贯穿本说明书,指示第一组件“包括”第二组件的表示意味着可进一步包括其它组件,不排除将添加其它组件的可能性,除非在上下文中特别指出相反的描述。贯穿本说明书使用的术语“用于执行~的步骤”或“~的步骤”不意味着“用于~的步骤”。
其后,将参考附图来详细描述本发明的优选实施例。
此外,本发明的实施例中公开的所有方法和装置可被应用到在视频处理过程中执行的编码和解码过程两者,并且贯穿本说明书使用的术语“编码”是包括编码和解码过程两者的更高概念。另外,本领域技术人员可参考编码过程的描述容易地理解解码过程,并且反之亦然。
这里,“编码”意味着用于将视频的形式或格式变换为用于标准化、安全、压缩等的另一形式或格式的过程。此外,“解码”意味着用于将编码的视频的形式或格式恢复为编码之前的其原始形式或格式的变换过程。
其后,将分别参考图1和2来详细描述编码器100和解码器200。
图1是示出了视频编码器100的示例的框图。
参考图1,视频编码器100可包括预测单元110、减法器120、变换单元130、量化单元140、编码单元150、逆量化单元160、逆变换单元170、加法器180和存储器190。
预测单元110通过预测视频中期望现在编码的当前块,而生成预测块。即,预测单元110可取决于基于运动估计确定的运动信息,来从当前块中的各个像素的像素值生成具有预测像素值的预测块。此外,预测单元110可将关于预测模式的信息传递到编码单元,使得编码单元150编码关于预测模式的信息。
减法器120可通过从当前块减去预测块,来生成残差块。
此外,变换单元130可通过将残差块变换到频域,而将残差块的各个像素值变换为频率系数。例如,变换单元130可基于诸如哈达玛变换或基于离散余弦变换的变换的变换方法,来将时域中的视频信号变换为频域中的视频信号。
量化单元140可对变换单元130变换到频域的残差块进行量化。
此外,编码单元150可基于编码技术来编码量化的残差块,并且可然后输出比特流。这里,该编码技术可以是熵编码技术。此外,编码单元150还可以编码从预测单元110传递的关于当前块的预测模式的信息、连同残差块。
逆量化单元160可以对量化单元140已经量化的残差块进行逆量化。即,逆量化单元160可以通过对在频域中量化的残差块进行逆量化,来变换已变换到频域的残差块。
逆变换单元170可对逆量化单元160已经逆量化的残差块进行逆变换。即,逆变换单元170可将频域中的残差块重构为具有像素值的残差块。这里,逆变换单元170可通过相反执行变换单元130所执行的变换方法,来使用该变换方法。
加法器180可通过向逆变换单元170已逆变换和重构的残差块添加预测单元110所生成的预测块,来重构当前块。此外,重构的当前块被存储在存储器190中,并且存储器190中存储的重构的当前块可被传递到预测单元110,并且可被利用来使用对应参考块预测随后块。
其间,视频编码器100可进一步包括解块滤波器(未示出)。在存储器中存储加法器180所重构的当前块之前,解块滤波器(未示出)可起作用以改进视频,来实现更高质量视频。
图2是示出了视频解码器200的示例的框图。
参考图2,视频解码器200可通过解码比特流,来提取在由视频编码器100编码之前存在的残差块和预测模式信息。视频解码器200可包括解码单元210、逆量化单元220、逆变换单元230、加法器240、预测单元250和存储器260。
解码单元210可从输入比特流重构所编码的残差块和所编码的用于当前块的运动信息。即,解码单元210可重构基于编码技术所编码的残差块作为量化的残差块。例如,解码单元210使用的编码技术可以是熵编码技术。
逆量化单元220可对量化的残差块进行逆量化。即,逆量化单元220可通过对量化的残差块进行逆量化,来将量化的残差块重构为变换到频域的残差块。
逆变换单元230可通过对逆量化单元220重构的逆量化的残差块进行逆变换,来将逆量化的残差块重构为原始残差块。这里,逆变换单元230可通过相反执行视频编码器100的变换单元130使用的变换技术,来执行逆变换。
预测单元240可预测当前块,并基于从比特流提取的并且由解码单元210解码和重构的当前块的运动信息,来生成预测块。
加法器255可通过将预测块与重构的残差块相加,来重构当前块。即,加法器250可通过将从预测单元240输出的预测块的预测像素值与从逆变换单元230输出的重构的残差块的残差信号相加、并然后获得当前块的重构的像素值,来重构当前块。
加法器250所重构的当前块可被存储在存储器260中。此外,存储的当前块可被存储为参考块,并且可由预测单元240使用来预测随后块。
下面,将参考图3来详细描述用于生成视图间运动合并候选的传统方法。
在图3的传统方法中,图示了其中视图间运动合并候选的生成不可能的情况。
参考图3,用于生成视图间运动合并候选的传统方法可针对当前块321搜索与作为期望在先前视图帧320中当前编码的块的当前块321对应的、先前视图帧320中的参考块311。在该情况下,用于生成视图间运动合并候选的传统方法可使用基于校正不同视图帧中的位置所需要的视差的、视差向量130。此外,用于生成视图间运动合并候选的传统方法可使用从参考块311的运动信息继承的、用于当前块321的视图间运动合并候选。
然而,当生成用于当前块321的视图间运动合并候选时,如果对参考块311进行代表性帧内编码,则用于生成视图间运动合并候选的传统方法不能从参考块311继承运动信息。所以,用于生成视图间运动合并候选的传统方法不能使用视图间运动合并方法。
其间,图4图示了帧内编码块的示例。
参考图4,当编码当前块X2’时,当前块X2’可指代与当前块X2’空间相邻的相邻块的编码信息。特别是,当编码当前块X2’时,当前块X2’可指代在当前块X2’之前编码的块A21、A22、A23、B21和C21。
然而,在图4中,由于上面块A21、A22、A23、B21和C21所属的目标区域与对应帧420中的当前块X2’所属的目标区域420彼此不同,所以图4的当前块X2’与上面块A21、A22、A23、B21和C21具有较低相关性。
结果,图4的上面块A21、A22、A23、B21和C21不能成为当前块X2’可参考的块的参考。所以,当前块X2’按照帧内模式被编码。
这里,相关性是与随机概率理论中的两个变量之间的相关系数相同的概念。在这方面,相关性可表示视频处理领域的块中的像素值之间的相似性。
例如,当当前块的像素值是255、255、200和200、并且存在具有像素值255、255、180和200的第一相邻块和具有像素值0、150、40和50的第二相邻块时,可认为当前块与第一相邻块具有较高相关性。
此外,可使用通过深度相机获取的深度信息来确定上述相同目标区域,但是该确定方法不限于此。
如上所述,在用于生成视图间运动合并候选的过程中,即使参考块被帧内编码并且当前块所以不能继承运动信息,根据本发明实施例的用于生成视图间运动合并候选的装置和方法也可从参考块的任何相邻块继承运动信息,并执行运动合并处理。由于此,所以用于生成视图间运动合并候选的装置和方法可改进用于当前块的运动合并处理的编码效率。而且,当执行编码或解码时,用于生成视图间运动合并候选的装置和方法可降低计算复杂度和存储复杂度。
这里,编码效率可以是其中当压缩视频时、考虑与原始视频的视频质量之差以及压缩视频流的比特率的值。
此外,可基于峰值信号与噪声比(PSNR)来确定视频质量之差。
在该情况下,当PSNR的值增加时,编码效率改进,并且类似地,当比特率的值减小时,编码效率改进。
其后,将详细描述根据本发明实施例的用于导出视图间运动合并候选的装置500和方法。
图5是示出了根据本发明实施例的用于导出视图间运动合并候选的装置500的框图。
参考图5,根据本发明实施例的用于导出视图间运动合并候选的装置500可包括块搜索单元510、信息分析单元520、和候选生成单元530。
块搜索单元510可从通过当前块的视差向量导出的视图间参考块、和与参考块空间相邻的至少一个相邻块、个别地获取编码信息。
信息分析单元520可基于视图间参考块的编码信息,确定视图间运动合并处理对于当前块是否可能。
更具体地,信息分析单元520可基于视图间参考块的编码信息,确定视图间参考块是否被帧内编码。
例如,信息分析单元520可通过参考包括指示是否使用编码信息的标志的报头,来执行确定。这里,该报头可以是视频参数集扩展。此外,上述参考块的编码信息可包括关于对应参考块的运动和深度的信息。
此外,如果确定视图间运动合并处理对于当前块不可能,则候选生成单元530可使用相邻块的编码信息来生成用于当前块的视图间运动合并候选。相邻块的编码信息可包括关于对应相邻块的运动和深度的信息。
相反,如果确定视图间运动合并处理对于当前块可能,则候选生成单元530可使用视图间参考块的编码信息,来生成视图间运动合并候选。
另外,候选生成单元530可使用与视图间参考块空间相邻的多个相邻块之中的、在包括视图间参考块的目标区域中包括的高度相关的相邻块的编码信息,来生成视图间运动合并候选。
即,根据示例,高度相关的相邻块可取决于其是否被包括在包括视图间参考块的目标区域中来确定,并且当确定目标区域时,可使用上述信息。
另外,候选生成单元530可使用与视图间参考块空间相邻的多个相邻块之中的、取决于继承优先级确定的高度相关的相邻块的编码信息,来生成该候选。
这里,继承优先级可按照视图间参考块、在视图间参考块之后编码的相邻块、和在视图间参考块之前编码的相邻块的顺序而预置。此外,根据另一示例,高度相关的相邻块可取决于继承优先级来确定。
此外,根据本发明实施例的用于导出视图间运动合并候选的装置500可被包括在图1中示出的视频编码器100或图2中示出的视频解码器200中。作为示例,用于导出视图间运动合并候选的装置500可作为单一组件被安装在视频编码器100或视频解码器200中。作为另一示例,用于导出视图间运动合并候选的装置500的每一组件、或用于执行每一组件的操作的程序可被包括在视频编码器100的现有组件中,诸如预测单元110或加法器180中,或包括在视频解码器200的现有组件中,诸如预测单元250或加法器240中。
接下来,将参考图6到9来详细描述根据本发明实施例的用于生成视图间运动合并候选的方法。
图6是示出了根据本发明实施例的用于生成视图间运动合并候选的方法的应用的图。
参考图6,当对于当前视图帧620中包括的当前块X4生成视图间运动合并候选时,如果按照帧内模式编码先前视图帧610中的参考块X4’,则用于生成视图间运动合并候选的方法可根据本发明的实施例导出当前块X4的运动信息。
这里,上述参考块X4’可以是通过当前块X4的视差向量630导出的视图间参考块X4'。
当按照帧内模式来编码与当前视图帧620中的当前块X4对应的先前视图帧610中的参考块X4’时,在参考块X4’中不存在运动信息。所以,传统方法不能从参考块X4’导出视图间运动信息。
然而,即使不存在运动信息,用于生成视图间运动合并候选的方法也可使用视图间运动合并处理,如其中按照帧内模式编码参考块X4’的情况中那样。
此外,在用于生成视图间运动合并候选的方法中,在参考块X4’之后编码的块之中的块B43、C42和C43与参考块X4’属于相同对象,并然后具有与当前块X4的运动信息的较高相关性。
所以,用于生成视图间运动合并候选的方法不能从参考块X4’导出运动信息。然而,在用于生成视图间运动合并候选的方法中,如果从与参考块X4’空间相邻的相邻块之中的、在已按照帧内模式编码参考块X4’之后编码的块(B43、C42或C43块)(即,与参考块具有较高相关性的块(B43、C42或C43块))导出运动信息,则当生成视图间运动合并候选时,可使用具有高编码效率的视图间运动合并候选。
图7是示出了根据本发明实施例的用于生成视图间运动合并候选的方法的流程图。
参考图7,根据本发明实施例的用于导出视图间运动合并候选的方法可基于通过当前视图处的当前块的视差向量导出的视图间参考块的编码信息,来确定视图间运动合并处理对于当前块是否可能(S720)。此外,如果确定视图间运动合并处理对于当前块不可能,则用于生成视图间运动合并候选的方法可使用与视图间参考块空间相邻的相邻块的编码信息,来生成用于当前块的视图间运动合并候选(S750)。
此外,用于导出视图间运动合并候选的方法可使用当前视图中的当前块的视差向量,来计算与当前块对应的先前视图中的参考块的位置(S10)。
相反,如果确定视图间运动合并处理对于当前块可能,则可使用视图间参考块的编码信息,来生成用于当前块的视图间运动合并候选(S730)。
例如,用于导出视图间运动合并候选的方法可基于视图间参考块的编码信息,来确定是否对视图间参考块进行帧内编码,以便基于从当前块的视差向量导出的视图间参考块的编码信息,来确定视图间运动合并处理对于当前块是否可能(S720)。
此外,用于导出视图间运动合并候选的方法可基于通过当前块的视差向量导出的视图间参考块的编码信息,来确定视图间运动合并处理对于当前块是否可能,并且如果不可能使用参考块用于运动合并处理,则可确定相邻块的编码信息是否可使用(S740)。
图8是示出了根据本发明另一实施例的用于生成视图间运动合并候选的方法。
参考图8,当对于当前视图帧820中包括的当前块X6生成视图间运动合并候选时,如果按照帧内模式编码先前视图帧810中的参考块X6’,则根据本发明实施例的用于生成视图间运动合并候选的方法可导出当前块X6的运动信息。
这里,在用于生成视图间运动合并候选的方法中,当对于当前块X6生成视图间运动合并候选时,可按照帧内模式来编码与当前块X6对应的参考块X6’。
在该情况下,可向与参考块X6’空间相邻的相邻块之中的、在已编码参考块X6’之后编码的块B63、C62和C63分派高优先级。
这里,上述参考块X6’可以是通过当前块X6的视差向量830导出的视图间参考块,并且相应块中指示的箭头812可分别表示上述块中包括的多条运动信息。
被附加加阴影的区域811可以是使用预定信息标识的目标区域。例如,该预定信息可以是深度相机输入的深度信息。
图9是示出了根据本发明另一实施例的用于生成视图间运动合并候选的方法的流程图。
参考图9,根据本发明另一实施例的用于导出视图间运动合并候选的方法可使用当前视图处的当前块的视差向量,计算与当前块对应的先前视图处的参考块的位置(S910),并且可基于通过当前视图处的当前块的视差向量导出的视图间参考块的编码信息,来确定视图间运动合并处理对于当前块是否可能(S920)。此外,如果确定视图间运动合并处理对于当前块不可能,则用于导出视图间运动合并候选的方法可使用与视图间参考块空间相邻的相邻块的编码信息,来生成用于当前块的视图间运动合并候选(S950)。
此外,如果确定视图间运动合并处理对于当前块可能,则用于导出视图间运动合并候选的方法可使用视图间参考块的编码信息,来生成用于当前块的视图间运动合并候选(S930)。
例如,为了基于通过当前块的视差向量导出的视图间参考块的编码信息、来确定视图间运动合并处理对于当前块是否可能(S920),用于导出视图间运动合并候选的方法可基于视图间参考块的编码信息,来确定是否对视图间参考块进行帧内编码。
此外,如果确定不可能使用参考块用于运动合并处理,则用于导出视图间运动合并候选的方法可确定是否可能使用在参考块之后已编码的相邻块的至少一个用于运动合并处理(S940)。
接下来,如果确定不可能使用在参考块之后已编码的相邻块的至少一个用于运动合并处理,则用于导出视图间运动合并候选的方法可确定是否可能使用在参考块之前已编码的相邻块的至少一个用于运动合并处理(S960)。
这里,如果确定可能使用在参考块之前已编码的相邻块的至少一个用于运动合并处理,则用于导出视图间运动合并候选的方法可从相邻块生成视图间运动合并候选(S970)。
本发明的实施例中包括的组件不限于软件或硬件,并且可被配置为存储在可寻址储存介质中并在一个或多个处理器上运行。
所以,作为示例,这些组件可包括诸如软件组件、面向对象组件、类组件、和任务组件的组件、处理、功能、属性、过程、子例程、程序代码段、驱动器、固件、微代码、电路、数据、数据库、数据结构、表格、阵列、和变量。
组件和对应组件中提供功能性可被组合在较少组件中,或者可被进一步分离为附加组件。
本发明的实施例还可以按照包括计算机运行的指令的储存介质的形式实现,诸如计算机运行的程序模块。计算机可读介质可以是能由计算机访问的任意可用介质,并且可包括易失性和非易失性介质以及可移除和不可移除介质中的全部。此外,计算机可读介质可包括计算机储存介质和通信介质的全部。计算机储存介质包括使用用于存储信息的任何方法或技术(例如,计算机可读指令、数据结构、程序模块或附加数据)实现的易失性和非易失性介质以及可移除和不可移除介质中的全部。通信介质典型地包括用于计算机可读指令、数据结构、程序模块或用于调制数据信号的附加数据(诸如载波、或附加传送机制)的传送介质,并且包括任意信息传递介质。
上述根据本发明的用于生成视图间运动合并候选的方法能被实施为计算机可读储存介质中的计算机可读代码。计算机可读储存介质包括其中存储计算机系统能解释的数据的所有类型储存介质。计算机可读储存介质的示例可包括只读存储器(ROM)、随机存取存储器(RAM)、磁带、磁盘、闪存、光学数据储存装置等。此外,计算机可读储存介质可在通过计算机通信网络连接的计算机系统之间分布,并且可被存储和运行为可按照分布方式读取的代码。
尽管已与特定实施例相关地描述了本发明的方法和系统,但是一些或全部组件或其操作可使用具有通用目的硬件架构的计算机系统来实现。
本发明的描述意欲用于说明,并且本领域技术人员将理解的是,能按照其它详细形式来容易地修改本发明,而不改变本发明的技术精神或必要特征。所以,上述实施例应被理解为示范性而不是限制性的。例如,描述为单一组件的每一组件可被分布并实践,并且类似地,描述为分布的组件也可以按照集成形式来实践。
本发明的范围应由所附权利要求而不是由详细描述来限定,并且从权利要求及其等效的含义和范围导出的所有改变或修改应被解释为包括在本发明的范围内。

Claims (5)

1.一种用于导出视图间运动合并候选的方法,包括:
(a)确定是否使用通过当前块的视差向量导出的视图间参考块的运动信息;和
(b)如果确定未使用所述视图间参考块的运动信息,则使用视图间参考块的相邻块的编码信息,来生成用于当前块的视图间运动合并候选。
2.根据权利要求1的方法,进一步包括:
(c)如果确定使用所述视图间参考块的运动信息,则使用视图间参考块的编码信息,来生成用于当前块的视图间运动合并候选。
3.根据权利要求1的方法,其中(a)被配置为基于视图间参考块的编码信息,来确定是否对视图间参考块进行帧内编码。
4.根据权利要求1的方法,其中(b)被配置为使用在包括视图间参考块的目标区域中包括的相邻块的编码信息,来生成视图间运动合并候选。
5.根据权利要求4的方法,其中所述相邻块是位于目标区域中的相邻块。
CN201580024064.8A 2014-03-31 2015-01-15 用于导出视图间运动合并候选的方法和装置 Active CN106464898B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010032169.0A CN111343459B (zh) 2014-03-31 2015-01-15 用于解码/编码视频信号的方法以及可读存储介质

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2014-0038097 2014-03-31
KR1020140038097A KR102260146B1 (ko) 2014-03-31 2014-03-31 시점 간 움직임 병합 후보 유도 방법 및 장치
PCT/KR2015/000450 WO2015152504A1 (ko) 2014-03-31 2015-01-15 시점 간 움직임 병합 후보 유도 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202010032169.0A Division CN111343459B (zh) 2014-03-31 2015-01-15 用于解码/编码视频信号的方法以及可读存储介质

Publications (2)

Publication Number Publication Date
CN106464898A CN106464898A (zh) 2017-02-22
CN106464898B true CN106464898B (zh) 2020-02-11

Family

ID=54240785

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010032169.0A Active CN111343459B (zh) 2014-03-31 2015-01-15 用于解码/编码视频信号的方法以及可读存储介质
CN201580024064.8A Active CN106464898B (zh) 2014-03-31 2015-01-15 用于导出视图间运动合并候选的方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202010032169.0A Active CN111343459B (zh) 2014-03-31 2015-01-15 用于解码/编码视频信号的方法以及可读存储介质

Country Status (4)

Country Link
US (3) US10616602B2 (zh)
KR (5) KR102260146B1 (zh)
CN (2) CN111343459B (zh)
WO (1) WO2015152504A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102260146B1 (ko) 2014-03-31 2021-06-03 인텔렉추얼디스커버리 주식회사 시점 간 움직임 병합 후보 유도 방법 및 장치
WO2020098813A1 (en) 2018-11-16 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Usage for history-based affine parameters
WO2020169109A1 (en) 2019-02-22 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Sub-table for history-based affine mode

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101473655A (zh) * 2006-06-19 2009-07-01 Lg电子株式会社 用于处理视频信号的方法和装置
WO2012081917A2 (ko) * 2010-12-15 2012-06-21 에스케이텔레콤 주식회사 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
CN103250417A (zh) * 2011-02-09 2013-08-14 Lg电子株式会社 编码和解码图像的方法及使用该方法的设备

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
KR20070069615A (ko) * 2005-12-28 2007-07-03 삼성전자주식회사 움직임 추정장치 및 움직임 추정방법
TWI344791B (en) * 2006-07-12 2011-07-01 Lg Electronics Inc A method and apparatus for processing a signal
KR101370899B1 (ko) * 2006-10-24 2014-03-10 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
WO2011037420A2 (ko) * 2009-09-25 2011-03-31 에스케이텔레콤 주식회사 인접 화소를 이용한 인터 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2011125211A1 (ja) * 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
KR101820997B1 (ko) * 2011-01-12 2018-01-22 선 페이턴트 트러스트 동화상 부호화 방법 및 동화상 복호화 방법
AU2012269583B2 (en) * 2011-06-15 2015-11-26 Hfi Innovation Inc. Method and apparatus of motion and disparity vector prediction and compensation for 3D video coding
BR112014011425B1 (pt) * 2011-11-11 2022-08-23 GE Video Compression, LLC. Codificação de multi-visualização eficiente utilizando estimativa e atualização de mapa por profundidade
KR101806341B1 (ko) 2011-12-14 2017-12-08 연세대학교 산학협력단 예측 움직임 벡터 선정에 따른 영상 부호화 방법 및 장치, 및 영상 복호화 방법 및 장치
WO2013159326A1 (en) * 2012-04-27 2013-10-31 Mediatek Singapore Pte. Ltd. Inter-view motion prediction in 3d video coding
CN102769748B (zh) * 2012-07-02 2014-12-24 华为技术有限公司 运动矢量预测方法、装置及系统
WO2014005280A1 (en) * 2012-07-03 2014-01-09 Mediatek Singapore Pte. Ltd. Method and apparatus to improve and simplify inter-view motion vector prediction and disparity vector prediction
US9843820B2 (en) * 2012-07-05 2017-12-12 Mediatek Inc Method and apparatus of unified disparity vector derivation for 3D video coding
EP2904800A4 (en) * 2012-10-05 2016-05-04 Mediatek Singapore Pte Ltd METHOD AND DEVICE FOR MOTION VECTOR REMOVAL FOR 3D VIDEO CODING
EP2907311A4 (en) * 2012-10-09 2016-08-24 Mediatek Inc METHOD AND DEVICE FOR PREDICTING AND ASSUMING MOTION DATA IN VIDEO CODING
CN102946536B (zh) * 2012-10-09 2015-09-30 华为技术有限公司 候选矢量列表构建的方法及装置
US9936219B2 (en) * 2012-11-13 2018-04-03 Lg Electronics Inc. Method and apparatus for processing video signals
KR20160147069A (ko) * 2013-01-07 2016-12-21 미디어텍 인크. 3차원 비디오 코딩에서의 직접 모드 및 스킵 모드에 대한 공간 모션 벡터 예측 유도 방법 및 장치
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
US9716899B2 (en) * 2013-06-27 2017-07-25 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
US9554150B2 (en) * 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
KR102260146B1 (ko) 2014-03-31 2021-06-03 인텔렉추얼디스커버리 주식회사 시점 간 움직임 병합 후보 유도 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101473655A (zh) * 2006-06-19 2009-07-01 Lg电子株式会社 用于处理视频信号的方法和装置
WO2012081917A2 (ko) * 2010-12-15 2012-06-21 에스케이텔레콤 주식회사 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
CN103250417A (zh) * 2011-02-09 2013-08-14 Lg电子株式会社 编码和解码图像的方法及使用该方法的设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Modification of the merge candidate list for dependent views in 3D-HEVC》;E.MORA et al.;《2013 IEEE International Conference on Image Processing》;20130918;第1709-1713页 *

Also Published As

Publication number Publication date
KR20150113713A (ko) 2015-10-08
CN106464898A (zh) 2017-02-22
KR20210068338A (ko) 2021-06-09
KR20230129320A (ko) 2023-09-08
KR20220024338A (ko) 2022-03-03
WO2015152504A1 (ko) 2015-10-08
US20170078698A1 (en) 2017-03-16
US10616602B2 (en) 2020-04-07
KR20230002235A (ko) 2023-01-05
US20200195968A1 (en) 2020-06-18
KR102480955B1 (ko) 2022-12-22
US11729421B2 (en) 2023-08-15
KR102572012B1 (ko) 2023-08-28
US20230291931A1 (en) 2023-09-14
KR102363415B1 (ko) 2022-02-15
CN111343459A (zh) 2020-06-26
CN111343459B (zh) 2023-09-12
KR102260146B1 (ko) 2021-06-03

Similar Documents

Publication Publication Date Title
CN111971960B (zh) 用于基于帧间预测模式处理图像的方法及其装置
CA3083703C (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
US20230291931A1 (en) Method and device for deriving inter-view motion merging candidate
US20130271567A1 (en) Image processing method and apparatus for predicting motion vector and disparity vector
US20220109883A1 (en) Signaling method and device for merge data syntax in video/image coding system
CN114009016A (zh) 从合并数据语法移除冗余语法的方法和装置
CN114270833A (zh) 用于在视频/图像编译系统中移除重叠信令的方法和装置
CN114342387A (zh) 基于运动预测的图像编译方法和装置
CN114073078A (zh) 视频/图像编译系统中的语法信令的方法和装置
EP3989574A1 (en) Image decoding method for deriving predicted sample by using merge candidate and device therefor
WO2015056700A1 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法
CN114270824A (zh) 用于基于帧间预测编译图像的方法和装置
AU2015202089B2 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
AU2019257506A1 (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
WO2015056647A1 (ja) 映像符号化装置及び方法、及び、映像復号装置及び方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220209

Address after: California, USA

Patentee after: DOLBY LABORATORIES LICENSING Corp.

Address before: Seoul City, Korea

Patentee before: INTELLECTUAL DISCOVERY Co.,Ltd.

TR01 Transfer of patent right