CN104768032A - 用于视频编码的帧打包 - Google Patents

用于视频编码的帧打包 Download PDF

Info

Publication number
CN104768032A
CN104768032A CN201510145697.6A CN201510145697A CN104768032A CN 104768032 A CN104768032 A CN 104768032A CN 201510145697 A CN201510145697 A CN 201510145697A CN 104768032 A CN104768032 A CN 104768032A
Authority
CN
China
Prior art keywords
view
picture
functional block
information
passed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510145697.6A
Other languages
English (en)
Other versions
CN104768032B (zh
Inventor
田栋
P.赖
罗健聪
尹鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital VC Holdings Inc
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN104768032A publication Critical patent/CN104768032A/zh
Application granted granted Critical
Publication of CN104768032B publication Critical patent/CN104768032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2383Channel coding or modulation of digital bit-stream, e.g. QPSK modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams

Abstract

提供例如涉及视频编码和解码中的视图平铺的实现方式。一种具体实现方式访问包括组合成单个画面的多个画面的视频画面,并且访问指示如何组合访问的视频画面中的多个画面的附加信息。访问的信息包括空间交织信息和采样信息。另一种实现方式编码包括组合成单个画面的多个画面的视频画面,并且生成指示如何组合访问的视频画面中的多个画面的信息。生成的信息包括空间交织信息和采样信息。形成包括编码的视频画面和生成的信息的比特流。另一种实现方式提供用于传送生成的信息的数据结构。

Description

用于视频编码的帧打包
本申请是申请日为2010年1月26日、申请号为201080013860.9、发明名称为“用于视频编码的帧打包”的发明专利申请的分案申请。
相关申请的交叉引用
本申请要求(1)名称为"Spatial Interleaving"、2009年1月26日提交的美国临时申请序列号61/205,938(代理人案号PU090010)以及(2)名称为“Communicating Filter Parameters For Frame Packing Applications”、2009年7月1日提交的美国临时申请序列号61/269,955中的每个的权益。针对所有目的在此通过引用明确地并入这两个申请的每一个的全部内容。
本申请还涉及名称为"Tiling In Video Encoding And Decoding"、具有国际申请日2008年4月11日的国际申请第PCT/US2008/004747。本申请还被标识为美国专利申请序列号12/450,829(代理人案号PU070078)。
技术领域
描述一般涉及视频编码和/或解码领域的实现方式。
背景技术
随着包括立体和自动立体显示器的3D显示器在市场上的出现,存在对于更多可用的3D内容的强烈需求。编码通常涉及多个视图以及可能的相应深度图的3D内容典型地是挑战性的任务。3D内容的每个帧可能需要处理大量数据的系统。在典型的3D视频应用中,例如由于传输带宽中的限制、存储限制和处理限制,多视图视频信号需要被高效地传送或存储。多视图视频编码(MVC)使用高级语法将H.264/高级视频编码(AVC)扩展,以方便多个视图的编码。该语法有助于图像处理器连续处理3D图像。
虽然表面上被设计用于2D视频,但H.264/AVC还可以利用帧打包技术来用于传送立体内容。帧打包技术简单地呈现如下:在编码器侧,两个视图或画面被一般地下采样用于打包为一个单个视频帧,该一个单个视频帧然后被提供给H.264/AVC编码器以作为比特流输出;在解码器侧,比特流被解码并且恢复的帧然后被解包。解包允许从恢复的帧提取两个原始视图并且一般涉及上采样操作,以便将每个视图复原为原始大小,使得可以呈现所述视图用于显示。该途径能够被用于诸如具有多视图图像或具有深度信息等之类的两个或多个视图。
帧打包可能依靠现有的与该帧及其视图相关联的辅助信息。补充增强信息(SEI)消息可能被用于传递某些帧打包信息。作为示例,在AVC的起草修改中,已经提出SEI消息被用于通知解码器打包画面的各种空间交织特性,包括由棋盘空间交织形成构成画面。通过利用SEI消息,可以直接使用AVC来编码立体视频图像的棋盘交织的画面。图26示出棋盘交织的已知示例。然而,迄今为止,SEI消息内容和其他高级语法的内容已被限于传递与已经经历帧打包的画面或视图有关的信息。
发明内容
根据一般方面,编码包括被组合为单个画面的多个画面的视频画面。生成指示在所访问的视频画面中如何组合多个画面的信息。所生成的信息包括空间交织信息和采样信息。空间交织信息指示在形成单个画面中应用于多个画面的空间交织。采样信息指示与用于将多个画面的每个恢复到期望分辨率的上采样滤波器相关的一个或多个参数。与上采样滤波器相关的一个或多个参数包括滤波方向的指示。形成包括编码视频画面和生成的信息的比特流。生成的信息提供用于处理编码视频画面的信息。
根据另一个一般方面,视频信号或视频结构包括编码画面部分和信令部分。编码画面部分包括视频画面的编码,所述视频画面包括被组合成单个画面的多个画面。信令部分包括指示在访问的视频画面中如何组合多个画面的生成信息的编码。生成信息包括空间交织信息和采样信息。空间交织信息指示在形成单个画面中应用于多个画面的空间交织。采样信息指示与用于将多个画面中的每个恢复到期望分辨率的上采样滤波器有关的一个或多个参数。与上采样滤波器有关的一个或多个参数包括滤波方向的指示。生成信息提供用于解码所编码的视频画面的信息。
根据另一个一般方面,访问包括被组合成单个画面的多个画面的视频画面,视频画面是所接收的视频流的一部分。访问作为所接收的视频流的一部分的信息,访问的信息指示在所访问的视频画面中如何组合多个画面。访问的信息包括空间交织信息和采样信息。空间交织信息指示在形成单个画面中应用于多个画面的空间交织。采样信息指示与用于将多个画面的每个恢复到期望分辨率的上采样滤波器有关的一个或多个参数。与上采样滤波器有关的该一个或多个参数包括滤波方向的指示。视频画面被编码以提供多个画面的至少一个的解码表示。
在下面的附图和描述中阐述一个或多个实现方式的细节。即使以一种具体方式被描述,应当清楚实现方式可以以各种方式被配置或体现。例如,一种实现方式可能被执行为方法,或体现为被配置为执行一组操作的装置,或体现为存储用于执行一组操作的指令的装置,或体现为信号。其他方面和特征将从下面结合附图和权利要求的、所考虑的详细描述变得明显。
附图说明
图1是示出平铺在单个帧上的四个视图的示例的图。
图2是示出在单个帧上翻转并平铺的四个视图的示例的图。
图3示出可以应用本原理的视频编码器的实现方式的框图。
图4示出可以应用本原理的视频解码器的实现方式的框图。
图5A-5B是使用MPEG-4AVC标准编码多个视图的画面的方法的实现方式的流程图。
图6A-6B是使用MPEG-4AVC标准解码多个视图画面的方法的实现方式的流程图。
图7A-7B是使用MPEG-4AVC标准编码多个视图和深度的画面的方法的实现方式的流程图。
图8A-8B是使用MPEG-4AVC标准解码多个视图和深度的画面的方法的实现方式的流程图。
图9是示出深度信号示例的图。
图10是示出添加为平铺的深度信号的示例的图。
图11是示出平铺在信号帧上的5个视图的示例的图。
图12是可以应用本原理的示例性多视图视频编码(MVC)编码器的框图。
图13是可以应用本原理的示例性多视图视频编码(MVC)解码器的框图。
图14是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展为编码多个视图的画面作准备而处理该画面的方法的实现方式的流程图。
图15A-15B是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的编码多个视图的画面的方法的实现方式的流程图。
图16是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展为解码多个视图的画面作准备而处理该画面的方法的实现方式的流程图。
图17A-17B是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的解码多个视图的画面的方法的实现方式的流程图。
图18是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展为编码多个视图和深度的画面作准备而处理该画面的方法的实现方式的流程图。
图19A-19B是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的编码多个视图和深度的画面的方法的实现方式的流程图。
图20是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展为解码多个视图和深度的画面作准备而处理该画面的方法的实现方式的流程图。
图21A-21B是使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的解码多个视图和深度的画面的方法的实现方式的流程图。
图22是示出像素级的平铺示例的图。
图23示出可以应用本原理的视频处理设备的实现方式的框图。
图24示出示例性3D视频系统的简化图。
图25示出来自不同参考视图的图像的示例性左深度图和右深度图。
图26示出使用棋盘交织将两个构成画面空间交织为单个画面或帧的示例性框图。
图27示出两个构成画面的并排空间交织的示例性画面。
图28示出两个构成画面的从顶部至底部空间交织的示例性画面。
图29示出两个构成画面的逐行空间交织的示例性画面。
图30示出两个构成画面的逐列空间交织的示例性画面。
图31示出两个构成画面的并排空间交织的示例性画面,其中,左手画面被水平翻转。
图32示出两个构成画面的从顶部至底部空间交织的示例性画面,其中,底画面被垂直翻转。
图33示出示例性交织的画面或帧,其中构成画面代表层深度视频(LDV)格式。
图34示出示例性交织画面或帧,其中构成画面代表2D加深度格式。
图35-38示出使用用于帧打包信息的SEI消息来处理视频图像的编码和解码的不同实施例的示例性流程图。
图39示出可以应用本原理的示例性视频传输系统。
图40示出可以应用本原理的示例性视频接收系统。
图41示出可以应用本原理的示例性视频处理设备。
在此陈述的示例性实施例例示各种实施例,并且这样的示例性实施例并不被解释为以任何方式限制本公开的范围。
具体实施方式
各种实现方式关注用于视频编码和解码中视图平铺的方法和装置。由此应当理解,本领域技术人员将能够设计出虽然未在这里被显式地描述或示出的、但体现了本原理并被包括在本原理的精神和范围内的各种布置。
在这里所叙述的所有示例和条件性语言意图在于辅助读者理解本原理和由(多个)发明人为发展本领域而贡献的构思的教导的目的,并且应当被理解为不受这样的具体叙述的示例和条件的限制。
此外,在这里叙述本原理的原理、方面和实施例的所有陈述,以及其具体示例,意图包括其结构性和功能性等效物两者。另外,这样的等效物意图包括当前已知的等效物以及在将来开发的等效物,即所开发的任何无论结构如何都执行相同的功能的元件。
由此,例如,本领域技术人员将理解,在这里所呈现的框图代表例示性系统部件和/或电路的构思视图。类似地,将理解,任何流程表、流程图、状态转换图、伪码等代表可以在计算机可读介质中被实质性地代表、并且由计算机或处理器如此执行的各种处理,而无论这样的计算机或处理器是否被显式地示出。
可以通过使用专用硬件以及能够与恰当的软件相关联而执行软件的硬件来提供图中所示的各种元件的功能。在由处理器提供时,可以由单个专用处理器、由单个共享处理器、或由多个单独的处理器(其中的一些可以被共享)来提供所述功能。此外,术语“处理器”或“控制器”的显式使用不应被理解为排他性地指代能够执行软件的硬件,而可以隐式地包括但不限于数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)和非易失性存储装置。
还可以在实现各种实施方式时包括常规的和/或定制的其他硬件。例如,图中所示的任何切换器都仅仅是概念性的。可以通过程序逻辑的操作、通过专用逻辑、通过程序控制和专用逻辑的交互、或甚至手动地执行它们的功能,如同从上下文中更具体地理解的,具体的技术可由实施者选择。
在本文的权利要求中,被表达为用于执行所指定的功能的部件的任何元件意图包括执行该功能的任何方式,所述任何方式例如包括:a)执行该功能的电路元件的组合或b)因此包括固件、微代码等的任何形式的软件与用于执行该软件的恰当的电路进行组合以执行该功能。如同由这样的权利要求所限定的本原理存在于以下事实中:以权利要求所要求的方式将由各种所叙述的部件所提供的功能组合并放在一起。因而认为可以提供那些功能的任何部件与这里所示出的那些部件等效。
本说明书中对本原理的“一个实施例”(或“一个实现方式”)或者“实施例”(或“实现方式”)的引用意味着在本原理的至少一个实施例中包括与该实施例相联系地描述的特定的特征、结构、特性等。因而,贯穿本说明书的多处出现的短语“在一个实施例中”或“在实施例中”的出现不一定都指代相同的实施例。
此外,应理解虽然在这里关于MPEG-4AVC标准描述本原理的一个或多个实施例,但在本申请中描述的本原理并不单独地限于该标准,并且由此可以关于其他标准、建议和其扩展,特别是视频编码标准、建议和其扩展,包括MPEG-4AVC标准的扩展,而利用本原理同时保持本申请原理的精神。
另外,应理解虽然在这里关于MPEG-4AVC标准的多视图视频编码扩展描述一个或多个其他实施例,但本原理并不单独地限于该扩展和/或该标准,并且由此可以关于与多视图视频编码有关的其他视频编码标准、建议和其扩展利用本原理,同时保持本申请原理的精神。多视图视频编码(MVC)是用于编码多视图序列的压缩框架。多视图视频编码(MVC)序列是从不同视点捕捉同一场景的两个或更多视频序列的集合。
此外,还应理解虽然在此描述使用关于视频内容的深度信息的一个或多个其他实施例,但是本申请的原理不限于这样的实施例并且由此可以实现不使用深度信息的其他实施例,同时保持本原理的精神。
进一步,如在这里所使用的,“高级语法”指代分层级驻留在宏块层之上的比特流中呈现的语法。例如,如在这里所使用的,高级语法可以指代、但不限于在码片首标级、补充增强信息(SEI)级、画面参数集(PPS)级、序列参数集(SPS)级和视图参数集(VPS)以及网络抽象层(NAL)单元首标级处的语法。
在基于国际标准化组织/国际电工委员会(ISO/IEC)运动图像专家组-4(MPEG-4)第10部分高级视频编码(AVC)标准/国际电信联盟电信分部(ITU-T)H.264建议(在下文中为“MPEG-4AVC标准”)的多视频编码(MVC)的当前实现方式中,参考软件通过用单个编码器编码每个视图并且考虑交叉视图参考来实现多视图预测。通过编码器以其原始分辨率将每个视图编码为单独的比特流并且随后将所有比特流组合以形成然后被解码的单个比特流。每个视图产生单独的YUV解码输出。
在图24中示意性呈现支持产生和使用3D图像的示例性视频系统。该系统的内容产生侧示出由包括但不限于立体相机、深度相机、同时操作的多个相机的各种部件进行的图像捕捉,以及2D图像到3D图像的转换。在图25中示出为同一场景的左视图和右视图而捕捉的深度图信息(例如,Z信息)的示例。这些途径中的每一个不仅捕捉视频图像内容,而且一些还生成与捕捉的视频图像相关联的某些深度信息。一旦被处理并且被编码,所有该信息可用于被分配、被传送、以及最终被呈现。还利用视频内容生成元数据用于在3D视频的随后呈现中使用。使用2D显示系统或3D显示器可以进行呈现。3D显示器可以从立体显示器变化到多视图3D显示器,如各图中所示。
多视图预测的另一途径涉及将视图集编组为伪视图。在该途径的一个示例中,可以利用可能的下采样或其他操作在较大帧或超级帧上平铺来自全部M个视图(在同一时间被采样)的每N个视图的画面。转向图1,由参考标号100一般地指示单个帧上平铺的四个视图的示例。所有四个图像在它们正常的方位(orientation)。
转向图2,由参考标号200一般地指示在单个帧上翻转和平铺的四个视图的示例。左上视图在其正常方位。右上视图被水平翻转。左下视图被垂直翻转。右下视图被水平且垂直翻转。由此,如果有四个视图,那么以类似平铺的超级帧来布置每个视图的画面。这造成具有高分辨率的单个未编码输入序列。
可替代地,我们可以将图像下采样,以产生较小的分辨率。由此,我们创建多个序列,其每一个包括一起被平铺的不同视图。每个这样的序列然后形成伪视图,其中每个伪视图包括N个不同的平铺视图。图1示出一个伪视图,而图2示出另一个伪视图。然后可以使用诸如ISO/IEC MPEG-2标准和MPEG-4AVC标准之类的现有视频编码标准来编码这些伪视图。
用于多视图编码的又一途径简单地涉及使用新标准独立地编码不同的视图并且在解码之后,由播放器按所需平铺视图。
另外,在另一途径中,视图还可以以逐像素方式被平铺。例如,在由四个视图组成的超级视图中,像素(x,y)可以来自视图0,而像素(x+1,y)可以来自视图1,像素(x,y+1)可以来自视图2,以及像素(x+1,y+1)可以来自视图3。
很多显示器制造商使用这样的框架:在单个帧上布置或平铺不同的视图,然后从它们各自的位置提取该视图并且将它们呈现。在这样的情形中,不存在用以确定该比特流是否具有这样的属性的标准方式。由此,如果系统使用在大型帧中平铺不同视图画面的方法,那么提取不同视图的方法是专用的。
然而,不存在用以确定比特流是否具有这样的属性的标准方式。提出高级语法以方便呈现器或播放器提取这样的信息,以有助于显示或其他后处理。子画面还能够具有不同的分辨率并且可能需要某些上采样以逐渐呈现视图。用户也可能希望具有在高级语法中指示上采样的方法。此外,用以改变深度焦点的参数也可以被传送。
在一实施例中,提出用于在MPEG-4AVC标准相容比特流中用信号通知多视图信息的新的补充增强信息(SEI)消息,其中每个画面包括属于不同视图的子画面。该实施例意图是例如易于并且便于在可以使用这样的框架的三维(3D)监视器上显示多视图视频流。该构思可以被扩展至使用高级语法发信号通知这样的消息的其他视频编码标准和推荐。
此外,在一实施例中,提出在视图被发送至多视图视频编码器和/或解码器之前如何布置它们的信令方法。有利地,该实施例可能导致简化的多视图编码的实现方式并且可能有益于编码效率。通过普通多视图视频编码器和/或解码器(例如,按照当前的基于MPEG-4AVC标准的多视图视频编码的实现方式)某些视图可以被一起放置并且形成伪视图或超级视图并且然后平铺的超级视图被视作正常视图。在多视图视频编码的序列参数集(SPS)扩展中提出表1中示出的新的标志以便发信号通知伪视图技术的使用。该实施例意图是易于并且便于在可以使用这样的框架的3D监视器上显示多视图视频流。
用于多视图编码的另一途径涉及利用可能的下采样操作在较大帧或超级帧上平铺来自每个视图(在同一时间被采样)的画面。转向图1,由参考标号100一般地指示在单个帧上平铺的四个视图的示例。转向图2,由参考标号200一般地指示在单个帧上翻转并平铺的四个视图的示例。由此,如果存在四个视图,那么以类似平铺的超级帧来布置来自每个视图的画面。这造成具有高分辨率的单个未编码的输入序列。该信号可以然后使用诸如ISO/IEC MPEG 2标准和MPEG-4AVC标准之类的现有的视频编码标准来编码。
转向图3,由参考标号300一般地指示根据MPEG-4AVC标准、能够执行视频编码的视频编码器。
视频编码器300包括帧排序缓冲器310,其具有与组合器385的非反相输入端信号通信的输出端。组合器385的输出端与变换器和量化器325的第一输入端信号通信地连接。变换器和量化器325的输出端与熵编码器345的第一输入端和逆变换器和逆量化器350的第一输入端信号通信地连接。熵编码器345的输出端与组合器390的第一非反相输入端信号通信地连接。组合器390的输出端与输出缓冲器335的第一输入端信号通信地连接。
编码器控制器305的第一输出端与帧排序缓冲器310的第二输入端、逆变换和逆量化器350的第二输入端、画面类型判定模块315的输入端、宏块类型(MB-类型)判定模块320的输入端、帧内预测模块360的第二输入端、去块滤波器365的第二输入端、运动补偿器370的第一输入端、运动估计器375的第一输入端,以及参考画面缓冲器380的第二输入端信号通信地连接。
编码器控制器305的第二输出端与补充增强信息(SEI)插入器330的第一输入端、变换器和量化器325的第二输入端、熵编码器345的第二输入端、输出缓冲器335的第二输入端,以及序列参数集(SPS)和画面参数集(PPS)插入器340的输入端信号通信地连接。
画面类型判定模块315的第一输出端与帧排序缓冲器310的第三输入端信号通信地连接。画面类型判定模块315的第二输出端与宏块类型判定模块320的第二输入端信号通信地连接。
序列参数集(SPS)和画面参数集(PPS)插入器340的输出端与组合器390的第三非反相输入端信号通信地连接。SEI插入器330的输出端与组合器390的第二非反相输入端信号通信地连接。
逆量化器和逆变换器350的输出端与组合器319的第一非反相输入端信号通信地连接。组合器319的输出端与帧内预测模块360的第一输入端和去块滤波器365的第一输入端信号通信地连接。去块滤波器365的输出端与参考画面缓冲器380的第一输入端信号通信地连接。参考画面缓冲器380的输出端与运动估计器375的第二输入端和运动补偿器370的第一输入端信号通信地连接。运动估计器375的第一输出端与运动补偿器370的第二输入端信号通信地连接。运动估计器375的第二输出端与熵编码器345的第三输入端信号通信地连接。
运动补偿器370的输出端与开关397的第一输入端信号通信地连接。帧内预测模块360的输出端与开关397的第二输入端信号通信地连接。宏块类型判定模块320的输出端与开关397的第三输入端信号通信地连接,以对开关397提供控制输入端。开关397的第三输入端确定开关的“数据”输入端(与控制输入端比较,即第三输入端)是由运动补偿器370提供还是由帧内预测模块360提供。开关397的输出端与组合器319的第二非反相输入端以及组合器385的反相输入端信号通信地连接。
帧排序缓冲器310和编码器控制器105的输入端可用作编码器300的输入端,用于接收输入画面301。此外,补充增强信息(SEI)插入器330的输入端可用作编码器300的输入端,用于接收元数据。输出缓冲器335的输出端可用作编码器300的输出端,用于输出比特流。
转向图4,由参考标号400一般地指示能够根据MPEG-4AVC标准执行视频解码的视频解码器。
视频解码器400包括输入缓冲器410,其具有与熵解码器445的第一输入端信号通信地连接的输出端。熵解码器445的第一输出端与逆变换器和逆量化器450的第一输入端信号通信地连接。逆变换器和逆量化器450的输出端与组合器425的第二非反相输入端信号通信地连接。组合器425的输出端与去块滤波器465的第二输入端和帧内预测模块460的第一输入端信号通信地连接。去块滤波器465的第二输出端与参考画面缓冲器480的第一输入端信号通信地连接。参考画面缓冲器480的输出端与运动补偿器470的第二输入端信号通信地连接。
熵解码器445的第二输出端与运动补偿器470的第三输入端和去块滤波器465的第一输入端信号通信地连接。熵解码器445的第三输出端与解码器控制器405的输入端信号通信地连接。解码器控制器405的第一输出端与熵解码器445的第二输入端信号通信地连接。解码器控制器405的第二输出端与逆变换器和逆量化器450的第二输入端信号通信地连接。解码器控制器405的第三输出端与去块滤波器465的第三输入端信号通信地连接。解码器控制器405的第四输出端与帧内预测模块460的第二输入端、运动补偿器470的第一输入端、以及参考画面缓冲器480的第二输入端信号通信地连接。
运动补偿器470的输出端与开关497的第一输入端信号通信地连接。帧内预测模块460的输出端与开关497的第二输入端信号通信地连接。开关497的输出端与组合器425的第一非反相输入端信号通信地连接。
输入缓冲器410的输入端可用作解码器400的输入端,用于接收输入比特流。去块滤波器465的第一输出端可用作解码器400的输出端,用于对输出画面进行输出。
转向图5,由参考标号500一般地指示使用MPEG-4AVC标准编码多个视图的画面的示例性方法。
方法500包括将控制传递给功能块504的起始块502。功能块504在特定时间实例(time instance)将每个视图布置为平铺格式的子画面,并且将控制传递给功能块506。功能块506设置语法元素num_coded_views_minusl,并将控制传递给功能块508。功能块508设置语法元素org_pic_width_in_mbs_minusl以及org_pic_height_in_mbs_minusl,并且将控制传递给功能块510。功能块510设置变量i等于零并且将控制传递给判定块512。判定块512确定变量i是否小于视图的数量。如果是这样,则将控制传递给功能块514。否则,将控制传递给功能块524。
功能块514设置语法元素view_id[i],并且将控制传递给功能块516。功能块516设置语法元素num_parts[view_id[i]],并且将控制传递给功能块518。功能块518设置变量j等于零,并且将控制传递给判定块520。判定块520确定变量j的当前值是否小于语法元素num_parts[view_id[i]]的当前值。如果是这样,则将控制传递给功能块522。否则,将控制传递给功能块528。
功能块522设置以下语法元素,递增变量j并然后将控制返回给判定块520:depth_flag[view_id[i]][j];flip_dir[view_id[i]][j];loc_left_offset[view_id[i]][j];loc_top_offset[view_id[i]][j];frame_crop_left_offset[view_id[i]][j];frame_crop_right_offset[view_id[i]][j];frame_crop_top_offset[view_id[i]][j];以及frame_crop_bottom_offset[view_id[i]][j]。
功能块528设置语法元素upsample_view_flag[view_id[i]],并且将控制传递至判定块530。判定块530确定语法元素upsample_view_flag[view_id[i]]的当前值是否等于一。如果是这样,则将控制传递至功能块532。否则,将控制传递至判定块534。
功能块532设置语法元素upsample_filter[view_id[i]],并且将控制传递至判定块534。
判定块534确定语法元素upsample_filter[view_id[i]]的当前值是否等于三。如果是这样,则将控制传递至功能块536。否则,将控制传递至功能块540。
功能块536设置以下语法元素并且将控制传递至功能块538:vert_dim[view_id[i]];hor_dim[view_id[i]];以及quantizer[view_id[i]]。
功能块538设置每个YUV分量的滤波器系数,并且将控制传递至功能块540。
功能块540递增变量i,并且将控制返回给判定块512。
功能块524将这些语法元素写入序列参数集(SPS)、画面参数集(PPS)、补充增强信息(SEI)消息、网络抽象层(NAL)单元首标以及码片首标中的至少一个,并且将控制传递至功能块526。功能块526使用MPEG-4AVC标准或其他单个画面编解码器来编码每个画面,并且将控制传递至结束块599。
转向图6,由参考标号600一般地指示使用MPEG-4AVC标准解码多个视图的画面的示例性方法。
方法600包括将控制传递至功能块604的起始块602。功能块604从序列参数集(SPS)、画面参数集(PPS)、补充增强信息(SEI)消息、网络抽象层(NAL)单元首标以及码片首标中的至少一个分析以下语法元素,并且将控制传递至功能块606。功能块606分析语法元素num_coded_views_minusl,并且将控制传递至功能块608。功能块608分析语法元素
org_pic_width_in_mbs_minus1以及org_pic_height_in_mbs_minusl,并且将控制传递至功能块610。功能块610设置变量i等于零,并且将控制传递至判定块612。判定块612确定变量i是否小于视图的数量。如果是这样,则将控制传递至功能块614。否则,将控制传递至功能块624。
功能块614分析语法元素view_id[i],并且将控制传递至功能块616。功能块616分析语法元素num_parts_minusl[view_id[i]],并且将控制传递至功能块618。功能块618设置变量j等于零,并且将控制传递至判定块620。判定块620确定变量j的当前值是否小于语法元素num_parts[view_id[i]]的当前值。如果是这样,则将控制传递至功能块622。否则,将控制传递至功能块628。
功能块622分析以下语法元素,递增变量j,并且然后将控制返回给判定块620:depth_flag[view_id[i]][j];flip_dir[view_id[i]][j];loc_left_offset[view_id[i]][j];loc_top_offset[view_id[i]][j];frame_crop_left_offset[view_id[i]][j];frame_crop_right_offset[view_id[i]][j];frame_crop_top_offset[view_id[i]][j];以及frame_crop_bottom_offset[view_id[i]][j]。
功能块628分析语法元素upsample_view_flag[view_id[i]],并且将控制传递至判定块630。判定块630确定语法元素upsample_view_flag[view_id[i]]的当前值是否等于一。如果是这样,则将控制传递至功能块632。否则,将控制传递至判定块634。
功能块632分析语法元素upsample_filter[view_id[i]],并且将控制传递至判定块634。
判定块634确定语法元素upsample_filter[view_id[i]]的当前值是否等于三。如果是这样的话,然后将控制传递至功能块636。否则,将控制传递至功能块640。
功能块636分析以下语法元素并且将控制传递至功能块638:vert_dim[view_id[i]];hor_dim[view_id[i]];以及quantizer[view_id[i]]。
功能块638分析每个YUV分量的滤波器系数,并且将控制传递至功能块640。
功能块640递增变量i并且将控制返回给判定块612。
功能块624使用MPEG-4AVC标准或其他单个视图编解码器来解码每个画面,并且将控制传递至功能块626。功能块626使用高级语法将每个视图从画面分离,并且将控制传递至结束块699。
转向图7,由参考标号700一般地指示使用MPEG-4AVC标准来编码多个视图和深度的画面的示例性方法。
方法700包括将控制传递至功能块704的起始块702。功能块704在特定时间实例将每个视图和对应的深度布置为平铺格式的子画面,并且将控制传递给功能块706。功能块706设置语法元素num_coded_views_minusl,并且将控制传递给功能块708。功能块708设置语法元素org_pic_width_in_mbs_minusl以及org_pic_height_in_mbs_minusl,并且将控制传递给功能块710。功能块710设置变量i等于零,并且将控制传递给判定块712。判定块712确定变量i是否小于视图的数量。如果是这样,则将控制传递给功能块714。否则,将控制传递给功能块724。
功能块714设置语法元素view_id[i],并且将控制传递给功能块716。功能块716设置语法元素num_parts[view_id[i]],并且将控制传递给功能块718。功能块718设置变量j等于零,并且将控制传递给判定块720。判定块720确定变量j的当前值是否小于语法元素num_parts[view_id[i]]的当前值。如果是这样的话,则将控制传递给功能块722。否则将控制传递给功能块728。
功能块722设置以下语法元素,递增变量j,并且然后将控制返回给判定块720:depth_flag[view_id[i]][j];flip_dir[view_id[i]][j];loc_left_offset[view_id[i]][j];loc_top_offset[view_id[i]][j];frame_crop_left_offset[view_id[i]][j];frame_crop_right_offset[view_id[i]][j];frame_crop_top_offset[view_id[i]][j];以及
frame_crop_bottom_offset[view_id[i]][j]。
功能块728设置语法元素upsample_view_flag[view_id[i]],并且将控制传递至判定块730。判定块730确定语法元素upsample_view_flag[view_id[i]]的当前值是否等于一。如果是这样的话,则将控制传递至功能块732。否则,将控制传递至判定块734。
功能块732设置语法元素upsample_filter[view_id[i]],并且将控制传递至判定块734。
判定块734确定语法元素upsample_filter[view_id[i]]的当前值是否等于三。如果是这样的话,则将控制传递至功能块736。否则,将控制传递至功能块740。
功能块736设置以下语法元素并将控制传递至功能块738:vert_dim[view_id[i]];hor_dim[view_id[i]];以及quantizer[view_id[i]]。
功能块738设置每个YUV分量的滤波器系数,并且将控制传递至功能块740。
功能块740递增变量i,并且将控制返回给判定块712。
功能块724将这些语法元素写入以下中的至少一个:序列参数集(SPS)、画面参数集(PPS)、补充增强信息(SEI)消息、网络抽象层(NAL)单元首标以及码片首标,并且将控制传递至功能块726。功能块726使用MPEG-4AVC标准或其他单个视图编解码器编码每个画面,并且将控制传递到结束块799。
转向图8,由参考标号800一般地指示使用MPEG-4AVC标准解码多个视图和深度的画面的示例性方法。
方法800包括将控制传递至功能块804的起始块802。功能块分析来自序列参数集(SPS)、画面参数集(PPS)、补充增强信息(SEI)消息、网络抽象层(NAL)单元首标以及码片首标中的至少一个的以下语法元素,并且将控制传递至功能块806。功能块806分析语法元素num_coded_views_minusl,并且将控制传递至功能块808。功能块808分析语法元素org_pic_width_in_mbs_minusl以及org_pic_height_in_mbs_minusl,并且将控制传递至功能块810。功能块810设置变量i等于零,并且将控制传递至判定块812。判定块812确定变量i是否小于视图的数量。如果是这样的话,则将控制传递至功能块814。否则,将控制传递至功能块824。
功能块814分析语法元素view_id[i],并且将控制传递到功能块816。功能块816分析语法元素num_parts_minusl[view_id[i]],并且将控制传递至功能块818。功能块818设置变量j等于零,并且将控制传递至判定块820。判定块820判定变量j的当前值是否小于语法元素num_parts[view_id[i]]的当前值。如果是这样的话,则将控制传递至功能块822。否则,将控制传递至功能块828。
功能块822分析以下语法元素,递增变量j,并且然后将控制返回给判定块820:depth_flag[view_id[i]][j];flip_dir[view_id[i]][j];loc_left_offset[view_id[i]][j];loc_top_offset[view_id[i]][j];frame_crop_left_offset[view_id[i]][j];frame_crop_right_offset[view_id[i]][j];frame_crop_top_offset[view_id[i]][j];以及frame_crop_bottom_offset[view_id[i]][j]。
功能块828分析语法元素upsample_yiew_flag[view_id[i]],并且将控制传递至判定块830。判定块830确定语法元素upsample_view_flag[view_id[i]]的当前值是否等于一。如果是这样的话,则将控制传递至功能块832。否则,将控制传递至判定块834。
功能块832分析语法元素upsample_filter[view_id[i]],并且将控制传递至判定块834。
判定块834确定语法元素upsample_filter[view_id[i]]的当前值是否等于三。如果是这样的话,则将控制传递至功能块836。否则,将控制传递至功能块840。
功能块836分析以下语法元素,并且将控制传递至功能块838:vert_dim[view_id[i]];hor_dim[view_id[i]];以及quantizer[view_id[i]]。
功能块838分析每个YUV分量的滤波器系数,并且将控制传递至功能块840。
功能块840递增变量i,并且将控制返回给判定块812。
功能块824使用MPEG-4AVC标准或其他单个视图编解码器来解码每个画面,并且将控制传递至功能块826。功能块826使用高级语法将每个视图和对应的深度从画面分离,并且将控制传递至功能块827。功能块827潜在地使用提取的视图和深度信号执行视图合成,并且将控制传递至结束块899。
关于图7和图8中使用的深度,图9示出深度信号的示例900,其中提供深度作为图像的每个对应位置的像素值(未示出)。另外,图10示出在平铺1000中包括的两个深度信号的示例。平铺1000的右上部分是具有对应平铺1000的左上的图像的深度值的深度信号。平铺1000的右下部分是具有对应平铺1000的左下的图像的深度值的深度信号。
转向图11,由参考标号1100一般地指示平铺在单个帧上的5个视图的示例。顶部的四个视图在正常方位。第五个视图也在正常方位,但是沿着平铺1100的底部被分为两个部分。第五个视图的左侧部分示出第五个视图的“顶部”,并且第五个视图的右侧部分示出第五个视图的“底部”。
转向图12,由参考标号1200一般地指示示例性多视图视频编码(MVC)编码器。编码器1200包括组合器1205,其具有与变换器1210的输入端信号通信地连接的输出端。变换器1210的输出端与量化器1215的输入端信号通信地连接。量化器1215的输出端与熵编码器1220的输入端以及逆量化器1225的输入端信号通信地连接。逆量化器1225的输出端与逆变换器1230的输入端信号通信地连接。逆变换器1230的输出端与组合器1235的第一非反相输入端信号通信地连接。组合器1235的输出端与帧内预测器1245的输入端以及去块滤波器1250的输入端信号通信地连接。去块滤波器1250的输出端与参考画面存储器1255(用于视图i)的输入端信号通信地连接。参考画面存储器1255的输出端与运动补偿器1275的第一输入端以及运动估计器1280的第一输入端信号通信地连接。运动估计器1280的输出端与运动补偿器1275的第二输入端信号通信地连接。
参考画面存储器1260(用于其他视图)的输出端与视差估计器1270的第一输入端以及视差补偿器1265的第一输入端信号通信地连接。视差估计器1270的输出端与视差补偿器1265的第二输入端信号通信地连接。
熵解码器1220的输出端可用作编码器1200的输出端。组合器1205的非反相输入端可用作编码器1200的输入端,并且其与视差估计器1270的第二输入端以及运动估计器1280的第二输入端信号通信地连接。开关1285的输出端与组合器1235的第二非反相输入端以及组合器1205的反相输入端信号通信地连接。开关1285包括与运动补偿器1275的输出端信号通信地连接的第一输入端、与视差补偿器1265的输出端信号通信地连接的第二输入端,以及与帧内预测器1245的输出端信号通信地连接的第三输入端。
模式判定模块1240具有连接至开关1285的输出端,用于控制由开关1285选择哪个输入端。
转向图13,由参考标号1300一般地指示示例性多视图视频编码(MVC)解码器。解码器1300包括熵解码器1305,其具有与逆量化器1310的输入端信号通信地连接的输出端。逆量化器的输出端与逆变换器1315的输入端信号通信地连接。逆变换器1315的输出端与组合器1320的第一非反相输入端信号通信地连接。组合器1320的输出端与去块滤波器1325的输入端以及帧内预测器1330的输入端信号通信地连接。去块滤波器1325的输出端与参考画面存储器1340(用于视图i)的输入端信号通信地连接。参考画面存储器1340的输出端与运动补偿器1335的第一输入端信号通信地连接。
参考画面存储器1345(用于其他视图)的输出端与视差补偿器1350的第一输入端信号通信地连接。
熵编码器1305的输入端可用作解码器1300的输入端,用于接收残差比特流。此外,模式模块1360的输入端还用作解码器1300的输入端,用于接收控制语法以控制由开关1355选择哪个输入端。另外,运动补偿器1335的第二输入端可用作解码器1300的输入端,用于接收运动矢量。此外,视差补偿器1350的第二输入端可用作解码器1300的输入端,用于接收视差矢量。
开关1355的输出端与组合器1320的第二非反相输入端信号通信地连接。开关1355的第一输入端与视差补偿器1350的输出端信号通信地连接。开关1355的第二输入端与运动补偿器1335的输出端信号通信地连接。开关1355的第三输入端与帧内预测器1330的输出端信号通信地连接。模式模块1360的输出端与开关1355信号通信地连接,用于控制由开关1355选择哪个开关。去块滤波器1325的输出端可用作解码器1300的输出端。
转向图14,由参考标号1400一般地指示使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的、为编码多个视图的画面作准备而处理该画面的示例性方法。
方法1400包括将控制传递给功能块1410的起始块1405。功能块1410在特定时间实例将所有M个视图中的每N个视图布置为平铺格式的超级画面,并且将控制传递给功能块1415。功能块1415设置语法元素num_coded_views_minusl,并且将控制传至功能块1420。功能块1420对所有(num_coded_views_minusl+1)个视图设置语法元素view_id[i],并且将控制传递至功能块1425。功能块1425设置锚点(anchor)画面的视图间参考相关性信息,并且将控制传递至功能块1430。功能块1430设置非锚点画面的视图间参考相关性信息,并且将控制传递至功能块1435。功能块1435设置语法元素pseudo_view_present_flag,并且将控制传递至判定块1440。判定块1440确定语法元素pseudo_view_present_flag的当前值是否等于真(true)。如果是这样的话,将控制传递至功能块1445。否则,将控制传递至结束块1499。
功能块1445设置以下语法元素,并且将控制传递至功能块1450:tiling_mode;org_pic_width_in_mbs_minusl;以及org_pic_height_in_mbs_minusl。功能块1450调用每个编码视图的语法元素pseudo_view_info(view_id),并且将控制传递至结束块1499。
转向图15,由参考标号1500一般地指示使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的、编码多个视图的画面的示例性方法。
方法1500包括起始块1502,其具有输入参数pseudo_view_id,并且将控制传递至功能块1504。功能块1504设置语法元素num_sub_views_minusl,并且将控制传递至功能块1506。功能块1506设置变量i等于零,并且将控制传递至判定块1508。判定块1508确定变量i是否小于sub_views的数量。如果是这样的话,则将控制传递至功能块1510。否则,将控制传递至功能块1520。
功能块1510设置语法元素sub_view_id[i],并且将控制传递至功能块1512。功能块1512设置语法元素num_parts_minusl[sub_view_id[i]],并且将控制传递至功能块1514。功能块1514设置变量j等于零,并且将控制传递至判定块1516。判定块1516确定变量j是否小于语法元素num_parts_minusl[sub_view_id[i]]。如果是这样的话,则将控制传递至功能块1518。否则将控制传递至判定块1522。
功能块1518设置以下语法元素,递增变量j,并且将控制返回给判定块1516:loc_left_offset[sub_view_id[i]][j];loc_top_offset[sub_view_id[i]][j];frame_crop_left_offset[sub_view_id[i]][j];frame_crop_right_offset[sub_view_id[i]][j];frame_crop_top_offset[sub_view_id[i]][j];以及frame_crop_bottom_offset[sub_view_id[i]][j]。
功能块1520使用多视图视频编码(MVC)编码当前视图的当前画面,并且将控制传递至结束块1599。
判定块1522确定语法元素tiling_mode是否等于零。如果这样的话,则将控制传递至功能块1524。否则,将控制传递至功能块1538。
功能块1524设置语法元素flip_dir[sub_view_id[i]]以及语法元素upsample_view_flag[sub_view_id[i]],并且将控制传递至判定块1526。判定块1526确定语法元素upsample_view_flag[sub_view_id[i]]的当前值是否等于一。如果这样的话,则将控制传递至功能块1528。否则,将控制传递至判定块1530。
功能块1528设置语法元素upsample_filter[sub_view_id[i]],并且将控制传递至判定块1530。判定块1530确定语法元素upsample_filter[sub_view_id[i]]的值是否等于三。如果是这样的话,则将控制传递至功能块1532。否则,将控制传递至功能块1536。
功能块1532设置以下语法元素,并且将控制传递至功能块1534:vert_dim[sub_view_id[i]];hor_dim[sub_view_id[i]];以及quantizer[sub_view_id[i]]。功能块1534设置每个YUV分量的滤波器系数,并且将控制传递至功能块1536。
功能块1536递增变量i,并且将控制返回给判定块1508。
功能块1538设置语法元素pixel_dist_x[sub_view_id[i]]以及语法元素flip_dist_y[sub_view_id[i]],并且将控制传递至功能块1540。功能块1540设置变量j等于零,并且将控制传递至判定块1542。判定块1542确定变量j的当前值是否小于语法元素num_parts[sub_view_id[i]]的当前值。如果是这样的话,则将控制传递至功能块1544。否则,将控制传递至功能块1536。
功能块1544设置语法元素num_pixel_tiling_filter__coeffs_minusl[sub_view_id[i]],并且将控制传递至功能块1546。功能块1546设置所有像素平铺滤波器的系数,并且将控制传递至功能块1536。
转向图16,由参考标号1600一般地指示使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的、为解码多个视图的画面做准备而处理该画面的示例性方法。
方法1600包括将控制传递至功能块1615的起始块1605。功能块1615分析语法元素num_coded_views_minusl,并且将控制传递至功能块1620。功能块1620分析所有(num_coded_views_minusl+1)个视图的语法元素view_id[i],并且将控制传递至功能块1625。功能块1625分析锚点画面的视图间参考相关性信息,并且将控制传递至功能块1630。功能块1630分析非锚点画面的视图间参考相关性信息,并且将控制传递至功能块1635。功能块1635分析语法元素pseudo_view_present_flag,并且将控制传递至判定块1640。判定块1640确定语法元素pseudo_view_present_flag的当前值是否等于真。如果是这样的话,则将控制传递至功能块1645。否则将控制传递至结束块1699。
功能块1645分析以下语法元素,并且将控制传递至功能块1650:tiling_mode;org_pic_width_in_mbs_minusl;以及org_pic_height_in_mbs_minusl。功能块1650调用每个编码视图的语法元素pseudo_view_info(view_id),并且将控制传递至结束块1699。
转向图17,由参考标号1700一般地指示使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的、解码多个视图的画面的示例性方法。
方法1700包括起始块1702,其以输入参数pseudo_view_id开始,并且将控制传递至功能块1704。功能块1704分析语法元素num_sub_views_minusl,并且将控制传递至功能块1706。功能块1706设置变量i等于零,并且将控制传递至判定块1708。判定块1708确定变量i是否小于sub_views的数量。如果是这样的话,则将控制传递至功能块1710。否则,将控制传递至功能块1720。
功能块1710分析语法元素sub_view_id[i],并且将控制传递至功能块1712。功能块1712分析语法元素num_parts_minusl[sub_view_id[i]],并且将控制传递至功能块1714。功能块1714设置变量j等于零,并且将控制传递至判定块1716。判定块1716确定变量j是否小于语法元素num_parts_minusl[sub_view_id[i]]。如果是这样的话,则将控制传递至功能块1718。否则,将控制传递至判定块1722。
功能块1718设置以下元素,递增变量j,并且将控制返回给判定块1716:loc_left_offset[sub_view_id[i]][j];loc_top_offset[sub_view_id[i]][j];frame_crop_left_offset[sub_view_id[i]][j];frame_crop_right_offset[sub_view_id[i]][j];frame_crop_top_offset[sub_view_id[i]][j];以及frame_crop_bottom_offset[sub_view_id[i]][j]。
功能块1720使用多视图视频编码(MVC)来解码当前视图的当前画面,并且将控制传递至功能块1721。功能块1721使用高级语法将每个视图从画面分离,并且将控制传递至结束块1799。
使用比特流中指示的高级语法来完成将每个视图从解码画面的分离。该高级语法可以指示:画面中呈现的视图的精确位置和可能的方位(以及可能的对应深度)。
判定块1722确定语法元素tiling_mode是否等于零。如果是这样的话,则将控制传递至功能块1724。否则,将控制传递至功能块1738。
功能块1724分析语法元素flip_dir[sub_view_id[i]]以及语法元素upsample_view_flag[sub_view_id[i]],并且将控制传递至判定块1726。判定块1726确定语法元素upsample_view_flag[sub_view_id[i]]的当前值是否等于一。如果是这样的话,则将控制传递至功能块1728。否则,将控制传递至判定块1730。
功能块1728分析语法元素upsample_filter[sub_view_id[i]],并且将控制传递至判定块1730。判定块1730确定语法元素upsample_filter[sub_view_id[i]]的值是否等于三。如果是这样的话,则将控制传递至功能块1732。否则,将控制传递至功能块1736。
功能块1732分析以下语法元素,并且将控制传递至功能块1734:vert_dim[sub_view_id[i]];hor_dim[sub_view_id[i]];以及quantizer[sub_view_id[i]]。功能块1734分析每个YUV分量的滤波器系数,并且将控制传递至功能块1736。
功能块1736递增变量i,并且将控制传递至判定块1708。
功能块1738分析语法元素pixel_dist_x[sub_view_id[i]]以及语法元素flip_dist_y[sub_view_id[i]],并且将控制传递至功能块1740。功能块1740设置变量j等于零,并且将控制传递至判定块1742。判定块1742确定变量j的当前值是否小于语法元素num_parts[sub_view_id[i]]的当前值。如果是这样的话,则将控制传递至功能块1744。否则,将控制传递至功能块1736。
功能块1744分析语法元素nurn_pixel_tiling_filter_coeffs_minusl[sub_view_id[i]],并且将控制传递至功能块1746。功能块1776分析所有像素平铺滤波器的系数,并且将控制传递至功能块1736。
转向图18,由参考标号1800一般地指示使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的、为编码多个视图的画面做准备而处理该画面的示例性方法。
方法1800包括将控制传递至功能块1810的起始块1805。功能块1810在特定时间实例将全部M个视图中的每N个视图和深度图布置为平铺格式的超级画面,并且将控制传递至功能块1815。功能块1815设置语法元素num_coded_views_minusl,并且将控制传递至功能块1820。功能块1820设置对应view_id[i]的所有(num_coded_views_minusl+1)个深度的语法元素view_id[i],并且将控制传递至功能块1825。功能块1825设置锚点深度画面的视图间参考相关性信息,并且将控制传递至功能块1830。功能块1830设置非锚点深度画面的视图间参考相关性信息,并且将控制传递至功能块1835。功能块1835设置语法元素pseudo_view_present_flag,并且将控制传递至判定块1840。判定块1840确定语法元素pseudo_view_present_flag的当前值是否等于真。如果这样的话,则将控制传递至功能块1845。否则,将控制传递至结束块1899。
功能块1845设置以下语法元素,并且将控制传递至功能块1850:tilingmode;org_pic_width_in_mbs_minusl;以及org_pic_height_in_mbs_minusl。功能块1850调用每个编码视图的语法元素pseudo_view_info(view_id),并且将控制传递至结束块1899。
转向图19,由参考标号1900一般地指示使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的、编码多个视图和深度的画面的示例性方法。
方法1900包括将控制传递至功能块1904的起始块1902。功能块1904设置语法元素num_sub_views_minusl,并且将控制传递至功能块1906。功能块1906设置变量i等于零,并且将控制传递至判定块1908。判定块1908确定变量i是否小于sub_views的数量。如果是这样的话,则将控制传递至功能块1910。否则,将控制传递至功能块1920。
功能块1910设置语法元素sub_view_id[i],并且将控制传递至功能块1912。功能块1912设置语法元素num_parts_minusl[sub_view_id[i]],并且将控制传递至功能块1914。功能块1914设置变量j等于零,并且将控制传递至判定块1916。判定块1916确定变量j是否小于语法元素num_parts_minusl[sub_view_id[i]]。如果是这样的,则将控制传递至功能块1918。否则,将控制传递至判定块1922。
功能块1918设置以下语法元素,递增变量j,并且将控制返回给判定块1916:loc_left_offset[sub_view_id[i]][j];loc_top_offset[sub_view_id[i]][j];frame_crop_left_offset[sub_view_id[i]][j];frarne_crop_right_offset[sub_view_id[i]][j];frame_crop_top_offset[sub_view_id[i]][j];以及frame_crop_bottorn_offset[sub_view_id[i][j]。
功能块1920使用多视图视频编码(MVC)来编码当前视图的当前深度,并且将控制传递至结束块1999。深度信号可以以类似于其对应的视频信号被编码的方式而被编码。例如,视图的深度信号可以被包括在仅包括其它深度信号、或仅包括视频信号或深度和视频信号二者的平铺中。然后将该平铺(伪视图)视为MVC的单个视图,并且还假定存在被视为MVC的其它视图的其他平铺。
判定块1922确定语法元素tiling_mode是否等于零。如果是这样的,则将控制传递至功能块1924,否则,将控制传递至功能块1938。
功能块1924设置语法元素flip_dir[sub_view_id[i]]以及语法元素upsample_view_flag[sub_view_id[i]],并且将控制传递至判定块1926。判定块1926确定语法元素upsample_view_flag[sub_view_id[i]]的当前值是否等于一。如果是这样的话,则将控制传递至功能块1928。否则,将控制传递至功能块1930。
功能块1928设置语法元素upsample_filter[sub_view_id[i]],并且将控制传递至判定块1930。判定块1930确定语法元素upsample_filter[sub_view_id[i]]的值是否等于三。如果是这样的话,则将控制传递至功能块1932。否则将控制传递至功能块1936。
功能块1932设置以下语法元素,并且将控制传递至功能块1934:vert_dim[sub_view_id[i]];hor_dim[sub_view_id[i]];以及quantizer[sub_view_id[i]]。功能块1934设置每个YUV分量的滤波器系数,并且将控制传递至功能块1936。
功能块1936递增变量i,并且将控制返回给判定块1908。
功能块1938设置语法元素pixel_dist_x[sub_view_id[i]]以及语法元素flip_dist_y[sub_view_id[i]],并且将控制传递至功能块1940。功能块1940设置变量j等于零,并且将控制传递至判定块1942。判定块1942确定变量j的当前值是否小于语法元素num_parts[sub_view_id[i]]的当前值。如果是这样的话,则将控制传递至功能块1944。否则,将控制传递至功能块1936。
功能块1944设置语法元素num_pixel_tiling_filter_coeffs_minusl[sub_view_id[i]],并且将控制传递至功能块1946。功能块1946设置所有像素平铺滤波器的系数,并且将控制传递至功能块1936。
转向图20,由参考标号2000一般地指示使用MPEG-4AVC标准的多图图视频编码(MVC)扩展的、为解码多个视图和深度的画面做准备而处理该画面的示例性方法。
方法2000包括将控制传递至功能块2015的起始块2005。功能块2015分析语法元素num_coded_views_minusl,并且将控制传递至功能块2020。功能块2020分析对应于view_id[i]的所有(num_coded_views_minusl+1)个深度的语法元素view_id[i],并且将控制传递至功能块2025。功能块2025分析锚点深度画面的视图间参考相关性信息,并且将控制传递至功能块2030。功能块2030分析非锚点深度画面的视图间参考相关性信息,并且将控制传递至功能块2035。功能块2035分析语法元素pseudo_view_present_flag,并且将控制传递至判定块2040。判定块2040确定语法元素pseudo_view_present_fiag的当前值是否等于真。如果是这样的话,将控制传递至功能块2045。否则,将控制传递至结束块2099。
功能块2045分析以下语法元素,并且将控制传递至功能块2050:tiling_mode;org_pic_width_in_mbs_minusl;以及org_pic_height_in_mbs_minusl。功能块2050调用每个编码视图的语法元素pseudo_view_info(view_id),并且将控制传递至结束块2099。
转向图21,由参考标号2100一般地指示使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的、解码多个视图和深度的画面的示例性方法。
方法2100包括起始块2012,其以输入参数pseudo_view_id开始,并且将控制传递至功能块2104。功能块2104分析语法元素num_sub_views_minusl,并且将控制传递至功能块2106。功能块2106设置变量i为零,并且将控制传递至判定块2108。判定块2108确定变量i是否小于sub_views的数量。如果是这样的话,则将控制传递至功能块2110。否则,将控制传递至功能块2120。
功能块2110分析语法元素sub_view_id[i],并且将控制传递至功能块2112。功能块2112分析语法元素num_parts_minusl[sub_view_id[i]],并且将控制传递至功能块2114。功能块2114设置变量j等于零,并且将控制传递至判定块2116。判定块2116确定变量j是否小于语法元素num_parts_minusl[sub_view_id[i]]。如果是这样的话,则将控制传递至功能块2118。否则,将控制传递至判定块2122。
功能块2118设置以下语法元素,递增变量j,并且将控制返回给判定块2116:loc_left_offset[sub_view_id[i]][j];loc_top_offset[sub_view_id[i]][j];frame_crop_left_offset[sub_view_id[i]][j];frame_crop_right_offset[sub_view_id[i]][j];frame_crop_top_offset[sub_view_id[i]][j];以及frame_crop_bottom_offset[sub_view_id[i][j]。
功能块2120使用多视图视频编码(MVC)解码当前画面,并且将控制传递至功能块2121。功能块2121使用高级语法将每个视图从画面分离,并且将控制传递至结束块2199。使用高级语法分离每个视图如前面所描述。
判定块2122确定语法元素tiling_mode是否等于零。如果是这样的话,则将控制传递至功能块2124。否则,将控制传递至功能块2138。
功能块2124分析语法元素flip_dir[sub_view_id[i]]以及语法元素upsample_view_flag[sub_view_id[i]],并且将控制传递至判定块2126。判定块2126确定语法元素upsample_view_flag[sub_view_id[i]]的当前值是否等于一。如果是这样的话,则将控制传递至功能块2128。否则,将控制传递至判定块2130。
功能块2128分析语法元素upsample_filter[sub_view_id[i]],并且将控制传递至判定块2130。判定块2130确定语法元素upsample_filter[sub_view_id[i]]的值是否等于三。如果是这样的话,将控制传递至功能块2132。否则,将控制传递至功能块2136。
功能块2132分析以下语法元素,并且将控制传递至功能块2134:vert_dim[sub_view_id[i]];hor_dim[sub_view_id[i]];以及quantizer[sub_view_id[i]]。功能块2134分析每个YUV分量的滤波器系数,并且将控制传递至功能块2136。
功能块2136递增变量i,并且将控制返回给判定块2108。
功能块2138分析语法元素pixel_dist_x[sub_view_id[i]]以及语法元素flip_dist_y[sub_view_id[i]],并且将控制传递至功能块2140。功能块2140设置变量j等于零,并且将控制传递至判定块2142。判定块2142确定变量j的当前值是否小于语法元素num_parts[sub_view_id[i]]的当前值。如果是这样的话,将控制传递至功能块2144。否则,将控制传递至功能块2136。
功能块2144分析语法元素num_pixel_tiling_filter_coeffs_minusl[sub_view_id[i]],并且将控制传递至功能块2146。功能块2146分析所有像素平铺滤波器的系数,并且将控制传递至功能块2136。
转向图22,由参考标号2200一般地指示像素级的平铺示例。下面进一步描述图22。
多视图视频编码的应用是自由视点TV(或FTV)。该应用需要用户可以在两个或多个视图之间自由地移动。为了实现这一点,在两个视图之间的“虚拟”视图需要被内插或合成。存在若干执行视图内插的方法。该方法中的一个使用深度用于视图内插/合成。
每个视图可以具有相关联的深度信号。由此,深度可以被视为另一种形式的视频信号。图9示出深度信号900的示例。为了使能诸如FTV之类的应用,深度信号随着视频信号被传送。在提出的平铺框架中,深度信号还可以被添加为平铺中的一个。图10示出添加为平铺的深度信号的示例。在图10的右侧示出深度信号/平铺。
一旦深度被编码为整个帧的一平铺,则高级语法应该指示哪个平铺是深度信号,使得呈现器可以恰当地使用深度信号。
在当使用MPEG-4AVC标准编码器(或对应不同视频编码标准和/或推荐标准的编码器)来编码输入序列(诸如图1中所示出的)的情形中,提出的高级语法可以出现在例如序列参数集(SPS)、画面参数集(PPS)、码片首标,和/或补充增强信息(SEI)消息中。提出的方法的实施例在表1中示出,其中语法出现在补充增强信息(SEI)消息中。
在当使用MPEG-4AVC标准的多视图视频编码(MVC)扩展的编码器(或对应关于不同视频编码标准和/或推荐标准的多视图视频编码标准的编码器)来编码伪视图的输入序列(诸如图1中所示出的)的情形中,提出的高级语法可以出现在SPS、PPS、码片首标、SEI消息或指定的简档(profile)中。提出的方法的实施例在表1中示出。表1示出出现在序列参数集(SPS)结构中的语法元素,包括根据本原理实现的所提出的语法元素。
表1
表2示出用于表1的pseudo_view_info语法元素的语法元素。
表2
下面描述表1和表2中出现的语法元素的语义:
pseudo_view_present_flag等于真指示某些视图是多个子视图的超级视图。
tiling_mode等于0指示在画面级平铺子视图。值1指示在像素级完成平铺。
新SEI消息可以使用没有被用于MPEG-4AVC标准或MPEG-4AVC标准的扩展的SEI载荷类型的值。新SEI消息包括具有下面语义的若干语法元素。
num_coded_views_minusl加1指示由比特流支持的编码视图的数量。num_coded_views_minusl的值在0到1023的范围内,包括0和1023。
org_pic_width_in_mbs_minusl加1指定宏块单位中的每个视图的画面的宽度。
按以下导出宏块单位中的画面宽度的变量:
PicWidthlnMbs=org_pic_width_in_mbs_minusl+1
按以下导出亮度分量的画面宽度的变量:
PicWidthlnSamplesL=PicWidthlnMbs*16
按以下导出色度分量的画面宽度的变量:
PicWidthlnSamplesC=PicWidthlnMbs*MbWidthC
org_pic_height_in_mbs_minusl加1指定宏块单位中每个视图中的画面高度。
按以下导出宏块单位中的画面高度的变量:
PicHeightlnMbs=org_pic_height_in_mbs_minusl+1
按以下导出亮度分量的画面高度的变量:
PicHeightlnSamplesL=PicHeightlnMbs*16
按以下导出色度分量的画面高度的变量:
PicHeightlnSamplesC=PicHeightlnMbs*MbHeightC
num_sub_views_minusl加1指示在当前视图中包括的编码子视图的数量。num_coded_views_minusl的值在0到1023的范围内,包括0和1023。
sub_view_id[i]指定具有由i指示的解码顺序的子视图的sub_view_id。
num_parts[sub_view_id[i]]指定sub_view_id[i]的画面被分成的部分的数量。
loc_left_offset[sub_view_id[i]][j]和loc_top_offset[sub_view_id[i]][j]分别指定在左侧像素偏移和顶部像素偏移中的位置,其中,当前部分j位于具有sub_view_id等于sub_view_id[i]的视图的最终重构画面中。
view_id[i]指定具有由i指示的编码顺序的视图的view_id。frame_crop_left_offset[view_id[i]][j],frame_crop_right_offset[view_id[i]][j],frame_crop_top_offset[view_id[i]][j],以及frame_crop_bottom_offset[view_id[i]][j]根据用于输出的帧坐标中指定的矩形区域来指定作为num_part j和view_id i的一部分的编码视频序列中的画面的样本。
按如下导出变量CropUnitX和CropUnitY:
—如果chroma_format_idc等于0,则按如下导出CropUnitX和CropUnitY:
CropUnitX=1
CropUnitY=2–frame_mbs_only_flag
—否则(chroma_format_idc等于1、2、或3),按如下导出CropUnitX和CropUnitY:
CropUnitX=SubWidthC
CropUnitY=SubHeightC*(2-frame_mbs_only_flag)
该帧剪切矩形包括具有依据如下的水平帧坐标的亮度样本:
CropUnitX*frame_crop_left_offset至PicWidthlnSamplesL-(CropUnitX*frame crop right offset+1)以及垂直帧坐标从CropUnitY*frame crop_topoffset至(16*FrameHeightlnMbs)-(CropUnitY*frame_crop_bottom_offset+1),包括端点。frame_crop_left_offset的值应该在范围0至(PicWidthlnSamplesL/CropUnitX)-(frame_crop_right_offset+1)内,包括端点;并且frame_crop_top_offset的值应该在范围0至(16*FrameHeightlnMbs/CropUnitY)-(frame_crop_bottom_offset+1)内,包括端点。
当chroma_format_idc不等于0时,两个色度矩阵的对应的指定样本是具有帧坐标(x/SubWidthC,y/SubHeightC)的样本,其中(x,y)是指定的亮度样本的帧坐标。
对于解码的场,解码的场的指定样本是落入帧坐标中指定的矩形内的样本。
num_parts[view_id[i]]指定view_id[i]的画面所分成的部分的数量。
depth_flag[view_id[i]]指定当前部分是否是深度信号。如果depth_flag等于零,则当前部分不是深度信号。如果depth_flag等于1,则当前部分是与由view_id[i]标识的视图相关联的深度信号。
flip_dir[sub_view_id[i]][j]指定当前部分的翻转方向。flip_dir等于0指示没有翻转,flip_dir等于1指示水平方向的翻转,flip_dir等于2指示垂直方向的翻转,以及flip_dir等于3指示水平和垂直方向的翻转。
flip_dir[view_id[i]][j]指定当前部分的翻转方向,flip_dir等于0指示没有翻转,flip_dir等于1指示水平方向的翻转,flip_dir等于2指示垂直方向的翻转,并且flip_dir等于3指示水平和垂直方向的翻转。
loc_left_offset[view_id[i]][j]、loc_top_offset[view_id[i]][j]指定像素偏移中的位置,其中当前部分j位于具有view_id等于view_id[i]的视图的最终重构画面中。
upsample_view_flag[view_id[i]]指示属于由view_id[i]指定的视图的该画面是否需要被上采样。upsample_view_flag[view_id[i]]等于0指定具有view_id等于view_id[i]的画面将不被上采样。upsample_view_flag[view_id[i]]等于1指定具有view_id等于view_id[i]的画面将被上采样。
upsample_filter[view_id[i]]指示要用于上采样的滤波器的类型。upsample_filter[view_id[i]]等于0指示应该使用6抽头AVC滤波器,upsample_filter[view_id[i]]等于1指示应该使用4抽头SVC滤波器,upsample_filter[view_id[i]]等于2指示应该使用双线性滤波器,upsample_filter[view_id[i]]等于3指示传送定制滤波器系数。当upsample_filter[view_id[i]]未出现时,将其设置为0。在本实施例中,我们使用2D定制滤波器。这可以容易地扩展至1D滤波器以及某些其他非线性滤波器。
vert_dim[view_id[i]]指定定制2D滤波器的垂直尺寸。
hor_dim[view_id[i]]指定定制2D滤波器的水平尺寸。
quantizer[view_id[i]]指定每个滤波器系数的量化因数。
filter_coeffs[view_id[i]][yuv][y][x]指定量化的滤波器系数,yuv发信号通知应用滤波器系数的分量,yuv等于0指定Y分量,yuv等于1指定U分量,以及yuv等于2指定V分量。
pixel_dist_x[sub_view_id[i]]以及pixel_dist_y[sub_view_id[i]]分别指定在sub_view_id等于sub_view_id[i]的视图中的相邻像素之间、最终重构伪视图中水平方向和垂直方向上的距离。
num_pixel_tiling_filter_coeffs_minusl[sub_view_id[i][j]加一指示当将平铺模式等于1时滤波器系数的数量。
pixel_tiling_filter_coeffs[sub_view_id[i][j]用信号通知代表可以被用于滤波平铺画面的滤波器所需的滤波器系数。
转向图22,由参考标号2210和2220分别指示示出从四个视图平铺的像素的伪视图组成的两个示例。由参考标号2250共同地指示四个视图。在下面的表3中提供图22中的第一示例的语法值。
表3
除了以下两个语法元素:loc_left_offset[3][0]等于5以及loc_top_offset[3][0]等于3之外,图22中的第二示例的语法值全部相同。
偏移指示对应于视图的像素应该在某一偏移位置开始。这在图22中示出(2220)。例如当两个视图产生其中共同的对象表现出从一个视图到另一个视图被位移的图像时,可能进行这一点。例如,如果第一和第二相机(代表第一和第二视图)拍摄对象的画面,与第一视图比较,该对象可能在第二视图中表现出向右位移五个像素。这意味着在第一视图中的像素(i-5,j)对应第二视图中的像素(i,j)。如果两个视图中的像素被简单地逐像素平铺,则在平铺的相邻像素之间可能不存在多少相关性,并且空间编码获益(gain)可能是小的。相反地,通过位移平铺使得来自视图一的像素(i-5,j)邻近来自视图二的像素(i,j)放置,可以增加空间相关性并且也可以增加空间编码获益。这是例如因为第一和第二视图中的对象的对应像素被相互邻近地平铺。
由此,loc_left_offset和loc_top_offset的存在可能有益于编码效率。可以通过外部部件获得偏移信息。例如,相机的位置信息或视图之间的全局视差矢量可能被用于确定这样的偏移信息。
作为偏移的结果,伪视图中的某些像素未被分配来自任何视图的像素值。继续上面的示例,当对于i=0...4的值,沿着来自视图二的像素(i,j)平铺来自视图一的像素(i-5,j)时,不存在用以平铺的来自视图一的像素(i-5,j),所以那些像素在平铺中是空的。对于在伪视图(平铺)中未被分配来自任何视图的像素值的那些像素,至少一种实现方式使用类似AVC中的运动补偿中的子像素内插例程的内插例程。即,空平铺像素可以依据相邻像素被内插。这样的内插可能造成平铺中更大的空间相关性和平铺的更高的编码获益。
在视频编码中,可以为每个画面(诸如I、P和B画面之类)选取不同编码类型。此外,对于多视图视频编码,定义锚点和非锚点画面。在一实施例中,提出编组的判定可以基于画面类型进行。以高级语法用信号通知该编组的信息。
转向图11,由参考标号1100一般地指示在单个帧上平铺的5个视图的示例。具体地,用单个帧上平铺的5个视图示出舞厅序列(ballroom sequence)。此外,可以看出第五个视图被分成两个部分,使得其可以被布置在矩形帧上。在此,每个视图是QVGA大小,所以全部帧尺寸是640×600。由于600不是16的倍数,所以其应该被扩展至608。
对于本示例,可以在表4中示出可能的SEI消息。
表4
表5示出用于传送表4中示出的示例的多视图信息的一般语法结构。
表5
参考图23,示出视频处理设备2300。视频处理设备可以例如是机顶盒或接收编码视频并且向用户提供用于显示的解码视频或者用于存储的解码视频的其他设备。由此,设备2300可以将其输出提供给电视机、计算机监视器或计算机或者其他处理设备。
设备2300包括接收数据信号2320的解码器2310。数据信号2320可以包括例如AVC或MVC相容的流。解码器2310解码所接收的信号2320的全部或一部分并且提供解码视频信号2330和平铺显示信息2340作为输出。向选择器2350提供解码视频2330和平铺信息2340。设备2300还包括接收用户输入2370的用户接口2360。用户接口2360基于用户输入2370向选择器2350提供画面选择信号2380。画面选择信号2380和用户输入2370指示用户期望显示多个画面中的哪一些。选择器2350提供所选择的(多个)画面作为输出2390。选择器2350使用画面选择信息2380以选择解码视频2330中的哪些画面提供作为输出2390。选择器2350使用平铺显示信息2340,以在解码视频2330中放置所选择的(多个)画面。
在各种实现方式中,选择器2350包括用户接口2360,而在其他实现方式中,不需要用户接口2360,这是因为选择器2350直接接收用户输入2370,不需要执行单独的接口功能。选择器2350可以例如以软件实现或者可以实现为集成电路。选择器2350还可以合并解码器2310。
更一般地,在该应用中描述的各种实现方式的解码器可以提供包括全部平铺的解码输出。附加地或可替代地,解码器可以提供仅仅包括从平铺选择的一个或多个画面(例如,图像或深度信号)的解码输出。
如上所述,根据本原理的一个或多个实施例,高级语法可以用于执行用信号通知。高级语法可以例如用于,但不限于用信号通知以下中的任一个:较大帧中呈现的编码视图的数量;所有视图的原始宽度和高度;对于每个编码视图,对应于该视图的视图标识符;对于每个编码视图,视图帧所分成的部分的数量;对于视图的每个部分,翻转方向(其可以是例如未翻转、仅水平翻转、仅垂直翻转,或水平且垂直翻转);对于视图的每个部分,像素中的左侧位置或宏块的数量,其中当前部分属于视图的最终帧;对于视图的每个部分,像素中该部分的顶部位置或宏块的数量,其中当前部分属于视图的最终帧;对于视图的每个部分,像素中剪切窗口的当前大的解码/编码帧的左侧位置或宏块的数量;对于视图的每个部分,像素中剪切窗口的当前大的解码/编码帧的右侧位置或宏块数量;对于视图的每个部分,像素中剪切窗口的当前大的解码/编码帧的顶部位置或宏块数量;以及,对于视图的每个部分,像素中剪切窗口的当前大的解码/编码帧的底部位置或宏块数量;对于每个编码视图,在输出之前视图是否需要被上采样(其中,如果需要执行上采样,则高级语法可以被用于指示用于上采样的方法(包括但不限于AVC 6-抽头滤波器、SVC 4-抽头滤波器、双线性滤波器或定制的1D、2D线性或非线性滤波器))。
应注意,术语“编码器”以及“解码器”意味着一般结构,并且不限于任何特定功能或特征。例如,解码器可以接收携带编码比特流的调制载波,并且解调该编码比特流以及解码比特流。
已经描述各种方法。这些方法中的许多被详述,以提供充分的公开。然而注意,设想可能改变这些方法描述的一个或许多特定特征的变型。另外,叙述的许多特征在本领域是已知的,并且因此不进行详细描述。
另外,已经对在若干实施方式中使用高级语法用于发送某一信息进行引用。然而,应理解其他实现方式使用较低级语法或实际上与其他机制一起使用(诸如,例如发送信息作为编码数据的一部分),以提供相同的信息(或该信息的变型)。
各种实现方式提供平铺和合适的信令,以允许多个视图(更一般地,画面)被平铺为单个画面、被编码为单个画面并且作为单个画面被发送。信令信息可能允许后处理器将视图/画面分离。此外,被平铺的多个画面可以是视图,但画面中的至少一个可以是深度信息。这些实现方式可以提供一个或多个优点。例如,用户可能希望以平铺的方式显示多个视图,并且这些各种实现方式提供通过在编码之前平铺这样的视图并且以平铺的方式传送/存储它们来提供编码并且传送或存储它们的高效方法。
在AVC和/或MVC的背景中平铺多个视图的实现方式还提供附加的优点。AVC表面上仅用于单个画面,所以不期望附加的视图。然而,这样的基于AVC的实现方式可以在AVC环境中提供多个视图,这是因为平铺的视图可以被布置,使得例如解码器知道平铺的画面属于不同的视图(例如,伪视图中的左上画面是视图1,右上画面是视图2,等等)。
此外,MVC已经包括多个视图,所以不期望多个视图被包括在单个伪视图中。另外,MVC对可以被支持的视图的数量具有限制,并且这样的基于MVC的实现方式通过允许(如在基于AVC的实现方式中)附加的视图被平铺来有效地增加可以支持的视图的数量。例如,每个伪视图可能对应于MVC支持的视图中的一个,并且解码器可能知道每个“支持的视图”实际包括以预布置平铺顺序的四个视图。由此,在这样的实现方式中,可能的视图的数量是“支持的视图”的数量的四倍。
在下面的描述中,诸如SEI消息之类的高级语法被扩展至各种实现方式,以包括关于多个空间交织模式中的哪个可归因于被平铺为单个画面的画面的信息。空间交织可以发生在多个模式中,诸如例如并排,从顶部到底部,垂直交织、水平交织和棋盘。此外,语法被扩展至包括关于平铺的画面中的内容的关系信息。关系信息可以包括立体图像中左右画面的指定或者当2D加深度用于画面时作为深度画面的标识,或者甚至画面形成分层的深度视频(LDV)信号的指示。
如已经在本文中的上面所述,语法被设想为在除了SEI消息之外的任何高级语法,诸如,码片首标级、画面参数集(PPS)级、序列参数集(SPS)级、视图参数集(VPS)级和网络抽象层(NAL)单元首标级之类的语法,中实现。此外,设想低级语法可以被用于用信号通知该信息。甚至设想该信息可以以各种方式在波段之外(out of band)被用信号通知。
如在前述的AVC草案修改中描述的棋盘空间交织的SEI消息语法被定义在如下的表6中:
表6
该SEI消息通知解码器使用指示的空间交织方案、由多个区别的画面的空间交织形成输出解码画面。解码器可以使用该SEI消息中的信息,以适当地去交织并且处理画面数据用于显示或其他目的。
表6中的空间交织画面SEI消息的语法的定义值的语义如下:
spatially_interleaved_pictures_id包含可以用于标识对空间交织画面SEI消息的使用的标识数字。
spatially_interleaved_pictures_cancel_flag等于1指示空间交织画面SEI消息以输出顺序取消任何先前空间交织画面SEI消息的持久性(persistence)。spatially_interleaved_pictures_cancel_flag等于0指示空间交织画面跟随。
basic_spatial_interleaving_type_id指示被包括在单个平铺画面中的多个画面的空间交织类型。
basic_spatial_interleaving_type_id等于0指示解码画面的每个分量平面包含对应于两个画面平面的基于“棋盘”的交织,如图26例示。
basic_spatial_interleaving_type_id等于1指示解码画面的每个分量平面包含对应于两个画面平面的基于“棋盘”的交织,如图26例示,并且附加地指示两个构成画面形成如图26例示的立体视图场景的左右视图。
spatially_interleaved_pictures_repetition_period指定空间交织画面SEI消息的持久性并且可以指定画面顺序计数间隔,具有相同的spatially_interleaved_pictures_id值的另一空间交织画面SEI消息或编码视频序列末尾将在该画面顺序计数间隔内呈现于比特流中。
spatially_interleaved_pictures_repetition_period等于0指定空间交织画面SEI消息仅应用于当前解码画面。
spatially_interleaved_pictures_repetition_period等于1指定空间交织画面SEI消息以输出顺序持续直至以下条件中的任一个为真:
-新编码视频顺序开始。
-访问单元中包含具有相同值的spatially_interleaved_pictures_id的空间交织画面SEI消息的画面是具有大于PicOrderCnt(CurrPic)的PicOrderCnt()的输出。
spatially_interleaved_pictures_repetition_period等于0或等于1指示具有相同值的spatially_interleaved_pictures_id的另一空间交织画面SEI消息可能呈现或可能不呈现。
spatially_interleaved_pictures_repetition_period大于1指定空间交织画面SEI消息持续直至以下条件中的任一个为真:
-新编码视频序列开始。
-访问单元中包含具有相同值的spatially_interleaved_pictures_id的空间交织画面SEI消息的画面是具有大于PicOrderCnt(CurrPic)并且小于或等于PicOrderCnt(CurrPic)+spatially_interleaved_pictures_repetition_period的PicOrderCnt()的输出。
spatially_interleaved_pictures_repetition_period大于1指示具有相同值的spatially_interleaved_pictures_id的另一空间交织画面SEI消息将呈现用于作为具有大于PicOrderCnt(CurrPic)并且小于或等于PicOrderCnt(CurrPic)+spatially_interleaved_pictures_repetition_period的PicOrderCnt()的输出的访问单元中的画面;除非比特流结束或者在不需要输出这样的画面的情况下开始新编码视频序列。
additional_extension_flag等于0指示在空间交织画面SEI消息中没有附加数据跟随。
在不需要改变表6中示出的语法的情况下,本应用的实现方式提供示例性SEI消息内的关系信息以及空间交织信息。basic_spatial_interleaving_type_id的可能值范围在该实现方式中被修改并且被扩展,以指示多个空间交织方法,而不是只是一个棋盘方法。此外,参数basic_spatial_interleaving_type_id被利用,以指示在画面中呈现空间交织的特定类型以及构成交织画面彼此相关。在该实现方式中,对于basic_spatial_interleaving_type_id,语义如下:
值2或3意味着单个画面包含如图27中所例示的两个画面的对应平面的“并排”交织。值3附加地意味着两个构成画面形成立体视图场景的左视图和右视图。对于并排交织,将一个画面放置于另一画面的一侧,使得复合画面包括两个并排的图像。
值4或5意味着单个画面包含两个画面的对应平面的“从顶部到底部”交织,如图28所例示。值5附加地意味着两个构成画面形成立体视图场景的左视图和右视图。对于从顶部至底部交织,一个画面放置于另一画面之上,以使出现一个画面在另一画面之上的复合画面。
值6或7意味着单个画面包含两个画面的对应平面的“逐行”交织或简单行交织,如图29所例示。值7附加地意味着两个构成画面形成立体视图场景的左视图和右视图。对于逐行交织,单个画面的连续行从一个构成画面到另一构成画面交替。基本地,单个画面是构成图像的水平码片的交替。
值8或9意味着单个画面包含两个画面的对应平面的“逐列”交织,如图30所例示。值9附加地意味着两个构成画面形成立体视图场景的左视图和右视图。对于逐列交织,单个画面的连续列从一个构成画面到另一个构成画面交替。基本地,单个画面是构成图像的垂直码片的交替。
在用于示例性SEI消息以传递关于相关联的画面的信息的语法的另一个实施例中,若干附加语法元素已经被包括在表7中,以指示附加的信息。包括这样的附加语法元素,例如以指示一个或多个构成画面的方位(例如,翻转),以单独地指示对于图像是否存在左右立体成对关系,以指示任一构成画面是否需要被上采样,以及以指示上采样可能的度数以及方向。
表7
语义被定义如下:
basic_spatial_interleaving_type_id指示画面的空间交织类型。
basic_spatial_interleaving_type_id等于0指示解码画面的每个分量平面包含如早先提出的两个画面的对应平面的基于“棋盘”的交织(见图26)。
basic_spatial_interleaving_type_id等于1指示解码画面的每个分量平面包含两个画面的对应平面的基于“并排”的交织,如图27所例示。
basic_spatial_interleaving_type_id等于2指示解码画面的每个分量平面包含两个画面的对应平面的基于“从顶部到底部”的交织,如图28所例示。
basic_spatial_interleaving_type_id等于3指示解码画面的每个分量平面包含两个画面的对应平面的基于“逐行”的交织,如图29所例示。
basic_spatial_interleaving_type_id等于4指示解码画面的每个分量平面包含两个画面的对应平面的基于“逐列”的交织,如图30所例示。
stereo_pair_flag指示两个构成画面是否具有形成立体视图场景的左视图和右视图的关系。值0指示构成画面不形成左视图和右视图。值1指示它们有关于形成图像的左视图和右视图。
upsample_conversion_horizontal_flag指示解码期间将两个构成画面从单个画面中提取出之后,它们是否需要水平方向上的上采样。值0指示不需要上采样。这对应于采样因数为零。值1指示需要通过采样因数二进行上采样。
upsample_conversion_vertical_flag指示解码期间两个构成画面从单个画面中被提取出后,它们是否需要垂直方向的上采样。值0指示不需要上采样。这对应于采样因数为零。值1指示需要通过采样因数二进行上采样。
如下面更加详细描述的,设想上采样操作的许多方面可以在SEI消息中递送,使得上采样操作在画面解码期间被适当处理。例如,上采样的因数的附加范围可以被指示;上采样滤波器的类型也可以被指示;下采样滤波器也可以被指示使得解码器可以确定合适的或甚至最优的用于上采样的滤波器。还设想包括上采样滤波器系数的数量和值的滤波器系数信息还可以在SEI消息中被指示,使得接收器执行优选的上采样操作。
采样因数指示视频画面的原始大小和采样大小之间的比率。例如,当采样因数是2时,原始画面大小是采样画面大小的两倍。画面大小通常是像素中分辨率的度量。所以,水平下采样的画面需要相同因数的对应水平上采样,以恢复原始视频画面的分辨率。如果原始画面具有例如1024像素的宽度,其可以由采样因数2而被水平地下采样,以变成具有宽度512像素的下采样画面。画面大小通常是像素中的分辨率的度量。可以示出用于垂直下采样或上采样的类似分析。可以将采样因数应用于依靠组合的水平和垂直途径的下采样或上采样。
flip_flag指示第二构成画面是否被翻转。值0指示在该画面中不呈现翻转。值1指示执行翻转。本领域的技术人员应理解,翻转涉及关于画面平面中的中心轴的180°旋转。在该实施例中,交织类型确定翻转方向。例如,当并排交织(basic_spatial_interleaving_type_id等于1)出现在构成画面中,如果由flip_flag的适当值指示,优选在水平方向(即,关于垂直轴)翻转右手画面(见图31)。当从顶部到底部空间交织(basic_spatial_interleaving_type_id等于2)出现在构成画面中,如果由flip_flag的合适值指示,优选在垂直方向(即,关于中心水平轴)翻转底部画面(见图32)。虽然在此已经描述翻转第二构成画面,但设想另一示例性实施例可以涉及翻转第一画面,诸如以顶部到底部交织的顶部画面或以并排交织中的左侧画面。当然,为了处理flip_flag的这些附加自由度,可能必须增加值的范围或引入关于其的另外语义。
还设想附加实施利可能允许在水平和垂直方向二者中翻转画面。例如,当如图2所示每个象限一个视图(即,画面)、在单个画面中一起平铺四个视图时,能够使左上象限包括没有被翻转的第一视图,而右上象限包括仅水平翻转的第二视图,而左下象限包括仅垂直翻转的第三视图,而右下象限包括水平和垂直二者翻转的第四视图。通过以该方式的平铺或交织,可以看出在视图之间的接口的边界具有以下的大的似然性:画面中相邻视图的边界的两侧上具有共同的场景内容。该翻转类型可以提供附加的压缩效率。在本公开的范围内设想该翻转类型的指示。
还设想可以采用表7中的语法用于处理2D加深度交织。可以开发例如接受这样的格式作为输入的商业显示器。在表8中阐述这样的应用的示例性语法。很多语义已经被如上地定义。下面仅仅描述新引入的语义。
表8
semantics_id替代现有示例性实施例中的stereo_pair_flag并且被用于指示什么关系意图用于两个交织的画面,换言之,这两个画面在物理上意味着什么。值0指示两个构成画面形成图像的左视图和右视图。值1指示第二画面代表第一构成画面的对应深度图。图34示出示例性单个画面,其中,构成视频和深度图像(例如,2D+Z)被并排交织。应理解可以由basic_spatial_interleaving_type_id的特定值指示其他交织方法。值2指示两个交织画面之间的关系未被指定。大于2的值可以被用于指示附加关系。
camera_parameter_set指示与相机相关的场景的参数。参数可以出现在同一SEI消息中或者参数可以在另一SEI消息中递送,或者它们可以出现在诸如SPS、PPS、码片首标等之类的其他语法中。相机参数一般地包括至少焦距、基线距离、(多个)相机位置、Znear(场景和相机之间的最小距离)以及Zfar(场景和相机之间的最大距离)。相机参数集还可以包括每个相机的全部参数集,包括3x3本征(intrinsic)矩阵、3x3旋转矩阵以及3D变换矢量。例如在呈现时并且还可能在编码中使用该相机参数。
当使用SEI消息或与表8中示出的语法相当的其他语法时,可能能够避免需要视频和深度之间系统级的同步的需要。该结果是因为视频和相关联的深度已经被平铺为一个单个帧。
图33示出画面的层深度视频(LDV)格式。在该图中,四个画面被并排并且从顶部至底部地交织,以形成复合(composite)画面。左上象限画面代表中间视图层,而右上象限画面代表中间深度层。类似地,左下象限画面代表遮挡视图层,而右下象限画面代表遮挡深度层。图33中示出的格式可以用作商业自动立体显示器的输入格式
使用类似前面实施利中示出的语法的语法来指示LDV的出现。首先,semantics_id的语义被扩展,以引入如下的LDV选项:
表9
semantics_id指示画面之间的关系,即,交织画面相互之间在物理上意味着什么。
值从0至2意味着两个画面如上所定义地相关。值0指示两个画面形成左视图和右视图。该值还可以指示视图是场景的立体视图。值1指示第二视图代表第一画面的对应深度图,即,一组2D+Z画面。值2指示未指定两个交织画面之间的关系。
值3指示四个分量画面被交织并且它们对应于例如图33所示的LDV代表的四个分量画面。可以利用大于3的值用于附加的关系指示。
在此设想的附加关系指示包括但不限于:多个视图是多个2D+Z画面集(也已知为多视图加深度(MVD))的指示;多个视图代表两个LDV画面集(已知为深度增强立体(DES))中的图像的指示。
当semantics_id等于3并且basic_spatial_interleaving_type_id等于1(并排)或2(从顶部到底部),四个分量画面被如图33所示地交织。
当semantics_id等于3并且basic_spatial_interleaving_type_id等于0时,如果相对视图0的视图1、2和3的偏移附加地由特定的指示(诸如经由语法中的新语义)发信号通知,则如图22所例示地,如示例1(要素2210),或示例2(要素2220),交织四个画面。设想当semantics_id等于3时,如图22的示例1(要素2210)所示的,为LDV画面执行交织。还设想当semantics_id等于4时,如图22的示例2(要素2220)所示的,为LDV画面执行交织。以上已经关于图22描述了具有偏移和不具有偏移的LDV的交织。
如上所述,可以使用2D视频编码标准来编码3D/立体视频内容。帧打包方法允许将在空间上或甚至在时间上将下采样的视图打包为一个帧用于编码。解码帧被解包为多个构成视图,其然后被一般地上采样至原始分辨率。
上采样,以及更具体地,上采样滤波器在构成视图或画面的重构质量中起到重要的作用。上采样滤波器的选择典型地依赖于编码器中使用的下采样滤波器。如果关于下采样或者上采样滤波器的信息在比特流中或者由其他非标准手段递送至解码器,则可以改进每个上采样的解码画面的质量。虽然解码器中上采样滤波器的特性不一定受到编码器中下采样滤波器的特性的约束,诸如单独的逆向或彼此相反的关系,但可以预期匹配的上采样滤波器提供最优的信号重构。在至少一个来自实验实践的实现方式中,已经确定SEI消息可以被用于向解码器用信号通知上采样参数。在其它实现方式中,设想在SEI消息内向视频解码器指示上采样和下采样滤波器参数。如上所描述,在图3和图4中分别描绘典型H.264/MPEG-4AVC视频编码器和解码器。这些设备适合对在此公开的各种实现方式的方面进行实践。此外,不适应H.264/MPEG-4AVC或甚至不以H.264/MPEG-4AVC操作的其他设备适合对本申请中描述的各种实现方式进行实践。
如上所描述,以下在H.264/MPEG-4AVC帧打包的框架内定义帧打包上采样SEI消息用于发信号通知各种上采样滤波器。该语法不旨在仅仅限制于SEI消息,因为设想该消息信息还可以由其他手段提供,诸如例如用于高级语法中,诸如例如SPS、PPS、VPS、码片首标,以及NAL首标。
在使用上采样信息的示例性实施例中,将上采样滤波器选择为具有由表示在以下形式中的k个非空系数定义的奇数个抽头的2维对称FIR滤波器:
ck,0,ck-1,0,...,c1,1,c1,0,...,0,ck-1,0,ck
滤波器系数ci被归一化,使得在范围{1,…,k}中的i,所有系数ci的总和是0.5。
通过在下面更详细呈现的一系列步骤来描述使用上面示出的滤波器参数的示例性水平上采样处理。原始图像被描绘为m×n矩阵X。将矩阵A定义为具有以下属性的n×(2k+n)矩阵:
A = [ D 0 ( n - k ) , k | I n , n | 0 ( n , k ) , k D ] ,
其中
是k×k反向对角单位矩阵。使用如下的张量积(tensor product)操作将原始图像X转换为新图像矩阵X’:
X ′ = ( XA ) ⊗ 1 0 .
将矩阵H定义为如下的n×(4k+n-1)矩阵,其包括沿着每个连续行位移的并且填充有前导和/或拖尾零的、上面示出的k个非空抽头系数(即,ck,0,ck-1,0,…,c1,1,c1,0,…,0,ck-1,0,ck):
H = c k 0 . . . c 1 1 c 1 . . . c k 0 0 . . . 0 c k 0 . . . c 1 1 c 1 . . . c k 0 . . . . . . . . . 0 c k 0 . . . c 1 1 c 1 . . . c k 0 .
水平上采样之后的输出图像矩阵Y然后表示为:
YT=HX′T
以类似的方式,将示例性垂直上采样处理描述如下。新矩阵A′被定义为类似如下矩阵:
A ′ = [ D 0 ( m - k ) , k | I m , m | 0 ( m , k ) , k D ] .
然后经由下面所示张量积操作将图像Y转换为新图像矩阵Y′:
Y ′ = ( YA ′ ) ⊗ 1 0 .
垂直上采样之后的输出图像矩阵然后表示为:
FT=HY′T
矩阵F是水平和垂直上采样转换之后的最终图像矩阵。
已经将上面示例中的上采样描绘为水平和垂直二者的操作。设想操作顺序可以逆向,使得在水平上采样之前进行垂直上采样。此外,设想在某些情形中仅仅可以进行一种类型的上采样。
为了使用SEI消息将上采样信息传递到解码器,设想某些语义必须被包括在上面呈现的语法内。在下面表10中示出的语法包括用于视频解码器处的上采样的信息。下面的语法已经被删节,以仅仅示出传递上采样信息必需的参数。本领域的技术人员将理解下面示出的语法可以与现有语法的任何一个或多个组合来传递例如与关系指示、方位指示、上采样指示和空间交织指示有关的大量帧打包信息。
表10
下面将语法元素的语义定义如下:
number_of_horizontal_filter_parameters[c]指示色彩分量c的(4k-1)个抽头水平滤波器的阶(order),其中c是三个不同色彩分量之一。
h[c][i]指定在-215到215-1范围的16比特精度的色彩分量c的水平滤波器的第i个系数。滤波器的基准是216
number_of_vertical_filter_parameter指示色彩分量c的(4k-1)个抽头垂直滤波器的阶。
v[c][i]指定在-215到215-1范围的16比特精度的色彩分量c的垂直滤波器的第i个系数。滤波器的基准是216
对于该语法,假设已知滤波器类型呈现在解码器中。然而,设想除了或替代上面描述的2维对称FIR滤波器,可以使用各种不同类型的上采样滤波器。这样的其他上采样滤波器包括但不限于,任何内插滤波器设计,诸如双线性滤波器、三次滤波器、样条滤波器、维纳(Wiener)滤波器或最小平方滤波器。当其他滤波器类型可用时,设想上面的语法应该扩展至包括一个或多个语义来指示关于上采样滤波器类型的信息。
本领域的技术人员将理解可以基于诸如下采样滤波器信息等之类的各种输入、在编码器导出上采样滤波器参数用于包括在SEI消息中。此外,还将理解这样的信息可以简单地提供编码器用于包括在SEI消息中。
还设想表10中示出的语法可以被修改,以替代上采样滤波器参数而传送下采样滤波器参数。在该实施例中,向解码器指示下采样滤波器参数给予解码应用基于下采样滤波器参数来确定最优上采样滤波器参数的能力。类似的语法和语义可以用于用信号通知下采样滤波器。可以包括语义,以指示参数表示下采样滤波器还是上采样滤波器。
如果解码器要确定最优的上采样滤波器,则解码器可以以本领域已知的任何方式来进行这样的确定。此外,解码器可以确定不是最优的或者不一定是最优的上采样滤波器。在解码器处的确定可以基于处理限制或显示参数考虑等。作为进一步的示例,解码器可以初始地选择多个不同类型的上采样滤波器并且然后最终选择用于产生通过某些解码器标准确定的、对解码器最优的结果的一个滤波器。
在图35中示出用于示出与上采样滤波器信息的指示有关的示例性编码技术的流程图并且简略描述如下。初始地,确定编码器配置并且创建高级语法。下采样滤波器下采样画面(例如,视图),用于打包为帧。下采样的画面在空间上交织为帧。上采样滤波器参数由编码器确定并且直接提供给编码器。在一个实施例中,从下采样滤波器导出上采样滤波器参数,诸如类型、大小和系数值。对于每个色彩分量(例如,YUV、RGB),确定水平和垂直上采样滤波器参数的数量和值。这一点在图35中用三个循环示出:第一循环用于分量、第二循环(嵌入在第一循环)用于分量的水平滤波器参数、以及第三循环(嵌入在第一循环)用于分量的垂直滤波器参数。上采样滤波器参数然后被写入SEI消息。SEI消息然后与视频图像比特流分开地(波段外)或者与视频图像比特流一起地(波段内)被发送至解码器。当需要时,编码器组合消息与打包帧序列。
对比图35中描绘的编码方法,图37中示出的替代实施例示出了下采样滤波器参数替代上采样滤波器参数而包括在SEI消息中。在该实施例中,上采样滤波器参数不从编码器导出并且不随打包帧传递至解码器。
在图36中示出了用于示出与上采样滤波器信息的指示有关的示例性解码技术的流程图并且简略描述如下。初始地,解码器接收SEI消息以及其他相关消息并且由解码器读取语法。分析SEI消息以确定在其中包括的信息,包括采样信息、交织信息等。在该示例中,确定每个色彩分量的上采样滤波器信息被包括在SEI消息中。提取垂直和水平上采样滤波器信息,以获得每个水平和垂直上采样滤波器系数的数量和值。在图36中用三个循环示出该提取:第一循环用于分量、第二循环(嵌入在第一循环)用于分量的水平滤波器参数、以及第三循环(嵌入在第一循环)用于分量的垂直滤波器参数。SEI消息然后被存储并且打包帧序列被解码以获得其中打包的画面。然后使用恢复的上采样滤波器参数来上采样画面,以将画面还原到它们原始的全分辨率。
对比图36中描绘的解码方法,图38中示出的替代实施例示出了下采样滤波器参数替代上采样滤波器参数被包括在SEI消息中。在该实施例中,上采样滤波器参数不从编码器导出并且不随打包帧传递至解码器。因此,解码器使用接收的下采样滤波器参数来导出上采样滤波器参数,以用于将完全的原始分辨率还原到从打包视频帧的交织中提取的画面。
图39示出根据本原理的实现方式、可以应用本原理的示例性视频传输系统2500。视频传输系统2500可以例如是首端(head-end)或者是传输系统,其使用诸如例如卫星、线缆、电话线或地面广播之类的多种介质中的任一个传送信号。传输可以通过因特网或某些其他网络提供。
视频传输系统2500能够生成并且传递具有深度的压缩视频。通过生成(多个)编码信号来实现这一点,所述编码信号包括深度信息或者能够用于在例如可以具有解码器的接收器端合成深度信息的信息。
视频传输系统2500包括编码器2510和能够传送编码信号的传送器2520。编码器2510接收视频信息并且生成具有深度的(多个)编码信号。编码器2510可以具有子模块,包括组装单元,例如用于接收各条信息并且将其组装(assembly)为用于存储或者传送的结构化格式。各条信息可以包括例如编码或者未编码的视频、编码或未编码的深度信息以及编码或未编码的元素,诸如例如运动矢量、编码模式指示符和语法元素。
传送器2520可以例如适配于传送具有一个或多个表示编码画面和/或与其有关的信息的比特流的节目信号。典型的传送器执行以下的一个或多个功能,诸如例如提供纠错编码、交织信号中的数据、随机化信号中的能量,和/或将信号调制到一个或多个载波上。传送器可以包括天线(未示出)或者与天线对接。因此,传送器2520的实现方式可以包括或限于调制器。
图40示出根据本原理的实施例、可以应用本原理的示例性视频接收系统2600。视频接收系统2600可以被配置为通过诸如例如卫星、线缆、电话线或地面广播之类的多种介质来接收信号。该信号可以通过因特网或某些其他网络接收。
视频接收系统2600可能例如是蜂窝电话、计算机、机顶盒、电视机或接收编码视频并且例如向用户提供用于显示的解码视频或者提供用于存储的解码视频的其他设备。由此,视频接收系统2600可以向例如电视机屏幕、计算机监视器、计算机(用于存储、处理或显示)或某些其他存储、处理或显示设备提供其输出。
视频接收系统2600能够接收并且处理包括视频信息的视频内容。视频接收系统2600包括能够接收诸如例如在本申请的实现方式中描述的信号之类的编码信号的接收器2610,以及能够解码接收信号的解码器2620。
接收器2610可以例如适配于接收具有表示编码画面的多个比特流的节目信号。典型的接收器执行以下一个或多个功能,诸如例如接收调制和编码的数据信号、从一个或多个载波解调数据信号、去随机化信号中的能量、去交织信号中的数据,和/或纠错解码信号。接收器2610可以包括天线(未示出)或者与天线接口。因此,接收器2610的实现方式可以包括或限于解调器。解码器2620输出包括视频信息和深度信息的视频信号。
图41示出根据本原理的实施例、可以应用本原理的示例性视频处理设备2700。视频处理设备2700可能例如是机顶盒或者接收编码视频并且例如向用户提供用于显示的解码视频或者提供用于存储的解码视频的其他设备。由此,视频处理设备2700可以向电视机、计算机监视器或计算机或者其他处理设备提供其输出。
视频处理设备2700包括前端(FE)设备2705和解码器2710。前端设备2705可以例如是接收器,其被适配以接收具有表示编码画面的多个比特流的节目信号,并且从多个比特流选择用于解码的一个或多个比特流。典型的接收器执行以下一个或多个功能,诸如例如接收调制和编码的数据信号、解调数据信号、解码数据信号的一个或多个编码(例如,信道编码和/或源编码)、和/或纠错数据信号。前端设备2705可以例如从天线(未示出)接收节目信号。前端设备2705向解码器2710提供接收的数据信号。
解码器2710接收数据信号2720。数据信号2720可以包括例如一个或多个高级视频编码(AVC)、可分级视频编码(SVC)或多视图视频编码(MVC)相容的流。
解码器2710解码接收的信号2720的全部或者部分并且通过作为输出的解码的视频信号2730。解码视频2730被提供至选择器2750。设备2700还包括接收用户输入2770的用户接口2760。用户接口2760基于用户输入2770向选择器2750提供画面选择信号2780。画面选择信号2780和用户输入2770指示用户期望显示可用的解码数据中的多个画面、序列、可分级版本、视图或其他选择中的哪些。选择器2750提供(多个)选择画面作为输出2790。选择器2750使用画面选择信息2780来选择作为输出2790提供的解码视频2730中哪些画面。
在各种实现方式中,选择器2750包括用户接口2760,而在其他实现方式中不需要用户接口2760,这是因为选择器2750直接接收用户输入2770,不需要执行单独的接口功能。选择器2750例如可以以软件实现或可以实现为集成电路。在一个实现方式中,选择器2750与解码器2710合并,并且在另一个实现方式中,解码器2710、选择器2750和用户接口2760全部被集成。
在一种应用中,前端2705接收各种电视节目广播并且选择一个用于处理。选择一个节目是基于对于期望观看的频道的用户输入。虽然在图41中未示出用户对于前端设备2705的输入,但是前端设备2705接收用户输入2770。前端2705接收广播并且通过解调广播频谱的相关部分、并且解码解调节目的任何外部编码来处理期望的节目。前端2705向解码器2710提供解码节目。解码器2710是包括设备2760和2750的集成单元。由此解码器2710接收作为用户提供的、节目中期望观看的视图的指示的用户输入。解码器2710解码选择的视图,以及来自其他视图的所需任何参考画面,并且提供解码视图2790用于在电视上显示(未示出)。
继续上面的应用,用户可能期望切换被显示的视图并且可以然后向解码器2710提供新输入。从用户接收“视图改变”之后,解码器2710解码旧视图和新视图二者,以及在旧视图和新视图中间的任何视图。即,解码器2710解码在物理上位于拍摄旧视图的相机和拍摄新视图的相机之间的相机拍摄的任何视图。前端设备2705还接收标识旧视图、新视图和之间的视图的信息。例如可以通过具有关于视图位置的信息的控制器(图41中未示出)或者解码器2710提供这样的信息。其他实现方式可以使用具有与前端设备集成的控制器的前端设备。
解码器2710提供所有这些解码视图作为输出2790。后处理器(图41中未示出)在视图之间进行内插,以提供从旧视图到新视图的平滑过渡,并且向用户显示该过渡。过渡到新视图之后,后处理器向解码器2710以及前端装置2705通知(通过未示出的一个或多个通信链路)仅仅需要新视图。此后,解码器2710仅仅提供新视图作为输出2790。
系统2700可以用于接收图像序列的多个视图,并且呈现单个视图用于显示,并且以平滑的方式在各个视图之间切换。平滑方式可以涉及视图之间的内插以移动到另一视图。此外。系统2700可以允许用户旋转对象或者场景或者以其它方式看到对象或者场景的三维表示。物体的旋转例如可以与视图到视图的移动、以及视图之间的内插对应,来获得视图之间的平滑过渡或者简单地获得三维表示。即,用户可以“选择”内插视图作为要显示的“视图”。
如在此呈现的,本申请中描述的实现方式和特征可以用于编码视频、编码深度和/或编码其他类型数据的背景中。此外,这些实现方式和特征可以用于或适配用于以下背景中:H.264/MPEG-4AVC(AVC)标准、具有MVC扩展的AVC标准、具有SVC扩展的AVC标准、3DV标准,和/或具有其他标准(现有或未来的),或者在不涉及标准的背景中。因此,应理解,根据AVC操作的本申请中描述的特定实现方式不意图限制于AVC,并且可以适配用于AVC之外。
如上所述,实现方式可以使用各种技术发信号通知或者指示信息,包括但不限于以下:SEI消息、码片首标、其他高级语法、非高级语法、波段外信息、数据流数据和隐式信令。虽然可以在具体背景中描述在此描述的实现方式,但是这样的描述绝不应该被认为将特征和构思限制于这样的实现方式或背景中。
各种实现方式涉及解码。如在本申请中使用的“解码”可以包括例如在接收编码序列上执行的处理的全部或部分,以产生最终适合于显示的输出。这样的处理可以包括由解码器典型执行的处理,诸如例如熵解码、逆变换、逆量化、差分解码(differential decoding)之类。这样的处理还可以或者可替代地包括本申请中描述的各种实现方式的解码器执行的处理,诸如例如从平铺(打包)画面提取画面、确定使用的上采样滤波器以及然后上采样画面,并且将画面翻转回到其意图的方位。
在本申请中描述的各种实现方式将多个画面组合成单个画面。组合画面的处理可能涉及例如基于例如画面之间的关系选择画面、空间交织、采样、以及改变画面的方位。因此,描述组合处理的信息可能包括例如关系信息、空间交织信息、采样信息以及方位信息。
在描述各种实现方式中引用空间交织。如在本申请中使用的“交织”还称作例如“平铺”和“打包”。交织包括各种类型的交织,包括例如,画面的并排并置(juxtaposition)、画面的从顶部到底部并置、并排并且从顶部到底部地组合(例如,组合4个画面)、逐行交替、逐列交替以及各种像素级(也称作按像素方式或基于像素的)方案。
此外,如在这里所使用的,词语“画面”和“图像”可互换地使用并且指代例如静止画面的全部或部分或来自视频序列的画面的全部或部分。如已知的,画面可以是帧或场。此外,如在这里使用的,画面还可以是帧的子集,诸如例如帧的上半部、单个宏块、交替列、交替行或周期性的像素。作为另一个实施例,深度画面例如可以是完全深度图或者仅仅包括例如对应视频帧的单个宏块的深度信息的部分深度图。
本说明书中对本原理的“一个实施例”或“实施例”或者“一个实现方式”或“实现方式”以及其其他变型的引用意味着在本原理的至少一个实施例中包括与该实施例相联系地描述的特定的特征、结构、特性等。因而,贯穿本说明书的多处出现的短语“在一个实施例中”或“在实施例中”或者“在一个实现方式中”或“在实现方式中”以及任何其他变型的出现不一定都指代相同的实施例。
将要理解,如下“/”、“和/或”、和“至少一个”的任何一种的使用,例如,在“A/B”、“A和/或B”、和“A和B的至少一个”的情形下,意图在包含只选择第一列出选项(A),或只选择第二列出选项(B),或选择两个选项(A和B)。作为进一步的例子,在“A、B和/或C”和“A、B和C的至少一个”和“A、B或C的至少一个”的情形下,这样的措词意图包含只选择第一列出选项(A),或只选择第二列出选项(B),或只选择第三列出选项(C),或只选择第一和第二列出选项(A和B),或只选择第一和第三列出选项(A和C),或只选择第二和第三列出选项(B和C),或选择所有三个选项(A和B和C)。本领域及相关领域的普通技术人员容易明白,这可以扩展到许多列出项目。
此外,本申请或其权利要求可以引用“确定”各种信息。确定信息可以包括以下的一个或多个:例如估计信息、计算信息、预测信息或从存储器检索信息的。
类似地,“访问”意图是宽泛的术语。访问信息片断可以包括任何操作,例如使用、存储、发送、传送、接收、检索、修改或提供信息。
应理解在图中示出的元素可以实现为各种形式的硬件、软件或其组合。优选地,在可能包括处理器、存储器和输入/输出接口的一个或多个合适的编程的通用设备上将这些要素实现为硬件和软件的组合。此外,在此描述的实现方式可以实现为例如方法或处理、装置或者软件程序。即使仅仅在单个形式的实现方式的上下文中讨论(例如,仅仅讨论方法),讨论的特征的实现方式还可以实现为其他形式(例如,装置或程序)。可以如上提及地实现装置。在例如一般指代包括例如计算机、微处理器、集成电路或可编程逻辑器件的处理设备的诸如例如处理装置之类的装置中可以实现该方法。处理设备还包括通信设备,诸如例如计算机、蜂窝电话、便携式/个人数字助理(“PDA”)以及方便终端用户之间通信信息的其他设备。
在此描述的各种处理和特征的实现方式可以体现在多种不同装备或应用中,特别是例如与数据编码和解码相关联的装备或应用中。装备的示例包括视频编码器、视频解码器、视频编解码器、万维网服务器、机顶盒、膝上型电脑、个人计算机、蜂窝电话、PDA、其他通信设备、个人记录设备(例如,PVR、计算机运行记录软件、VHS记录设备)、可携式摄像机、因特网或其他通信链路上的数据流以及视频点播。应该清楚,该装备可以是移动的,甚至安装在机动车中。
另外,这些方法可以通过处理器执行指令来实现,这样的指令可以存储在处理器可读介质中,诸如例如集成电路、软件载体或者其他存储装置,诸如例如硬盘、致密盘、随机存取存储器(“RAM”)或者只读存储器(“ROM”)中。这些指令可以形成有形地体现在处理器可读介质上的应用程序。应该清楚,处理器可以包括具有例如执行处理的指令的处理器可读介质。可以将该应用程序上载到包括任何合适架构的机器,并由其执行。优选地,在具有诸如一个或多个中央处理单元(“CPU”)、随机存取存储器(“RAM”)、以及输入/输出(“I/O”)接口之类的硬件的计算机平台上实现该机器。该计算机平台还可以包括操作系统和微指令代码。在此描述的各种处理和功能可以是由CPU可以执行的微指令代码的一部分、或者应用程序的一部分、或者是其的任何组合。此外,诸如附加数据存储单元和打印单元之类的各种其它的外设单元可与该计算机平台连接。
对于本领域的普通技术人员明显的是,实现方式还可以产生被格式化为携带可以例如被存储或发送的信息的信号。该信息可以包括,例如,执行一种方法的指令,或由描述的实现方式之一产生的数据。这样的信号可以被格式化为例如电磁波(例如,使用频谱的射频部分)或基带信号。格式化可以包括例如编码数据流、产生语法并且用编码数据流和语法调制载波。信号携带的信息可以是,例如,模拟信息或数字信息。信号可以在已知的多种不同有线或无线链路上传送。
还要理解的是因为优选地以软件实现附图中描绘的某些构成系统组件和方法,所以取决于对本原理进行编程的方式,该系统组件或处理功能块之间的实际连接可能有所不同。给定在此的教导,相关领域的普通技术人员将能够设想到本原理的这些和类似的实现方式或配置。
已经描述了许多实现方式。不过,应该明白,可以做出各种修改。例如,可以组合、补充、修改或删除不同实现方式的要素来产生其他实现方式。另外,本领域的普通技术人员应该明白,可以用其他结构和处理来替代所公开的那些,并且所得实现方式将以至少基本相同的(多个)方式执行至少基本相同的(多个)功能,以实现与所公开实现方式至少基本相同的(多个)结果。具体地,虽然在这里已经参考附图描述了例示性的实施例,但应当理解,本原理不限于这些精确的实施例,而相关领域普通技术人员可以在其中实现各种改变和修改,而不脱离本原理的范围或精神。因此,这些和其他实现方式可以通过本申请来设想,并且在所附权利要求的范围之内。

Claims (2)

1.一种用于视频解码的装置,包括:
解码器,该解码器被配置为访问包括被组合成单个画面的多个画面的视频画面,所述视频画面是接收的视频流的一部分;
被配置为访问作为接收的视频流的一部分的信息,所访问的信息指示如何组合访问的视频画面中的所述多个画面,其中,所访问的信息包括空间交织信息和采样信息,其中空间交织信息指示空间交织,所述空间交织是在形成所述单个画面中应用于所述多个画面的并排交织、顶部到底部交织、逐行交织、逐列交织或棋盘交织,并且其中采样信息指示用于将多个画面中的每一个恢复至另一分辨率的一个或多个与上采样滤波器有关的参数,该一个或多个与上采样滤波器有关的参数包括滤波方向的指示,并且其中空间交织信息还包括关系信息,该关系信息指示该多个画面之间存在的关系的类型;并且
被配置为解码视频画面以提供该多个画面中的至少一个的解码表示。
2.一种用于视频解码的装置,包括:
解调器,用于解调包括接收的视频流的信号;以及
解码器,被配置为访问包括被组合成单个画面的多个画面的视频画面,所述视频画面是接收的视频流的一部分;并被配置为访问作为接收的视频流的一部分的信息,所访问的信息指示如何组合访问的视频画面中的所述多个画面,其中,所访问的信息包括空间交织信息和采样信息,其中空间交织信息指示空间交织,所述空间交织是在形成所述单个画面中应用于所述多个画面的并排交织、顶部到底部交织、逐行交织、逐列交织或棋盘交织,并且其中采样信息指示用于将多个画面中的每一个恢复至另一分辨率的一个或多个与上采样滤波器有关的参数,该一个或多个与上采样滤波器有关的参数包括滤波方向的指示,并且其中空间交织信息还包括关系信息,该关系信息指示该多个画面之间存在的关系的类型;并且被配置为解码视频画面以提供该多个画面中的至少一个的解码表示。
CN201510145697.6A 2009-01-26 2010-01-26 用于视频解码的装置 Active CN104768032B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US20593809P 2009-01-26 2009-01-26
US61/205,938 2009-01-26
US26995509P 2009-07-01 2009-07-01
US61/269,955 2009-07-01
CN201080013860.9A CN102365869B (zh) 2009-01-26 2010-01-26 用于视频编码的帧打包

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201080013860.9A Division CN102365869B (zh) 2009-01-26 2010-01-26 用于视频编码的帧打包

Publications (2)

Publication Number Publication Date
CN104768032A true CN104768032A (zh) 2015-07-08
CN104768032B CN104768032B (zh) 2018-06-01

Family

ID=42356375

Family Applications (5)

Application Number Title Priority Date Filing Date
CN201510145697.6A Active CN104768032B (zh) 2009-01-26 2010-01-26 用于视频解码的装置
CN201510144762.3A Active CN104717521B (zh) 2009-01-26 2010-01-26 用于视频解码的方法
CN201510145627.0A Active CN104768031B (zh) 2009-01-26 2010-01-26 用于视频解码的装置
CN201510144003.7A Active CN104702960B (zh) 2009-01-26 2010-01-26 用于视频解码的装置
CN201080013860.9A Active CN102365869B (zh) 2009-01-26 2010-01-26 用于视频编码的帧打包

Family Applications After (4)

Application Number Title Priority Date Filing Date
CN201510144762.3A Active CN104717521B (zh) 2009-01-26 2010-01-26 用于视频解码的方法
CN201510145627.0A Active CN104768031B (zh) 2009-01-26 2010-01-26 用于视频解码的装置
CN201510144003.7A Active CN104702960B (zh) 2009-01-26 2010-01-26 用于视频解码的装置
CN201080013860.9A Active CN102365869B (zh) 2009-01-26 2010-01-26 用于视频编码的帧打包

Country Status (10)

Country Link
US (2) US9036714B2 (zh)
EP (1) EP2389764A2 (zh)
JP (2) JP5877065B2 (zh)
KR (1) KR101676059B1 (zh)
CN (5) CN104768032B (zh)
AU (1) AU2010206977B2 (zh)
BR (1) BRPI1007163A2 (zh)
RU (2) RU2543954C2 (zh)
WO (1) WO2010085361A2 (zh)
ZA (1) ZA201104938B (zh)

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068729B2 (en) 2001-12-21 2006-06-27 Digital Fountain, Inc. Multi-stage code generator and decoder for communication systems
US6307487B1 (en) 1998-09-23 2001-10-23 Digital Fountain, Inc. Information additive code generator and decoder for communication systems
US8692695B2 (en) 2000-10-03 2014-04-08 Realtime Data, Llc Methods for encoding and decoding data
US9240810B2 (en) 2002-06-11 2016-01-19 Digital Fountain, Inc. Systems and processes for decoding chain reaction codes through inactivation
EP2355360B1 (en) 2002-10-05 2020-08-05 QUALCOMM Incorporated Systematic encoding and decoding of chain reaction codes
US7139960B2 (en) 2003-10-06 2006-11-21 Digital Fountain, Inc. Error-correcting multi-stage code generator and decoder for communication systems having single transmitters or multiple transmitters
EP2202888A1 (en) 2004-05-07 2010-06-30 Digital Fountain, Inc. File download and streaming system
CN1859576A (zh) * 2005-10-11 2006-11-08 华为技术有限公司 对空间分层编码视频图象的上采样方法及其系统
KR101292851B1 (ko) 2006-02-13 2013-08-02 디지털 파운튼, 인크. 가변적 fec 오버헤드 및 보호 구간을 이용하는 스트리밍및 버퍼링
US9270414B2 (en) 2006-02-21 2016-02-23 Digital Fountain, Inc. Multiple-field based code generator and decoder for communications systems
US7971129B2 (en) 2006-05-10 2011-06-28 Digital Fountain, Inc. Code generator and decoder for communications systems operating using hybrid codes to allow for multiple efficient users of the communications systems
US9432433B2 (en) 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US9419749B2 (en) 2009-08-19 2016-08-16 Qualcomm Incorporated Methods and apparatus employing FEC codes with permanent inactivation of symbols for encoding and decoding processes
US9209934B2 (en) 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
US9386064B2 (en) 2006-06-09 2016-07-05 Qualcomm Incorporated Enhanced block-request streaming using URL templates and construction rules
US9178535B2 (en) 2006-06-09 2015-11-03 Digital Fountain, Inc. Dynamic stream interleaving and sub-stream based delivery
US9380096B2 (en) 2006-06-09 2016-06-28 Qualcomm Incorporated Enhanced block-request streaming system for handling low-latency streaming
CN101802797B (zh) 2007-09-12 2013-07-17 数字方敦股份有限公司 生成和传达源标识信息以实现可靠的通信
KR101940023B1 (ko) * 2009-02-19 2019-01-21 톰슨 라이센싱 3d 비디오 포맷
US9281847B2 (en) 2009-02-27 2016-03-08 Qualcomm Incorporated Mobile reception of digital video broadcasting—terrestrial services
US9041772B2 (en) 2009-04-07 2015-05-26 Lg Electronics Inc. Broadcast transmitter, broadcast receiver, and 3D video data processing method thereof
JP5562408B2 (ja) 2009-04-20 2014-07-30 ドルビー ラボラトリーズ ライセンシング コーポレイション 指揮された補間およびデータの後処理
US20100329362A1 (en) * 2009-06-30 2010-12-30 Samsung Electronics Co., Ltd. Video encoding and decoding apparatus and method using adaptive in-loop filter
US9036700B2 (en) * 2009-07-15 2015-05-19 Google Technology Holdings LLC Simulcast of stereoviews for 3D TV
US9288010B2 (en) 2009-08-19 2016-03-15 Qualcomm Incorporated Universal file delivery methods for providing unequal error protection and bundled file delivery services
US9917874B2 (en) 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
US9225961B2 (en) 2010-05-13 2015-12-29 Qualcomm Incorporated Frame packing for asymmetric stereo video
US8918533B2 (en) 2010-07-13 2014-12-23 Qualcomm Incorporated Video switching for streaming video data
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
US9596447B2 (en) 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
PL2596637T3 (pl) * 2010-07-21 2021-12-13 Dolby Laboratories Licensing Corporation Systemy i sposoby dostarczania wielowarstwowego wideo zgodnego z ramką
US9226045B2 (en) 2010-08-05 2015-12-29 Qualcomm Incorporated Signaling attributes for network-streamed video data
US9319448B2 (en) 2010-08-10 2016-04-19 Qualcomm Incorporated Trick modes for network streaming of coded multimedia data
US9712811B2 (en) * 2010-09-01 2017-07-18 Jeramie J Keys Viewing of different full-screen television content by different viewers at the same time using configured glasses and a related display
MX2013002136A (es) * 2010-09-03 2013-04-03 Sony Corp Dispositivo de codificacion, metodo de codificacion, dispositivo de decodificacion y metodo de decodificacion.
US20130169753A1 (en) * 2010-09-19 2013-07-04 Joonhui Lee Broadcast receiver and method for processing 3d video data
WO2012057564A2 (ko) * 2010-10-28 2012-05-03 엘지전자 주식회사 모바일 환경에서 3차원 방송 신호를 수신하기 위한 수신 장치 및 방법
DE112011103496T5 (de) * 2010-11-15 2013-08-29 Lg Electronics Inc. Verfahren zum Umwandeln eines Einzelbildformats und Vorrichtung zur Benutzung dieses Verfahrens
JP5879713B2 (ja) 2010-12-09 2016-03-08 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US8958375B2 (en) 2011-02-11 2015-02-17 Qualcomm Incorporated Framing for an improved radio link protocol including FEC
US9270299B2 (en) 2011-02-11 2016-02-23 Qualcomm Incorporated Encoding and decoding using elastic codes with flexible source block mapping
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
CN103416002B (zh) 2011-03-10 2015-04-01 维德约股份有限公司 视频位流中的渲染定向信息
US20120236934A1 (en) * 2011-03-18 2012-09-20 Qualcomm Incorporated Signaling of multiview video plus depth content with a block-level 4-component structure
WO2012157443A1 (ja) * 2011-05-16 2012-11-22 ソニー株式会社 画像処理装置、及び、画像処理方法
JP2012249137A (ja) * 2011-05-30 2012-12-13 Sony Corp 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
CN103765899B (zh) * 2011-06-15 2018-03-06 韩国电子通信研究院 用于编码和解码可伸缩视频的方法以及使用其的设备
US20130188013A1 (en) * 2011-07-22 2013-07-25 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9253233B2 (en) 2011-08-31 2016-02-02 Qualcomm Incorporated Switch signaling methods providing improved switching between representations for adaptive HTTP streaming
US20130070051A1 (en) * 2011-09-20 2013-03-21 Cheng-Tsai Ho Video encoding method and apparatus for encoding video data inputs including at least one three-dimensional anaglyph video, and related video decoding method and apparatus
EP2579591A1 (en) * 2011-10-04 2013-04-10 Thomson Licensing Method of and device for encoding an HDR image, method of and device for reconstructing an HDR image and non-transitory storage medium
US9843844B2 (en) 2011-10-05 2017-12-12 Qualcomm Incorporated Network streaming of media data
US9473752B2 (en) * 2011-11-30 2016-10-18 Qualcomm Incorporated Activation of parameter sets for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
WO2013115562A1 (ko) * 2012-01-30 2013-08-08 삼성전자 주식회사 시점변환을 위한 예측구조에 기초한 다시점 비디오 부호화 방법 및 그 장치, 시점변환을 위한 예측구조에 기초한 다시점 비디오 복호화 방법 및 그 장치
US9294226B2 (en) 2012-03-26 2016-03-22 Qualcomm Incorporated Universal object delivery and template-based file delivery
WO2013150944A1 (ja) 2012-04-06 2013-10-10 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
CA2870308A1 (en) * 2012-04-19 2013-10-24 Telefonaktiebolaget L M Ericsson (Publ) View synthesis using low resolution depth maps
CN103491363A (zh) * 2012-06-11 2014-01-01 珠海扬智电子科技有限公司 一种多图层实现三维显示制式的方法
CN104509139B (zh) * 2012-08-06 2018-07-20 华为技术有限公司 用于提供彩信服务的方法
WO2014025294A1 (en) 2012-08-08 2014-02-13 Telefonaktiebolaget L M Ericsson (Publ) Processing of texture and depth images
US9396514B2 (en) * 2012-08-23 2016-07-19 Pixia Corp. Method and system for storing and retrieving wide-area motion imagery frames as objects on an object storage device
RU2012138174A (ru) * 2012-09-06 2014-03-27 Сисвел Текнолоджи С.Р.Л. Способ компоновки формата цифрового стереоскопического видеопотока 3dz tile format
JP6282763B2 (ja) * 2012-09-21 2018-02-21 株式会社東芝 復号装置、符号化装置、復号方法、及び符号化方法
US9992490B2 (en) 2012-09-26 2018-06-05 Sony Corporation Video parameter set (VPS) syntax re-ordering for easy access of extension parameters
US9979960B2 (en) * 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
KR20140048802A (ko) * 2012-10-08 2014-04-24 삼성전자주식회사 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치
US9661340B2 (en) 2012-10-22 2017-05-23 Microsoft Technology Licensing, Llc Band separation filtering / inverse filtering for frame packing / unpacking higher resolution chroma sampling formats
CN102905136B (zh) * 2012-10-29 2016-08-24 安科智慧城市技术(中国)有限公司 一种视频编解码方法、系统
US9568985B2 (en) * 2012-11-23 2017-02-14 Mediatek Inc. Data processing apparatus with adaptive compression algorithm selection based on visibility of compression artifacts for data communication over camera interface and related data processing method
US10419778B2 (en) 2013-01-04 2019-09-17 Sony Corporation JCTVC-L0227: VPS_extension with updates of profile-tier-level syntax structure
US10219006B2 (en) 2013-01-04 2019-02-26 Sony Corporation JCTVC-L0226: VPS and VPS_extension updates
US9374581B2 (en) * 2013-01-07 2016-06-21 Qualcomm Incorporated Signaling of picture order count to timing information relations for video timing in video coding
KR101511227B1 (ko) * 2013-04-12 2015-04-16 (주)이엠아이지 플래시 기반 입체영상 생성 방법
CN103198523B (zh) * 2013-04-26 2016-09-21 清华大学 一种基于多深度图的非刚体三维重建方法及系统
US9497439B2 (en) * 2013-07-15 2016-11-15 Ati Technologies Ulc Apparatus and method for fast multiview video coding
TWI602145B (zh) * 2013-10-02 2017-10-11 國立成功大學 包裝圖框之解包裝方法、裝置及系統
KR102156402B1 (ko) * 2013-11-05 2020-09-16 삼성전자주식회사 영상 처리 방법 및 장치
KR102111436B1 (ko) * 2014-01-06 2020-05-18 에스케이 텔레콤주식회사 다중 영상의 단일 비트 스트림 생성방법 및 생성장치
US9930382B2 (en) * 2014-02-10 2018-03-27 Lg Electronics Inc. Method and apparatus for transmitting/receiving broadcast signal for 3-dimensional (3D) broadcast service
US9031138B1 (en) 2014-05-01 2015-05-12 Google Inc. Method and system to combine multiple encoded videos for decoding via a video docoder
US20170105019A1 (en) * 2014-05-30 2017-04-13 Thomson Licensing High frame rate tiling compression technique
US9955159B2 (en) 2014-10-31 2018-04-24 Google Llc Multi-video decoding with input switching
US9749646B2 (en) 2015-01-16 2017-08-29 Microsoft Technology Licensing, Llc Encoding/decoding of high chroma resolution details
US9854201B2 (en) 2015-01-16 2017-12-26 Microsoft Technology Licensing, Llc Dynamically updating quality to higher chroma sampling rate
US20160330453A1 (en) * 2015-05-05 2016-11-10 Cisco Technology, Inc. Parameter Set Header
EP3353899B8 (en) * 2015-09-21 2022-02-23 HYPHY USA, Inc. System for transporting sampled signals over imperfect electromagnetic pathways
EP3384670A1 (en) * 2015-11-30 2018-10-10 Nokia Technologies Oy Method and apparatus live virtual reality streaming
EP3403403B1 (en) 2016-01-12 2023-06-07 Shanghaitech University Calibration method and apparatus for panoramic stereo video system
EP3236657A1 (en) * 2016-04-21 2017-10-25 Ultra-D Coöperatief U.A. Dual mode depth estimator
CN115037939B (zh) 2016-05-27 2024-02-13 松下电器(美国)知识产权公司 编码装置及解码装置
JP2019530311A (ja) 2016-09-02 2019-10-17 ヴィド スケール インコーポレイテッド 360度ビデオ情報をシグナリングするための方法およびシステム
US10368080B2 (en) 2016-10-21 2019-07-30 Microsoft Technology Licensing, Llc Selective upsampling or refresh of chroma sample values
JP7056576B2 (ja) 2016-11-15 2022-04-19 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
CN106791854B (zh) * 2016-11-22 2019-11-29 北京疯景科技有限公司 图像编码、解码方法及装置
CN113709439A (zh) 2017-04-11 2021-11-26 杜比实验室特许公司 分层的增强型娱乐体验
WO2019131778A1 (ja) * 2017-12-26 2019-07-04 シャープ株式会社 画像復号装置及び画像符号化装置
CN117834831A (zh) * 2018-01-16 2024-04-05 Vid拓展公司 用于360度视频译码的自适应帧封装
EP3515066A1 (en) * 2018-01-19 2019-07-24 Thomson Licensing A method and apparatus for encoding and decoding three-dimensional scenes in and from a data stream
EP3515068A1 (en) * 2018-01-19 2019-07-24 Thomson Licensing A method and apparatus for encoding and decoding three-dimensional scenes in and from a data stream
EP3515067A1 (en) * 2018-01-19 2019-07-24 Thomson Licensing A method and apparatus for encoding and decoding three-dimensional scenes in and from a data stream
US10929704B2 (en) * 2018-03-12 2021-02-23 Phantom Auto Inc. Landscape video stream compression using computer vision techniques
CN112262581A (zh) * 2018-03-21 2021-01-22 华为技术有限公司 视频码流中的约束标志指示
WO2020146582A1 (en) 2019-01-09 2020-07-16 Futurewei Technologies, Inc. Sub-picture layout signaling in video coding
EP4011084A4 (en) 2019-08-06 2023-08-09 OP Solutions PRESCALE ADAPTIVE RESOLUTION MANAGEMENT
MX2022001591A (es) 2019-08-06 2022-03-11 Op Solutions Llc Método de gestión de resolución adaptativa por bloques referencias cruzadas para solicitudes relacionadas.
KR20220088680A (ko) 2019-08-06 2022-06-28 오피 솔루션즈, 엘엘씨 프레임 타입에 기반한 적응적 해상도 관리의 묵시적 시그널링
KR20220092962A (ko) * 2019-11-08 2022-07-04 오피 솔루션즈, 엘엘씨 적응적 크롭핑을 위한 방법들 및 시스템들
US11677979B2 (en) * 2020-08-24 2023-06-13 Tencent America LLC Freeview video coding
US11924408B2 (en) * 2021-01-14 2024-03-05 Tencent America LLC Method and apparatus for video coding
CN117751573A (zh) * 2021-07-17 2024-03-22 抖音视界有限公司 视频比特流的下采样信息的信令通知
US20230047271A1 (en) * 2021-08-02 2023-02-16 Mediatek Singapore Pte. Ltd. Color Component Processing In Down-Sample Video Coding
WO2023097095A1 (en) * 2021-11-29 2023-06-01 Beijing Dajia Internet Information Technology Co., Ltd. Invertible filtering for video coding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5485533A (en) * 1990-06-13 1996-01-16 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for encoding video signals in 3-D blocks without detecting image motion
WO2007126508A2 (en) * 2006-03-29 2007-11-08 Thomson Licensing Multi-view video coding method and device
WO2008127676A2 (en) * 2007-04-12 2008-10-23 Thomson Licensing Tiling in video encoding and decoding

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5193000A (en) 1991-08-28 1993-03-09 Stereographics Corporation Multiplexing technique for stereoscopic video system
US5689641A (en) 1993-10-01 1997-11-18 Vicor, Inc. Multimedia collaboration system arrangement for routing compressed AV signal through a participant site without decompressing the AV signal
US5748786A (en) * 1994-09-21 1998-05-05 Ricoh Company, Ltd. Apparatus for compression using reversible embedded wavelets
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
DE19619598A1 (de) 1996-05-15 1997-11-20 Deutsche Telekom Ag Verfahren zur Speicherung oder Übertragung von stereoskopischen Videosignalen
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6173087B1 (en) 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
KR100281329B1 (ko) * 1998-01-31 2001-02-01 전주범 이진 형상 신호의 모드 신호 부호화 방법 및 그 복원 방법
DE69942595D1 (de) * 1998-05-27 2010-08-26 Nippon Telegraph & Telephone Verschachtelungsvorrichtung und Verfahren mit Fehlerschutz
US6157396A (en) 1999-02-16 2000-12-05 Pixonics Llc System and method for using bitstream information to process images for use in digital display systems
US6390980B1 (en) * 1998-12-07 2002-05-21 Atl Ultrasound, Inc. Spatial compounding with ultrasonic doppler signal information
US6223183B1 (en) 1999-01-29 2001-04-24 International Business Machines Corporation System and method for describing views in space, time, frequency, and resolution
DE10016074B4 (de) 2000-04-01 2004-09-30 Tdv Technologies Corp. Verfahren und Vorrichtung zur Erzeugung von 3D-Bildern
US7254265B2 (en) 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
GB0013273D0 (en) 2000-06-01 2000-07-26 Philips Electronics Nv Video signal encoding and buffer management
CN1210645C (zh) 2000-09-18 2005-07-13 国际商业机器公司 管理计算机显示器上的视图的方法
US6859235B2 (en) * 2001-05-14 2005-02-22 Webtv Networks Inc. Adaptively deinterlacing video on a per pixel basis
EP1451775A1 (de) 2001-11-24 2004-09-01 TDV Technologies Corp. Erzeugung einer stereo-bildfolge aus einer 2d-bildfolge
US7263240B2 (en) 2002-01-14 2007-08-28 Eastman Kodak Company Method, system, and software for improving signal quality using pyramidal decomposition
CA2380105A1 (en) 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
JP4134027B2 (ja) * 2002-04-25 2008-08-13 シャープ株式会社 画像符号化装置、画像復号装置、及び画像記録装置
JP4154569B2 (ja) 2002-07-10 2008-09-24 日本電気株式会社 画像圧縮伸長装置
US20050259147A1 (en) * 2002-07-16 2005-11-24 Nam Jeho Apparatus and method for adapting 2d and 3d stereoscopic video signal
US20050041736A1 (en) * 2003-05-07 2005-02-24 Bernie Butler-Smith Stereoscopic television signal processing method, transmission system and viewer enhancements
US7489342B2 (en) 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US20040260827A1 (en) 2003-06-19 2004-12-23 Nokia Corporation Stream switching based on gradual decoder refresh
KR100519776B1 (ko) * 2003-11-24 2005-10-07 삼성전자주식회사 영상 신호의 해상도 변환 방법 및 장치
KR100587952B1 (ko) 2003-12-05 2006-06-08 한국전자통신연구원 좌우영상의 비대칭적 크기로의 축소에 의한 보상을 수행하는 영상 부호화/복호화 장치 및 그 방법
US7599435B2 (en) * 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
GB2412519B (en) 2004-03-23 2010-11-03 British Broadcasting Corp Monitoring system
JP4542447B2 (ja) 2005-02-18 2010-09-15 株式会社日立製作所 画像の符号化/復号化装置、符号化/復号化プログラム及び符号化/復号化方法
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
KR100679740B1 (ko) 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
MX2007000369A (es) * 2004-07-29 2007-03-12 Microsoft Corp Procesamiento de imagen utilizando valores ligeros y otras mejoras de procesamiento de imagen.
KR101295471B1 (ko) * 2004-07-30 2013-08-09 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
KR100775871B1 (ko) * 2004-10-12 2007-11-13 한국전자통신연구원 영상합성기반 다시점 동영상 부호화 및 복호화를 수행하기위한 방법 및 장치
KR100714068B1 (ko) 2004-10-16 2007-05-02 한국전자통신연구원 계층적 깊이 영상을 이용한 다시점 동영상 부호화/복호화방법 및 장치
EP1667448A1 (en) 2004-12-02 2006-06-07 Deutsche Thomson-Brandt Gmbh Method and apparatus for encoding and for decoding a main video signal and one or more auxiliary video signals
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US20060176318A1 (en) * 2005-02-09 2006-08-10 Martin Virginia L Method for manipulating artwork to form decorative pieces
US8228994B2 (en) 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
KR100716999B1 (ko) 2005-06-03 2007-05-10 삼성전자주식회사 영상의 대칭성을 이용한 인트라 예측 방법, 이를 이용한영상의 복호화, 부호화 방법 및 장치
RU2409008C2 (ru) 2005-06-23 2011-01-10 Конинклейке Филипс Электроникс Н.В. Комбинированная передача изображения и соответствующих данных о глубине
US7668366B2 (en) 2005-08-09 2010-02-23 Seiko Epson Corporation Mosaic image data processing
US20100158133A1 (en) 2005-10-12 2010-06-24 Peng Yin Method and Apparatus for Using High-Level Syntax in Scalable Video Encoding and Decoding
WO2007047736A2 (en) 2005-10-19 2007-04-26 Thomson Licensing Multi-view video coding using scalable video coding
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
US8457219B2 (en) 2005-12-30 2013-06-04 Ikanos Communications, Inc. Self-protection against non-stationary disturbances
US7956930B2 (en) * 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
JP5199124B2 (ja) 2006-01-12 2013-05-15 エルジー エレクトロニクス インコーポレイティド 多視点ビデオの処理
US20070205367A1 (en) * 2006-03-01 2007-09-06 General Electric Company Apparatus and method for hybrid computed tomography imaging
KR101245251B1 (ko) 2006-03-09 2013-03-19 삼성전자주식회사 균일한 화질을 제공하는 다시점 영상 부호화 및 복호화방법 및 장치
JP2008034892A (ja) 2006-03-28 2008-02-14 Victor Co Of Japan Ltd 多視点画像符号化装置
US7609906B2 (en) 2006-04-04 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring and displaying 3D light fields
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
WO2008024345A1 (en) 2006-08-24 2008-02-28 Thomson Licensing Adaptive region-based flipping video coding
KR101362941B1 (ko) * 2006-11-01 2014-02-17 한국전자통신연구원 스테레오스코픽 콘텐츠 재생에 이용되는 메타 데이터의복호화 방법 및 장치
US8515194B2 (en) 2007-02-21 2013-08-20 Microsoft Corporation Signaling and uses of windowing information for images
WO2008140190A1 (en) 2007-05-14 2008-11-20 Samsung Electronics Co, . Ltd. Method and apparatus for encoding and decoding multi-view image
JP4418827B2 (ja) 2007-05-16 2010-02-24 三菱電機株式会社 画像表示装置及び方法、並びに画像発生装置及び方法
KR100962696B1 (ko) 2007-06-07 2010-06-11 주식회사 이시티 부호화된 스테레오스코픽 영상 데이터 파일의 구성방법
US8373744B2 (en) 2007-06-07 2013-02-12 Reald Inc. Stereoplexing for video and film applications
JP2010530702A (ja) * 2007-06-19 2010-09-09 韓國電子通信研究院 ステレオスコピックデータの保存および再生のためのメタデータ構造、およびこれを用いるステレオスコピックコンテンツファイルの保存方法
US8471893B2 (en) 2007-06-26 2013-06-25 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image bitstream using block interleaved method
MY162861A (en) 2007-09-24 2017-07-31 Koninl Philips Electronics Nv Method and system for encoding a video data signal, encoded video data signal, method and system for decoding a video data signal
US8218855B2 (en) 2007-10-04 2012-07-10 Samsung Electronics Co., Ltd. Method and apparatus for receiving multiview camera parameters for stereoscopic image, and method and apparatus for transmitting multiview camera parameters for stereoscopic image
KR101506217B1 (ko) 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
US20090219985A1 (en) 2008-02-28 2009-09-03 Vasanth Swaminathan Systems and Methods for Processing Multiple Projections of Video Data in a Single Video File
US8878836B2 (en) 2008-02-29 2014-11-04 Samsung Electronics Co., Ltd. Method and apparatus for encoding datastream including additional information on multiview image and method and apparatus for decoding datastream by using the same
KR101506219B1 (ko) 2008-03-25 2015-03-27 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
CN106507117B (zh) 2008-07-20 2020-01-21 杜比实验室特许公司 立体视频传送系统的编码器优化的方法和设备
US8106924B2 (en) 2008-07-31 2012-01-31 Stmicroelectronics S.R.L. Method and system for video rendering, computer program product therefor
EP2197217A1 (en) 2008-12-15 2010-06-16 Koninklijke Philips Electronics N.V. Image based 3D video format

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5485533A (en) * 1990-06-13 1996-01-16 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for encoding video signals in 3-D blocks without detecting image motion
WO2007126508A2 (en) * 2006-03-29 2007-11-08 Thomson Licensing Multi-view video coding method and device
WO2008127676A2 (en) * 2007-04-12 2008-10-23 Thomson Licensing Tiling in video encoding and decoding

Also Published As

Publication number Publication date
CN104768031B (zh) 2018-02-09
JP2016105631A (ja) 2016-06-09
US20110286530A1 (en) 2011-11-24
BRPI1007163A2 (pt) 2018-09-25
RU2015102754A3 (zh) 2018-08-31
JP5877065B2 (ja) 2016-03-02
ZA201104938B (en) 2012-10-31
CN104702960A (zh) 2015-06-10
RU2011135541A (ru) 2013-03-10
AU2010206977A1 (en) 2011-08-04
CN104717521A (zh) 2015-06-17
US9036714B2 (en) 2015-05-19
US9420310B2 (en) 2016-08-16
CN104768032B (zh) 2018-06-01
AU2010206977B2 (en) 2016-02-25
WO2010085361A3 (en) 2010-10-21
CN104702960B (zh) 2018-01-02
US20150222928A1 (en) 2015-08-06
CN102365869A (zh) 2012-02-29
CN102365869B (zh) 2015-04-29
EP2389764A2 (en) 2011-11-30
KR101676059B1 (ko) 2016-11-14
RU2689191C2 (ru) 2019-05-24
CN104717521B (zh) 2018-06-01
RU2543954C2 (ru) 2015-03-10
JP2012516114A (ja) 2012-07-12
KR20110113752A (ko) 2011-10-18
JP6176871B2 (ja) 2017-08-09
CN104768031A (zh) 2015-07-08
RU2015102754A (ru) 2015-06-10
WO2010085361A2 (en) 2010-07-29

Similar Documents

Publication Publication Date Title
CN102365869B (zh) 用于视频编码的帧打包
JP6825155B2 (ja) ビデオ符号化及び復号化におけるタイリング
AU2012278382B2 (en) Tiling in video encoding and decoding

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190916

Address after: Delaware

Patentee after: Interactive Digital VC Holding Company

Address before: I Si Eli Murli Nor, France

Patentee before: Thomson Licensing Corp.