CN102428706B - 用于3d特技播放的入口点 - Google Patents
用于3d特技播放的入口点 Download PDFInfo
- Publication number
- CN102428706B CN102428706B CN201080021900.4A CN201080021900A CN102428706B CN 102428706 B CN102428706 B CN 102428706B CN 201080021900 A CN201080021900 A CN 201080021900A CN 102428706 B CN102428706 B CN 102428706B
- Authority
- CN
- China
- Prior art keywords
- entrance
- video data
- subflow
- stream
- auxiliary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/005—Reproducing at a different information rate from the information rate of recording
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/78—Television signal recording using magnetic recording
- H04N5/782—Television signal recording using magnetic recording on tape
- H04N5/783—Adaptations for reproducing at a rate different from the recording rate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/84—Television signal recording using optical recording
- H04N5/85—Television signal recording using optical recording on discs or drums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2387—Stream processing in response to a playback request from an end-user, e.g. for trick-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
本发明描述为3D视频数据提供入口点。入口点单元(18)通过在传入3D视频数据流中定义入口点以及存储给出所定义的入口点的位置的入口点地址来生成入口点表格。视频数据流包括众多子流,这些众多子流编码3D视频数据的一个流,并包括独立编码2D版本的3D视频数据的至少一个2D子流以及依赖性编码3D视频数据的部分的至少一个辅助子流。这些入口点包括在2D子流中的主要入口点以及在辅助子流中的辅助入口点,以便通过检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段来启用3D视频数据的3D特技播放。
Description
技术领域
本发明涉及为视频数据流提供入口点的方法,该方法包括:
生成入口点表格,以便启用特技播放;
定义视频数据流中的入口点,其中以彼此在时间上相隔一定距离的方式来定义这些入口点;
通过存储给出所定义的入口点的位置的入口点地址,将所定义的入口点存储在入口点表格中。
本发明进一步涉及用于提供入口点的设备、用于再生视频数据的设备、信号、再现的方法以及计算机程序产品。
本发明涉及在特技播放模式中再现3D视频数据的领域,即在3D显示设备上在向前或向后方向利用增加的速度来再生3D视频的领域。
背景技术
用于再现2D视频数据的设备是已知的,例如视频播放器,如同DVD播放器或机顶盒,其提供数字视频信号。源设备将被耦合到如同电视机或监视器之类的显示设备。从源设备经由适当接口、优选地如同HDMI之类的高速数据接口来传送图像数据。当前正在提议用于供应三维(3D)图像数据的3D增强设备。
对于诸如3D电影或TV(电视)节目之类的3D内容而言,用于启用特技播放的附加控制数据可以与图像数据相结合来提供,例如,指向能够以增加速度再现的帧的随后位置的指针列表。特技播放是以与初始速度不同的速度、诸如以各种速度快进、快退或慢动作来再现3D视频内容的任何再现模式。
文献US 2006/0117357描述一种用于在特技播放模式中再现2D视频数据的系统。数字视频信号以各种特技模式回放速度进行再生。与数字视频流中的视频帧相关联的帧索引被监视,并且图片组(Group-of-Picture)(GOP)大小从帧索引中进行确定。一个或多个特技模式播放速度参数基于所确定的GOP大小来计算。视频帧的呈现基于所计算的特技模式播放速度参数来控制。在一个实施例中,特技模式播放速度参数包括帧跳跃(frame-skip)计数和帧重复计数。
对于3D内容来说,也必须发展特技播放。3D内容的一个示例是二维图像以及相关联的深度图(depth map)。3D内容的另一个示例是多个二维图像,例如众所周知的具有右眼图像和左眼图像的立体内容。3D内容的再一个示例是将在多视图显示器上显示的具有多个左眼图像和多个右眼图像的立体内容。
发明内容
3D视频的特技播放的问题是:视频解码器上的负担增加,这是因为该解码器必须在较短的时间内解码较多的帧(为了平滑的特技播放)。由于立体视频,解码器必须解码两个或更多的流,并且这与2D相比增加负担。此外,如果使用依赖的子流多视图编码来对多视图视频进行编码,那么附加流的解码变得依赖于基本视图流。
为了提供2D特技播放,蓝光光盘标准为每一个基本视频流规定入口点表格(Entry Point table)(EP-map)(EP映射)。该视频被编码在如在众所周知的MEPG标准中定义的各种类型的帧中。该表格列出其中解码可以开始的点在该流中的位置。通常,这些入口点位于MPEG I帧边界上。该表格仅列出用于一个流的入口点,而没有考虑可能同时解码若干个也彼此依赖的视频流的事实。
本发明的目的是以更便利的方式来提供用于3D特技播放的系统。
为此目的,根据本发明的第一方面,在首段中描述的方法中,视频数据流包括众多子流,这些众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性(dependently)编码的3D视频数据的部分的至少一个辅助子流;定义入口点包括通过定义在2D子流中的主要入口点以及在辅助子流中的辅助入口点而将入口点表格与3D视频数据相关联,以便通过基于检索主要入口点和辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段,从而启用3D视频数据的3D特技播放。
为此目的,根据本发明的第二方面,用于为视频数据流提供入口点的设备包括用于通过在视频数据流中定义入口点以及通过存储给出所定义的入口点的位置的入口点地址而将所定义的入口点存储在入口点表格中来生成入口点表格的装置,其中以彼此在时间上相隔一定距离的方式来定义这些入口点,以便启用特技播放,其中视频数据流包括众多子流,这些众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流,以及用于生成入口点表格的装置被安排用于通过定义在2D子流中的主要入口点以及在辅助子流中的辅助入口点而将入口点表格与3D视频数据相关联,以便通过基于检索主要入口点和辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段,从而启用3D视频数据的3D特技播放。
为此目的,根据本发明的进一步方面,用于再生视频数据的设备包括用于接收视频数据流以及如上所定义的入口点表格的装置,其中视频数据流包括众多子流,这些众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流;并且该设备包括用于通过基于检索2D子流中的主要入口点和辅助子流中的辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段而再生3D视频数据的3D视频数据的3D特技播放的装置。
为此目的,根据本发明的进一步方面,传递视频数据的信号包括具有以彼此在时间上相隔一定距离的方式定义的入口点的视频数据流以及如上所定义的入口点表格,其中该入口点表格通过存储给出所定义的入口点的位置的入口点地址来包括所定义的入口点,其中视频数据流包括众多子流,这些众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流;以及入口点表格与3D视频数据相关联并包括2D子流中的主要入口点以及辅助子流中的辅助入口点,以便通过基于检索主要入口点和辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段,从而启用3D视频数据的3D特技播放。
为此目的,根据本发明的进一步方面,基于如上所定义的信号来再现视频数据的方法包括:接收视频数据流以及如上所定义的入口点表格,其中视频数据流包括众多子流,这些众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流;并且该方法包括:通过基于检索2D子流中的主要入口点和辅助子流中的辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应分段而再生3D视频数据,从而再现3D视频数据的3D特技播放。
这些措施具有的效果在于:现在利用扩展的入口点表格来提供例如用于蓝光光盘的多视图编码视频之类的多子流编码3D视频数据的特技播放。传统的入口点表格为视频流中的特定时刻提供单个入口点。根据本发明的入口点表格为特定时刻提供至少一个进一步入口点,其具有用于也直接访问对应的辅助视频流的主要入口点。例如,这通过改变入口点表格的定义来实现,以致与基本视图视频流有关的EP映射也包含用于相关联的辅助流的入口点,而这些相关联的辅助流不能单独被解码。在解码将在特技播放模式中再生的3D视频的特定片段时,主要流和辅助流的必要数据能够被直接访问。有利地,当由于缺少参考而不是所有的子流被正确解码或可用时,观看者将不会在深度感知方面经历干扰影响。
本发明也基于以下认识。现有技术2D特技播放系统未意识到3D特技播放的问题。特别地,对于单个视频流来说,提供单个集合的入口点。但是,除了独立可解码的主要子流之外,一个或多个辅助子流还存在于3D视频信号中。发明人已看到:这样的处于正常再生速度上的子流仅依赖于主要流而是可解码的。因此,传统上,这样的辅助流将不具有入口点,这是因为在任何不可解码流中的入口点似乎没有任何价值。然而,发明人已给不可解码的辅助流添加了入口点。仅通过提供主要与辅助入口点地址,就能够为了特技播放而在不相邻分段中便利地解码这两个流,这是因为对于这样的分段,能够根据增强的入口点表格立即检索辅助流中的对应分段。
在该系统的实施例中,视频数据流包括多视图3D视频数据,其中多视图至少包括一个左视图以及一个右视图。多视图3D视频为左眼和右眼提供多个单独的视图。如例如在参考文献[1]或[2]中所解释的,3D场景的多个视图具有大重叠(overlap),并且通常被依赖性编码。增强的入口点表格便利地为这样的多视图3D视频流提供特技播放。
在该系统的实施例中,视频数据流包括多个辅助子流,并且入口点包括仅用于所述多个辅助子流的选定子集的辅助入口点,以便在特技播放期间再现精简版本的3D视频数据。有利地,入口点表格的大小保持有限。该实施例也基于以下认识:在特技播放期间,所再现的3D视频的一些退化是可接受的。例如,通过不解码每一个子流可以减少多视图3D视频的视图的数量,或者在结构化的3D视频格式中可以忽略透明度数据。
在所附的权利要求书中给出根据本发明的方法、3D设备和信号的进一步优选的实施例,其公开内容在这里被并入作为参考。
附图说明
本发明的这些和其他方面从以下的描述中利用示例并参考附图描述的实施例中将是显而易见的,并将参考这些实施例来进一步阐述,其中:
图1显示3D视频生成系统,
图2显示多视图显示器,
图3显示经由双凸透镜的左与右眼视图,
图4显示播放列表的基本结构,
图5显示用于显示三维(3D)视频数据的系统,
图6显示入口点表格指示符表格,
图7显示增强的入口点表格指示符表格,
图8显示增强的流类型表格,
图9显示具有两个子流的3D视频流,
图10显示入口点图的定义,和
图11显示用于组合的主要流和子流的入口点表格。
在附图中,与已经描述的元素相对应的元素具有相同的参考数字。
具体实施方式
图1显示3D视频生成系统。该3D视频生成系统包括一对相机即右侧相机11和左侧相机12、生成将存储在存储介质14上的视频信号15的3D视频处理器13。右侧相机和左侧相机均可以是传统相机。深度扫描器可以与左侧相机相关联,其包括例如能够在不同方向进行操纵的激光束以及检测激光束的反射的传感器。也可以从相机信息中通过计算来生成深度信息。该对相机被指向场景10,以捕获该场景的3D视频。场景10包括各种对象,例如,诸如人、树、房屋以及天空中的太阳。每一个对象相对于该对相机具有给定距离,其中这些相机可以被认为是观看该场景的虚拟观察者。
3D视频处理器可以包括例如指令执行设备以及其中已装载一组定义3D视频处理器的操作的指令的程序存储器,这将在下文进行描述。例如,存储介质14可以采用硬盘、可写光盘、用于制造只读类型光盘的母盘刻录(mastering)系统或固态存储器的形式。
3D视频生成系统基本上如下操作。该对相机提供该场景的基本3D视频,其利用一系列图片对来形成。图片对包括右侧图片和左侧图片。利用右侧相机捕获的右侧图片用于人类观察者的右眼。利用左侧相机捕获的左侧图片用于人类观察者的左眼。
右侧相机和左侧相机具有相对于彼此的特定位置关系。这种位置关系可以利用典型的再现上下文依照例如场景大小和观看距离来定义。例如,包括相互关联的一系列右侧图片和一系列左侧图片的基本3D视频可以预定用于在具有典型的12米屏幕大小以及典型的18米观看距离的影院中显示。多视图3D视频数据流可以从相机和/或深度信息中生成。多视图3D视频为左眼和右眼提供多个单独的视图。3D场景的多个视图具有大重叠,并且通常被依赖性编码,如例如在参考文献[1]或[2]中所解释的。
不同的3D格式基于使用2D图像以及附加深度图像的两个视图,其中附加深度图像即为所谓的深度图,其传递有关对象在2D图像中的深度的信息。称为图像+深度的格式的不同之处在于:它是2D图像与所谓的“深度”或差距图(disparity map)的组合。这是灰度图像,由此像素的灰度值指示对于相关联的2D图像中对应像素的差距(或在深度图的情况中的深度)量。显示设备将差距、深度或视差图用于通过将2D图像作为输入来计算附加视图。这可以采用各种方式来完成,在最简单的形式中,这是依赖于与像素相关联的差距值而将那些像素移到左或右的事情。参考文献[3]给出该技术的极好概述。
在图1所示的系统中,3D视频处理器13具有入口点单元18,用于处理传入3D视频数据和生成用于3D特技播放模式的入口点表格。入口点单元被安排用于定义视频数据流中的入口点。这些入口点被存储在入口点表格中。以彼此在时间上相隔一定距离的方式在视频数据流中定义这些入口点。随后,所定义的入口点例如通过存储给出所定义的入口点的位置的入口点地址而被存储在入口点表格中。在3D视频数据流格式中,视频数据流通常包括众多子流,这些众多子流编码3D视频数据的一个流,并包括独立编码2D版本的3D视频数据的至少一个2D子流以及依赖性编码3D视频数据的部分的至少一个辅助子流。例如,该部分可以是右视图(取决于独立编码的左视图流)或深度图。对于这样的3D视频流,这些入口点被生成为包括2D子流中的主要入口点以及辅助子流中的辅助入口点,以启用3D视频数据的3D特技播放。
在再现期间,主要(2D)子流的选定分段基于主要入口点进行检索,并被解码为2D子流中的非相邻分段。随后,与2D子流的选定部分相对应的辅助从属子流的部分基于辅助入口点进行检索,并被依赖性解码为辅助子流的分段。
图2显示多视图显示器21,其在LCD屏幕前方使用双凸透镜22来为左与右眼生成不同的视图。交错从两个略微不同的角度拍摄的两个图像创建3D感知。这种效果基于双眼视差,即左眼和右眼通常从略微不同的角度来观看对象。这些通过调视和会聚而被融合在一起,并且这对于大脑充当强有力的深度提示。
图3显示经由双凸透镜30的左与右眼视图。右眼32仅看到像素33的左部分,而左眼31看到右部分。这些像素部分被称为子像素34。通过调视和会聚在人类观察者中融合图像的右部分和左部分通过呈现单个立体图像来创建深度提示。通过细分多个子像素中的每一个像素能够创建多个左和右视图。
例如,与其中仅显示两个交错图像的图3形成对照,实际的显示器可以使用例如9个交错图像,这对于该图像给出更广泛的视野和轮廓,如图2中示意性所示的。驱动这种类型的显示器需要被处理以生成多个视图的基于图像加深度的视频或多视图编码的视频。为此目的,蓝光光盘标准可以被扩展以包括对于这样的3D视频流的支持。播放器随后可以不仅驱动自动立体显示器,而且也可以驱动其他类型的立体3D显示器,诸如交替视图并使用快门眼镜来为双眼单独分隔开视图的显示器,或者在未来甚至可以包括全息显示器。
对于透镜屏幕的替换方案是屏障(Barrier)显示器,其使用位于LCD之后和背光之前的视差屏障来分隔开LCD中来自像素的光。该屏障使得:从屏幕前方的设置位置中,左眼看到与右眼不同的像素。屏障也可以位于LCD与人类观看者之间,以致在显示器的行中的像素交替地由左眼和右眼可看到。
从利用3D视频的特技播放进行的实验中,已发现:“3D深度”印象的质量在特技播放期间恶化。一种可能的解释是:立体视频对于人类光学系统(调视和会聚)而言需要比正常2D视频更大和更长的努力,以便大脑将利用眼睛接收到的两个图像融合为“3D”心智图像(mental image)。当每秒显示的帧的数量在特技播放期间显著增加时,人类光学系统似乎不能完全跟上更高的帧速率。
利用立体3D视频的特技播放的另一个问题在于:由于解码器必须在更短时间内解码更多的帧(为了平滑的特技播放),所以视频解码器上的负担增加。由于立体视频,解码器必须解码两个或更多的流,并且这与2D相比增加了问题。此外,如果使用如利用MPEG中定义的可扩缩多视图编码来编码多视图视频,那么附加流的解码变得依赖于基本视图流,因此在播放器中能够完成特技播放的方式必须改变。这样的不能独立被解码的流在这个文献中被称为辅助子流。这样的流将基于相应的主要流而被依赖性解码。
在以下的解释中,入口点表格的示例参考蓝光光盘系统来讨论。注意:入口点表格能够应用于任何的以主要和辅助视频流为基础的3D视频系统,并且对于实现本发明而言并不需要蓝光光盘系统的细节。蓝光光盘标准为每一个基本视频流规定入口点表格(包括入口点图:EP映射(EP-map))。该入口点表格定义列出解码可以开始的点在流中的位置的表格。通常,这些位于MPEG I帧边界上。这个表格仅列出用于一个流的入口点,而没有考虑可能同时解码也彼此依赖的若干视频流的事实。
已发现:当跳帧以创建某种类型的幻灯片效果时,特技播放期间的深度感知得到改善。因此,原始3D视频中的单独的不相邻分段被显示在一个序列中。令人惊奇地,跳过的帧越多,则感知的深度变得越好。这在某种程度上与正常2D视频形成对比,其中在2D视频中解码器籍此更快地解码所有的帧的平滑特技播放被感知为更佳。这能够通过考虑以下事实来加以解释:光学系统耗费时间来将来自眼睛的两个图像融合成一个立体图像(通过调视和会聚),并生成“3D”心智图像。在正常生活中,这不是问题,因为深度感知取决于许多因素,并且双眼视差(实体视觉)仅对于靠近观看者的对象是有效的。对于快速移动对象来说,运动视差发挥比闭塞更大的作用。在3D显示器中,这却是一个问题,因为3D效果主要取决于双眼视差,因此对于快速移动对象而言,深度感知被减弱。
为了解决对于特技播放的上述问题,必须为将在相应的特技播放模式中再生的选定分段的序列定义入口点,如上所述。
在一个实施例中,蓝光光盘的入口点表格被扩展为容纳附加定义的入口点。这个表格现在列出用于视频的入口点,并在视频中的时间位置与盘上的文件中的位置之间提供链接。该扩展使得:除了用于2D视频流的入口点之外,该表格现在也列出用于第二辅助视频流的入口点,其中第二辅助视频流使用可扩缩视频编码来编码,并依赖于基本视频流来解码。这个第二入口建立从第一流中的每一个入口到第二流中的对应入口点的关联性。这个后者可以包含I或P帧,其中P帧可以转而参考来自基本流的I帧。在使用直接的显示时间标记(Presentation Time Stamp)(PTS)值时采用这种方案。注意:由于辅助流仅可依赖性解码,例如可能在相同的PTS时间仅包含P或B帧,所以用于第二流的单独EP映射可能无法靠自己工作。因此,辅助流在靠自己进行解码时不是有效的流。例如,对于蓝光光盘中的多视图编码的视频,入口点表格可以被扩展,并且蓝光播放器使用EP映射的方式被适配以检索主要入口点和辅助入口点二者。该规范被增强,以致与基本视图视频流相关联的EP映射也包含用于其自己无法解码的相关联的辅助流的入口点。
参考文献[1]和[2]描述在联合编码的视频流以及相关联的传输格式背后的原理。例如,在编码之前,3D视图被交错,并随后使用分层B帧进行编码。在传送之前,比特流被分成基本流和辅助流。这为了向后兼容性而完成,以致2D解码器能够解码和使用基本流并忽略辅助流。在修改的解码器中,基本流和辅助流被再次交错和解码。这对于蓝光光盘上的特技播放产生问题,籍此基本流和辅助流在光盘上分开进行存储。为了解决此,需要对EP映射表格进行扩展,以致播放器知道必须交错和解码基本流和辅助流中的哪些剪辑,即,流的部分,以便显示播放器已跳至的视频的区段。利用所提议的增强的入口点表格,解决这个问题。
图4显示播放列表的基本结构。该示例以BD以及EP映射41(控制信息CPI中的入口点表格)在这个结构中所起的作用为基础。对于某个PTS值,EP映射提供逻辑地址,例如,为MPEG编码基本流的剪辑AV流文件中的对应源分组编号。参考图6-11进一步描述该结构。
图5显示用于显示三维(3D)视频数据的系统。例如光盘播放器之类的3D源设备50耦合到3D显示设备53,以便传送3D显示信号56。3D源设备具有用于接收图像信息的输入单元51。例如,输入单元设备可以包括光盘单元58,用于从如同DVD或蓝光光盘之类的光学记录载体54中检索各种类型的图像信息。替代地,输入单元可以包括用于耦合到例如因特网或广播网之类的网络55的网络接口单元59,其中这样的设备通常被称为机顶盒。图像数据可以从远程媒体服务器57进行检索。源设备也可以是卫星接收机或直接提供显示信号的媒体服务器,即,输出3D显示信号以便直接地被耦合到显示单元的任何适当设备。
3D显示设备53用于显示3D图像数据。该设备具有用于接收包括从源设备10传送的3D图像数据的3D显示信号56的输入接口单元。该设备具有用于显示处理的图像数据的3D显示器,例如,双或透镜LCD。显示设备53可以是任何类型的也被称为3D显示器的立体显示器,并且具有利用箭头44指示的显示深度范围。
3D源设备50具有与输入单元51相耦合的图像处理单元52,用于处理图像信息,以生成将经由输出接口单元12被传送至显示设备的3D显示信号56。处理单元52被安排用于生成包括在3D显示信号56中的图像数据,以便显示在显示设备13上。源设备配备有用户控制元件,用于控制诸如对比度或颜色参数之类的图像数据的显示参数。这样的用户控制元件是众所周知的,并且可以包括具有各种按钮和/或光标控制功能的遥控单元,以控制3D源设备的各种功能,诸如正常回放和记录功能,以及用于例如借助于直接按钮或借助于图形用户界面和/或菜单来选择特技播放模式。
源设备50具有用于在特技播放模式中处理3D视频数据的特技播放处理单元48。3D视频数据在特技播放期间通过根据入口点表格检索和解码2D子流中的非相邻分段以及检索和依赖性解码辅助子流中的对应分段而被再生。对于相应的分段,独立解码2D子流,并且3D信息以基于辅助入口点从视频数据流中检索的辅助流的对应分段为基础来添加。
图5进一步显示记录载体54作为3D图像数据的载体。该记录载体是盘状的,并具有轨道和中心孔。利用一系列物理可检测的标记构成的轨道根据在信息层上构成大致平行轨道的螺旋或同心图案的圈来排列。该记录载体可以是光学可读的,其被称为光盘,例如CD、DVD或BD(蓝光光盘)。在信息层上利用沿着轨道的例如坑和脊的光学可检测标记来表示信息。该轨道结构也包括用于指示通常被称为信息块的信息单元的位置的位置信息,例如标题和地址。记录载体54在如同DVD或BD格式之类的预定义记录格式中运送代表数字编码的3D视频数据的信息,其中3D视频数据例如根据MPEG2或MPEG4编码系统来编码。
下文描述的是基于蓝光光盘规范的EP映射表格的语法的相关部分。我们提议对这个表格进行扩展,以致它可能也包含对于在EP映射表的顶部列出的主要流上的解码而言是依赖性的相关联流的入口。
在实践中,这将意味着:对于与另一个流联合编码的每一个辅助流,在与其依赖来解码的流相同的表格中具有EP映射(EP_map)。相反的即用于辅助流的附加表格也是有可能的,并且在与2D解码向后兼容性的情况中是更有效的。在这种情况中,对于包含辅助流的剪辑,具有EP映射。在这个EP映射中也具有用于辅助流中的入口点所依赖来解码的基本视图流的部分的入口点位置。在多视图编码视频的回放情况中,播放器则仅需要加载辅助流的EP映射,并且随后具有用于基本视图流的接入点,其中基本视图流必须被解码,以便能在辅助流的接入点上解码该帧。
详细地,提议新的EP映射,其包含入口点至用于多流编码3D视频流的文件地址的映射。蓝光光盘规范当前定义唯一一种类型的EP映射,这指示在如下所示的规范的表格示。
图6显示输入点表格指示符表格。该表格显示现有的EP映射类型。用于指示EP映射类型的指示符值可以在描述例如蓝光光盘之类的记录格式的标准中进行定义。提议在称为“EP_map_MVC”或如同用于立体3D视频的EP_map_ST之类的某种类似命名的这个表格中添加用于多视图编码(MVC)3D视频的新类型。这个EP_MVC_map_type可以利用值2来指示。
图7显示增强的入口点表格指示符表格。该表格显示现有EP映射类型以及为MVC 3D视频提议的在这个表格中称为EP_map_MVC的新类型。在一个实施例中,相应的EP映射类型在生成3D视频数据流时被包括在EP映射数据结构中,并被传送到回放设备。该回放设备现在能够容易检测新的EP映射表格类型,并使得特技播放操作适应于相应的EP映射。
图8显示增强的流类型表格。作为图6、7的替代,新的EP映射现在使用该表格中显示的EP_stream_type值来指示,其中该表格对于EP_map(EP映射)中引用的流的类型具有新的值(该表格中的8)。在一个实施例中,相应的EP流类型在生成3D视频数据流时被包括在3D视频流数据结构中,并被传送到回放设备。回放设备现在能够容易检测新的EP流类型,并从该流中检索增强的入口点表格,且使得特技播放操作适合于增强的入口点表格。
图9显示具有两个子流的3D视频流。该图显示使用分层B图片来MVC编码两个流的区段的示例。标记为L的上序列是独立可解码的2D子流,而标记为R的较低序列是依赖性可解码的,这是因为它需要来自第一流的数据。箭头指示:来自第一I帧的数据用于编码较低子流中的第一P图片。
在图9所示的示例中,在L和R流二者中具有三个入口点。在L流中,具有I、B(T2)和B(T4)图片,而在R流中具有P、B(T2)和B(T4)图片。在中间的B图片是非参考帧,并且不能用作入口点。注意:在实践中,入口点之间的距离将是相当大的。
我们现在将通过调查在用户想跳到位置T2时发生什么来继续。如果解码开始于T2,那么解码器也必须为L流在T0访问I图片,而对于R流,它必须访问来自L流的I图片和来自R流的P图片。因此,它需要I图片在L流中的位置以及P图片在R流中的位置。于是,它需要针对P图片的位置的时间矢量以及针对L帧中的I图片的空间矢量。
在盘上,L和R流均可以在盘上的不同区段中进行交错,或者可以被包含在一个流中。因此,对于一个入口点,可能需要文件中的位置和盘上的位置二者,这是因为对于一个入口点来说,需要来自L和R流二者的信息,如上所述。因此,在子流L中的主要入口点以及依赖性可解码的子流R中的辅助入口点将被提供。
因此,详细地,我们提议对于MVC编码的视频扩展EP映射,以致每一个入口点包含两个地址,其也被称为矢量。一个时间矢量指向PTS,而一个空间矢量指向对于入口点而言充当参考帧的帧的分组编号。
图10显示也被称为EP_map_syntax的入口点图的定义。该表格显示被扩展用于与MVC编码视频一起使用的当前EP映射的一个示例。该映射包括用于相应子流的子表格。注意:该表格定义例如在诸如蓝光光盘格式中的控制信息CPI 41之类的记录载体上的控制信息中利用3D视频数据流而包括的入口点表格的数据结构。
图11显示用于组合的主要流和子流的入口点表格,其也被称为用于一个流PID的EP_map。在这个实施例中,没有特定的MVC区段如图10所示被添加,而利用附加条目来扩展该表格,以致每一个入口点也指示从属数据流中的分组编号和PTS值的列表。
在用于多视图编码3D视频的回放系统的一个实施例中,特技播放如下进行安排。3D视频流具有多个辅助子流,并且入口点包括仅用于所述多个辅助子流的选定子集的辅助入口点。在特技播放期间,通过只解码具有入口点的子流,再现精简版本的3D视频数据。有利地,入口点表格的大小保持有限。
替代地,解码器在执行特技播放时自动地减少视图的数量,以减轻播放器上的负担。在用于增加速度的步骤例如9-7-5-3-2中,能够动态地减少视图的数量。可以从入口点表格中检索用于减少数量的视图的相应入口点。替代地,减少数量的视图可以在特技播放期间在处理单元中生成,其中处理单元在标准速度回放期间产生所述全部众多的视图。
将注意:本发明可以使用可编程组件在硬件和/或软件中进行实现。用于实现本发明的方法具有与参考图1所阐述的3D视频数据的处理相对应的处理步骤。虽然本发明主要利用使用光学记录载体或因特网的实施例进行解释了,但是本发明也适于任何的图像接口环境,如同3D个人计算机(PC)显示接口或耦合到无线3D显示设备的3D媒体中心PC。
注意:在这个文献中,词“包括”并不排除除了所列出之外的其他元素或步骤的存在,并且在元素之前的词“一”或“一个”并不排除多个这样的元素的存在,任何参考符号并不限制权利要求书的范畴,本发明可以利用硬件和软件二者来实现,并且若干个“装置”或“单元”可以利用同一项硬件或软件来表示,而且处理器可以有可能与硬件元素协作来实现一个或更多单元的功能。进一步,本发明并不限于这些实施例,并在于如上所述的每一个新颖特征或特征的组合之中。
参考文献[1]:“A novel Milti-View Video Coding Scheme Based on H.264; by GuopingLi, Yun He; ICICS-PCM 2003, 15-18 december 2003, Singapore, IEEE 0-7893-8185-8/03/$17.00”
参考文献[2]:“Efficient Prediction Structures for Multi-View Video Coding; by Philipp Merkle et al; IEEE 2007”
参考文献[3]:“Depth image based rendering, compression and transmission for a new approach on 3D TV” by Christoph Fehn (see http://iphome.hhi.de/fehn/Publications/fehn_EI2004.pdf).
Claims (18)
1.一种为视频数据流提供入口点的方法,该方法包括:
生成入口点表格;
在视频数据流中定义入口点,其中以彼此在时间上相隔一定距离的方式来定义这些入口点,以便启用特技播放;
通过存储给出所定义的入口点的位置的入口点地址,在入口点表格中存储所定义的入口点,
其中
视频数据流包括众多子流,其中众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流;
定义入口点包括:通过定义在2D子流中的主要入口点以及在辅助子流中的辅助入口点,将入口点表格与3D视频数据相关联,以便通过基于检索主要入口点和辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段,启用3D视频数据的3D特技播放。
2.如权利要求1所述的方法,其中相关联入口点表格包括:使用相同的显示时间标记(PTS)值,建立从相应的主要入口点到对应的辅助入口点的关联性。
3.如权利要求1或2所述的方法,其中相关联入口点表格包括:在辅助子流的单独的入口点图中提供辅助入口点。
4.如权利要求1所述的方法,其中视频数据流包括多视图3D视频数据,其中多视图至少包括一个左视图和一个右视图;或
其中至少一个辅助子流包括至少以下之一:
深度信息数据流;
透明度信息数据流;
阻塞信息数据流;或
其中视频数据流包括多个辅助子流,并且入口点包括仅用于所述多个辅助子流的选定子集的辅助入口点,以便在特技播放期间再现精简版本的3D视频数据。
5.如权利要求1所述的方法,其中该方法包括以下步骤:
生成与2D子流相关联的第一入口点子表格,和
生成与辅助子流相关联的第二入口点子表格,以及
利用第一入口点子表格和第二入口点子表格,形成与3D视频数据相关联的入口点表格。
6.如权利要求1所述的方法,其中该方法包括以下步骤:
为每一个入口点,定义多个入口点地址的集合,其包括至主要入口点的至少第一入口点地址以及至对应的辅助入口点地址的至少第二入口点地址。
7.如权利要求1所述的方法,其中该方法包括提供记录载体,其中在所述记录载体上存储数据流和入口点表格。
8.一种用于为视频数据流提供入口点的设备,该设备包括:
用于通过以下来生成入口点表格的装置(18):
在视频数据流中定义入口点,其中以彼此在时间上相隔一定距离的方式来定义这些入口点,以便启用特技播放;和
通过存储给出所定义的入口点的位置的入口点地址,在入口点表格中存储所定义的入口点,
其中
视频数据流包括众多子流,其中众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流,以及
用于生成入口点表格的装置(18)被安排用于:通过定义在2D子流中的主要入口点以及在辅助子流中的辅助入口点,将入口点表格与3D视频数据相关联,以便通过基于检索主要入口点和辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段,启用3D视频数据的3D特技播放。
9.如权利要求8所述的设备,其中该设备包括写入装置,用于在记录载体上存储视频数据流和入口点表格。
10.一种用于再生视频数据的设备,该设备包括:
用于接收视频数据流以及如在权利要求1-7中任一权利要求中定义的入口点表格的装置(58,59),其中
视频数据流包括众多子流,其中众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流;以及
该设备包括用于通过基于检索2D子流中的主要入口点和辅助子流中的辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应片段而再生3D视频数据的3D视频数据的3D特技播放的装置(48)。
11.如权利要求10所述的设备,其中用于3D特技播放的装置(48)被安排用于:使用相同的显示时间标记(PTS)值,为相应的主要入口点检索对应的辅助入口点。
12.如权利要求10或11所述的设备,其中用于3D特技播放的装置(48)被安排用于:从辅助子流的单独的入口点图中检索辅助入口点。
13.如权利要求10所述的设备,其中用于3D特技播放的装置(48)被安排用于:
从与2D子流相关联的第一入口点子表格中检索主要入口点,和
从与辅助子流相关联的第二入口点子表格中检索辅助入口点。
14.如权利要求10所述的设备,其中该设备包括用于从记录载体中读取视频数据流和入口点表格的读取装置(58)。
15.一种基于信号来再现视频数据的方法,该方法包括:
接收信号,其中该信号包括:
具有以彼此在时间上相隔一定距离的方式定义的入口点的视频数据流;
如在权利要求1-7中任一权利要求中定义的入口点表格,其利用存储的给出所定义的入口点的位置的入口点地址来包括所定义的入口点,
其中
视频数据流包括众多子流,其中众多子流代表3D视频数据的一个流,并包括具有独立编码的2D版本的3D视频数据的至少一个2D子流以及具有依赖性编码的3D视频数据的部分的至少一个辅助子流;以及
该方法包括:通过基于检索2D子流中的主要入口点和辅助子流中的辅助入口点来检索和解码2D子流中的非相邻片段以及检索和依赖性解码辅助子流中的对应分段而再生3D视频数据,再现3D视频数据的3D特技播放。
16.如权利要求15所述的方法,其中再现3D特技播放包括:使用相同的显示时间标记(PTS)值,为相应的主要入口点来检索对应的辅助入口点。
17.如权利要求15或16所述的方法,其中再现3D特技播放包括:从辅助子流的单独的入口点图中检索辅助入口点。
18.如权利要求15所述的方法,其中该方法包括:
从与2D子流相关联的第一入口点子表格中检索主要入口点,和
从与辅助子流相关联的第二入口点子表格中检索辅助入口点。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09160453 | 2009-05-18 | ||
EP09160453.8 | 2009-05-18 | ||
PCT/IB2010/052101 WO2010134003A1 (en) | 2009-05-18 | 2010-05-12 | Entry points for 3d trickplay |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102428706A CN102428706A (zh) | 2012-04-25 |
CN102428706B true CN102428706B (zh) | 2014-11-05 |
Family
ID=41100665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080021900.4A Active CN102428706B (zh) | 2009-05-18 | 2010-05-12 | 用于3d特技播放的入口点 |
Country Status (16)
Country | Link |
---|---|
US (2) | US20120063742A1 (zh) |
EP (1) | EP2433429B1 (zh) |
JP (1) | JP5829604B2 (zh) |
KR (1) | KR101714776B1 (zh) |
CN (1) | CN102428706B (zh) |
AU (1) | AU2010250871B2 (zh) |
BR (1) | BRPI1007695B1 (zh) |
CA (1) | CA2762385C (zh) |
ES (1) | ES2700227T3 (zh) |
HU (1) | HUE040291T2 (zh) |
MX (1) | MX2011012221A (zh) |
PL (1) | PL2433429T3 (zh) |
RU (1) | RU2552137C2 (zh) |
SG (1) | SG175863A1 (zh) |
TW (1) | TWI517643B (zh) |
WO (1) | WO2010134003A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110025123A (ko) | 2009-09-02 | 2011-03-09 | 삼성전자주식회사 | 비디오 영상 배속 재생 방법 및 장치 |
US10448083B2 (en) * | 2010-04-06 | 2019-10-15 | Comcast Cable Communications, Llc | Streaming and rendering of 3-dimensional video |
KR101767045B1 (ko) * | 2010-12-17 | 2017-08-10 | 삼성전자 주식회사 | 영상처리장치 및 영상처리방법 |
CN102055984B (zh) * | 2011-01-27 | 2012-10-03 | 山东大学 | 2d和3d播放模式平滑切换的立体视频解码结构及工作方法 |
CN105100822B (zh) * | 2011-01-28 | 2018-05-11 | 华为技术有限公司 | 辅助视频补充信息承载方法、处理方法、装置与系统 |
US10555012B2 (en) | 2011-06-27 | 2020-02-04 | Oncam Global, Inc. | Method and systems for providing video data streams to multiple users |
US9065983B2 (en) | 2011-06-27 | 2015-06-23 | Oncam Global, Inc. | Method and systems for providing video data streams to multiple users |
US10033968B2 (en) | 2011-06-27 | 2018-07-24 | Oncam Global, Inc. | Method and systems for providing video data streams to multiple users |
KR101790570B1 (ko) * | 2011-06-27 | 2017-10-26 | 온캠 글로벌 인크 | 비디오 데이터 스트림을 다중 사용자에게 제공하기 위한 방법 및 시스템 |
WO2013100641A1 (ko) * | 2011-12-27 | 2013-07-04 | 엘지전자 주식회사 | 입체영상 디스플레이가 가능한 디지털 방송 수신방법 및 수신장치 |
KR101369146B1 (ko) * | 2012-07-16 | 2014-03-06 | 옵티시스 주식회사 | 영상 시스템 |
US9432730B2 (en) * | 2012-12-26 | 2016-08-30 | Huawei Technologies Co., Ltd. | Multimedia file playback method and apparatus |
EP3761654A1 (en) * | 2019-07-04 | 2021-01-06 | THEO Technologies | Media streaming |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6075817A (en) * | 1991-12-23 | 2000-06-13 | Digital Compression Technology | Compressive communication and storage system |
US6064794A (en) * | 1995-03-30 | 2000-05-16 | Thomson Licensing S.A. | Trick-play control for pre-encoded video |
GB9506493D0 (en) * | 1995-03-30 | 1995-05-17 | Thomson Consumer Electronics | The implementation of trick-play modes for pre-encoded video |
EP2259588B1 (en) * | 1996-02-28 | 2013-12-11 | Panasonic Corporation | High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device |
JP3719758B2 (ja) * | 1996-03-19 | 2005-11-24 | パイオニア株式会社 | 情報記録装置及び方法並びに情報再生装置及び方法 |
FR2756399B1 (fr) * | 1996-11-28 | 1999-06-25 | Thomson Multimedia Sa | Procede et dispositif de compression video pour images de synthese |
KR20010022752A (ko) * | 1998-06-11 | 2001-03-26 | 요트.게.아. 롤페즈 | 디지털 비디오 레코더용 트릭 플레이 신호 발생 |
CN100592417C (zh) * | 2002-04-25 | 2010-02-24 | 皇家飞利浦电子股份有限公司 | 定义数据流中的入口点的方法和设备 |
US7720350B2 (en) | 2004-11-30 | 2010-05-18 | General Instrument Corporation | Methods and systems for controlling trick mode play speeds |
WO2006109718A1 (ja) * | 2005-04-07 | 2006-10-19 | Matsushita Electric Industrial Co., Ltd. | 記録媒体、再生装置、記録方法、再生方法 |
KR100657322B1 (ko) * | 2005-07-02 | 2006-12-14 | 삼성전자주식회사 | 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치 |
CN101702323B (zh) * | 2005-08-09 | 2011-09-07 | 松下电器产业株式会社 | 记录介质,重放设备、方法及程序 |
CN101523924B (zh) | 2006-09-28 | 2011-07-06 | 皇家飞利浦电子股份有限公司 | 3d菜单显示 |
WO2008044191A2 (en) | 2006-10-11 | 2008-04-17 | Koninklijke Philips Electronics N.V. | Creating three dimensional graphics data |
US8594180B2 (en) | 2007-02-21 | 2013-11-26 | Qualcomm Incorporated | 3D video encoding |
US20080240230A1 (en) * | 2007-03-29 | 2008-10-02 | Horizon Semiconductors Ltd. | Media processor with an integrated TV receiver |
US9648325B2 (en) * | 2007-06-30 | 2017-05-09 | Microsoft Technology Licensing, Llc | Video decoding implementations for a graphics processing unit |
WO2009057298A1 (ja) | 2007-11-01 | 2009-05-07 | Panasonic Corporation | 記録媒体、再生装置、記録装置、再生方法、及び記録方法 |
JP2009135686A (ja) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
KR101506217B1 (ko) * | 2008-01-31 | 2015-03-26 | 삼성전자주식회사 | 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치 |
KR101472332B1 (ko) * | 2008-04-15 | 2014-12-15 | 삼성전자주식회사 | 3차원 디지털 컨텐츠의 제공 방법, 수신 방법 및 그 장치 |
EP2395772A3 (en) * | 2008-09-30 | 2013-09-18 | Panasonic Corporation | Glasses and display device |
WO2010050728A2 (ko) * | 2008-10-27 | 2010-05-06 | 엘지전자 주식회사 | 가상 뷰 이미지 합성 방법 및 장치 |
CA2745392C (en) * | 2008-12-18 | 2016-07-12 | Lg Electronics Inc. | Method for 3d image signal processing and image display for implementing the same |
CN102484727B (zh) * | 2009-03-19 | 2015-01-21 | Lg电子株式会社 | 用于处理三维(3d)视频信号的方法和用于执行该处理方法的数字广播接收机 |
JP5267886B2 (ja) * | 2009-04-08 | 2013-08-21 | ソニー株式会社 | 再生装置、記録媒体、および情報処理方法 |
JP5614901B2 (ja) * | 2009-05-01 | 2014-10-29 | トムソン ライセンシングThomson Licensing | 3dvの参照ピクチャ・リスト |
WO2010143439A1 (ja) * | 2009-06-12 | 2010-12-16 | パナソニック株式会社 | 再生装置、集積回路、記録媒体 |
-
2010
- 2010-05-12 KR KR1020117030238A patent/KR101714776B1/ko active IP Right Grant
- 2010-05-12 HU HUE10726256A patent/HUE040291T2/hu unknown
- 2010-05-12 AU AU2010250871A patent/AU2010250871B2/en active Active
- 2010-05-12 EP EP10726256.0A patent/EP2433429B1/en active Active
- 2010-05-12 CA CA2762385A patent/CA2762385C/en active Active
- 2010-05-12 RU RU2011151601/08A patent/RU2552137C2/ru active
- 2010-05-12 SG SG2011080686A patent/SG175863A1/en unknown
- 2010-05-12 BR BRPI1007695-6A patent/BRPI1007695B1/pt active IP Right Grant
- 2010-05-12 ES ES10726256T patent/ES2700227T3/es active Active
- 2010-05-12 CN CN201080021900.4A patent/CN102428706B/zh active Active
- 2010-05-12 PL PL10726256T patent/PL2433429T3/pl unknown
- 2010-05-12 US US13/320,569 patent/US20120063742A1/en not_active Abandoned
- 2010-05-12 MX MX2011012221A patent/MX2011012221A/es active IP Right Grant
- 2010-05-12 JP JP2012511383A patent/JP5829604B2/ja active Active
- 2010-05-12 WO PCT/IB2010/052101 patent/WO2010134003A1/en active Application Filing
- 2010-05-17 TW TW099115702A patent/TWI517643B/zh active
- 2010-05-17 US US12/781,494 patent/US9007434B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP5829604B2 (ja) | 2015-12-09 |
EP2433429A1 (en) | 2012-03-28 |
US9007434B2 (en) | 2015-04-14 |
SG175863A1 (en) | 2011-12-29 |
BRPI1007695A2 (pt) | 2016-08-02 |
AU2010250871B2 (en) | 2015-07-09 |
RU2552137C2 (ru) | 2015-06-10 |
HUE040291T2 (hu) | 2019-02-28 |
TW201105109A (en) | 2011-02-01 |
ES2700227T3 (es) | 2019-02-14 |
CA2762385A1 (en) | 2010-11-25 |
US20120063742A1 (en) | 2012-03-15 |
BRPI1007695B1 (pt) | 2021-05-11 |
RU2011151601A (ru) | 2013-06-27 |
EP2433429B1 (en) | 2018-09-12 |
AU2010250871A1 (en) | 2012-01-19 |
MX2011012221A (es) | 2011-12-08 |
CN102428706A (zh) | 2012-04-25 |
KR20120027366A (ko) | 2012-03-21 |
PL2433429T3 (pl) | 2019-03-29 |
CA2762385C (en) | 2018-11-20 |
BRPI1007695A8 (pt) | 2017-07-25 |
US20100289875A1 (en) | 2010-11-18 |
JP2012527814A (ja) | 2012-11-08 |
WO2010134003A1 (en) | 2010-11-25 |
TWI517643B (zh) | 2016-01-11 |
KR101714776B1 (ko) | 2017-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102428706B (zh) | 用于3d特技播放的入口点 | |
RU2506708C2 (ru) | Механизм выбора режима 3d для воспроизведения видео | |
CN102106153B (zh) | 字幕的3d显示处理 | |
CN101682719B (zh) | 3d影像的记录装置、方法以及3d影像的再现装置、方法 | |
RU2538335C2 (ru) | Объединение данных 3d изображения и графических данных | |
KR101806531B1 (ko) | 3d 비디오 및 2d 비디오 사이의 전환 | |
TWI573434B (zh) | 通用的三維圖片格式 | |
RU2554465C2 (ru) | Комбинирование 3d видео и вспомогательных данных | |
JP5480915B2 (ja) | 表示装置と方法、記録媒体、送信装置と方法、及び再生装置と方法 | |
US20100103168A1 (en) | Methods and apparatuses for processing and displaying image | |
US20110157315A1 (en) | Interpolation of three-dimensional video content | |
JP2008103820A (ja) | 立体画像処理装置 | |
KR20110129903A (ko) | 3d 시청자 메타데이터의 전송 | |
CN102257826A (zh) | 显示参数设置的控制 | |
US20140078255A1 (en) | Reproduction device, reproduction method, and program | |
KR101537615B1 (ko) | 기록매체, 데이터 기록/재생 방법 및 데이터 기록/재생 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |