CN107105212A - 用于处理3维广播服务的广播信号的方法和设备 - Google Patents

用于处理3维广播服务的广播信号的方法和设备 Download PDF

Info

Publication number
CN107105212A
CN107105212A CN201610978226.8A CN201610978226A CN107105212A CN 107105212 A CN107105212 A CN 107105212A CN 201610978226 A CN201610978226 A CN 201610978226A CN 107105212 A CN107105212 A CN 107105212A
Authority
CN
China
Prior art keywords
information
scene
depth
contents
osd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610978226.8A
Other languages
English (en)
Inventor
崔智铉
徐琮烈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Priority claimed from CN201280030993.6A external-priority patent/CN103621074B/zh
Publication of CN107105212A publication Critical patent/CN107105212A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/455Demodulation-circuits

Abstract

一种用于处理3维广播服务的广播信号的方法和设备。所公开的用于接收包括3D内容的广播信号的设备包括:接收单元,其被配置为接收广播信号,该广播信号包括用于3D内容的视频数据;解码器,其被配置为对来自所接收到的广播信号的用于所述3D内容的所述视频数据进行解码;信令处理器,其被配置为从经解码的视频数据解析深度信息;图形引擎,其被配置为确定用于显示接收器的屏幕显示OSD的深度;格式化器,其被配置为形成图像,该图像包括位于用于所述3D内容的所述深度处的所述OSD;以及显示单元,其被配置为显示所述图像,其中,所述3D内容包括至少一个场景,所述至少一个场景是定义在所述3D内容中的时间片段。

Description

用于处理3维广播服务的广播信号的方法和设备
本申请是原案申请号为201280030993.6的发明专利申请(国际申请号PCT/KR2012/004877,申请日:2012年6月20日,发明名称:用于处理3维广播服务的广播信号的方法和设备)的分案申请。
技术领域
本发明涉及用于接收、处理并提供三维(3D)广播服务的方法和设备。更具体地讲,本发明涉及一种即使在使用广播接收器的内部组件的功能时,也降低对3D广播服务的影响的方法和设备。
背景技术
3D电视(3DTV)的普及不仅促进了根据存储介质提供3D视频内容,而且促进了根据数字广播发送3D视频内容。
通常,3D图像利用眼睛的立体视觉原理来向用户的眼睛提供立体效果。人通过他或她的眼睛之间彼此间隔开大约65mm的距离所引起的双目视差来感觉到透视感,使得3D图像允许右眼和左眼这二者分别看到关联的平面图像,从而得到立体效果和透视效果。
上述3D图像显示方法可分为立体(stereoscopic)方案、体积(volumetric)方案、全息方案等。在使用立体方案的情况下,3D图像显示方法提供要由左眼看到的左视点图像以及要由右眼看到的右视点图像,使得通过偏振眼镜或显示装置,用户的左眼看到左视点图像,用户的右眼看到右视点图像,从而识别出3D图像效果。
为了提供3D广播服务,有必要分别发送左视点图像和右视点图像,并且由广播接收器适当地处理左视点图像和右视点图像以生成3D图像。因此,需要用于3D广播信号处理的附加信令信息。
3D广播信号在广播台中生成并从其发送。广播接收器中所使用的屏幕显示(OSD)由广播接收器生成,并且没有考虑3D广播服务。当在显示3D广播内容的同时显示广播接收器的OSD时,可能妨碍用户观看3D广播内容,因为OSD的显示没有考虑3D广播内容的深度信息。
另外,嵌入3D广播内容中的叠加(overlay)的显示深度可能不同于3D广播内容。在这种情况下,当广播接收器显示OSD(嵌入叠加)时,有必要考虑嵌入叠加和3D广播内容的深度。
发明内容
技术问题
为解决所述问题而设计出的本发明的目的在于处理广播信号,使得当3D广播接收器显示OSD时,OSD不会妨碍3D广播内容的显示。
问题的解决方案
为了实现这些目的和其它优点并且根据本发明的目的,如本文具体实施并概括描述的,提出了一种用于接收包括3D内容的广播信号的设备。该设备包括:接收单元,其被配置为接收广播信号,该广播信号包括用于3D内容的视频数据;解码器,其被配置为对来自所接收到的广播信号的用于所述3D内容的所述视频数据进行解码;信令处理器,其被配置为从解码的视频数据解析深度信息;图形引擎,其被配置为确定用于显示接收器的OSD的深度;格式化器,其被配置为形成图像,该图像包括位于所述3D内容的所述深度处的所述OSD;以及显示单元,其被配置为显示所述图像,其中,所述深度信息包括分割信息,该分割信息指示图像的分割图案,所述图像的多个区域由所述分割信息限定,其中,所述深度信息还包括指定所述图像中的最大视差值的最大视差信息以及指定所述多个区域中的区域中的最小视差值的最小视差信息。
在本发明的另一方面中,所述深度信息还包括标识所述多个区域中的各个区域的区域标识信息。
在本发明的另一方面中,所述深度信息还包括切换信息,该切换信息指示在所述OSD叠加到所述3D内容上的同时是否将所述3D内容切换为2维2D内容。
在本发明的另一方面中,所述深度信息还包括数量信息,该数量信息指示所述图像的水平轴或垂直轴上的区域的数量。
在本发明的另一方面中,所述深度信息被包括在SEI消息中。
在本发明的另一方面中,所述深度信息还包括优先级信息,该优先级信息指定用于由所述区域标识信息标识的区域的显示的优先级。
在本发明的另一方面中,所述图形引擎还被配置为当所述优先级信息的值超过阈值时,确定所述OSD不叠加在所述区域的所述3D内容上。
在本发明的另一方面中,本文提供了一种用于在发送器处发送包括3D内容的广播信号的方法。该方法包括以下步骤:对深度信息进行编码;对用于3D内容的包括所述深度信息的视频数据进行编码;以及发送包括所述视频数据的广播信号,其中,所述深度信息包括分割信息,该分割信息指示图像的分割图案,所述图像的多个区域由所述分割信息限定,其中,所述深度信息还包括指定所述图像中的最大视差值的最大视差信息以及指定所述多个区域中的区域中的最小视差值的最小视差信息。
本发明的有益效果
根据本发明,广播接收器可显示OSD,使得OSD不会使3D广播内容失真。
根据本发明,可以考虑广播接收器的性能来显示OSD。
根据本发明,可以显示OSD,使得嵌入在3D广播内容中的叠加区域不会失真。
附图说明
附图被包括以提供对本发明的进一步理解,附图示出本发明的实施方式并与说明书一起用于说明本发明的原理。附图中:
图1示出根据本发明的实施方式的3D广播接收器;
图2示出根据本发明的实施方式的接收器中的OSD输出方法;
图3示出根据本发明的实施方式的当在系统级用信号通知3D模式时的扩展视频深度范围描述符;
图4示出根据本发明的实施方式的range_type字段和production_disparity_hint_info字段;
图5示出根据本发明的实施方式的video_with_open_overlay_disparity_info信息;
图6示出根据本发明的实施方式的open_overlay_area_info()信息;
图7示出根据本发明的实施方式的虚拟信道表(VCT);
图8示出根据本发明的实施方式的事件信息表(EIT);
图9示出根据本发明的实施方式的使用SEI消息的用于嵌入叠加的信息信令;
图10示出根据本发明的实施方式的embedded_overlay_data描述符;
图11示出根据本发明的实施方式的接收器考虑嵌入叠加显示本地OSD的操作;
图12示出根据本发明的实施方式的3D_scene_depth_info_descriptor;
图13示出根据本发明的实施方式的scene_format_type字段和scene_disparity_info信息的定义;
图14示出根据本发明的实施方式的用于发送嵌入叠加的深度信息的节目的配置;
图15示出根据本发明的实施方式的接收器的功能块;
图16示出根据本发明的另一实施方式的接收器的功能块;
图17示出根据本发明的实施方式的PES分组的结构;
图18示出根据本发明的实施方式的depth_information_data();
图19示出根据本发明的实施方式的region_depth_data();
图20示出根据本发明的实施方式的通过SEI消息提供深度信息的方法;
图21示出根据本发明的实施方式的depth_data();
图22示出根据本发明的实施方式的显示有用于基于区域的信令的区域的屏幕;以及
图23示出根据本发明的另一实施方式的3D接收器的功能块。
具体实施方式
将参照附图详细描述本发明的附图和实施方式,其不应被解释为限制本发明。
另外,尽管本发明中使用的术语选自公知公用的术语,但是这些术语可根据操作者的意图、习惯或新技术的出现而改变。本发明的说明书中提及的一些术语是由申请人酌情选择的,其详细含义在本文说明书的相关部分中描述。因此,不能简单地通过使用的实际术语来理解本发明,而是必须通过各个术语内涵的含义来理解本发明。
3DTV广播可发送视频内容的最小视差值和最大视差值作为使叠加悬浮所必需的信息。当需要在广播视频内容的同时显示诸如OSD的叠加时,广播接收器可通过利用所述信息将叠加显示在适当深度来使视频内容的3D效果的失真最小化。
嵌入叠加(或开放叠加)表示包括在视频信号中并被发送的图形图像,例如广播台徽标、开放字幕等,它不是视频数据。与隐藏字幕、字幕(subtitle)等相区别,嵌入叠加是在接收器对视频流解码时必须显示的数据。即,嵌入叠加表示嵌入在内容中的字幕或图形(例如,比赛得分、娱乐节目字幕、新闻简报等)。隐藏字幕/隐藏图形表示作为单独的流发送的字幕或图形。
在3D广播的情况下,3D视频的深度范围与嵌入叠加所在的深度范围之间很可能存在差异。即,由于嵌入叠加可能与广播内容分开生成,所以嵌入叠加的深度范围和广播内容的深度范围彼此不同。因此,当在观看3D视频内容的同时根据用户交互将UI、图形等悬浮于3D屏幕上时,有必要提供关于嵌入叠加区域的信息以及与3D视频内容对应的区域的深度信息。如果提供有关于嵌入叠加区域的信息,则接收器可根据有关3D视频内容区域的数据的重要性来使用避开嵌入叠加区域的方法,或者可基于背景视频数据的深度来确定UI/图形的深度。如果不与开放叠加对应的特定区域的深度范围与其它区域的深度范围显著不同,则可将应用于该特定区域的信息从对应视频的视差信息中排除,以将该特定区域指定为附加开放叠加区域并单独地用信号通知该附加开放叠加区域的视差信息。
因此,需要用于导出嵌入叠加的视差范围和叠加区域以及除了叠加之外的视频部分的视差范围的接收器操作机制,并且该接收器操作机制需要支持相关广播信令。接收器可通过适当地处理该广播信令来支持与3D广播服务兼容地显示OSD。
图1示出根据本发明的实施方式的3D广播接收器。
尽管下面的描述基于广播接收器,但是根据本发明的广播接收器不仅可包括将广播信号解码并显示的装置,而且可包括将蓝光盘、视频CD、游戏内容等解码并显示的装置。
参照图1,3D广播接收器可包括3D深度信息解码器1010、PSI/PSIP/SI处理器1020、3D OSD引擎1030、左混合器1040、右混合器1050和/或3D输出格式化器1060。
支持立体3D广播的接收器可包括用于处理服务信息(SI)的模块。SI包括PSI/PSIP/SI、DVB信令信息或者可被包括在PSI/PSIP/SI和DVB信令信息中的3D视频/深度信息。
3D深度信息解码器1010解析3D深度信息。
PSI/PSIP/SI处理器1020处理节目特定信息(PSI)、节目和系统信息协议(PSIP)和/或SI。根据本发明的实施方式,3D数据深度信息解码器1010和PSI/PSIP/SI解码器1020可被当作一个单元。
3D OSD引擎1030可参照限于基于节目/信道/服务的视差范围或基于事件的视差范围的基本视差范围信息来处理OSD的显示位置。关于视差范围的信息可被包括在SI中并被发送给接收器。
3D OSD引擎1030可通过考虑具有视差范围性质的特定区域(例如,包括在视频中的嵌入叠加)来处理OSD,使得OSD可有效地显示在该特定区域上。在这种情况下,3D OSD引擎1030可控制新的接收器操作机制。3D OSD引擎1030可使用通过PSI/SI/PSIP的系统层中的信令信息或者利用视频头区域的信令信息。嵌入叠加可包括徽标、记分板和/或说明紧急情况的字幕。即,本发明提出了一种当嵌入叠加被包括在3DTV视频流中时考虑嵌入叠加的深度范围和位置来适当地输出嵌入叠加的方案。将描述深度范围信息信令以及用于基于深度范围信息信令控制适合于该信令的3D叠加输出的方法。
左混合器1040混合左图形。
右混合器1050混合右图形。
3D输出格式化器1060执行处理以输出3D图像。
图2示出根据本发明的实施方式的接收器中的OSD输出方法。
开放OSD可被定义为嵌入在视频中而被发送的叠加。本地OSD可被定义为在广播接收器中生成的OSD。本地OSD显示的深度可通过3D广播服务/内容的视差范围来确定。另外,可考虑开放OSD可显示的视差范围来显示本地OSD。
即,显示在区域A中的嵌入叠加可具有与3D广播服务/内容不同的视差范围,如果存在需要显示在区域A上方的OSD,则除了3D广播服务/内容的视差范围之外,还可考虑区域A的视差范围。换言之,3D视频帧中的各个区域A、区域B和其它区域可具有极其不同的视差范围。在这种情况下,当由接收器显示的OSD或图形数据应该显示在区域A和其它区域这二者上时,接收器可考虑区域A的视差范围和其它区域的视差范围这二者。
为此,信令信息中可包括下列信息。
当不考虑开放OSD时,表示3D广播服务/内容的视差范围的视频视差范围(最小视差/最大视差)信息可包括在信令信息中。
有关开放OSD的信息可包括在信令信息中。在这种情况下,可通过指定与开放OSD的数量一样多的for循环来通知多个开放OSD。与开放OSD有关的信息可包括下列信息。
表示嵌入叠加的视差范围的开放叠加视差范围可包括在开放OSD相关信息中。开放叠加视差范围可包括关于开放叠加的最小视差值和/或最大视差值的信息。即,根据需要,开放叠加视差范围可仅包括开放叠加的最小视差值。
开放叠加视差范围信息可被修改为使得其仅包括表示对应开放叠加以2D(平面)模式或3D(体积)模式显示的信息。
关于开放OSD的信息可包括指示开放叠加的类型的开放叠加类型。例如,开放叠加的类型可对应于广播台徽标、体育比赛得分、娱乐节目字幕、节目指南字幕或紧急广播消息。
当存在多个开放叠加时,关于开放OSD的信息可包括表示多个开放叠加的优先级的开放叠加优先级信息。开放叠加优先级信息可包括表示是否允许本地OSD叠加在开放叠加上的信息。例如,如果开放叠加优先级信息具有小于特定值的优先级值,则开放叠加优先级信息表示允许本地叠加叠加在对应的开放叠加上。根据需要,此功能可仅利用开放叠加类型字段来执行。例如,可向紧急广播消息指派高优先级值,并且当开放叠加类型指示开放叠加对应于紧急广播消息时,将本地OSD设置为使得本地OSD不会覆盖该开放叠加。
与开放OSD有关的信息可包括表示开放叠加所在的区域的(x,y)坐标值和/或宽度、高度和框尺寸的开放叠加区域信息。
开放叠加区域信息可指示整个图像中指定的区域当中的特定区域的索引号。
与开放OSD有关的信息可包括2D提取方法信息,该2D提取方法信息表示当本地OSD悬浮时将作为背景显示的3D视频图像是否可切换为2D图像。即,当显示本地OSD时,由于观看者通常不关注3D视频图像,所以可能发生无需维持3D效果的情况。因此,3D视频图像可作为2D视频图像显示,而不经受3D渲染。2D提取方法信息可包括在组件描述符中。2D提取方法信息可单独地包括在3D视频的组件级描述符中。然而,2D提取方法信息的位置不限于此。2D提取方法信息可包括这样的信息,该信息表示当显示本地OSD时,仅显示构成3D视频图像的左视点图像作为背景、仅显示构成3D视频图像的右视点图像作为背景、选择性地显示左视点图像和右视点图像、显示通过不同的流发送来的图像或者维持所显示的3D视频图像的选项。
与开放OSD有关的信息可包括表示是否在屏幕边缘包括悬浮窗口(其影响3D效果)的信息和/或悬浮窗口的位置信息。
与开放OSD有关的信息可通过系统级信令或视频级信令来发送。
在3D模式的系统级信令的情况下,与开放OSD有关的信息可通过视频深度范围描述符扩展来发送。或者,与开放OSD有关的信息可通过定义新的描述符来发送。
在3D模式的视频级信令的情况下,与开放OSD有关的信息可通过补偿增强信息(SEI)消息扩展来发送。或者,与开放OSD有关的信息可通过定义新的SEI消息来发送。
图3示出根据本发明的实施方式的当在系统级用信号通知3D模式时的扩展视频深度范围描述符。
扩展视频深度范围描述符承载3D视频的深度范围信息,其主要目的是用信号通知信息,在随3D视频流输出各种OSD时能够参照所述信息,使得OSD和3D视频流的深度不会交叠。根据本发明的实施方式,range_type可被扩展为包括与开放OSD有关的信息,以便单独地用信号通知与开放叠加有关的深度范围信息。
图4示出根据本发明的实施方式的range_type字段和production_disparity_hint_info字段。
当range_type字段具有值0x01时,其表示可通过视频深度范围描述符来用信号通知开放叠加的显示范围值。在这种情况下,可通过与开放叠加的数量一样多的for循环来用信号通知关于多个开放叠加的信息。如果不与开放叠加对应的特定区域的深度范围与其它区域的深度范围显著不同,则可将应用于该特定区域的信息从对应视频的视差信息中排除,以将该特定区域指定为附加开放叠加区域并单独地用信号通知该附加开放叠加区域的视差信息。
当range_type字段具有值0x00时,可使用production_disparity_hint_info字段。production_disparity_hint_info字段可用信号通知基于3D服务、3D内容或3D场景的最大视差值和/或最小视差值。production_disparity_hint_info字段可通知3D画面或图像的最大视差值。
图5示出根据本发明的实施方式的video_with_open_overlay_disparity_info信息。
当range_type字段具有值0x01时,可用信号通知开放叠加的深度信息。在这种情况下,可通过与开放叠加的数量一样多的for循环来用信号通知多个开放叠加的深度信息。如果不与开放叠加对应的特定区域的深度范围与其它区域的深度范围显著不同,则可将该特定区域的深度信息从对应视频的视差信息中排除,以将该特定区域指定为附加开放叠加区域并根据需要单独地用信号通知该附加开放叠加区域的深度信息。
disparity_for_video_only()字段可用信号通知与由production_disparity_hint_info字段用信号通知的信息类似的信息。disparity_for_video_only()字段可用信号通知除了开放叠加之外的视频的最大视差值和最小视差值。因此,就像production_disparity_hint_info字段一样,disparity_for_video_only()字段可包括video_max_disparity和video_min_disparity值。尽管这些视差值基于视频的宽度对应于11520像素的情况,但是根据需要,该视频宽度以外的值可被设置为基准值。在这种情况下,可另外用信号通知该基准值。
2D_extraction_method字段可提供表示当接收器使OSD悬浮时,OSD周围的3D图像是否切换为2D图像的信息。因此,接收器可在将本地图形的背景图像切换为2D图像时参照此信息。根据需要,可在观看3D视频的同时使图形图像悬浮时将3D视频切换为2D图像。2D_extraction_method字段可指示切换为2D图像。2D_extraction_method字段可表示使用左视点图像作为2D图像来显示背景图像。2D_extraction_method字段可指示使用右视点图像作为2D图像来显示背景图像。当显示OSD时,2D_extraction_method字段可表示不存在处理背景图像的特定方法。2D_extraction_method字段可表示即使当显示OSD时,也无需将背景图像切换为2D图像。2D_extraction_method字段可表示当显示OSD时,可从不同的流检索背景图像。即,2D_extraction_method字段可表示显示发送背景图像的附加广播流的数据。与2D_extraction_method字段有关的信息可按照字段格式来发送或者在附接到各个基本流的描述符(例如,组件描述符)的字段中用信号通知。
floating_window_present字段可包括用信号通知是否对视频执行了悬浮窗口(FW)处理的信息。这里,FW可以是与显示的图像的边缘部分对应的空置区域,以降低在显示面板的边缘处发生的3D效果失真。floating_window_present字段可用信号通知表示未对视频执行FW处理的信息、表示对视频执行了FW处理的信息或者表示无法识别是否对视频进行了FW处理的信息。接收器可在使本地OSD悬浮时参照此信息调节OSD位置。关于经FW处理的区域的详细信息可包括在此video_with_open_overlay_disparity_info信息中或通过单独的描述符来用信号通知。
open_overlay_type字段表示对应的开放叠加的类型。例如,可显示广播台徽标、体育比赛得分、娱乐节目字幕、节目指南字幕或紧急广播消息作为开放叠加,并且open_overlay_type字段可表示开放叠加的类型。根据实施方式,当open_overlay_type字段指示对应的开放叠加对应于紧急广播消息时,接收器可利用open_overlay_type字段来调节开放叠加,使得开放叠加不被本地OSD覆盖。
open_overlay_priority字段表示开放叠加的优先级。如果open_overlay_priority字段为“0”,则该open_overlay_priority字段用信号通知由于开放叠加具有高优先级,所以不允许本地OSD叠加在该开放叠加上。如果open_overlay_priority字段为“1”,则该open_overlay_priority字段表示由于开放叠加具有低优先级,所以允许本地OSD叠加在该开放叠加上。另选地,将值0,1,2,3,...分配给视频中描述的所有叠加,以表示较小的值指示较低优先级。open_overlay_priority字段的一些功能可由open_overlay_type字段来执行。
disparity_for_open_overlay()信息包括对应的开放叠加的视差范围信息。当max_disparity和min_disparity值彼此相等时,对应的叠加可为平面图像。在这种情况下,该相同的值可以是平面开放图像所在的深度偏移。尽管disparity_for_open_overlay()信息执行与production disparity hint info()类似的功能,但是disparity_for_open_overlay()信息与production disparity hint info()的区别在于它用信号通知对应的开放叠加的最大视差值和最小视差值。disparity_for_open_overlay()信息可包括max_disparity和min_disparity值。disparity_for_open_overlay()信息可仅指示特定区域的最小视差值。所述视差值基于视频的水平尺寸对应于11520像素的情况。可根据需要将该水平尺寸以外的值设置为基准值。在这种情况下,可单独地用信号通知所设置的基准值。
图6示出根据本发明的实施方式的open_overlay_area_info()信息。
open_overlay_area_info()信息可指示开放叠加的区域信息。信令信息的实施方式包括提供基于像素的框区域信息的方法,其可发送位于框顶部的最左侧像素的x和y坐标值、基于像素的框的框宽度和框高度。或者,可向视频提供虚拟网格,可发送包括区域的网格的x和y索引和/或该区域的宽度和高度。此方法可通过grid_type字段来用信号通知。网格是将整个屏幕划分成具有特定尺寸的区域的单位。
grid_type字段可包括表示网格类型的信息。如果grid_type字段具有值“0”,则grid_type字段表示可定义基于像素的网格。如果grid_type字段具有值“1”,其表示单独定义的网格单位。网格可被定义为一组像素。在这种情况下,通过划分一个图像而获得的区域可被定义为一个网格。
在本发明的实施方式中,当grid_type字段为“0”时,open_overlay_area_info()信息中包括的grid_x字段对应于对应区域顶部的最左侧像素的x坐标值(其可基于像素来表示)。grid_y字段对应于对应区域顶部的最左侧像素的y坐标值(其可基于像素来表示)。grid_width字段是指表示该区域的框的宽度值(基于像素来表示)。grid_height字段是指框的高度值(基于像素来表示)。
在本发明的实施方式中,当grid_type字段为“1”时,open_overlay_area_info()信息中包括的grid_num_horizontal_pixel字段可指示视频的水平轴方向上的网格节点的数量。如果grid_num_horizontal_pixels字段具有值“2”,其表示一个图像在水平轴方向上包括两个区域。grid_num_vertical_pixels字段可指示视频的垂直轴方向上的网格节点的数量。如果grid_num_vertical_pixels字段具有值“2”,其表示一个图像在垂直轴方向上包括两个区域。ref_resolution_width字段可指当指定网格时用作基准的ref_resolution的宽度值。由于视频的分辨率对应于16像素的倍数,所以ref_resolution_width字段可被表示为16的倍数,以减少表示该字段的比特数。ref_resolution_height字段可指当指定网格时用作基准的ref_resolution的高度值。由于视频的分辨率对应于16像素的倍数,所以ref_resolution_height字段可被表示为16的倍数,以减少表示该字段的比特数。grid_x字段是指对应区域顶部的最左侧像素的x坐标值(其以网格为单位表示)。当grid_x字段具有值“k”时,在将grid_x字段转换为像素单位时grid_x字段被计算为ref_resolution_width/A*k。这里,A表示grid_num_horizontal_pixels字段的值。grid_y字段是指对应区域顶部的最左侧像素的y坐标值(其以网格为单位表示)。当grid_y字段具有值“m”时,在将grid_y字段转换为像素单位时grid_y字段被计算为ref_resolution_height/B*m。这里,B表示grid_num_vertical_pixels字段的值。grid_width字段是指表示该区域的框的宽度值,可基于网格来表示。grid_height字段是指框的高度值,可基于网格来表示。
grid_base_view_flag字段表示该区域是基于左视点还是右视点定义的。在本发明的实施方式中,grid_base_view_flag字段当为“0”时表示叠加区域是基于左视点定义的,当为“1”时指示叠加区域是基于右视点定义的。
open_overlay_area_info()信息中包括的字段可被省略,或者可集成,使得一个字段表示其它字段的信息。
图7示出根据本发明的实施方式的虚拟信道表(VCT)。
VCT中包括的各个字段的定义可从现有技术推知。
上述扩展视频深度范围描述符可被定义在图7中指示的位置。在这种情况下,可考虑在信道级定义扩展视频深度范围描述符。
图8示出根据本发明的实施方式的事件信息表(EIT)。
EIT中包括的各个字段的定义可从现有技术推知。
上述扩展视频深度范围描述符可被定义在图8中指示的位置。在这种情况下,可考虑在事件级定义扩展视频深度范围描述符。
图9示出根据本发明的实施方式的使用SEI消息的用于嵌入叠加的信息信令。
可在视频级用信号通知关于嵌入叠加的深度信息和/或位置信息。在这种情况下,可使用SEI消息来执行信令。
包括关于嵌入叠加的信令信息embedded_overlay_depth_data解析如下。
通过SEI原始字节序列有效载荷(RBSP)接收EH_data()。EH_data()可包括在视频元素流中。解析高级视频编码(AVC)网络抽象层(NAL)单元。如果从所述解析获得的nal_unit_type值为6,则EH_data()对应于SEI数据。读取pyloadtype为4的user_data_registered_itu_t_t35SEI消息,以检查user_identifier值。读取user_identifier值对应于0x4741 3934的user_structure(),以提取user_data_type_code为0x20的数据。接收器通过对embedded_overlay_depth_data()解码来获取关于当前视频流中包括的图形叠加的深度信息。此深度信息可用于将实际视频的深度范围与图形叠加的深度范围相区分,并且在接收器显示本地图形时考虑排除了嵌入图形元素的实际视频的范围来确定本地图形(例如,OSD)的显示位置。
图10示出根据本发明的实施方式的embedded_overlay_depth_data描述符。
embedded_overlay_depth_data描述符中包括的字段或描述符(其名称与上述video_width_open_overlay_disparity_info描述符中包括的字段或描述符的名称相同)可执行与video_width_open_overlay_disparity_info描述符中包括的对应字段或描述符的功能相同的功能。
在视频级信令的情况下,由于应该针对各个帧发送信息,所以可仅发送基本信息以便使用信号通知的信息的量最小化。
例如,如果关于嵌入叠加的位置信息以及排除了嵌入叠加时的视频深度范围信息是已知的,则可将本地OSD悬浮在嵌入叠加的位置以外的位置。因此,可仅用信号通知disparity_for_video_only()和嵌入叠加的open_overlay_area_info()的信息。在这种情况下,可添加用于指示是否包括所述信息的1比特标志。例如,可根据disparity_for_video_only_flag来用信号通知是否包括disparity_for_video_only()。
图11示出根据本发明的实施方式的接收器考虑嵌入叠加来显示本地OSD的操作。
可考虑下列两个方法作为在接收器处获得嵌入叠加的深度范围的方法。在第一实施方式中,接收器可通过包括在DVB SI的服务描述表(SDT)/EIT中的视频深度范围描述符来接收视频深度范围值。如果提供了关于嵌入叠加的详细信息,则接收器可接收所有上述信息。在第二实施方式中,接收器可通过视频头的视频深度范围描述符来接收视频深度范围值。
如果上述range_type具有值0x00,并且仅可使用信息production_disparity_hint,则接收器可仅基于production_disparity_hint_info(其对应于视频的深度范围信息)来显示本地OSD。即使视频中包括的广播台徽标或体育比赛记分板占据画面拐角的小区域,接收器也可显示本地OSD,使得本地OSD位于与所有最小深度值对应的位置的前面。
当上述range_type具有值0x01,并且使用信息“具有开放(嵌入)叠加的视频视差提示”时,接收器可通过包括在disparity_for_video_only()中的video_max_disparity和video_min_disparity值来获得仅排除了叠加的视频的深度范围信息。接收器可在描述符中的一个循环中通过包括在disparity_for_open_overlay()中的字段来针对视频中包括的各种嵌入叠加中的每一个获取深度范围信息,并通过包括在open_overlay_area_info()中的字段来获得关于对应的叠加的位置信息。在这种情况下,接收器可利用关于视频和所有描述的叠加的深度范围信息来导出production disparity hint info()的信息(其在range_type值为0x00时获得)。
可利用open_overlay_type或open_overlay_priority字段信息来使高优先级嵌入叠加(例如,紧急广播)不被本地OSD覆盖。
例如,如果在观看3D广播的同时悬浮不叠加在紧急广播字幕上的本地OSD,则需要下列处理。接收器通过disparity_for_video_only()字段检查当排除了嵌入叠加时的视频深度范围信息。接收器检查关于各个叠加的信息。具体地讲,如果overlay_type信息对应于0x00(例如,指示紧急广播字幕的值),则接收器针对对应的叠加检测open_overlay_area_info(),针对其它overlay_type值,接收器检测disparity_for_open_overlay()。接收器基于所检测到的disparity_for_video_only()和disparity_for_open_overlay()来选择本地OSD将悬浮的深度位置。例如,如果没有嵌入叠加的视频的disparity_min值为-3,叠加(1)的disparity_min值为-4,叠加(2)的disparity_min值为-5,则当本地OSD与叠加交叠时,选择与-5对应的位置前面的位置作为本地OSD的深度位置是安全的。如果本地OSD与任何嵌入叠加均不交叠,则可选择与-3对应的位置前面的位置作为本地OSD的深度位置。接收器基于具有顶级优先级的嵌入叠加的open_overlay_area_info()来决定本地OSD将处于的区域。例如,如果与叠加(3)对应的紧急广播字幕的区域信息是grid_type==0,grid_x==0,grid_y==900,grid_width==1920,grid_height==180,则本地OSD处于与该区域信息对应的区域以外的区域中。
接收器可通过考虑2D_extraction_method字段值来显示本地OSD。接收器在使本地OSD悬浮之前检查视频视差范围,以检测适合于悬浮本地OSD的视差区域。这里,如果视频视差范围过宽或出于其它原因而不适于设置本地OSD,则作为本地OSD的背景显示的3D图像可显示为2D图像。在这种情况下,接收器可参照2D-extraction_method字段值确定是否有必要将3D图像切换为2D图像。例如,如果2D_extraction_method字段值为“000”,则提取左图像并用作2D图像,并且将本地OSD显示在该2D图像上。接收器在本地OSD的显示结束之后将2D图像切换为3D图像。
接收器可考虑FW显示本地OSD。接收器通过检查是否对对应的视频执行了FW处理来检测适合于悬浮本地OSD的位置。例如,如果floating_window_present字段值为“01”(表示执行了FW处理),则OSD模块可使用此信息来调节本地OSD的位置。可按照这种方式来标识被处理成FW的条形区域的区域:接收器通过图像分析来提取该区域,或者通过使用PSI/PSIP/SI或视频头的信令来提取关于FW的详细信息。基于此信息,可处理本地OSD的位置,使得本地OSD不显示在FW的条形区域与视频区域的边界上,以将本地OSD悬浮在FW的条形区域中,或者使本地OSD仅位于视频区域中。
图12示出根据本发明的实施方式的3D_scene_depth_info_descriptor。
接收器可根据随场景变化的深度范围信息来显示本地OSD。由于针对各个帧发送信息,所以视频级信令可应对基于帧的变化。在系统级信令的情况下,可基于节目/信道/服务或基于事件来发送深度范围信息。因此,针对根据时间的详细信息发送,可考虑向深度范围信息添加场景单元信息并发送该信息的方案。可在SDT的服务级、TVCT的信道级、PMT的节目级或ES级或者EIT的事件级设置3D_scene_depth_info_descriptor。
在本发明的实施方式中,尽管场景可以是基于上下文的片段,但是从根本上讲场景是由开始时间和持续时间定义的时间片段。即,在如本实施方式中一样通过PMT、VCT或EIT用信号通知的情况下,场景由绝对开始时间和持续时间来定义,而与节目或事件不相关。这类似于基于当前时间通过EIT来用信号通知事件达3个小时的概念。因此,即使被分类为相同的场景,场景可具有不同的节目或事件。如果执行基于视频内容或上下文的场景分段,则scene_format_type被设置为“11”,并且可发送关于各个段的信息。在无法获知深度信息(例如,实况广播)的情况下,min_disparity和max_disparity值均可被设置为0。
number_of_scenes字段表示可通过当前发送的3D场景级深度信息描述符检测到深度信息的场景的数量。
first_scene_start_time字段指示通过3D_scene_depth_info_descriptor用信号通知的场景的基准时间。first_scene_start_time字段表示第一场景的开始时间,以小时为单位表示,并具有0至23的范围内的值。即,first_scene_start_time字段表示通过scene_id字段、scene_start_time字段等用信号通知的关于各个场景的时间信息的基准时间。
scene_start_time字段表示各个场景的开始时间。开始时间可通过各种方法来表示。开始时间可用基于1980年1月6日00:00的GPS秒来表示(在这种情况下,需要32比特),或者用基于first_scene_start_time的秒来表示。例如,当在7:30接收到3D_scene_depth_info_descriptor时,如果first_scene_start_time的值为7,则7:40被表示为2400秒,并且2400秒被用作scene_start_time值。
scene_id字段是各个场景的标识符,当scene_start_time字段不存在时可隐含地通知各个场景的开始时间。scene_id字段从0开始,利用first_scene_start_time字段来识别此字段应用于场景的时间跨度的准确时间。
图13示出根据本发明的实施方式的scene_format_type字段和scene_disparity_info信息的定义。
当接收器需要在任意时间将菜单或图形数据叠加在3D视频上时,如果已知时间的min_disparity值,则可防止3D视频的对象、图形、菜单、图标等之间的深度冲突。例如,当scene_format_type=“10”时,接收器利用scene_id字段获知应用深度信息的时间。3D场景级深度信息描述符提供关于各个场景的3D视频深度范围信息。在相同的描述符或相同的PMT/TVCT/EIT段实例中,场景持续时间可以是固定的。即,所有场景可以具有相同的持续时间。各个场景的持续时间由scene_duration字段限定。即,3D场景级深度信息描述符基于由scene_duration字段指定的时间来提供3D视频深度范围信息。例如,当scene_duration=1200(20分钟)时,scene_id=0表示与从first_scene_start_time字段所指定的时间开始的20分钟对应的时间片段。这里,当first_scene_start_time对应于19并且接收器尝试在7:30pm显示OSD时,使用与scene_id=1对应的信息来确定适当的深度范围。当scene_format_type=“11”时,各个场景被明确定义为其具有从scene_start_time字段所指定的时间开始与scene_duration字段对应的持续时间。在这种情况下,即使处于相同的描述符中,场景也可具有不同的持续时间。当接收器在播放3D视频的同时在特定时间显示OSD时,接收器检测与当前时间对应的场景,并使用与该场景对应的深度范围信息。
scene_disparity_info信息中包括的字段具有与上述信息中包括的对应字段的功能相同的功能,因此省略其详细说明。
图14示出根据本发明的实施方式的发送嵌入叠加的深度信息的节目的配置。
上述描述符的内容可如图14所示被配置为单独的流并被发送。在这种情况下,需要通过PMT、SDT、EIT、TVCT等来执行流的信令,并且stream_type、component_type和stream_content字段可用于指定对应的流。
图15示出根据本发明的实施方式的接收器的功能块。
根据本发明的实施方式的接收器可包括调谐器和解调制器15010、VSB解码器15020、传输分组解复用器15030、PSI/PSIP/SI处理器15040、3D视频解码器15050、主视频解码器15052、辅视频解码器15054、3D OSD引擎15060、左混合器15070、右混合器15080和/或3D输出格式化器15090。
调谐器和解调制器15010调谐至3D广播信道并对接收的信号进行解调制。
VSB解码器15020对应用了VSB的信号进行解码。尽管VSB解码器15020被称为VSB解码器,但是VSB解码器15020可被当作用于对应用了OFDM的信号进行解码的块。
传输分组解复用器15030分离来自广播信号的传输分组。具体地讲,传输分组解复用器15030过滤分组标识符。
PSI/PSIP/SI处理器15040处理信令信号。例如,PSI/PSIP/SI处理器15040处理包括在PSIP或DVB SI中的表,或者处理信令分组、信令片段等。PSI/PSIP/SI处理器15040可处理关于上述嵌入叠加的信息。
3D视频解码器15050包括主视频解码器15052和/或辅视频解码器15054。
3D视频解码器15050对3D视频数据进行解码。
主视频解码器15052对主视频数据进行解码。例如,当视频数据经受了多视点视频编码(MVC)时,主视频数据可以是基本层或增强层信号。或者,主视频解码器15052可对左视频数据进行解码。
辅视频解码器15054对辅视频数据进行解码。例如,MVC应用于视频数据,辅视频数据可以是增强层或基本层信号。或者,辅视频解码器15054可对右视频数据进行解码。
3D OSD引擎15060执行处理以显示OSD。例如,3D OSD引擎15060分析3D深度信息以确定基于特定服务、节目、事件和/或场景的OSD显示的深度并控制OSD的显示。3D OSD引擎15060可使用上述关于嵌入叠加的信息。3D OSD引擎15060利用关于嵌入叠加的信息控制OSD显示在适当的位置。
左混合器15070处理构成3D视频图像的左图形。
右混合器15080处理构成3D视频图像的右图形。
3D输出格式化器15090在屏幕上显示构成3D视频图像的左图形和右图形。3D输出格式化器15090可随左图形和右图形一起显示OSD。
接收器可利用包括在PMT、TVCT和/或SDT中的上述3D场景级深度信息描述符来基于场景或按小时检测当前观看的节目、信道和服务的深度范围信息。
当接收器通过EIT接收到关于嵌入叠加的信息时,对应的描述符按小时(对应于EIT的时间跨度)检测深度范围信息。
接收器在根据用户的交互、消息或报警功能显示图形和OSD时使用上述视频深度范围信息和/或关于嵌入叠加的信息。接收器利用min_disparity值确定OSD所在的视差,使得OSD不叠加在3D视频图像上。在这种情况下,接收器可确定视差,使得该视差位于与min_disparity值所指定的值对应的位置前面。或者,接收器可确定视差,使得OSD不叠加在高优先级嵌入叠加上,该视差位于高优先级嵌入叠加的区域以外的区域中的与min_disparity值所指定的值对应的位置前面。
当OSD显示的时间对应于场景边界时,接收器可基于当前场景和下一场景的min_disparity值中的与前面的位置(例如,较小的min_disparity值)对应的那一个来显示OSD。例如,当考虑OSD的暂停持续时间和一般用户交互等,假设OSD显示持续时间为一分钟时,可检查在一分钟内场景之间是否发生场景改变,以在发生场景改变时将场景的min_disparity值彼此进行比较,并仅使用适当的min_disparity值来显示OSD。
图16示出根据本发明的另一实施方式的接收器的功能块。
接收器可包括调谐器和解调制器16010、VSB解码器16020、传输分组解复用器16030、PSI/PSIP/SI处理器16040、3D场景深度信息解码器16050、3D视频解码器16060、主视频解码器16062、辅视频解码器16064、3D OSD引擎16070、左混合器16080、右混合器16090和/或3D输出格式化器16100。
由于名称与图15所示的功能块的名称相同的功能块执行与图15所示的块的功能相同的功能,所以省略其详细说明。
3D场景深度信息解码器16050对关于嵌入叠加的信息进行解码。当在PES中发送关于嵌入叠加的信息时,3D场景深度信息解码器16050对包括关于嵌入叠加的信息的PES进行解码。解码器16050可处理包括关于嵌入叠加的信息的SEI消息。
在这种情况下,上述3D深度范围描述符可被包括在PMT、TVCT、EIT和/或SDT中并被发送。
图17示出根据本发明的实施方式的PES分组的结构。
如上所述,用于3D视频接收器中的OSD显示的信令可定义在一个或更多个层中。第一层可针对各个帧提供关于一个区域的深度范围信息。在这种情况下,可在SI级提供针对事件/服务的深度范围信息。第二层可提供关于通过划分一个帧而获得的区域的深度范围信息。或者,可将3D视频分成诸如场景的短持续时间,并提供与对应的持续时间对应的深度范围信息。在这种情况下,可在视频级按照元数据格式提供关于各个区域的深度范围信息或者关于各个场景的深度范围信息。例如,SEI消息可包括深度范围信息。第一层中的信令和第二层中的信令可以被独立地提供或一起提供。
将详细描述第二层。
关于信息发送方法,可通过单独的段(例如,分离的PES流)来用信号通知关于嵌入叠加的信息。另选地,关于嵌入叠加的信息可被包括在SEI消息中并被发送。
当针对各个场景执行信令时,可发送有关各个事件/服务的场景的开始和/或结束的信息。
当针对各个区域执行信令时,可提供关于各个区域的信息,并且可用信号通知考虑各个区域中的显示对象的深度范围信息。各个区域可被分成矩形区域,并将关于所分成的各个区域的标识信息添加到关于各个区域的深度范围信息。
图17是表示PES分组的结构的句法。在PES分组中,depth_information_data()可包括所述嵌入叠加相关信息中的一些或全部。PTS字段可表示通过depth_information_data()用信号通知的场景的基准时间。即,PTS字段可用信号通知第一场景的开始时间。第一场景之后的场景的时间信息可通过附加字段来用信号通知。这些字段的值在被更新之前可被定义为有效值。可使用用信号通知结束时间的PTS的情景。
图18示出根据本发明的实施方式的depth_inforamtion_data()。
每当depth_information_data中承载的信息改变或更新时,depth_update_flag字段应该被设置为“1”。接收器可从解析相同的深度信息的负担中解脱出来。接收器可根据此标志的值来决定是否解析深度信息数据。
event_min_disparity和event_max_disparity字段是指事件中的最小视差值和最大视差值。视差是指左视点和右视点中表示一对立体视频中的相同点的像素的水平位置之间的差。值event_min_disparity和event_max_disparity可等于DVB video_depth_range_descriptor中的video_min_disparity_hint和video_min_disparity_hint值。难以实现基于区域和场景再次划分的视差(深度)的接收器可利用这些字段来基于事件应用一致的深度信息。
num_of_scenes字段是指可通过当前发送的depth_information_data()检测到深度信息的场景的数量。
scene_id字段对应于各个场景的标识符,并且可在scnee_start_time字段不存在时隐含地用信号通知开始时间。scene_id字段可根据需要省略。
scene_start_time字段是指各个场景的开始时间。开始时间可通过各种方法来表示。例如,开始时间可用基于1980年1月6日00:00的GPS秒来表示(在这种情况下,需要32比特)。或者,开始时间可被表示为基于开始PTS值(PES分组头中的PTS值或第一场景的开始时间)的PTS偏移或用秒来表示。
scene_duration字段是指场景的持续时间,可使用基于90KHz的计数值。此字段可以按照GPS时间为单位来表示。
scene_min_disparity和scene_max_disparity字段是指场景中的最小视差值和最大视差值。它们可以是完整值或相对于event_min_disparity和event_max_disparity视差值的差值。难以实现基于区域再次划分的视差(深度)的接收器可利用这些字段对属于场景的所有帧应用一致的深度信息。
图19示出根据本发明的实施方式的region_depth_data()。
region_depth_data承载关于对应场景中包括的帧的区域的深度信息。此时,关于一些区域的深度信息可根据需要省略,接收器可对与省略的深度信息对应的区域应用scene_min_dsiaprity/scene_max_disparity。另外,接收器可对邻近区域(其深度值被用信号通知的区域)应用场景region_min_disparity和场景region_max_disparity。在这种情况下,接收器可实现上述字段的内容。当将使用的值需要通过广播信令来指定时,可添加用于此的字段。例如,添加default_value_mode字段。在这种情况下,可设置值,使得当default_value_mode字段为“00”时使用场景的深度值,当default_value_mode字段为“01”时使用左区域的深度值,当default_value_mode字段为“10”时使用邻近区域的深度值的平均值,当default_value_mode字段为“11”时使用邻近区域的最大深度值或最小深度值。
num_of_regions字段是指区域的数量。
grid_base_view_flag字段表示L视点和R视点中的哪一个被用作所限定的区域的基准。grid_base_view_flag字段当为“0”时指示基于左视点表示叠加区域,当为“1”时表示基于右视点表示叠加区域,或者相反。
grid_type字段当为“0”时可指基于像素的网格,当为“1”时可表示单独定义的网格。即,如果grid_type字段为“1”,则区域可由一组像素组成。在这种情况下,可通过特定方法将图像分成区域,可将grid_type字段设置到各个区域。如果grid_type字段为“0”,则可使用基本上应用基于场景/事件的深度范围,并且仅在立体3D视频图像中包括的特定区域的深度范围显著不同于基于场景/事件的深度范围时才单独地用信号通知该特定区域的深度范围的方法。这里,区域按照不交叠的方式定义。
grid_num_hor_pixels字段是指图像的水平轴方向上的网格节点的数量。grid_num_hor_pixels字段可表示水平轴方向上的一个帧中包括的区域的数量。
grid_num_ver_pixels字段是指图像的垂直轴方向上的网格节点的数量。grid_num_ver_pixels字段可表示垂直轴方向上的一个帧中包括的区域的数量。
ref_resolution_width字段是指当指定网格时用作基准的ref_resolution的宽度值。由于图像的分辨率对应于16像素的倍数,所以ref_resolution_width字段可被指示为16的倍数,以减少表示该字段的比特数。
ref_resolution_height字段是指当指定网格时用作基准的ref_resolution的高度值。由于图像的分辨率对应于16像素的倍数,所以ref_resolution_height字段可被指示为16的倍数,以减少表示该字段的比特数。
region_id字段标识视频帧中的区域。当grid_type字段为“1”时,如果存在确定区域的顺序的规则(例如,从左到右或从上到下),则region_id字段可省略。
region_min_disparity和region_max_disparity字段是指区域的最小视差值和最大视差值。
当grid_type字段为“1”时,num_of_regions字段可被设置为等于grid_num_hor_pixels字段和grid_num_ver_pixels字段的乘积。这里,相应区域的坐标可依次用信号通知,而不单独发送。
x_coordinate字段是指区域顶部的最左侧像素的x坐标值(其基于像素来表示)。
y_coordinate字段是指区域顶部的最左侧像素的y坐标值(其基于像素来表示)。
region_width字段是指基于像素表示区域的框的宽度值。值零用于用信号通知特殊区域类型。
region_height字段是指基于像素表示区域的框的高度值。值零用于用信号通知特殊区域类型。
图20示出根据本发明的实施方式的通过SEI消息提供深度信息的方法。
user_data_registered_itu_t_t35()的user_identifier值标识user_structure()的类型。当user_structure()对应于DVB1_data()时,DVB1_data()可包括user_data_type_code字段和user_data_type_structure()。user_data_type_code字段可根据其值来标识user_data_type_structure()的类型。
图21示出根据本发明的实施方式的depth_data()。
当user_data_type_structure()被标识为depth_data()时,depth_data可包括关于各个区域的信息和/或关于各个区域的深度信息。
depth_data()中包括的字段的定义按照相同的名称用上述字段的定义来代替。
scene_min_disparity/scene_max_disaprity值应用于包括对应信令信息的帧,并且可连续应用,直至接收到新的信令(深度数据)信息为止。
scene_min_disparity/scene_max_disaprity值可维持用信号通知的值,直至场景信息改变为新的场景信息为止。如果指定scene_end值,则scene_min_disparity/scene_max_disaprity值可维持,直至scene_end的定时到达为止。
基于区域的深度范围信息可被设置为使得其被包括在对应区域所属于的帧或场景的深度范围中。
基于场景的深度范围信息可被设置为使得其被包括在对应区域所属于的事件的深度范围中。
深度范围信令信息的改变周期被设置为至少GOP单位。例如,如果P(M)和P(N)是视频序列中的连续的两个IDR画面(或I画面),则在布置于P(M)与P(N)之间的画面(例如,P(M+1)至P(N-1))中,深度范围信令信息无法改变。
图22示出根据本发明的实施方式的显示有用于基于区域的信令的区域的屏幕。
如果屏幕上显示有具有不同的深度范围性质的两个区域,则如下用信号通知区域0和区域1。
当grid_type为“0”时,对于区域0,
x_coordinate=属于区域0的最左侧像素的水平坐标;
y_coordinate=属于区域0的最上侧像素的垂直坐标;
region_width=区域0的宽度;
region_height=区域0的高度;
对于区域1,
x_coordinate=设置为0xFFF;(如果region_width和region_height为0,则忽略)
y_coordinate=设置为0xFFF;(如果region_width和region_height为0,则忽略)
region_width=0;
region_height=0;
如果region_width和region_height的值均被设置为0,则相关区域将覆盖在“num_of_regions”循环中未被其它区域覆盖的剩余区域。在depth_data或region_depth_data的单个实例中应该最多存在一个region_width和region_height被设置为0的区域。
图23示出根据本发明的另一实施方式的3D接收器的功能块。
3D接收器可包括TP解复用器23010、深度范围描述符处理器23020、深度信息信令信息处理器23030、视频输入缓冲器和控制单元23040、视频解码器23050、图形视频处理器13060、深度信息信令SEI处理器23070、图形引擎23080、左视频处理器23090和/或3D格式化器23100。
RP解复用器23010接收包括3D视频的数据。
深度范围描述符处理器23030解析包括与深度范围有关的信息的描述符。这里,包括与深度范围有关的信息的描述符可被包括在SDT或EIT中并被发送。
深度信息信令信息处理器23030解析通过专用PES发送的包括关于深度的信息的信令片段。
视频输入缓冲器和控制单元23040对包含基本视点流的PES分组以及包含从属视点流的PES分组的视频输入进行缓冲或控制输出。
视频解码器23050对输入的视频数据进行解码。视频解码器23050可包括AVC层解码器23052和/或MVC扩展层解码器23054。AVC层解码器23052对基本视点数据进行解码,并可将用于视点间预测的信息发送给MVC扩展层解码器23054。MVC扩展层解码器23054可对从属视点数据进行解码。MVC扩展层解码器23054可使用用于视点间预测的信息来对从属视点数据进行解码。
右视频处理器23060将右视频和右图形组合。右图形可以是显示在右视频上的OSD。
深度信息信令SEI处理器23070解析包括在视频数据中的信令信息。例如,深度信息信令SEI处理器23070可解析通过SEI消息发送的上述信息。
图形引擎13080执行显示诸如OSD的图形的处理。
左视频处理器23090将左视频和左图形组合。左图形可以是显示在左视频上的OSD。
3D格式化器23100执行渲染以进行3D图像显示。
接收器可包括具有用于执行本发明的上述特征中的最少部分的最小能力的接收器(以下称作“类型A接收器”)、能够执行本发明的上述特征中的一些的接收器(以下称作“类型B1接收器”)以及具有能够执行本发明的上述所有特征的全部能力的接收器(以下称作“类型B2接收器”)。
类型A接收器包括无法根据基础3D视频的变化深度自适应地改变或调节图形深度的接收器和/或无法在单个图形平面上应用不同的深度的接收器。
应用户的请求,类型A接收器将适当的图形元素设置在深度范围描述符(在EIT或SDT中)中的最小视差值所指定的深度值处。在事件边界处(在用于连续事件的EIT中用信号通知不同的视差值的情况下),类型A接收器可在显示OSD时考虑下一事件的视差值。最终的最小视差值将是当前事件的视差和下一事件的视差当中的最小值。
类型A接收器从深度范围描述符处理块23020读取包括在SDT/EIT的深度范围描述符中的深度(或视差)信息,并将该深度信息发送给图形引擎块23080。
图形引擎23080确定利用深度信息生成的OSD(图形)数据的右视频的坐标值。即,如果已有2D图像是左视频,则OSD的左视频的坐标值使用构成2D图像所使用的坐标值。对于右视频,相同图形或要显示在右视频上的对应图形被显示在按照深度(视差)移动的坐标处。
类型B1接收器可逐帧地自适应地改变OSD元素的深度,并且还可在相同的帧上利用不同的深度值设置多个OSD元素。
应用户的请求,类型B1接收器将准备具有适当位置的适当图形元素。类型B1接收器将从上述视差信令信息通过将对应区域和定时(场景)匹配来决定图形元素显示的视差值。如果根据上述视差信令信息,此OSD所在的区域的视差值改变,则类型B1接收器可调节已经显示的图形元素的设置。
类型B2接收器可能没有完全应用上述视差信令信息中指定的视差值信令。应用户的请求,类型B2接收器将准备具有适当位置的适当图形元素。类型B2接收器将图形元素设置在上述视差信令信息中指定为针对整个帧的视差的值处(然而,时间调节也是可以的)。接收器将图形元素设置在上述视差信令信息中指定为针对事件的视差的值处(空间调节也是可以的)。
类型B1接收器读取包括在深度信息片段(PES流)或深度信息信令SEI中的视差信息。当接收器已读取视差信息时,如果depth_update_flag字段为“0”,则接收器使用所存储的视差信息,如果depth_update_flag字段为“1”,则接收器读取包括在深度信息片段(PES流)或深度信息信令SEI中的新的视差信息。上述视差信息包括基于场景和区域再次划分的深度信息。所读取的视差信息被发送给图形引擎。图形引擎应用户的请求匹配为发送其它信息将输出图形(OSD)的坐标和与来自发送的视差信息的输出时间对应的信息。利用匹配的信息确定对应图形图像的视差值。要显示在左视频上的图形图像的坐标使用与2D图像的位置相同的值。要显示在右视频上的图形图像的坐标对应于移动了与视差值对应的坐标的位置。
上述左视频和右视频可以改变。当应用了视差时,可使用使左视频和右视频均匀地移位的方法。即,输出至左视频的图形的坐标从2D图像的坐标向左移位视差/2,而输出至右视频的图形的坐标从2D图像的坐标向右移位视差/2。不管实现左视频和右视频的方案如何,与左视频和右视频对应的图形数据的输出坐标之间的差等于视差值。
尽管已结合有限的实施方式和附图描述了本发明,但是本发明不限于此。本领域技术人员将理解,根据此说明书,各种修改、添加和替代是可以的。因此,本发明的范围不应限于示例性实施方式的描述,而是应该由所附权利要求及其等同物来确定。
本发明的模式
已经在具体实施方式中描述了各种实施方式。
工业实用性
如上所述,本发明被部分地或全部应用于数字广播系统。

Claims (10)

1.一种用于接收包括3D内容的广播信号的设备,该设备包括:
接收单元,其被配置为接收广播信号,该广播信号包括用于3D内容的视频数据;
解码器,其被配置为对来自所接收到的广播信号的用于所述3D内容的所述视频数据进行解码;
信令处理器,其被配置为从经解码的视频数据解析深度信息;
图形引擎,其被配置为确定用于显示接收器的屏幕显示OSD的深度;
格式化器,其被配置为形成图像,该图像包括位于用于所述3D内容的所述深度处的所述OSD;以及
显示单元,其被配置为显示所述图像,
其中,所述3D内容包括至少一个场景,所述至少一个场景是定义在所述3D内容中的一个时间片段,
其中,所述深度信息包括用于指定所述至少一个场景中的一个场景的图像中的最大视差值的最大视差信息和/或用于指定所述图像中的最小视差值的最小视差信息,
其中,所述最小视差信息和最大视差信息被应用于所述场景期间的3D内容,并且
其中,所述显示单元还被配置为控制在由所述场景期间的所述最小视差信息和最大视差信息表示的深度范围之外的范围显示所述OSD。
2.根据权利要求1所述的设备,其中,所述显示单元基于所述深度信息中的信息控制使所述设备的所述屏幕显示OSD菜单显示在3D图像顶部。
3.根据权利要求2所述的设备,其中,所述深度信息还包括标识所述至少一个场景的场景信息。
4.根据权利要求3所述的设备,其中,所述深度信息还包括场景开始时间信息,所述场景开始时间信息指示用于应用来自所述深度信息的所述最小视差信息和最大视差信息的包括在所述3D内容中的场景的开始时间。
5.根据权利要求4所述的设备,其中,所述深度信息还包括场景持续时间信息,所述场景持续时间信息指示用于应用来自所述深度信息的所述最小视差信息和最大视差信息的包括在所述3D内容中的场景的持续时间。
6.一种用于在发送器处发送包括3D内容的广播信号的方法,该方法包括以下步骤:
对深度信息进行编码;
对用于3D内容的包括所述深度信息的视频数据进行编码;
发送包括所述视频数据的广播信号,
其中,所述3D内容包括至少一个场景,所述至少一个场景是定义在所述3D内容中的一个时间片段,
其中,所述深度信息包括指定所述至少一个场景中的一个场景的图像中的最大视差值的最大视差信息和/或用于指定所述图像中的最小视差值的最小视差信息,并且
其中,所述最小视差信息和最大视差信息被应用于所述场景期间的3D内容。
7.根据权利要求6所述的方法,其中,显示单元基于所述深度信息中的信息控制使设备的屏幕显示OSD菜单显示在3D图像顶部。
8.根据权利要求7所述的方法,其中,所述深度信息还包括标识所述至少一个场景的场景信息。
9.根据权利要求8所述的方法,其中,所述深度信息还包括场景开始时间信息,所述场景开始时间信息指示用于应用来自所述深度信息的所述最小视差信息和最大视差信息的包括在所述3D内容中的场景的开始时间。
10.根据权利要求9所述的方法,其中,所述深度信息还包括场景持续时间信息,所述场景持续时间信息指示用于应用来自所述深度信息的所述最小视差信息和最大视差信息的包括在所述3D内容中的场景的持续时间。
CN201610978226.8A 2011-06-21 2012-06-20 用于处理3维广播服务的广播信号的方法和设备 Pending CN107105212A (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161499677P 2011-06-21 2011-06-21
US61/499,677 2011-06-21
US201261599433P 2012-02-16 2012-02-16
US61/599,433 2012-02-16
US201261602073P 2012-02-22 2012-02-22
US61/602,073 2012-02-22
CN201280030993.6A CN103621074B (zh) 2011-06-21 2012-06-20 用于处理3维广播服务的广播信号的方法和设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201280030993.6A Division CN103621074B (zh) 2011-06-21 2012-06-20 用于处理3维广播服务的广播信号的方法和设备

Publications (1)

Publication Number Publication Date
CN107105212A true CN107105212A (zh) 2017-08-29

Family

ID=46754220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610978226.8A Pending CN107105212A (zh) 2011-06-21 2012-06-20 用于处理3维广播服务的广播信号的方法和设备

Country Status (6)

Country Link
US (1) US9445077B2 (zh)
EP (1) EP2538683A3 (zh)
KR (1) KR20140040151A (zh)
CN (1) CN107105212A (zh)
CA (1) CA2839256C (zh)
WO (1) WO2012177049A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108965900A (zh) * 2018-06-22 2018-12-07 中央电视台 新媒体直播方法及装置、存储介质

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102257827B (zh) * 2008-12-19 2014-10-01 皇家飞利浦电子股份有限公司 从图像创建深度图
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
US10165250B2 (en) * 2011-08-12 2018-12-25 Google Technology Holdings LLC Method and apparatus for coding and transmitting 3D video sequences in a wireless communication system
JP6211929B2 (ja) * 2012-01-18 2017-10-11 パナソニック株式会社 送信装置、映像表示装置、送信方法、映像処理方法、映像処理プログラム及び集積回路
US9860515B2 (en) * 2012-12-11 2018-01-02 Electronics And Telecommunications Research Institute Apparatus and method for 3D content broadcasting with boundary information
KR20160031466A (ko) * 2013-07-14 2016-03-22 엘지전자 주식회사 디지털 방송 시스템에서 고품질의 색감 표현을 위한 초고화질 방송 신호 송수신 방법 및 장치
US20150074735A1 (en) * 2013-09-06 2015-03-12 Seespace Ltd. Method and Apparatus for Rendering Video Content Including Secondary Digital Content
US9846532B2 (en) 2013-09-06 2017-12-19 Seespace Ltd. Method and apparatus for controlling video content on a display
KR102425988B1 (ko) * 2015-04-01 2022-07-29 삼성전자주식회사 방송 시스템에서의 비상 통보 메시지를 처리하는 장치 및 방법
EP3300375A4 (en) * 2015-05-18 2018-11-21 LG Electronics Inc. Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method, and broadcast signal receiving method
US20190158724A1 (en) * 2017-11-17 2019-05-23 Seek Thermal, Inc. Network camera with local control bus
EP3185571A1 (en) * 2015-12-22 2017-06-28 Thomson Licensing Hierarchical scene segmentation metadata transmission for content enhancement
US10958989B2 (en) * 2016-02-25 2021-03-23 Synamedia Limited Framework for embedding data in encoded video
US10848737B2 (en) * 2017-09-26 2020-11-24 Lg Electronics Inc. Overlay processing method in 360 video system, and device thereof
KR102413098B1 (ko) * 2018-05-31 2022-06-24 한국전자통신연구원 영상 처리 방법 및 이를 이용한 영상 재생 장치
US11044456B2 (en) * 2018-05-31 2021-06-22 Electronics And Telecommunications Research Institute Image processing method and image player using thereof
WO2019235904A1 (ko) * 2018-06-08 2019-12-12 엘지전자 주식회사 360 비디오 시스템에서 오버레이 처리 방법 및 그 장치
CN113206826B (zh) * 2018-09-28 2022-10-04 华为技术有限公司 传输媒体数据的方法、客户端和服务器
WO2020071632A1 (ko) 2018-10-02 2020-04-09 엘지전자 주식회사 360 비디오 시스템에서 오버레이 처리 방법 및 그 장치
CN111327390B (zh) * 2020-01-21 2022-10-18 浙江大华技术股份有限公司 一种时间的调整方法及装置、存储介质及电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101653011A (zh) * 2007-03-16 2010-02-17 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
CN101650958A (zh) * 2009-07-23 2010-02-17 中国科学院声学研究所 对电影类视频进行场景片段抽取方法及其建立索引的方法
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
CN101902582A (zh) * 2010-07-09 2010-12-01 清华大学 一种立体视频字幕添加方法及装置
WO2011013030A1 (en) * 2009-07-27 2011-02-03 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
KR100913173B1 (ko) 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
MX2011002553A (es) * 2008-09-18 2011-04-04 Panasonic Corp Dispositivo de reproduccion de video estereoscopico y dispositivo de presentacion visual de video estereoscopico.
KR101657123B1 (ko) * 2009-02-12 2016-09-13 엘지전자 주식회사 방송 수신기 및 3d 자막 데이터 처리 방법
WO2010095074A1 (en) 2009-02-17 2010-08-26 Koninklijke Philips Electronics N.V. Combining 3d image and graphical data
US20110012896A1 (en) * 2009-06-22 2011-01-20 Ji Maengsob Image display apparatus, 3d glasses, and method for operating the image display apparatus
JP5407957B2 (ja) 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
KR20110011000A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 생성 방법 및 그 장치, 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 수신 방법 및 그 장치
KR20110018261A (ko) * 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
GB2473282B (en) 2009-09-08 2011-10-12 Nds Ltd Recommended depth value
KR101611263B1 (ko) * 2009-11-12 2016-04-11 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101631451B1 (ko) 2009-11-16 2016-06-20 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101325302B1 (ko) 2009-11-30 2013-11-08 엘지디스플레이 주식회사 입체 영상 표시장치와 그 구동방법
KR101491192B1 (ko) * 2010-05-06 2015-02-09 엘지디스플레이 주식회사 입체 영상 표시장치와 그 구동 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101653011A (zh) * 2007-03-16 2010-02-17 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
CN101650958A (zh) * 2009-07-23 2010-02-17 中国科学院声学研究所 对电影类视频进行场景片段抽取方法及其建立索引的方法
WO2011013030A1 (en) * 2009-07-27 2011-02-03 Koninklijke Philips Electronics N.V. Combining 3d video and auxiliary data
CN101902582A (zh) * 2010-07-09 2010-12-01 清华大学 一种立体视频字幕添加方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108965900A (zh) * 2018-06-22 2018-12-07 中央电视台 新媒体直播方法及装置、存储介质

Also Published As

Publication number Publication date
CA2839256C (en) 2017-07-11
US9445077B2 (en) 2016-09-13
CN103621074A (zh) 2014-03-05
EP2538683A3 (en) 2014-06-11
US20140375764A1 (en) 2014-12-25
WO2012177049A3 (en) 2013-03-28
KR20140040151A (ko) 2014-04-02
EP2538683A2 (en) 2012-12-26
WO2012177049A2 (en) 2012-12-27
CA2839256A1 (en) 2012-12-27

Similar Documents

Publication Publication Date Title
CN107105212A (zh) 用于处理3维广播服务的广播信号的方法和设备
US9554198B2 (en) Digital broadcast receiving method providing two-dimensional image and 3D image integration service, and digital broadcast receiving device using the same
KR101657124B1 (ko) 방송 수신기 및 비디오 데이터 처리 방법
US9516294B2 (en) Digital broadcasting reception method capable of displaying stereoscopic image, and digital broadcasting reception apparatus using same
US9712803B2 (en) Receiving system and method of processing data
CN102959980B (zh) 处理图像的设备及处理图像的方法
CA2819141C (en) Receiving device and method for receiving multiview three-dimensional broadcast signal
CN105163105B (zh) 处理和接收用于3维字幕的数字广播信号的方法和装置
CN104301705B (zh) 广播接收机和三维视频数据处理方法
CN106105236A (zh) 广播信号发射设备和广播信号接收设备
CN104769943B (zh) 在多视图3dtv服务中处理边缘违反现象的方法和装置
CN103621074B (zh) 用于处理3维广播服务的广播信号的方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170829