CN102474643A - 发送设备、发送方法、接收设备以及接收方法 - Google Patents
发送设备、发送方法、接收设备以及接收方法 Download PDFInfo
- Publication number
- CN102474643A CN102474643A CN2011800025037A CN201180002503A CN102474643A CN 102474643 A CN102474643 A CN 102474643A CN 2011800025037 A CN2011800025037 A CN 2011800025037A CN 201180002503 A CN201180002503 A CN 201180002503A CN 102474643 A CN102474643 A CN 102474643A
- Authority
- CN
- China
- Prior art keywords
- image data
- information
- identifying information
- data
- video flowing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23614—Multiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2362—Generation or processing of Service Information [SI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2368—Multiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4348—Demultiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
所公开的发送设备、发送方法、接收设备和接收方法使得可以在接收机侧上进行适当且高效的处理,该接收机侧接收以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流的传输流(TS)。第一识别信息和第二识别信息被插入到传输流(TS)中。第一识别信息用于区分包括在流(TS)中的视频流是第一视频流还是第二视频流。第二识别信息用于区分是否已经插入了第一视频流。包括第一识别信息的3D信令信息被插入到序列头部或图片头部的用户数据区域中。第二识别信息被包括在插入在PMT视频基本循环之下的视频流描述符中。
Description
技术领域
本发明涉及一种发送设备、发送方法、接收设备以及接收方法,尤其涉及例如发送以时分复用的方式包括其中插入了二维图像数据的视频流和其中插入了三维图像数据的视频流的传输流的发送设备。
背景技术
已知各种显示立体图像的系统。例如,如PTL 1至3中所述,已知其中以预定的周期在显示器上交替地显示具有视差的左眼图像和右眼图像并使用包括与显示器图像同步地驱动的液晶快门的快门眼镜来进行观看的方法。
引用列表
专利文件
PTL 1:日本未审查专利申请公布No.9-138384
PTL 2:日本未审查专利申请公布No.2000-36969
PTL 3:日本未审查专利申请公布No.2003-45343
发明内容
技术问题
当从广播站向用户的电视接收机发送诸如电视节目的内容时,可以切换和发送三维(3D)图像数据和二维(2D)图像数据。例如,在某些情况中,以三维图像数据的形式发送TV节目,并以二维图像数据的形式发送CM(商业消息)。在这样的情况中,广播站发送以时分复用的方式包括其中插入了二维图像数据的视频流和其中插入了三维图像数据的视频流的传输流。
在此情况中,期望用户的电视接收机确定包括在传输流中的视频流是其中插入了二维图像数据的流还是其中插入了三维图像数据的流。即,如果电视接收机可以确定传输流的类型,则电视接收机始终可以适当地处理所接收的图像数据。
本发明的目的在于允许接收以时分复用的方式包括其中插入了二维图像数据的视频流和其中插入了三维图像数据的视频流的传输流的接收机侧适当且高效地处理该传输流。
解决问题的方案
根据本发明的构思,提供了一种发送设备。该发送设备包括:发送单元,配置为发送具有预定格式且以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流的容器;第一识别信息插入单元,配置为向容器中插入用于识别视频流是第一视频流还是第二视频流的第一识别信息;以及第二识别信息插入单元,配置为向容器中插入用于识别是否已将第一识别信息插入到容器中的第二识别信息。
根据本发明,发送单元发送具有预定格式并以时分复用的方式包括其中插入了二维(2D)图像数据的第一视频流和其中插入了三维(3D)图像数据的第二视频流的容器。容器的示例包括各种格式的容器,诸如,在数字广播标准中定义的传输流(MPEG-2TS),或者在因特网传送中采用的MP4。视频流的示例除了基于MPEG2视频编码方法的视频流之外还包括基于VC-1、MPEG4-可视或另一编码方法的视频流。
第一识别信息插入单元向容器中插入指示视频流是第一视频流还是第二视频流的第一识别信息。注意,如果第一识别信息指示包括其中插入了三维图像数据的第二视频流,则第一识别信息还包括关于三维图像数据的格式信息。此外,第二识别信息插入单元向容器中插入指示是否已插入第一识别信息的第二识别信息。
根据本发明,例如,第一识别信息插入单元将第一识别信息插入到容器的第一层中,并且第二识别信息插入单元将第二识别信息插入到容器的第二层中,第二层高于第一层。例如,第一层是视频层,并且第二层是高于视频层的层。
此时,例如,如果容器是传输流,则第一层是图片层和序列层之一,并且第二层是传输层。在这样的情况下,第一识别信息被插入到视频流的图片层和序列层之一的用户数据区域中。此外,在此情况下,例如第二识别信息被插入到位于包括在传输流中的节目地图表的视频基本循环之下的描述符中。替代地,例如,第二识别信息被插入到位于包括在传输流中的服务描述表和事件信息表中的一个之下的描述符中。
如此,根据本发明,第一识别信息被插入到容器中。第一识别信息指示包括在容器中的视频流是其中插入了二维图像数据的视频流还是其中插入了三维图像数据的视频流。因此,在接收机侧上,可以基于第一识别信息容易地确定所接收的图像数据是二维图像数据还是三维图像数据。因此,即使在所接收的图像数据以时分复用的方式从二维图像数据切换到三维图像数据或相反时,始终可以执行适当的处理。
此外,根据本发明,将用于识别是否已插入第一识别信息的第二识别信息插入到容器中。因此,在接收机侧上,仅当第二识别信息指示已经插入了第一识别信息时,可以获取第一识别信息并且可以基于第一识别信息将对所接收的图像数据执行的处理切换为适当的处理。即,如果第二识别信息指示第一识别信息还未被插入,则在接收机侧上可以消除对获取第一识别信息并监视该信息的需要。因此,可以执行高效的处理。
此外,根据本发明,例如,由左眼图像数据和右眼图像数据形成三维图像数据。发送设备还包括配置为输出视差信息的视差信息输出单元,其中视差信息用于向叠加在基于左眼图像数据的图像和基于右眼图像数据的图像上的相同叠加信息添加视差。当发送单元发送包括第二视频流的容器时,发送单元还将从视差信息输出单元输出的视差信息存储在容器中。
在这样的情况下,因为将对应于三维图像数据的视差信息与三维图像数据一起发送,所以接收机侧接收基于视差信息调整叠加位置的、要被叠加在左眼图像数据和右眼图像数据中的每个上的叠加信息的数据。因此,当显示叠加信息时,可以以最佳状态保持立体图像中物体之间透视的真实性。
此外,根据本发明的另一构思,提供了一种接收设备。接收设备包括:接收单元,配置为接收具有预定格式的容器,该容器以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流、并包括用于识别视频流是第一视频流还是第二视频流的第一识别信息以及用于识别是否已经插入了第一识别信息的第二识别信息;图像数据获取单元,配置为从由接收单元接收的容器获取图像数据;第一识别信息获取单元,配置为从由接收单元接收的容器获取第二识别信息;第二识别信息获取单元,配置为在由第一识别信息获取单元获取的第二识别信息指示已经插入了第一识别信息的情况下,从容器获取第一识别信息;以及图像数据处理单元,配置为基于由第二识别信息获取单元获取的第一识别信息选择性地对由图像数据获取单元获取的图像数据执行二维图像处理和三维图像处理之一。
根据本发明,接收单元接收具有预定格式且以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流的容器。该容器还包括用于识别视频流是第一视频流还是第二视频流的第一识别信息以及用于识别是否已经插入了第一识别信息的第二识别信息。容器的示例包括各种格式的容器,诸如,在数字广播标准中定义的传输流(MPEG-2TS),或者在因特网传送中采用的MP4。视频流的示例除了基于MPEG2视频编码方法的视频流之外还包括基于VC-1、MPEG4-可视或另一编码方法的视频流。
图像数据获取单元从由接收单元接收的容器获取图像数据。在这样的情况下,如果容器包括第一视频流,则所获取的图像数据是二维图像数据。相反,如果容器包括第二视频流,则所获取的图像数据是三维图像数据。
第一识别信息获取单元从接收单元接收的容器中获取第二识别信息。此外,如果第二识别信息指示已插入了第一识别信息,则第一识别信息获取单元获取第一识别信息。然后,图像数据处理单元基于第一识别信息选择性地对由图像数据获取单元获取的图像数据执行二维图像处理和三维图像处理之一。
如上,第一识别信息是指示包括在容器中的视频流是第一视频流还是第二视频流的识别信息。因此,如果第一识别信息指示视频流是第一视频流,则图像数据处理单元对由图像数据获取单元获取的二维图像数据执行二维图像处理。相反,如果第一识别信息指示视频流是第二视频流,则图像数据处理单元对由图像数据获取单元获取的三维图像数据执行三维图像数据处理。
根据本发明,以此方式从容器获取用于识别视频流是第一视频流还是第二视频流的第一识别信息。然后,图像数据处理单元基于第一识别信息选择性地对所接收的图像数据执行二维图像处理和三维图像处理之一。因此,即使当所接收的图像数据以时分复用的方式从二维图像数据切换到三维图像数据或相反时,始终可以进行适当的处理。
此外,根据本发明,从容器获取用于识别是否已插入了第一识别信息的第二识别信息。仅但当第二识别信息指示已插入了第一识别信息时,获取第一识别信息。数据处理单元基于第一识别信息对所接收的图像数据执行适当的处理。即,如果第二识别信息指示还未插入第一识别信息,则可以消除对获取第一识别信息和监视该信息的处理的需要。因此,可以执行高效的处理。
此外,根据本发明,如果例如由第一识别信息获取单元获取的第二识别信息指示还未插入第一识别信息,则图像处理单元对由接收单元接收的图像数据执行二维图像处理。
另外,根据本发明,例如,接收设备还叠加信息数据输出单元,配置为输出叠加信息的数据;以及数据叠加单元,配置为将从叠加信息输出单元输出的叠加信息的数据叠加在从图像数据处理单元输出的图像数据上。如果图像数据处理单元执行三维图像处理且输出构成三维图像数据的左眼图像数据和右眼图像数据,则数据叠加单元根据基于左眼图像数据的左眼图像与基于右眼图像数据的右眼图像之间的视差信息调整叠加从叠加信息数据输出单元输出的叠加信息的数据的位置,并将具有经调整的叠加位置的叠加信息的数据叠加在左眼图像数据和右眼图像数据中的每个上。如果图像数据处理单元执行二维图像处理并输出二维图像数据,则数据叠加单元直接将从叠加信息数据输出单元输出的叠加信息的数据叠加在二维图像数据上。
在这样的情况中,已经基于视差信息调整了要叠加在构成立体图像的左眼图像数据和右眼图像数据上的叠加信息的数据。因此,当显示叠加信息时,可以以最佳状态保持立体图像中物体之间的透视的真实性。
另外,根据本发明,例如,如果包括第二视频流,则用于向要被叠加在构成三维图像数据的左眼图像数据和右眼图像数据上的相同叠加信息添加视差的视差信息已被插入到了容器中。接收设备还包括配置为从容器获取视差信息的视差信息获取单元。如果图像数据处理单元执行三维图像处理且输出构成三维图像数据的左眼图像数据和右眼图像数据,则数据叠加单元基于由视差信息获取单元获取的视差信息调整叠加从叠加信息数据输出单元输出的叠加信息的数据的位置,并将具有经调整的叠加位置的叠加信息的数据叠加在左眼图像数据和右眼图像数据中的每个上。在这样的情况中,在接收机侧上,例如,必须处理左眼图像数据和右眼图像数据并获取视差信息。因此,可以容易且适当地调整叠加叠加信息的数据的位置。
本发明的有益效果
根据本发明,指示在容器中包括插入了二维图像数据的第一视频流还是插入了三维图像数据的第二视频流的第一识别信息以及指示是否已插入第一识别信息的第二识别信息被插入到容器中。因此,在接收容器的接收侧上可以执行适当且高效的处理。
附图说明
图1是示出根据本发明的第一实施例的图像发送/接收系统的构造的示例的框图。
图2是示出图像发送/接收系统的广播站中的发送数据生成单元的构造的示例的框图。
图3示出了其中插入了第一识别信息和第二识别信息的传输流TS的结构的示例。
图4是视频基本(elementary)流(视频流)的结构的示例的示意图。
图5示出了包括3D信令信息(Stereo_Video_Format_Signaling())的用户数据(userdata)的结构(语法)的示例。
图6示出了3D信令信息(Stereo_Video_Format_Signaling())的结构(语法)的示例。
图7示出了3D信令信息和包括3D信令信息的用户数据的数据定义信息(语义)。
图8示出了基于并排和上下来划分屏幕的技术的特定示例。
图9示出了视频流描述符(Video_stream_descriptor)的结构(语法)的示例。
图10示出了插入了3D信令信息的视频流(即以每个图片为基础插入了3D信令信息的视频流)的图片头部的用户数据区域的示例。
图11示出了插入了3D信令信息的视频流(即以每个序列为基础插入了3D信令信息的视频流)的序列头部的用户数据区域的示例。
图12是示出图像发送/接收系统的接收机的配置的示例的方框图。
图13是示出CPU基于第一识别信息和第二识别信息执行的控制处理的示例的流程图。
具体实施方式
下面描述用于实现本发明的实施例(下文称为“实施例”)。注意,将以以下顺序进行描述:
1.实施例
2.修改
<1.实施例>
[图像发送/接收系统]
图1示出了根据实施例的图像发送/接收系统10的构造的示例。图像发送/接收系统10包括广播站100和接收机200。广播站100发送包含传输流(比特流数据)TS的广播波,该传输流以时分复用的方式包括第一视频流(基本流)和第二视频流(基本流)。此时,传输流形成容器(container)。第一视频流中插入了二维(2D)图像数据。另外,第二视频流中插入了三维(3D)图像数据。这里,视频流是MPEG2(移动图像专家组阶段2)视频流。
传输流TS中插入了第一识别信息和第二识别信息。第一识别信息是指示包括在传输流TS中的视频流是第一视频流还是第二视频流的识别信息。第二识别信息是指示是否已经插入了第一识别信息的识别信息。在此情况中,第一识别信息被插入到传输流TS的第一层中,第二识别信息被插入到传输流TS的第二层中。
第二层是高于第一层的层。例如,第一层是图片层或序列层,第二层是传输层。根据本实施例,第一识别信息被插入到视频流的图片头部或序列头部的用户数据区域。而且,插入第二识别信息,使其位于包括在传输流TS中的节目地图表(PMT)的视频基本循环(视频ES循环)下。
接收机200通过从广播站100发送的广播波接收传输流TS。接收机200从所接收的传输流TS获取图像数据。另外,接收机200从所接收的传输流TS获取第二识别信息。此外,如果第二识别信息指示已插入了第一识别信息,则接收机200从传输流TS获取第一识别信息。
如上所述,第一识别信息是指示包括在传输流TS中的视频流是第一视频流还是第二视频流的识别信息。接收机200基于第一识别信息对所接收的图像数据选择性地执行二维图像处理和三维图像处理之一。
换言之,如果第一识别信息指示第一视频流,则接收机200对所接收的图像数据(二维图像数据)执行二维图像处理,并获得二维图像数据。相反,如果第一识别信息指示第二视频流,则接收机200对所接收的图像数据(三维图像数据)执行三维图像处理,并获得用于显示立体图像的左眼图像和右眼图像。
注意,如果第二识别信息指示还未插入第一识别信息,则接收机200不执行从传输流TS获取第一识别信息的处理。此时,接收机200对所接收的图像数据(二维图像数据)执行二维图像处理,并获得二维图像数据。
[发送数据生成单元的构造的示例]
图2示出了广播站100中生成上述传输流TS的发送数据生成单元110的构造的示例。发送数据生成单元110包括数据检索单元(归档单元)111、视频编码器112、视差信息编码器113、和音频编码器114。此外,发送数据生成单元110包括图形生成单元115、图形编码器116、和复用器117。
例如,数据检索单元111具有可移除地安装在其中的数据记录介质111a。数据记录介质111a存储要以传输流TS的形式发送的预定电视节目的图像数据以及对应于图像数据的音频数据。例如,在依据电视节目形成的三维(3D)图像数据和二维(2D)图像数据之间切换图像数据。此外,例如,在电视节目中,在依据主电视节目或商业消息形成的三维(3D)图像数据与二维(2D)图像数据之间切换图像数据。
根据左眼图像数据和右眼图像数据形成三维图像数据。三维图像数据的发送格式是例如并排(Side By Side)或上下(Top&Bottom)。例如在并排发送格式中,针对水平方向上的第一半,发送左眼图像数据的像素数据。针对水平方向上的第二半,发送右眼图像数据的像素数据。相反,例如,在上下发送格式中,针对垂直方向上的第一半,发送左眼图像数据的每一行的数据。针对垂直方向上的第二半,发送右眼图像数据的每一行的数据。
如果图像数据是三维图像数据,则数据记录介质111a还包括与三维图像数据关联的视差信息。视差信息具有例如指示左眼图像和右眼图像之间的视差的视差矢量的形式,或者是深度数据。经过预定转换后可以将深度数据作为视差矢量处理。视差信息例如是关于通过将视图(图像)划分为预定数量的区域而获得的每个划分的区域的视差信息。在接收机侧上,使用视差信息来调整叠加在左眼图像和右眼图像上的同一叠加信息(例如图形信息)的位置,并提供视差。数据记录介质111a例如是盘形的记录介质或者半导体存储器。数据检索单元111从数据记录介质111a检索例如图像数据、音频数据和视差信息,并输出图像数据、音频数据和视差信息。
视频编码器112对从数据检索单元111输出的图像数据执行MPEG2编码处理,并获得编码的视频数据。此外,如果图像数据是二维图像数据,则视频编码器112使用布置在视频编码器112下游的流格式器(未示出)生成包括其中插入的二维图像数据的视频基本流(第一视频流)。相反,如果图像数据是三维图像数据,则视频编码器112生成包括其中插入的三维图像数据的视频基本流(第二视频流)。
视差信息编码器113生成包括从数据检索单元111输出的视差信息的视差信息基本流。音频编码器114对从数据检索单元111输出的音频数据执行编码处理,诸如MPEG-2音频AAC,并生成音频基本流。
图形生成单元115生成要叠加在图像上的图形信息(包括字幕信息)的数据(图形数据)。图形编码器116生成包括在图形生成单元115中生成的图形数据的图形基本流。此时,图形信息用作叠加信息。
例如,图形信息表示标志(logo)。字幕信息表示例如文字说明(caption)。图形数据为位图(bitmap)数据形式。图形数据包括指示图形数据叠加在图像中的位置的空闲位移信息。例如,空闲位移信息表示垂直方向上和水平方向上从图像的原点(左上角)到叠加图形信息的最左上像素的位置的位移值。注意,定义文字说明数据为所发送的位图数据的标准被标准化,并被用作“DVD_subtitling”,其是欧洲的数字广播标准。
复用器117分组化由视频编码器112、视差信息编码器113、音频编码器114和图形编码器116生成的基本流。复用器117复用分组化的基本流并生成传输流TS。
在从数据检索单元111输出二维图像数据的预定电视节目的时间段期间,或者在该电视节目内的预定时间段期间,传输流TS包括其中插入了二维图像数据的视频基本流(第一视频流)。此外,在从数据检索单元111输出三维图像数据的预定电视节目的时间段期间或者在该电视节目内的预定时间段期间,传输流TS包括其中插入了三维图像数据的视频基本流(第二视频流)。
复用器117将上述第一识别信息和第二识别信息插入到传输流TS中。因此,传输流TS包括第一识别信息和第二识别信息。如上所述,第一识别信息是指示包括在传输流TS中的视频流是第一视频流还是第二视频流的识别信息。另外,第二识别信息是指示是否已插入了第一识别信息的识别信息。下面更详细地描述复用器117进行的第一和第二识别信息的插入。
简要地说明图2中所示的发送数据生成单元110执行的操作。从数据检索单元111输出的图像数据(三维图像数据或二维图像数据)被提供给视频编码器112。视频编码器112对图像数据进行MPEG2编码。因此,生成包括编码的视频数据的视频基本流(MPEG2视频流)。
在此情况中,如果图像数据是二维图像数据,则生成包括二维图像数据(第一视频流)的视频基本流。相反,如果图像数据是三维图像数据,则生成包括三维图像数据(第二视频流)的视频基本流。如此,将由视频编码器112生成的视频基本流提供给复用器117。
此外,当从数据检索单元111输出三维图像数据时,还从数据检索单元111输出对应于三维图像数据的视差信息。将视差信息提供给视差信息编码器113。视差信息编码器113以预定的方式编码视差信息。因此,生成包括编码的数据的视差信息基本流。视差信息基本流被提供给复用器117。
此外,当从数据检索单元111输出图像数据时,还从数据检索单元111输出对应于图像数据的音频数据。音频数据被提供给音频编码器114。音频编码器114使用例如MEPG-2音频AAC编码音频数据。因此,生成包括编码的音频数据的音频基本流。音频基本流被提供给复用器117。
此外,针对从数据检索单元111输出的图像数据,图形生成单元115生成要叠加在图像(视图)上的图形信息(包括字幕信息)的数据(图形数据)。图形数据被提供给图形编码器116。图形编码器116以预定方式编码图形数据。因此,生成了包括编码的数据的图形基本流。图形基本流被提供给复用器117。
复用器117分组化从编码器提供的基本流,并复用分组。因此,生成传输流TS。在从数据检索单元111输出二维图像数据的预定电视节目的时间段期间或者在该电视节目内的预定时间段期间,流TS包括其中插入了二维图像数据的视频基本流(第一视频流)。另外,在从数据检索单元111输出三维图像数据的预定电视节目的时间段期间或者在电视节目内的预定时间段期间,流TS包括其中插入了三维图像数据的视频基本流(第二视频流)。
此外,在复用器117中,将指示视频流是第一视频流还是第二视频流的第一识别信息插入到传输流TS中。而且,在复用器117中,将指示是否已经插入了第一识别信息的第二识别信息插入到传输流TS中。
[第一和第二识别信息及其插入]
如上所述,复用器117将第一和第二识别信息插入到传输流TS中。复用器117将第一识别信息插入到图片层或序列层中。换言之,根据本实施例,复用器117将第一识别信息插入到视频基本流(视频流)的图片头部或序列头部的用户数据区域中。更具体地,复用器117将包括第一识别信息的3D信令信息(Stereo_Video_Format_Signaling())插入到用户数据区域中。
此外,复用器117将第二识别信息插入到传输层中。换言之,根据本实施例,复用器117插入第二识别信息使得第二识别信息位于传输流TS中包括的节目地图表(PMT)的视频基本循环(视频ES循环)之下。更具体地,复用器117插入包括第二识别信息的视频流描述符(Video_stream_descriptor()),使得该视频流描述符位于所述视频基本循环之下。
图3示出了传输流TS的结构的示例。此结构示例包括视频基本流的PES分组“视频PES”。此外,传输流TS包括PMT(节目地图表)作为PSI(节目特定信息)。PSI是指示包括在传输流中的每个基本流属于哪个节目的信息。此外,传输流包括用作SI(服务信息)的EIT(事件信息表)。EIT被用于基于事件的管理。
PMT包括节目描述符,其描述关于节目整体的信息。此外,PMT包括具有有关每个基本流的信息的基本循环。在此结构示例中,PMT包括视频基本循环(视频ES循环)。在该基本循环中,为每个流布置诸如分组标识符(PID)和流类型(Stream_Type)的信息。此外,布置描述有关基本流的信息的描述符。注意,为了简单,在该结构示例中,未示出视差信息、音频信息和图形。
在该结构示例中,将3D信令信息(Stereo_Video_Format_Signaling())插入到视频基本流的用户数据区域中。此外,在该结构示例中,将用作描述有关视频基本流的信息的描述符的视频流描述符(Video_stream_descriptor)插入到PMT的视频基本循环(视频ES循环)中。
图4是视频基本流(Video Elementary Stream)的结构的示例的示意图。视频基本流包括序列头部部分,其包括以每个序列为基础(以每个GOP为基础)的参数。序列头部部分后面是图片头部,其包括以每个图像为基础的参数和用户数据。图片头部后面是包括图像数据的载荷部分。在载荷部分之后,图片头部和载荷部分重复地出现。
如上所述,包括第一识别信息的3D信令信息(Stereo_Video_Format_Signaling())被插入到视频基本流(视频流)的图片头部或序列头部的用户数据区域中。图5示出了包括3D信令信息(Stereo_Video_Format_Signaling())的用户数据(userdata)的结构(语法)的示例。如果起始码(user_data_start_code)之后的数据标识符是3D信令信息标识符,则数据标识符之后跟随作为主数据的3D信令信息。
图6示出了3D信令信息(Stereo_Video_Format_Signaling())的结构(语法)的示例。图7示出了3D信令信息以及用于包括3D信令信息的用户数据的数据定义信息(语义)。4字节(32比特)的唯一标识符被分配给3D信令信息,作为“Stereo_Video_Format_Signaling_identifier ”。“Stereo_Video_Format_Signaling_Length”表示指示3D信令信息的长度(大小)的8比特数据。此数据指示遵循“Stereo_Video_Format_Signaling_Length”的数据的字节数,并指示描述符的长度。
“Stereo_Video_Format_Signaling_type”表示用作第一识别信息的7比特数据。如果该7比特数据是“0000011”,则插入到视频流中的图像数据是三维(3D)图像数据。另外,发送格式是“并排”。相反,如果该7比特数据是“0000100”,则插入到视频流中的图像数据是三维图像。另外,发送格式是“上下”。替代地,如果该7比特数据是“0001000”,则插入到该视频流中的图像数据是二维(2D)图像数据。
如这里所使用的,术语“并排”是指仅在水平方向上将左眼图像和右眼图像中的每个缩减为原始尺寸的一半并将图像布置在屏幕的左侧和右侧的方法。在此情况中,例如,对于观看者,两个屏幕图像中的左图像被定义为左眼图像,两个屏幕图像中的右图像被定义为右眼图像。此外,例如,在两个屏幕图像之间延伸的边界线位于一个扫描行的有效采样数的1/2处。图8示出了驱动屏幕的技术的具体示例。例如,初始,在缩减时,两个屏幕的采样位置相同,且在扫描行之中是固定的。
此外,如这里所使用的,数据“上下”是指仅在垂直方向上将左眼图像和右眼图像中的每个缩减为原始尺寸的一半并将图像布置在屏幕的上侧和下侧的方法。在此情况中,例如,对于观看者,两个屏幕图像中的上部图像被定义为左眼图像,两个屏幕图像中的下部图像被定义为右眼图像。此外,例如,在两个屏幕图像之间延伸的边界线位于一个有效屏幕在垂直方向上的行数的1/2处。图8示出了驱动屏幕的技术的具体示例。
如上所述,7比特数据“Stereo_Video_Format_Signaling_type”指示插入到视频流中的图像数据是三维图像数据还是二维图像数据。因此,通过使用该7比特,可以确定传输流TS中包括的视频流是第一视频流还是第二视频流。
注意,当在二维图像和三维图像之间进行切换时,使其中图像数据(Picture data())改变的帧与其中3D信令信息(Stereo_Video_Format_Signaling())改变的帧相同。
图9示出了视频流描述符(Video_stream_descriptor())的结构(语法)的示例。以MPEG2标准定义描述符本身。根据本实施例,对于视频流描述符,附加地定义1比特的标记数据“3DFormat_Signaling_existed”。标记数据用作第二识别信息。标记数据“1”指示视频流的用户数据区域中包括插入其中的3D信令信息。相反,标记数据“0”指示视频流的用户数据区域不包括插入其中的3D信令信息。
图10示出了其中插入了3D信令信息的视频流(即其中以每个图片为基础插入3D信令信息的视频流)的图片头部的用户数据区域的例子。在此示例中,对于TV节目,发送三维(3D)图像数据。然而,对于CM(商业消息),发送二维(2D)图像数据。此外,当在图片头部的用户数据区域中插入信令信息时,1比特标记数据“3DFormat_Signaling_existed”被设定为“1”。
图11示出了其中插入3D信令信息的视频流(即以每个序列为基础具有3D信令信息的视频流)的序列头部的用户数据区域的示例。在此示例中,当在序列头部的用户数据区域中插入信令信息时,1比特标记数据“3DFormat_Signaling_existed”被设定为“1”。
[接收机的构造的示例]
图12示出了接收机200的构造示例。接收机200包括CPU 201、闪存ROM 202、DRAM 203、内部总线204、遥控接收单元205、以及遥控发射器206。此外,接收机200包括天线端子210、数字调谐器211、传输流缓冲器(TS缓冲器)212、以及解复用器213。
此外,接收机200包括视频解码器214、3D信号处理单元215、视图缓冲器216L和216R、以及视频叠加单元217L和217R。另外,接收机200包括图形解码器218、图形生成单元219、视差信息解码器220、图形缓冲器221L和221R、音频解码器222、以及信道处理单元223。
CPU 201控制接收机200的所有单元的操作。闪存ROM 202存储控制软件并保持数据。DRAM 203用作CPU 201的工作区域。CPU 201将从闪存ROM202读出的软件和数据加载到DRAM 203,并启动软件。如此,CPU 201控制接收机200的所有单元。遥控接收单元205接收从遥控发射器206发送的遥控信号(遥控码),并将遥控码提供给CPU 201。CPU 201基于遥控码控制接收机200的所有单元。CPU 201、闪存ROM 202以及DRAM 203连接到内部总线204。
天线端子210接收由接收天线(未示出)接收的电视广播信号。数字调谐器211处理输入到天线端子210中的电视广播信号,并输出对应于由用户选择的信道的预定传输流(比特流数据)TS。传输流缓冲器(TS缓冲器)212临时存储从数字调谐器211输出的传输流TS。
如上所述,传输流TS以时分复用的方式包括其中插入了二维图像数据的第一视频流(基本流)以及其中插入了三维图像数据的第二视频流(基本流)。此外,传输流TS包括插入到其中的第一识别信息和第二识别信息(参见图3)。第一识别信息是指示视频流是第一视频流还是第二视频流的识别信息。第二识别信息是指示第一识别信息是否已被插入的识别信息。
3D信令信息(Stereo_Video_Format_Signaling())被插入到包括在传输流TS中的第一视频流和第二视频流中的每个的图片头部或序列头部的用户数据区域。3D信令信息包括用作第一识别信息的7比特数据“Stereo_Video_Format_Signaling_type”(参见图6)。
另外,视频流描述符(Video_stream_descriptor())被插入并置于在包括在传输流TS中的节目地图表(PMT)的视频基本循环(视频ES循环)之下。描述符包括用作第二识别信息的1比特标记数据“3DFormat_Signaling_existed”(参见图9)。
解复用器213从临时存储在传输流缓冲器212中的传输流TS中提取视频基本流、视差信息基本流、图形基本流、以及音频基本流。仅当包括在传输流TS中的视频流(视频基本流)是插入了三维(3D)图像数据的第二视频流时提取视差信息基本流。
此外,解复用器213从传输流TS提取节目地图表(PMT),并将表中的信息提供给CPU 201。如上所述,该表还包括具有用作第二识别信息的1比特标记数据“3DFormat_Signaling_existed”的视频流描述符(Video_stream_descriptor())。CPU 201基于该1比特标记数据“3DFormat_Signaling_existed”确定3D信令信息(Stereo_Video_Format_Signaling())是否已经插入视频流的图片头部或序列头部的用户数据区域中。
视频解码器214执行由发送数据生成单元110的视频编码器112所执行的上述处理的逆处理。即,视频解码器214对包括在由解复用器213提取的视频基本流(视频流)中的编码的图像数据进行解码处理。因此,视频解码器214获得解码的图像数据。
此外,视频解码器214提取包括在视频流的图片头部或序列头部的用户数据区域中的用户数据(userdata),并将用户数据提供给CPU 201。如上所述,用户数据包括具有用作第一识别信息的7比特数据“Stereo_Video_Format_Signaling_type”的3D信令信息(Stereo_Video_Format_Signaling())。
如果用作第二识别信息的1比特标记数据“3DFormat_Signaling_existed”被设定为1,则存在用作第一识别信息的7比特数据“Stereo_Video_Format_Signaling_type”。如果1比特标记数据“3DFormat_Signaling_existed”被设定为1,则CPU 201基于7比特数据“Stereo_Video_Format_Signaling_type”确定视频流是其中插入了二维图像数据的第一视频流还是其中插入了三维图像数据的第二视频流。
如果确定7比特数据是“000100”并因此视频流是其中插入了二维图像数据的第一视频流,则CPU 101设定接收机200的所有单元进入执行二维图像处理的模式。然而,如果确定7比特数据是“0000011”或“0000100”并因此视频流是其中插入了三维图像数据的第二视频流,则CPU 101设定接收机200的所有单元进入执行三维图像处理的模式。
图13中所示的流程图示出了CPU 201执行的控制处理。在步骤ST1中,CPU 201启动处理。接着,处理进行到步骤ST2。在步骤ST2中,CPU 201确定1比特标记数据“3DFormat_Signaling_existed”是否被设定为“1”。如果“3DFormat_Signaling_existed”=1,则CPU 201的处理进行到步骤ST3。
在步骤ST3中,CPU 201确定“Stereo_Video_Format_Signalling_type”指示插入到视频流中的图像数据是二维(2D)图像数据还是三维(3D)图像数据。如果“Stereo_Video_Format_Signaling_type”指示插入到视频流中的图像数据是三维(3D)图像数据,CPU 201的处理进行到步骤ST4。在步骤ST4中,CPU 201设定接收机200的所有单元进入执行三维图像处理的模式。此后,处理返回步骤ST2。
然而,如果在步骤ST2中“3DFormat_Signaling_existed”=0,则CPU 201的处理进行到步骤ST5。替代地,如果在步骤ST3中“Stereo_Video_Format_Signaling_type”指示图像数据是二维图像数据,CPU201的处理进行到步骤ST5。在步骤ST5中,CPU 201设定接收机200的所有单元进入执行二维图像处理的模式。此后,处理返回步骤ST2。
返回参照图12,如果从视频解码器214输出的图像数据是三维图像数据,则3D信号处理单元215执行对应于发送格式的处理,并生成左眼图像数据SL和右眼图像数据SR。注意,如果从视频解码器214输出的图像数据是二维图像数据,则3D信号处理单元215直接输出二维图像数据。
在通过CPU 201的控制而设定的执行三维图像处理的模式中,视图缓冲器216L临时存储由3D信号处理单元215生成的左眼图像数据SL。替代地,在通过CPU 201的控制设定的执行二维图像处理的模式中,视图缓冲器216L临时存储从3D信号处理单元215输出的二维图像数据SV。此外,在通过CPU201的控制而设定的执行三维图像处理的模式中,视图缓冲器216R临时存储由3D信号处理单元215生成的右眼图像数据SR。
图形解码器218执行由发送数据生成单元110的图形编码器116所执行的上述处理的逆处理。即,图形解码器218对包括在由解复用器213提取的图形基本流中的编码的图形数据执行解码处理。因此,图形解码器218获得解码的图形数据(包括字幕数据)。
视差信息解码器220执行由发送数据生成单元110的视差信息编码器113执行的上述处理的逆处理。即,视差信息解码器220对包括在由解复用器213提取的视差信息基本流中编码的视差信息执行解码处理。因此,视差信息解码器220获得解码的视差信息。视差信息具有例如指示左眼图像与右眼图像之间的视差的视差矢量的形式,或者是深度数据。在预定转换之后,可以将深度数据作为视差矢量处理。视差信息例如是有关通过将视图(图像)划分为预定数目的区域而获得的每个划分的区域的视差信息。
图形生成单元219基于在图形解码器218中获得图形数据生成要叠加在图像上的图形信息的数据。在通过CPU 201的控制而设定的执行三维图像处理的模式中,图形生成单元219生成要被叠加在左眼图像数据和右眼图像数据每个上的图形信息的数据。在此情况下,图形生成单元219基于视差信息解码器220获得的视差信息调整在左眼图像和右眼图像的每个中叠加图形信息的位置。因此,对左眼图像和右眼图像中的每个提供视差。此外,在通过CPU 201的控制而设定的执行二维图像处理的模式中,图形生成单元219生成要叠加在二维图像数据上的图形信息的数据。
在通过CPU 201的控制而设定的执行三维图像处理的模式中,图形缓冲器221L临时存储要叠加在图形生成单元219所生成的左眼图像数据上的图形信息的数据。替代地,在通过CPU 201的控制而设定的执行二维图像处理的模式中,图形缓冲器221L临时存储有关要叠加在图形生成单元219所生成的二维图像数据上的图形信息的数据。此外,在通过CPU 201的控制而设定的执行三维图像处理的模式中,图形缓冲器221R临时存储要叠加在右眼图像数据上的图形信息的数据。
在通过CPU 201的控制而设定的执行三维图像处理的模式中,视频叠加单元217L输出用于显示其上叠加了图形信息的左眼图像的图像数据SL’。此时,视频叠加单元217L将存储在图形缓冲器221L中的图形信息的数据叠加在存储在视图缓冲器216L中的左眼图像数据SL上。因此,视频叠加单元217L获得左眼图像数据SL’。替代地,在通过CPU 201的控制而设定的执行二维图像处理的模式中,视频叠加单元217L输出用于显示其上叠加了图形信息的二维图像的二维图像数据SV’。此时,视频叠加单元217L将存储在图形缓冲器221L中的图形信息的数据叠加在存储在视图缓冲器216L中的二维图像数据SV上。因此,视频叠加单元217L获得二维图像数据SV’。
此外,在通过CPU 201的控制而设定的执行三维图像处理的模式中,视频叠加单元217R输出用于显示其上叠加了图形信息的右眼图像的右眼图像数据SR’。此时,视频叠加单元217R将存储在图形缓冲器221R中的图形信息的数据叠加在存储在视图缓冲器216R中的右眼图像数据SR上。
音频解码器222执行由发送数据生成单元110的音频编码器114所执行的上述处理的逆处理。即,音频解码器222对包括在解复用器213提取的音频基本流中的编码的音频数据执行解码处理。因此,音频解码器222获得解码的音频数据。信道处理单元223为每个信道生成并输出音频数据SA,所述信道对在音频解码器222中获得的音频数据实现例如5.1ch环绕声音。
下面简要说明接收机200执行的操作。输入到天线端子210的电视广播信号被提供给数字调谐器211。数字调谐器211处理电视广播信号并输出对应于用户选择的信道的预定传输流TS。传输流TS被临时存储在TS缓冲器212中。
解复用器213从临时存储在TS缓冲器212中的传输流TS中提取视频基本流、视差信息基本流、图形基本流、以及音频基本流。仅当传输流TS包括插入了三维图像数据的视频流(第二视频流)时提取视差信息基本流。
此外,解复用器213从传输流TS中提取节目地图表(PMT),并将表中的信息提供给CPU 201。如上所述,该表还包括具有用作第二识别信息的1比特标记数据“3DFormat_Signaling_existed”的视频流描述符(Video_stream_descriptor())(参见图9)。CPU 201基于该1比特标记数据“3DFormat_Signaling_existed”确定3D信令信息(Stereo_Video_Format_Signaling())是否已经插入了视频流的图片头部或序列头部的用户数据区域中。
由解复用器213提取的视频基本流(视频流)被提供给视频解码器214。视频解码器214对包括在由解复用器213提取的视频基本流中的编码的图像数据进行解码处理。因此,视频解码器214获得解码的图像数据。在此情况下,如果视频基本流中插入了三维图像数据,则获得三维图像数据。相反,在此情况下,如果视频基本流中插入了二维图像数据,则获得二维图像数据。
此外,视频解码器214提取包括在视频流的图片头部或序列头部的用户数据区域中的用户数据。用户数据被提供给CPU 201。如上所述,用户数据包括具有用作第一识别信息的7比特数据“Stereo_Video_Format_Signaling_type”的3D信令信息(Stereo_Video_Format_Signaling())(参见图6)。
如果1比特标记数据“3DFormat_Signaling_existed”被设定为1,则CPU201识别使用7比特数据“Stereo_Video_Format_Signaling_type”的视频流。CPU 201基于7比特数据识别视频流是其中插入了二维图像数据的第一视频流还是其中插入了三维图像数据的第二视频流。
如果确定7比特数据是“0001000”并且因此视频流是其中插入了二维图像数据的第一视频流,则CPU 101设定接收机200的所有单元进入执行二维图像处理的模式。相反,如果确定7比特数据是“0000011”或“0000100”并且因此视频流是其中插入了三维图像数据的第二视频流,则CPU 101设定接收机200的所有单元进入执行三维图像处理的模式。
下面首先描述接收机200的所有单元被设定为进入执行三维(3D)图像处理的模式的情况。视频解码器214获得的三维图像数据被提供到3D信号处理单元215。如果从视频解码器214输出的图像数据是三维图像数据,则3D信号处理单元215执行对应于发送格式的处理并生成左眼图像数据SL和右眼图像数据SR。左眼图像数据SL被临时存储在视图缓冲器216L中,右眼图像数据SR被临时存储在视图缓冲器216R中。
此外,解复用器213提取的图形基本流被提供到图形解码器218。图形解码器218对包括在图形基本流中的编码的图形数据执行解码处理。因此,图形解码器218获得解码的图形数据(包括字幕)。图形数据被提供给图形生成单元219。
此外,由解复用器213提取的视差信息基本流被提供给视差信息解码器220。视差信息解码器220对包括在视差信息基本流中的编码的视差信息进行解码处理。因此,视差信息解码器220获得解码的视差信息。视差信息被提供给图形生成单元219。
图形生成单元219基于图形解码器218所获得的图形数据生成要被叠加在图像上的图形信息的数据。在此情况中,图形生成单元219基于在视差信息解码器220中获得的视差信息调整在左眼图像和右眼图像的每个中叠加图形信息的位置。因此,在左眼图像和右眼图像的每个上提供视差。
要被叠加在左眼图像数据上且由图形生成单元219生成的图形信息的数据临时存储在图形缓冲器221L中。此外,要被叠加在右眼图像数据上且由图形生成单元219生成的图形信息的数据被临时累积在图形缓冲器221R中。
视频叠加单元217L将在图形缓冲器221L中累积的图形信息的数据叠加在在视图缓冲器216L中累积的左眼图像数据SL上。因此,可以获得左眼图像数据SL’。输出左眼图像数据SL’作为用于显示其上叠加了图形信息的左眼图像的图像数据。此外,视频叠加单元217R将在图形缓冲器221R中累积的图形信息的数据叠加在在视图缓冲器216R中累积的右眼图像数据SR上。因此,可以获得右眼图像数据SR’。输出右眼图像数据SR’作为用于显示其上叠加了图形信息的右眼图像的图像数据。
下面描述接收机200的所有单元进入执行二维(2D)图像处理的模式的情况。视频解码器214中获得的二维图像数据SV被直接从3D信号处理单元215中输出。二维图像数据SV临时累积在视图缓冲器216L中。
此外,解复用器213提取的图形基本流被提供到图形解码器218。图形解码器218对包括在图形基本流中的编码的图形数据执行解码处理。因此,可以获得解码的图形数据(包括字幕)。图形数据被提供给图形生成单元219。
图形生成单元219基于在图形解码器218中获得的图形数据生成要被叠加在图像上的图形信息的数据。图形信息的数据临时累积在图形缓冲器221L中。
视频叠加单元217L将在图形缓冲器221L中累积的图形信息的数据叠加在在视图缓冲器216L中累积的二维图像数据SV上。因此,可以获得二维图像数据SV’。输出二维图像数据SV’作为用于显示其上叠加了图形信息的二维图像的图像数据。
此外,在解复用器213中提取的音频基本流被提供到音频解码器222。音频解码器222对包括在音频基本流中的编码的音频数据执行解码处理。因此,可以获得解码的音频数据。音频数据被提供到信道处理单元223。对于音频数据,信道处理单元223为每个信道生成并输出音频数据SA,所述信道实现例如5.1ch环绕声音。
如上所述,在图1中所示的图像发送/接收系统10中,第一识别信息被插入到要从广播站100发送的传输流TS中。第一识别信息是指示视频流是插入了二维图像数据的第一视频流还是插入了三维图像数据的第二视频流的识别信息。
更具体地,包括用作第一识别信息的7比特数据“Stereo_Video_Format_Signaling_type”的3D信令信息被插入到包括在传输流TS中的视频流的图片头部或序列头部的用户数据区域中。因此,在接收机侧上,可以基于第一识别信息容易地确定所接收的图像数据是二维图像数据还是三维图像数据。甚至在所接收的图像数据以时分复用的方式从二维图像数据切换为三维图像数据或相反时,始终可以执行适当的处理。
此外,在图1中所示的图像发送/接收系统10中,指示第一识别信息是否已被插入的第二识别信息被插入到要从广播站100发送的传输流TS中。更具体地,包括用作第二识别信息的1比特标记数据“3DFormat_Signaling_existed”的视频流描述符被插入并置于PMT的视频基本循环之下。
因此,仅当第二识别信息指示已经插入了第一识别信息时,才可以在接收机侧获取第一识别信息,并且基于第一识别信息可以将对所接收的图像数据执行的处理切换为适当的处理。即,如果第二识别信息指示还未插入第一识别信息,则在接收机侧上可以消除对获取第一识别信息和监视该信息的需要。因此,可以执行高效的处理。
此外,如果从广播站100发送的传输流TS包括其中插入了三维图像数据的视频流,则在图1中所示的图像发送/接收系统10中可以进一步将视差信息插入到传输流TS中。视差信息被用于将视差添加到要被叠加在从左眼图像数据形成的图像上以及从右眼图像数据形成的图像上的相同叠加信息(左眼图像数据和右眼图像数据构成三维图像数据)。
在此情况中,三维图像数据和对应于该三维图像数据的视差信息被发送给接收机侧。因此,已经基于视差信息调整了在接收机侧上要被叠加在左眼图像数据和右眼图像数据上的叠加信息的位置。因此,当显示叠加信息时,可以以最佳状态保持立体图像中物体之间的透视(perspective)的真实性。
此外,在图1中所示的图像发送/接收系统10中,接收机200从传输流TS获取指示视频流是第一视频流还是第二视频流的第一识别信息。然后,基于第一信息对所接收的图像数据选择性地执行二维图像处理或三维图像处理。因此,甚至当所接收的图像数据以时分复用方式将从二维图像数据切换到三维图像数据或相反时,接收机200也可以始终执行最佳处理。
此外,在图1中所示的图像发送/接收系统10中,接收机200从传输流TS获取指示是否已插入第一识别信息的第二识别信息。仅当第二识别信息指示已经插入了第一识别信息时,接收机200获取第一识别信息并监视信息。因此,如果第二识别信息指示还未插入第一识别信息,则接收机200不需要获取第一识别信息且不需要监视该信息。因此,可以执行高效的处理。
另外,在图1中所示的图像发送/接收系统10中,当发送包括其中插入了三维(3D)图像数据的视频流(第二视频流)的传输流TS1时,接收机200进入处理三维图像数据的模式。此外,图形生成单元219基于在视差信息解码器220中获得的视差信息调整在左眼图像和右眼图像中的每个中叠加图形信息的位置。因此,对左眼图像和右眼图像中的每个提供视差。因此,可以以最佳状态保持立体图像中物体之间的透视的真实性。
另外,在图1中所示的图像发送/接收系统10中,当接收机200调整在左眼图像和右眼图像中的每个中叠加图形信息的位置时,提取和使用插入到传输流TS中的视差信息。因此,接收机200不需要通过例如处理左眼图像数据和右眼图像数据来获得视差信息,因此接收机200可以简单且容易地调整叠加叠加信息的数据的位置。
<2.修改>
注意,虽然已经参照插入到包括在传输流TS中的视频流的图片头部或序列头部的用户数据区域中的第一识别信息说明了以上实施例,但是插入第一识别信息的位置不限于视频流的图片头部或序列头部。
此外,虽然已经参照由包括在3D信令信息中的7比特数据“Stereo_Video_Format_Signaling_type”形成的第一识别信息描述了以上实施例,但第一识别信息不限于7比特数据“Stereo_Video_Format_Signaling_type”。关键在于第一识别信息可以是可以用来识别包括在传输流TS中的视频流是其中插入了二维图像数据的第一视频流还是其中插入了三维图像数据的第二视频流的任何信息。
此外,虽然已经参照其中将第二识别信息插入到位于PMT的视频基本循环之下的描述符中的示例说明了以上实施例,但插入第二识别信息的位置不限于此。即,可以使用以每个节目为基础发送的SI(服务信息)发送第二识别信息。例如,第二识别信息可以被插入到位于包括在传输流TS中的服务描述表(SDT)之下的描述符中。替代地,例如,第二识别信息可以被插入到位于包括在传输流TS中的事件信息表(EIT)之下的描述符中。
此外,虽然上面已经参照由包括在视频流描述符中的1比特标记数据“3DFormat_Signaling_existed”形成的第二识别信息说明了以上实施例,但第二识别信息不限于1比特标记数据“3DFormat_Signaling_existed”。关键是可以使用可以用来识别是否已经将第一识别信息插入到传输流TS中的任何信息。
此外,虽然已经参照由传输流(MPEG-2 TS)形成的容器说明了以上实施例,但本发明类似地适用于具有使用网络(诸如因特网)将视频流发布到接收终端的构造的系统。一般地,在通过因特网发布的情况中,使用具有MP4格式或非MP4格式的容器。即,作为容器,可以使用用作数字广播标准的传输流(MPEG-2 TS)以及具有在因特网发布中采用的各种格式(诸如MP4)的容器。
此外,虽然上面已经参照视频流是MPEG2视频流的示例说明了以上实施例,但视频流不限于MPEG2视频流。例如,视频流可以是VC-1或MPEG4-可视的视频流,或者基于另一编码方法的视频流。
此外,虽然已经参照其中由图形形成的叠加信息的示例说明了以上实施例,但即使在使用其它类型的叠加信息(诸如隐藏的文字说明(closedcaption))时以上说明同样适用。此外,虽然已经参照其中将图形数据与图像数据一起从发送机侧发送的示例说明了以上实施例,但叠加信息的数据可以是在接收机侧上生成的OSD显示数据。
工业实用性
本发明适用于其中使用广播波或网络(诸如因特网)发送立体图像数据的立体图像数据发送/接收系统。
附图标记列表
10:图像发送/接收系统
100:广播站
110:发送数据生成单元
111:数据检索单元
111a:数据记录介质
112:视频编码器
113:视差信息编码器
114:音频编码器
115:图形生成单元
116:图形编码器
117:复用器
200:接收机
201:CPU
202:闪存ROM
203:DRAM
204:内部总线
205:遥控接收器
206:遥控发射器
210:天线端子
211:数字调谐器
212:传输流缓冲器(TS缓冲器)
213:解复用器
214:视频解码器
215:3D信号处理单元
216L、216R:视图缓冲器
217L、217R:视频叠加单元
218:图形解码器
219:图形生成单元
220:视差信息解码器
221L、221R:图形缓冲器
222:音频解码器
223:信道处理单元
Claims (18)
1.一种发送设备,包括:
发送单元,配置为发送具有预定格式且以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流的容器;
第一识别信息插入单元,配置为向所述容器中插入用于识别视频流是第一视频流还是第二视频流的第一识别信息;以及
第二识别信息插入单元,配置为向所述容器中插入用于识别是否已将第一识别信息插入到所述容器中的第二识别信息。
2.如权利要求1所述的发送设备,
其中所述第一识别信息插入单元将所述第一识别信息插入到所述容器的第一层中,并且
其中所述第二识别信息插入单元将所述第二识别信息插入到所述容器的第二层中,所述第二层高于所述第一层。
3.如权利要求2所述的发送设备,
其中所述第一层是视频层,并且所述第二层是高于所述视频层的层。
4.如权利要求3所述的发送设备,
其中所述容器是传输流,所述第一层是图片层和序列层之一,并所述第二层是传输层。
5.如权利要求4所述的发送设备,
其中所述第一识别信息插入单元将所述第一识别信息插入到所述视频流的图片头部和序列头部之一的用户数据区域中。
6.如权利要求4所述的发送设备,
其中所述视频流是MPEG2视频流。
7.如权利要求4所述的发送设备,
其中所述第二识别信息插入单元将所述第二识别信息插入到位于包括在所述传输流中的节目地图表的视频基本循环之下的描述符中。
8.如权利要求4所述的发送设备,
其中所述第二识别信息插入单元将所述第二识别信息插入到位于包括在所述传输流中的服务描述表和事件信息表中的一个之下的描述符中。
9.如权利要求1所述的发送设备,
其中当所述第一识别信息指示包括其中插入了三维图像数据的第二视频流时,所述第一识别信息还包括关于三维图像数据的格式信息。
10.如权利要求1所述的发送设备,还包括:
视差信息输出单元,配置为输出视差信息,
其中所述三维图像数据由左眼图像数据和右眼图像数据形成,
其中所述视差信息被用于向叠加在基于左眼图像数据的图像和基于右眼图像数据的图像上的相同叠加信息添加视差,并且
其中当所述发送单元发送包括所述第二视频流的容器时,所述发送单元还将从所述视差信息输出单元输出的视差信息存储在所述容器中。
11.一种发送方法,包括:
发送步骤,发送具有预定格式且以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流的容器;
第一识别信息插入步骤,向所述容器中插入用于识别视频流是所述第一视频流还是第二视频流的第一识别信息;以及
第二识别信息插入步骤,向所述容器中插入用于识别是否已将第一识别信息插入到所述容器中的第二识别信息。
12.一种接收设备,包括
接收单元,配置为接收具有预定格式的容器,该容器以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流、并包括用于识别视频流是第一视频流还是第二视频流的第一识别信息以及用于识别是否已经插入了所述第一识别信息的第二识别信息;
图像数据获取单元,配置为从由所述接收单元接收的容器获取图像数据;
第一识别信息获取单元,配置为从由所述接收单元接收的容器获取所述第二识别信息;
第二识别信息获取单元,配置为在由所述第一识别信息获取单元获取的第二识别信息指示已经插入了第一识别信息的情况下,从由所述接收单元接收的容器获取第一识别信息;以及
图像数据处理单元,配置为基于由所述第二识别信息获取单元获取的第一识别信息选择性地对由所述图像数据获取单元获取的图像数据执行二维图像处理和三维图像处理之一。
13.如权利要求12所述的接收设备,其中
如果由所述第一识别信息获取单元获取的第二识别信息指示还未插入第一识别信息,则所述图像处理单元对由所述接收单元接收的图像数据执行二维图像处理。
14.如权利要求12所述的接收设备,还包括:
叠加信息数据输出单元,配置为输出叠加信息的数据;以及
数据叠加单元,配置为将从所述叠加信息输出单元输出的叠加信息的数据叠加在从所述图像数据处理单元输出的图像数据上,
其中如果所述图像数据处理单元执行三维图像处理且输出构成三维图像数据的左眼图像数据和右眼图像数据,则所述数据叠加单元根据基于左眼图像数据的左眼图像与基于右眼图像数据的右眼图像之间的视差信息调整叠加从所述叠加信息数据输出单元输出的叠加信息的数据的位置,并将具有经调整的叠加位置的叠加信息的数据叠加在左眼图像数据和右眼图像数据中的每个上,并且
其中如果所述图像数据处理单元执行二维图像处理并输出二维图像数据,则所述数据叠加单元直接将从所述叠加信息数据输出单元输出的叠加信息的数据叠加在所述二维图像数据上。
15.如权利要求14所述的接收设备,还包括:
视差信息获取单元,
其中如果包括第二视频流,则用于向要被叠加在构成三维图像数据的左眼图像数据和右眼图像数据上的相同叠加信息添加视差的视差信息已被插入到了所述容器中,并且所述视差信息获取单元从所述容器获取所述视差信息,并且
其中如果所述图像数据处理单元执行三维图像处理且输出构成三维图像数据的左眼图像数据和右眼图像数据,则所述数据叠加单元基于由所述视差信息获取单元获取的视差信息调整叠加从所述叠加信息数据输出单元输出的叠加信息的数据的位置,并将具有经调整的叠加位置的叠加信息的数据叠加在左眼图像数据和所述右眼图像数据中的每个上。
16.一种接收方法,包括:
接收步骤,接收具有预定格式的容器,该容器以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流、并包括用于识别视频流是第一视频流还是第二视频流的第一识别信息以及用于识别是否已经插入了第一识别信息的第二识别信息;
图像数据获取步骤,从在所述接收步骤中接收的容器获取图像数据;
第一识别信息获取步骤,从在接收步骤中接收的容器中获取第二识别信息;
第二识别信息获取步骤,在所述第一识别信息获取步骤中获取的所述第二识别信息指示已经插入了第一识别信息的情况下,从所述容器获取所述第一识别信息;以及
图像数据处理步骤,基于在所述第二识别信息获取步骤中获取的第一识别信息选择性地对在所述图像数据获取步骤中获取的图像数据执行二维数据处理和三维数据处理之一。
17.一种发送设备,包括:
发送单元,配置为发送以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流的传输流;
第一识别信息插入单元,配置为向所述传输流的图片层中插入用于识别视频流是第一视频流还是第二视频流的第一识别信息;以及
第二识别信息插入单元,配置为向所述传输流的传输层中插入用于识别是否已插入所述第一识别信息的第二识别信息。
18.一种发送方法,包括:
当发送以时分复用的方式包括其中插入了二维图像数据的第一视频流和其中插入了三维图像数据的第二视频流的传输流时,
向所述传输流的图片层中插入用于识别视频流是第一视频流还是第二视频流的第一识别信息;并且
向所述传输流的传输层中插入用于识别是否已插入所述第一识别信息的第二识别信息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010102347A JP5577823B2 (ja) | 2010-04-27 | 2010-04-27 | 送信装置、送信方法、受信装置および受信方法 |
JP2010-102347 | 2010-04-27 | ||
PCT/JP2011/060196 WO2011136239A1 (ja) | 2010-04-27 | 2011-04-26 | 送信装置、送信方法、受信装置および受信方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102474643A true CN102474643A (zh) | 2012-05-23 |
Family
ID=44861537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011800025037A Pending CN102474643A (zh) | 2010-04-27 | 2011-04-26 | 发送设备、发送方法、接收设备以及接收方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9030526B2 (zh) |
EP (1) | EP2434767B1 (zh) |
JP (1) | JP5577823B2 (zh) |
KR (1) | KR20130014313A (zh) |
CN (1) | CN102474643A (zh) |
BR (1) | BRPI1105256A2 (zh) |
WO (1) | WO2011136239A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104903935A (zh) * | 2012-10-04 | 2015-09-09 | 株式会社吉奥技术研究所 | 立体视觉地图显示系统 |
WO2018033138A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 数据处理方法、装置和电子设备 |
CN108881877A (zh) * | 2017-05-12 | 2018-11-23 | 京东方科技集团股份有限公司 | 显示处理装置及其显示处理方法以及显示装置 |
CN110800305A (zh) * | 2017-07-10 | 2020-02-14 | 高通股份有限公司 | 用于鱼眼虚拟实境视频的增强型高阶信号发送 |
CN113037768A (zh) * | 2014-09-12 | 2021-06-25 | 索尼公司 | 发送设备、发送方法、接收设备和接收方法 |
WO2021174959A1 (en) * | 2020-03-02 | 2021-09-10 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for processing infrared data |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102484729B (zh) * | 2009-04-07 | 2016-08-24 | Lg电子株式会社 | 广播发送器、广播接收器及其3d视频数据处理方法 |
JP2011142585A (ja) * | 2010-01-08 | 2011-07-21 | Sony Corp | 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム |
KR101694821B1 (ko) | 2010-01-28 | 2017-01-11 | 삼성전자주식회사 | 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치 |
US9185386B2 (en) * | 2011-06-01 | 2015-11-10 | Panasonic Intellectual Property Management Co., Ltd. | Video processing device, transmission device, video processing system, video processing method, transmission method, computer program and integrated circuit |
KR102009049B1 (ko) | 2011-11-11 | 2019-08-08 | 소니 주식회사 | 송신 장치, 송신 방법, 수신 장치 및 수신 방법 |
JP2013110540A (ja) * | 2011-11-18 | 2013-06-06 | Sony Corp | 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法 |
JP2013126048A (ja) * | 2011-12-13 | 2013-06-24 | Sony Corp | 送信装置、送信方法、受信装置および受信方法 |
JPWO2013108531A1 (ja) * | 2012-01-19 | 2015-05-11 | ソニー株式会社 | 受信装置、受信方法および電子機器 |
JP5928118B2 (ja) * | 2012-04-16 | 2016-06-01 | ソニー株式会社 | 送信装置、送信方法、受信装置および受信方法 |
JP5789004B2 (ja) * | 2013-08-09 | 2015-10-07 | ソニー株式会社 | 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法 |
EP4318466A3 (en) * | 2014-09-04 | 2024-03-13 | Sony Group Corporation | Transmission device, transmission method, reception device and reception method |
JP2017147749A (ja) * | 2017-04-20 | 2017-08-24 | シャープ株式会社 | 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム |
US10575018B2 (en) | 2017-07-10 | 2020-02-25 | Qualcomm Incorporated | Enhanced high-level signaling for fisheye virtual reality video in dash |
JP7119425B2 (ja) | 2018-03-01 | 2022-08-17 | ソニーグループ株式会社 | 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 |
WO2019178850A1 (zh) | 2018-03-23 | 2019-09-26 | Oppo广东移动通信有限公司 | 无线通信方法、用户设备和网络设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002218502A (ja) * | 2001-01-22 | 2002-08-02 | Nippon Television Network Corp | 立体映像信号の伝送方法及び、そのシステム |
JP2004274125A (ja) * | 2003-03-05 | 2004-09-30 | Sony Corp | 画像処理装置および方法 |
JP2005006114A (ja) * | 2003-06-12 | 2005-01-06 | Sharp Corp | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
JP2005094145A (ja) * | 2003-09-12 | 2005-04-07 | Sharp Corp | 画像記録装置及び画像再生装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3157384B2 (ja) * | 1994-06-20 | 2001-04-16 | 三洋電機株式会社 | 立体映像装置 |
JP3066298B2 (ja) | 1995-11-15 | 2000-07-17 | 三洋電機株式会社 | 立体画像観察用眼鏡の制御方法 |
JP3784967B2 (ja) | 1998-07-21 | 2006-06-14 | 日本放送協会 | 立体画像表示方法および装置 |
JP2003045343A (ja) | 2001-08-03 | 2003-02-14 | Nippon Hoso Kyokai <Nhk> | 立体画像表示装置 |
JP2005094168A (ja) * | 2003-09-12 | 2005-04-07 | Sharp Corp | ファイル構造及びそれを用いる画像記録装置並びに画像再生装置 |
JP4602737B2 (ja) * | 2004-10-25 | 2010-12-22 | シャープ株式会社 | 映像表示装置 |
KR100657322B1 (ko) * | 2005-07-02 | 2006-12-14 | 삼성전자주식회사 | 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치 |
KR101488199B1 (ko) * | 2008-03-12 | 2015-01-30 | 삼성전자주식회사 | 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체 |
-
2010
- 2010-04-27 JP JP2010102347A patent/JP5577823B2/ja active Active
-
2011
- 2011-04-26 BR BRPI1105256A patent/BRPI1105256A2/pt not_active IP Right Cessation
- 2011-04-26 EP EP11775020.8A patent/EP2434767B1/en not_active Not-in-force
- 2011-04-26 US US13/377,237 patent/US9030526B2/en not_active Expired - Fee Related
- 2011-04-26 CN CN2011800025037A patent/CN102474643A/zh active Pending
- 2011-04-26 KR KR20117029346A patent/KR20130014313A/ko not_active Application Discontinuation
- 2011-04-26 WO PCT/JP2011/060196 patent/WO2011136239A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002218502A (ja) * | 2001-01-22 | 2002-08-02 | Nippon Television Network Corp | 立体映像信号の伝送方法及び、そのシステム |
JP2004274125A (ja) * | 2003-03-05 | 2004-09-30 | Sony Corp | 画像処理装置および方法 |
JP2005006114A (ja) * | 2003-06-12 | 2005-01-06 | Sharp Corp | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
JP2005094145A (ja) * | 2003-09-12 | 2005-04-07 | Sharp Corp | 画像記録装置及び画像再生装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104903935A (zh) * | 2012-10-04 | 2015-09-09 | 株式会社吉奥技术研究所 | 立体视觉地图显示系统 |
CN104903935B (zh) * | 2012-10-04 | 2017-03-15 | 株式会社吉奥技术研究所 | 立体视觉地图显示系统 |
CN113037768A (zh) * | 2014-09-12 | 2021-06-25 | 索尼公司 | 发送设备、发送方法、接收设备和接收方法 |
CN113037767A (zh) * | 2014-09-12 | 2021-06-25 | 索尼公司 | 发送设备、发送方法、接收设备和接收方法 |
WO2018033138A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 数据处理方法、装置和电子设备 |
CN108881877A (zh) * | 2017-05-12 | 2018-11-23 | 京东方科技集团股份有限公司 | 显示处理装置及其显示处理方法以及显示装置 |
US10681330B2 (en) | 2017-05-12 | 2020-06-09 | Boe Technology Group Co., Ltd. | Display processing device and display processing method thereof and display apparatus |
CN110800305A (zh) * | 2017-07-10 | 2020-02-14 | 高通股份有限公司 | 用于鱼眼虚拟实境视频的增强型高阶信号发送 |
WO2021174959A1 (en) * | 2020-03-02 | 2021-09-10 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for processing infrared data |
Also Published As
Publication number | Publication date |
---|---|
WO2011136239A1 (ja) | 2011-11-03 |
KR20130014313A (ko) | 2013-02-07 |
EP2434767A1 (en) | 2012-03-28 |
BRPI1105256A2 (pt) | 2016-05-03 |
JP5577823B2 (ja) | 2014-08-27 |
EP2434767A4 (en) | 2015-04-22 |
US9030526B2 (en) | 2015-05-12 |
JP2011234113A (ja) | 2011-11-17 |
EP2434767B1 (en) | 2019-04-24 |
US20120081516A1 (en) | 2012-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102474643A (zh) | 发送设备、发送方法、接收设备以及接收方法 | |
CA2758104C (en) | Broadcast transmitter, broadcast receiver and 3d video data processing method thereof | |
KR101972962B1 (ko) | 3d 비디오 포맷 | |
CA2760100C (en) | Broadcast transmitter, broadcast receiver and 3d video data processing method thereof | |
CN102415100B (zh) | 广播接收机及其3d视频数据处理方法 | |
KR101653319B1 (ko) | 3d 영상을 위한 영상 컴포넌트 송수신 처리 방법 및 장치 | |
CN102474657A (zh) | 图像数据发送装置、图像数据发送方法和图像数据接收装置 | |
US20140071232A1 (en) | Image data transmission device, image data transmission method, and image data reception device | |
CA2772927C (en) | Cable broadcast receiver and 3d video data processing method thereof | |
CN103416069A (zh) | 发送设备、发送方法、接收设备以及接收方法 | |
CN102388620A (zh) | 广播接收机和三维视频数据处理方法 | |
EP2725804A1 (en) | Image data transmission device, image data transmission method, image data reception device, and image data reception method | |
CN102812713A (zh) | 图像数据发送设备、图像数据发送方法、图像数据接收设备和图像数据接收方法 | |
US20140049606A1 (en) | Image data transmission device, image data transmission method, image data reception device, and image data reception method | |
WO2013069608A1 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
KR20140000136A (ko) | 화상 데이터 송신 장치, 화상 데이터 송신 방법, 화상 데이터 수신 장치 및 화상 데이터 수신 방법 | |
WO2013054775A1 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
JP5928118B2 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
CN103026725A (zh) | 图像数据发送设备、图像数据发送方法、图像数据接收设备以及图像数据接收方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20120523 |