JP5577823B2 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP5577823B2
JP5577823B2 JP2010102347A JP2010102347A JP5577823B2 JP 5577823 B2 JP5577823 B2 JP 5577823B2 JP 2010102347 A JP2010102347 A JP 2010102347A JP 2010102347 A JP2010102347 A JP 2010102347A JP 5577823 B2 JP5577823 B2 JP 5577823B2
Authority
JP
Japan
Prior art keywords
image data
identification information
information
video stream
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010102347A
Other languages
English (en)
Other versions
JP2011234113A (ja
Inventor
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010102347A priority Critical patent/JP5577823B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to KR20117029346A priority patent/KR20130014313A/ko
Priority to EP11775020.8A priority patent/EP2434767B1/en
Priority to US13/377,237 priority patent/US9030526B2/en
Priority to BRPI1105256A priority patent/BRPI1105256A2/pt
Priority to CN2011800025037A priority patent/CN102474643A/zh
Priority to PCT/JP2011/060196 priority patent/WO2011136239A1/ja
Publication of JP2011234113A publication Critical patent/JP2011234113A/ja
Application granted granted Critical
Publication of JP5577823B2 publication Critical patent/JP5577823B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

この発明は、送信装置、送信方法、受信装置および受信方法に関し、特に、2次元画像データが挿入されたビデオストリームおよび3次元画像データが挿入されたビデオストリームを時分割的に含むトランスポートストリームを送信する送信装置等に関する。
従来、立体映像を表示するシステムとして、様々なものが知られている。例えば、特許文献1〜3に記載されているように、視差を有する左眼画像および右眼画像を所定周期で交互にディスプレイに表示し、これら左眼画像および右眼画像を、その表示に同期して駆動される液晶シャッタを備えるシャッタメガネで観察する方法が知られている。
特開平9−138384号公報 特開2000−36969号公報 特開2003−45343号公報
テレビ番組などのコンテンツを放送局からユーザのテレビ受像機に送信することを想定した場合、画像データとして、3次元(3D)画像データと、2次元(2D)画像データを切り換えながら送信することが考えられる。例えば、番組本編については3次元画像データを送信し、CM(commercial message)については2次元画像データを送信するような場合が考えられる。この場合、放送局からは、2次元画像データが挿入されたビデオストリームおよび3次元画像データが挿入されたビデオストリームを時分割的に含むトランスポートストリームが送信されることになる。
この場合、ユーザ側のテレビ受像機において、トランスポートストリームに含まれているビデオストリームが、2次元画像データが挿入されたビデオストリームであるか、3次元画像データが挿入されたビデオストリームであるかを識別可能とすることが望まれる。すなわち、識別可能であれば、受信画像データに対して常に適切な処理を行うことが可能となる。
この発明の目的は、2次元画像データが挿入されたビデオストリームおよび3次元画像データが挿入されたビデオストリームが時分割的に含まれるトランスポートストリームを受信する受信側において、適切かつ効率的な処理を行い得るようにすることにある。
この発明の概念は、
2次元画像データが挿入された第1のビデオストリームおよび3次元画像データが挿入された第2のビデオストリームを時分割的に含む所定フォーマットのコンテナを送信する送信部と、
上記コンテナに、含まれているビデオストリームが上記第1のビデオストリームであるか上記第2のビデオストリームであるかを識別する第1の識別情報を挿入する第1の識別情報挿入部と、
上記コンテナに、上記第1の識別情報の挿入があるか否かを識別する第2の識別情報を挿入する第2の識別情報挿入部と
を備える送信装置にある。
この発明において、送信部により、2次元(2D)画像データが挿入された第1のビデオストリームおよび3次元(3D)画像データが挿入された第2のビデオストリームを時分割的に含む所定フォーマットのコンテナが送信される。コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG−2 TS)、インターネット配信で使用されているMP4などの種々のフォーマットのコンテナが該当する。ビデオストリームとしては、MPEG2videoの符号化方式の他に、例えば、VC−1やMPEG4−visual、その他の符号化方式によるビデオストリームが該当する。
第1の識別情報挿入部により、コンテナに、ビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別する第1の識別情報が挿入される。なお、第1の識別情報は、例えば、3次元画像データが挿入された第2のビデオストリームが含まれていることを示す場合には、3次元画像データのフォーマット情報をさらに含む、ようにされる。また、第2の識別情報挿入部により、コンテナに、第1の識別情報の挿入があるか否かを識別する第2の識別情報が挿入される。
この発明において、例えば、第1の識別情報挿入部は、第1の識別情報をコンテナの第1のレイヤに挿入し、第2の識別情報挿入部は、第2の識別情報をコンテナの第1のレイヤより上位の第2のレイヤに挿入する、ようにされる。例えば、第1のレイヤはビデオのレイヤであり、第2のレイヤはビデオのレイヤよりも上位のレイヤである。
ここで、例えば、コンテナがトランスポートストリームであるとき、第1のレイヤはピクチャレイヤまたはシーケンスレイヤであり、第2のレイヤはトランスポートレイヤである。この場合、第1の識別情報は、ビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に挿入される。また、この場合、第2の識別情報は、例えば、トランスポートストリームに含まれるプログラム・マップ・テーブルのビデオエレメンタリ・ループの配下の記述子に挿入される。あるいは、第2の識別情報は、例えば、トランスポートストリームに含まれるサービス・デスクリプション・テーブルまたはイベント・インフォメーション・テーブルの配下の記述子に挿入される。
このように、この発明においては、コンテナに、このコンテナに含まれているビデオストリームが、2次元画像データが挿入されたビデオストリームであるか、3次元画像データが挿入されたビデオストリームであるかを識別する第1の識別情報が挿入される。そのため、受信側において、この第1の識別情報に基づいて、受信画像データが2次元画像データであるか3次元画像データであるかを容易に把握でき、受信画像データが2次元画像データから3次元画像データ、あるいはこの逆に時分割的に切り替わる場合であっても常に適切な処理を行うことができる。
また、この発明においては、コンテナに、第1の識別情報の挿入があるか否かを識別する第2の識別情報が挿入される。そのため、受信側においては、この第2の識別情報が第1の識別情報の挿入があることを示す場合のみ、第1の識別情報を取得して、受信画像データに対する処理を、この第1の識別情報に基づいて適切な処理に切り換えることが可能となる。つまり、受信側においては、第2の識別情報が第1の識別情報の挿入がないことを示す場合には、第1の識別情報を取得してその内容を監視する処理を省略でき、効率的な処理が可能となる。
また、この発明において、例えば、3次元画像データは左眼画像データおよび右眼画像データにより構成され、左眼画像データおよび右眼画像データによる画像に重畳する同一の重畳情報に視差を付与するための視差情報を出力する視差情報出力部をさらに備え、送信部は、第2のビデオストリームを含むコンテナを送信する際に、このコンテナに、視差情報出力部から出力される視差情報をさらに含める、ようにされる。
この場合、3次元画像データと共に、この3次元画像データに対応した視差情報が送信されるので、受信側において、左眼画像データおよび右眼画像データに重畳される重畳情報のデータは、それぞれ、視差情報に基づいて重畳位置が調整されたものとなる。そのため、重畳情報の表示において、立体画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、この発明の他の概念は、
2次元画像データが挿入された第1のビデオストリームおよび3次元画像データが挿入された第2のビデオストリームが時分割的に含まれ、さらに、ビデオストリームが上記第1のビデオストリームであるか上記第2のビデオストリームであるかを識別する第1の識別情報と、該第1の識別情報の挿入があるか否かを識別する第2の識別情報とが挿入されている所定フォーマットのコンテナを受信する受信部と、
上記受信部で受信されたコンテナから画像データを取得する画像データ取得部と、
上記受信部で受信されたコンテナから上記第2の識別情報を取得する第1の識別情報取得部と、
上記第1の識別情報取得部で取得された上記第2の識別情報が上記第1の識別情報の挿入があることを示すとき、上記コンテナから上記第1の情報を取得する第2の識別情報取得部と、
上記画像データ取得部で取得された画像データに対して、上記第2の識別情報取得部で取得された上記第1の識別情報に基づいて、2次元画像処理または3次元画像処理を選択的に行う画像データ処理部と
を備える受信装置にある。
この発明において、受信部により、2次元画像データが挿入された第1のビデオストリームおよび3次元画像データが挿入された第2のビデオストリームが時分割的に含まれる所定フォーマットのコンテナが受信される。このコンテナには、さらに、ビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別する第1の識別情報と、この第1の識別情報の挿入があるか否かを識別する第2の識別情報とが挿入されている。コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG−2 TS)、インターネット配信で使用されているMP4などの種々のフォーマットのコンテナが該当する。ビデオストリームとしては、MPEG2videoの符号化方式の他に、例えば、VC−1やMPEG4−visual、その他の符号化方式によるビデオストリームが該当する。
画像データ取得部により、受信部で受信されたコンテナから画像データが取得される。この場合、コンテナに第1のビデオストリームが含まれているとき、この取得画像データは2次元画像データとなる。また、コンテナに第2のビデオストリームが含まれているとき、この取得画像データは3次元画像データとなる。
第1の識別情報取得部により、受信部で受信されたコンテナから第2の識別情報が取得される。また、この第2の識別情報が第1の識別情報の挿入があることを示すとき、第1の識別情報取得部により、第1の識別情報が取得される。そして、画像データ処理部により、画像データ取得部で取得された画像データに対して、第1の識別情報に基づいて、2次元画像処理または3次元画像処理が選択的に行われる。
上述したように、第1の識別情報は、コンテナに含まれているビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別するための識別情報である。そのため、画像データ処理部では、第1の識別情報が第1のビデオストリームであることを示すとき、画像データ取得部で取得された2次元画像データに対して2次元画像処理が行われる。また、画像データ処理部では、第1の識別情報が第2のビデオストリームであることを示すとき、画像データ取得部で取得された3次元画像データに対して3次元画像処理が行われる。
このように、この発明においては、コンテナから、ビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別するための第1の識別情報が取得される。そして、画像データ処理部では、受信画像データに対して、この第1の情報に基づいて、2次元画像処理または3次元画像処理が選択的に行われる。そのため、受信画像データが2次元画像データから3次元画像データ、あるいはこの逆に時分割的に切り替わる場合であっても、常に適切な処理を行うことができる。
また、この発明においては、コンテナから第1の識別情報の挿入があるか否かを識別する第2の識別情報が取得され、この第2の識別情報が第1の識別情報の挿入があることを示す場合のみ、第1の識別情報が取得され、データ処理部では、この第1の識別情報に基づいて、受信画像データに対して適切な処理が行われる。つまり、第2の識別情報が第1の識別情報の挿入がないことを示す場合は、第1の識別情報を取得してその内容を監視する処理を省略でき、効率的な処理が可能となる。
また、この発明において、例えば、画像データ処理部は、第1の識別情報取得部で取得される第2の識別情報が第1の識別情報の挿入がないことを示すとき、受信部で受信された画像データに対して、2次元画像処理を行う、ようにされる。
また、この発明において、例えば、重畳情報のデータを出力する重畳情報データ出力部と、画像データ処理部から出力される画像データに、重畳情報出力部から出力される重畳情報のデータを重畳するデータ重畳部をさらに備え、データ重畳部は、画像データ処理部で3次元画像処理が行われて3次元画像データを構成する左眼画像データおよび右眼画像データが出力されるとき、左眼画像データによる左眼画像と右眼画像データによる右眼画像との間の視差情報に基づいて、重畳情報データ出力部から出力される重畳情報のデータの重畳位置を調整し、この重畳位置が調整された重畳情報のデータを上記左眼画像データおよび上記右眼画像データに重畳し、画像データ処理部で2次元画像処理が行われて2次元画像データが出力されるとき、この2次元画像データに、重畳情報データ出力部から出力される重畳情報のデータをそのまま重畳する、ようにされる。
この場合、立体画像データを構成する左眼画像データおよび右眼画像データに重畳される重畳情報のデータは、それぞれ、視差情報に基づいて重畳位置が調整されたものとなる。そのため、重畳情報の表示において、立体画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
そして、この発明において、例えば、コンテナには、第2のビデオストリームが含まれる場合、3次元画像データを構成する左眼画像データおよび右眼画像データによる画像に重畳する同一の重畳情報に視差を付与するための視差情報が挿入されており、コンテナから視差情報を取得する視差情報取得部をさらに備え、データ重畳部は、画像データ処理部で3次元画像処理が行われて3次元画像データを構成する左眼画像データおよび右眼画像データが出力されるとき、視差情報取得部で取得された視差情報に基づいて、重畳情報データ出力部から出力される重畳情報のデータの重畳位置を調整し、この重畳位置が調整された重畳情報のデータを左眼画像データおよび右眼画像データに重畳する、ようにされる。この場合、受信側で、例えば、左眼画像データおよび右眼画像データを処理して視差情報を得る必要がなく、重畳情報のデータの重畳位置の調整を簡単かつ適切に行うことができる。
この発明によれば、コンテナに、2次元画像データが挿入された第1のビデオストリームが含まれているか3次元画像データが挿入された第2のビデオストリームが含まれているかを識別する第1の識別情報と、この第1の識別情報の挿入があるか否かを識別する第2の識別情報とが挿入される。そのため、このコンテナを受信する受信側において、適切かつ効率的な処理を行うことができる。
この発明の第1の実施の形態としての画像送受信システムの構成例を示すブロック図である。 画像送受信システムを構成する放送局の送信データ生成部の構成例を示すブロック図である。 第1の識別情報および第2の識別情報が挿入されたトランスポートストリームTSの構成例を示す図である。 ビデオエレメンタリストリーム(ビデオストリーム)の構造を概略的に示した図である。 3Dシグナリング情報(Stereo_Video_Format_Signaling())を含むユーザデータ(userdata)の構造(syntax)の一例を示す図である。 3Dシグナリング情報(Stereo_Video_Format_Signaling())の構造例(syntax)を示す図である。 3Dシグナリング情報と、この3Dシグナリング情報を含むユーザデータのデータ規定内容(semantics)を示す図である。 サイド・バイ・サイド(Side by Side)およびトップ・アンド・ボトム(Top & Bottom)の具体的な画面分割方法の一例を示す図である。 ビデオ・ストリーム・デスクリプタ(Video_stream_descriptor)の構造例(syntax)を示す図である。 ビデオストリームのピクチャヘッダのユーザデータ領域に、3Dシグナリング情報が挿入されている状態、つまりピクチャ単位で3Dシグナリング情報が挿入されている状態の一例を示す図である。 ビデオストリームのシーケンスヘッダのユーザデータ領域に、3Dシグナリング情報が挿入されている状態、つまりシーケンス単位で3Dシグナリング情報が挿入されている状態の一例を示す図である。 画像送受信システムを構成する受信機の構成例を示すブロック図である。 第1の識別情報および第2の識別情報に基づくCPUの制御処理の手順の一例を示すフローチャートである。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[画像送受信システム]
図1は、実施の形態としての画像送受信システム10の構成例を示している。この画像送受信システム10は、放送局100および受信機200により構成されている。放送局100は、第1のビデオストリーム(エレメンタリストリーム)および第2のビデオストリーム(エレメンタリストリーム)を時分割的に含むトランスポートストリーム(ビットストリームデータ)TSを、放送波に載せて送信する。ここで、トランスポートストリームはコンテナを構成している。第1のビデオストリームには、2次元(2D)画像データが挿入されている。また、第2のビデオストリームには、3次元(3D)画像データが挿入されている。ここで、ビデオストリームは、MPEG2(Moving Picture Experts Group phase 2)ビデオストリームである。
トランスポートストリームTSには、第1の識別情報および第2の識別情報が挿入されている。第1の識別情報は、トランスポートストリームTSに含まれているビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別する識別情報である。第2の識別情報は、第1の識別情報の挿入があるか否かを識別する識別情報である。ここで、第1の識別情報はトランスポートストリームTSの第1のレイヤに挿入され、第2の識別情報はトランスポートストリームTSの第2のレイヤに挿入される。
第2のレイヤは、第1のレイヤより上位のレイヤである。例えば、第1のレイヤはピクチャレイヤまたはシーケンスレイヤとされ、第2のレイヤはトランスポートレイヤとされる。この実施の形態において、第1の識別情報は、ビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に挿入される。また、第2の識別情報は、トランスポートストリームTSに含まれるプログラム・マップ・テーブル(PMT:Program Map Table)のビデオエレメンタリ・ループ(Video ESloop)の配下に挿入される。
受信機200は、放送局100から放送波に載せて送られてくるトランスポートストリームTSを受信する。受信機200は、受信されたトラスポートストリームTSから、画像データを取得する。また、受信機200は、受信されたトランスポートストリームTSから、第2の識別情報を取得する。さらに、受信機200は、第2の識別情報が第1の識別情報の挿入があることを示すとき、トランスポートストリームTSから第1の識別情報を取得する。
この第1の識別情報は、上述したように、トランスポートストリームTSに含まれているビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別する識別情報である。受信機200は、この第1の識別情報に基づいて、受信画像データに対して、2次元画像処理または3次元画像処理を、選択的に行う。
すなわち、受信機200は、第1の識別情報が第1のビデオストリームであることを示すとき、受信画像データ(2次元画像データ)に対して2次元画像処理を行って、2次元画像データを得る。また、受信機200は、第1の識別情報が第2のビデオストリームであることを示すとき、受信画像データ(3次元画像データ)に対して3次元画像処理を行って、立体画像を表示するための左眼画像データおよび右眼画像データを得る。
なお、受信機200は、第2の識別情報が第1の識別情報の挿入がないことを示すとき、トランスポートストリームTSから第1の識別情報を取得する処理を行わない。このとき、受信機200は、受信画像データ(2次元画像データ)に対して2次元画像処理を行って、2次元画像データを得る。
「送信データ生成部の構成例」
図2は、放送局100において、上述したトランスポートストリームTSを生成する送信データ生成部110の構成例を示している。この送信データ生成部110は、データ取り出し部(アーカイブ部)111と、ビデオエンコーダ112と、視差情報エンコーダ113と、オーディオエンコーダ114を有している。また、この送信データ生成部110は、グラフィクス発生部115と、グラフィクスエンコーダ116と、マルチプレクサ117を有している。
データ取り出し部111には、データ記録媒体111aが、例えば、着脱自在に装着される。このデータ記録媒体111aには、トランスポートストリームTSで送信する所定番組の画像データと共に、この画像データに対応した音声データが記録されている。例えば、画像データは、番組に応じて、3次元(3D)画像データあるいは2次元(2D)画像データに切り替わる。また、例えば、画像データは、番組内においても、本編やコマーシャルなどの内容に応じて、3次元画像データあるいは2次元画像データに切り替わる。
3次元画像データは、左眼画像データおよび右眼画像データにより構成されている。3次元画像データの伝送フォーマットは、例えば、サイド・バイ・サイド(Side By Side)あるいはトップ・アンド・ボトム(Top &Bottom)とされる。サイド・バイ・サイドの伝送フォーマットでは、例えば、水平方向の前半では左眼画像データのピクセルデータが伝送され、水平方向の後半では右眼画像データのピクセルデータが伝送される。また、トップ・アンド・ボトムの伝送フォーマットでは、例えば、垂直方向の前半では左眼画像データの各ラインのデータが伝送され、垂直方向の後半では右眼画像データの各ラインのデータが伝送される。
画像データが3次元画像データである場合、このデータ記録媒体111aには、この3次元画像データに対応付けて、視差情報も記録されている。この視差情報は、左眼画像と右眼画像との間の視差を示す視差ベクトル、あるいは奥行きデータ等である。奥行きデータは、所定の変換により視差ベクトルとして扱うことが可能となる。視差情報は、例えば、ビュー(画像)を所定数に分割して得られた各分割領域の視差情報である。この視差情報は、受信側において、左眼画像および右眼画像にそれぞれ重畳する同一の重畳情報(グラフィクス情報等)の位置を調整して視差を付与するために用いられる。データ記録媒体111aは、ディスク状記録媒体、半導体メモリ等である。データ取り出し部111は、データ記録媒体111aから、画像データ、音声データ、視差情報等を取り出して出力する。
ビデオエンコーダ112は、データ取り出し部111から出力される画像データに対して、MPEG2の符号化を施して符号化ビデオデータを得る。また、このビデオエンコーダ112は、後段に備えるストリームフォーマッタ(図示せず)により、画像データが2次元画像データであるときは、この2次元画像データが挿入されたビデオエレメンタリストリーム(第1のビデオストリーム)を生成する。また、画像データが3次元画像データであるときは、この3次元画像データが挿入されたビデオエレメンタリストリーム(第2のビデオストリーム)を生成する。
視差情報エンコーダ113は、データ取り出し部111から出力される視差情報を含む視差情報エレメンタリストリームを生成する。オーディオエンコーダ114は、データ取り出し部111から出力される音声データに対して、MPEG−2Audio AAC等の符号化を施し、オーディオのエレメンタリストリームを生成する。
グラフィクス発生部115は、画像に重畳するグラフィクス情報(サブタイトル情報も含む)のデータ(グラフィクスデータ)を発生する。グラフィクスエンコーダ116は、グラフィクス発生部115で発生されたグラフィクスデータを含むグラフィクスエレメンタリストリームを生成する。ここで、グラフィクス情報は、重畳情報を構成している。
グラフィクス情報は、例えば、ロゴなどである。サブタイトル情報は、例えば、字幕である。このグラフィクスデータは、ビットマップデータである。このグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。このアイドリングオフセット情報は、例えば、画像の左上の原点から、グラフィクス情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、字幕データをビットマップデータとして伝送する規格は、ヨーロッパのデジタル放送規格であるDVBで「DVB_Subtitling」として規格化され、運用されている。
マルチプレクサ117は、ビデオエンコーダ112、視差情報エンコーダ113、オーディオエンコーダ114およびグラフィクスエンコーダ116で生成された各エレメンタリストリームをパケット化して多重し、トランスポートストリームTSを生成する。
このトランスポートストリームTSは、データ取り出し部111から2次元画像データが出力される所定番組の期間、あるいは番組内の所定期間は、この2次元画像データが挿入されたビデオエレメンタリストリーム(第1のビデオストリーム)を含むものとなる。また、このトランスポートストリームTSは、データ取り出し部111から3次元画像データが出力される所定番組の期間、あるいは番組内の所定期間は、この3次元画像データが挿入されたビデオエレメンタリストリーム(第2のビデオストリーム)を含むものとなる。
マルチプレクサ117は、このトランスポートストリームTSに、上述した、第1の識別情報および第2の識別情報を挿入する。これにより、このトランスポートストリームTSは、第1、第2の識別情報を有するものとなる。第1の識別情報は、上述したように、トランスポートストリームTSに含まれているビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別する識別情報である。また、第2の識別情報は、第1の識別情報の挿入があるか否かを識別する識別情報である。マルチプレクサ117における第1、第2の識別情報の挿入の詳細説明は後述する。
図2に示す送信データ生成部110の動作を簡単に説明する。データ取り出し部111から出力される画像データ(3次元画像データあるいは2次元画像データ)は、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、その画像データに対してMPEG2の符号化が施され、符号化ビデオデータを含むビデオエレメンタリストリーム(MPEG2ビデオストリーム)が生成される。
この場合、画像データが2次元画像データであるときは、この2次元画像データが挿入されたビデオエレメンタリストリーム(第1のビデオストリーム)が生成される。また、画像データが3次元画像データであるときは、この3次元画像データが挿入されたビデオエレメンタリストリーム(第2のビデオストリーム)が生成される。このようにビデオエンコーダ112で生成されたビデオエレメンタリストリームは、マルチプレクサ117に供給される。
また、データ取り出し部111から3次元画像データが出力されるとき、このデータ取り出し部111からその3次元画像データに対応した視差情報も出力される。この視差情報は、視差情報エンコーダ113に供給される。視差情報エンコーダ113では、視差情報に対して所定の符号化が施され、符号化データを含む視差情報エレメンタリストリームが生成される。この視差情報エレメンタリストリームはマルチプレクサ117に供給される。
また、データ取り出し部111から画像データが出力されるとき、このデータ取り出し部111からその画像データに対応した音声データも出力される。この音声データは、オーディオエンコーダ114に供給される。このオーディオエンコーダ114では、音声データに対して、MPEG−2Audio AAC等の符号化が施され、符号化オーディオデータを含むオーディオエレメンタリストリームが生成される。このオーディオエレメンタリストリームはマルチプレクサ117に供給される。
また、データ取り出し部111から出力される画像データに対応してグラフィクス発生部115では、画像(ビュー)に重畳するグラフィクス情報(サブタイトル情報を含む)のデータ(グラフィクスデータ)が発生される。このグラフィクスデータは、グラフィクスエンコーダ116に供給される。グラフィクスエンコーダ116では、このグラフィクスデータに対して所定の符号化が施され、符号化データを含むグラフィクスエレメンタリストリームが生成される。このグラフィクスエレメンタリストリームはマルチプレクサ117に供給される。
マルチプレクサ117では、各エンコーダから供給されるエレメンタリストリームがパケット化されて多重され、トランスポートストリームTSが生成される。このストリームTSには、データ取り出し部111から2次元画像データが出力される所定番組の期間、あるいは番組内の所定期間、この2次元画像データが挿入されたビデオエレメンタリストリーム(第1のビデオストリーム)が含まれる。また、このストリームTSには、データ取り出し部111から3次元画像データが出力される所定番組の期間、あるいは番組内の所定期間、この3次元画像データが挿入されたビデオエレメンタリストリーム(第2のビデオストリーム)が含まれる。
また、マルチプレクサ117では、トランスポートストリームTSに、ビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別する第1の識別情報が挿入される。また、マルチプレクサ117では、トランスポートストリームTSに、第1の識別情報の挿入があるか否かを識別する第2の識別情報が挿入される。
[第1、第2の識別情報とその挿入]
上述したように、マルチプレクサ117は、トランスポートストリームTSに、第1、第2の識別情報を挿入する。マルチプレクサ117は、第1の識別情報を、ピクチャレイヤまたはシーケンスレイヤに挿入する。すなわち、この実施の形態において、マルチプレクサ117は、ビデオエレメンタリストリーム(ビデオストリーム)のピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に、第1の識別情報を挿入する。具体的には、マルチプレクサ117は、そのユーザデータ領域に、第1の識別情報を含む3Dシグナリング情報(Stereo_Video_Format_Signaling())を挿入する。
また、マルチプレクサ117は、第2の識別情報を、トランスポートレイヤに挿入する。すなわち、この実施の形態において、マルチプレクサ117は、トランスポートストリームTSに含まれるプログラム・マップ・テーブル(PMT:Program Map Table)のビデオエレメンタリ・ループ(Video ESloop)の配下に、第2の識別情報を挿入する。具体的には、マルチプレクサ117は、ビデオエレメンタリ・ループの配下に、第2の識別情報を含むビデオ・ストリーム・デスクリプタ(Video_stream_descriptor())を挿入する。
図3は、トランスポートストリームTSの構成例を示している。この構成例では、ビデオエレメンタリストリームのPESパケット「Video PES」が含まれている。また、トランスポートストリームTSには、PSI(ProgramSpecific Information)として、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。また、トランスポートストリームには、イベント単位の管理を行うSI(Serviced Information)としてのEIT(EventInformation Table)が含まれている。
PMTには、プログラム全体に関連する情報を記述するプログラム・デスクリプタ(Program Descriptor)が存在する。また、このPMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ(Video ES loop)が存在する。このエレメンタリ・ループには、ストリーム毎に、パケット識別子(PID)、ストリームタイプ(Stream_Type)等の情報が配置されると共に、そのエレメンタリストリームに関連する情報を記述するデスクリプタも配置される。なお、この構成例では、図面の簡単化のために、視差情報、オーディオ、およびグラフィクスなどに関しては、その図示を省略している。
この構成例では、ビデオエレメンタリストリームのユーザデータ領域に、3Dシグナリング情報(Stereo_Video_Format_Signaling())が挿入されている。また、この構成例では、PMTのビデオエレメンタリ・ループ(Video ES loop)に、ビデオエレメンタリストリームに関連する情報を記述するデスクリプタとして、ビデオ・ストリーム・デスクリプタ(Video_stream_descriptor)が挿入されている。
図4は、ビデオエレメンタリストリーム(Video Elementary Stream)の構造例を概略的に示している。ビデオエレメンタリストリームには、先頭に、シーケンス単位(GOP単位)のパラメータを含むシーケンスヘッダ部が配置されている。このシーケンスヘッダ部に続いて、ピクチャ単位のパラメータおよびユーザデータを含むピクチャヘッダが配置されている。このピクチャヘッダ部に続いてピクチャーデータを含むペイロード部が配置される。以下、ピクチャヘッダ部およびペイロード部が繰り返し配置されている。
上述したように、第1の識別情報を含む3Dシグナリング情報(Stereo_Video_Format_Signaling())は、ビデオエレメンタリストリーム(ビデオストリーム)のピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に挿入される。図5は、3Dシグナリング情報(Stereo_Video_Format_Signaling())を含むユーザデータ(userdata)の構造(syntax)の一例を示している。開始コード(user_data_start_code)の後のデータ識別子が、3Dシグナリング情報識別子(Stereo_Video_Format_Signaling_identifier)であるとき、その後のデータ本体として、3Dシグナリング情報が配置される。
図6は、3Dシグナリング情報(Stereo_Video_Format_Signaling())の構造例(syntax)を示している。図7は、3Dシグナリング情報と、この3Dシグナリング情報を含むユーザデータのデータ規定内容(semantics)を示している。「Stereo_Video_Format_Signaling_identifier」として、4バイト(32ビット)のユニークな識別子が割り当てられる。「Stereo_Video_Format_Signaling_Length」は、3Dシグナリング情報の長さ(サイズ)を示す8ビットのデータである。このデータは、デスクリプタの長さとして、このデータ以降のバイト数を示す。
「Stereo_Video_Format_Signaling_type」は、第1の識別情報を構成する7ビットのデータである。7ビットのデータが“0000011”であるとき、ビデオストリームに挿入されている画像データが3次元(3D)画像データであり、その伝送フォーマットがサイド・バイ・サイドであることを示す。また、7ビットのデータが“0000100”であるとき、ビデオストリームに挿入されている画像データが3次元画像データであり、その伝送フォーマットがトップ・アンド・ボトムであることを示す。さらに、7ビットのデータが“0001000”であるとき、ビデオストリームに挿入されている画像データが2次元(2D)画像データであることを示す。
ここで、サイド・バイ・サイド(Side by Side)とは、左眼用および右眼用の画像を水平方向にのみ1/2に縮小して、1画面の左右に配置した方式のことを指す。この場合、例えば、2画面画像は、視聴者から見て左側の画像が左眼用、右側の画像が右眼用であるとする。また、例えば、2画面画像の境界は、1走査線当たりの有効標本化数の1/2の標本位置であるとする。図8に、具体的な画面分割方法の一例を示している。例えば、2画面間で縮小時の標本化位置は同一のものとし、走査線間で固定とする運用を主眼とする。
また、トップ・アンド・ボトム(Top & Bottom)とは、左眼用および右眼用の画像を垂直方向にのみ1/2に縮小して、1画面の上下に配置した方式のことを指す。この場合、例えば、2画面画像は、視聴者から見て上側の画像が左眼用、下側の画像が右眼用であるとする。また、例えば、2画面画像の境界は、1有効画面の垂直方向ライン数の1/2の位置であるとする。図8に、具体的な画面分割方法の一例を示している。
上述したように、「Stereo_Video_Format_Signaling_type」の7ビットのデータにより、ビデオストリームに挿入されている画像データが3次元画像データであるか2次元画像データであるかを識別できる。したがって、この7ビットのデータにより、トランスポートストリームTSに含まれるビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別することが可能となる。
なお、2次元画像と3次元画像との切り換えを行う場合、ピクチャデータ(Picture data())が切り替わるフレームと、3Dシグナリング情報(Stereo_Video_Format_Signaling())が切り替わるフレームとを一致させることとする。
図9は、ビデオ・ストリーム・デスクリプタ(Video_stream_descriptor())の構造例(syntax)を示している。このデスクリプタ自体は、既にMPEG2の規格に入っている。ここでは、このビデオ・ストリーム・デスクリプタに、「3DFormat_Signaling_existed」の1ビットのフラグデータを新たに定義する。このフラグデータは、第2の識別情報を構成している。“1”は、ビデオストリームのユーザデータ領域に3Dシグナリング情報が挿入されていることを示す。また、“0”は、ビデオストリームのユーザデータ領域に3Dシグナリング情報が挿入されていないことを示す。
図10は、ビデオストリームのピクチャヘッダのユーザデータ領域に、3Dシグナリング情報が挿入されている状態、つまりピクチャ単位で3Dシグナリング情報が挿入されている状態の一例を示している。この例では、番組本編については3次元(3D)画像データが送信され、CM(commercial message)については2次元(2D)画像データが送信されている。そして、このピクチャヘッダのユーザデータ領域へのシグナリング情報の挿入に対応して、「3DFormat_Signaling_existed」の1ビットのフラグデータは“1”とされている。
図11は、ビデオストリームのシーケンスヘッダのユーザデータ領域に、3Dシグナリング情報が挿入されている状態、つまりシーケンス単位で3Dシグナリング情報が挿入されている状態の一例を示している。この例では、このシーケンスヘッダのユーザデータ領域へのシグナリング情報の挿入に対応して、「3DFormat_Signaling_existed」の1ビットのフラグデータは“1”とされている。
「受信機の構成例」
図12は、受信機200の構成例を示している。この受信機200は、CPU201と、フラッシュROM202と、DRAM203と、内部バス204と、リモコン受信部205と、リモコン送信機206を有している。また、この受信機200は、アンテナ端子210と、デジタルチューナ211と、トランスポートストリームバッファ(TSバッファ)212と、デマルチプレクサ213を有している。
また、受信機200は、ビデオデコーダ214と、3D信号処理部215と、ビューバッファ216L,216Rと、ビデオ重畳部217L,217Rを有している。さらに、受信機200は、グラフィクスデコーダ218と、グラフィクス発生部219と、視差情報デコーダ220と、グラフィクスバッファ221L,221Rと、オーディオデコーダ222と、チャネル処理部223を有している。
CPU201は、受信機200の各部の動作を制御する。フラッシュROM202は、制御ソフトウェアの格納およびデータの保管を行う。DRAM203は、CPU201のワークエリアを構成する。CPU201は、フラッシュROM202から読み出したソフトウェアやデータをDRAM203上に展開してソフトウェアを起動させ、受信機200の各部を制御する。リモコン受信部205は、リモコン送信機206から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU201に供給する。CPU201は、このリモコンコードに基づいて、受信機200の各部を制御する。CPU201、フラッシュROM202およびDRAM203は内部バス204に接続されている。
アンテナ端子210は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ211は、アンテナ端子210に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のトランスポートストリーム(ビットストリームデータ)TSを出力する。トランスポートストリームバッファ(TSバッファ)212は、デジタルチューナ211から出力されたトランスポートストリームTSを一時的に蓄積する。
このトランスポートストリームTSには、上述したように、2次元画像データが挿入された第1のビデオストリーム(エレメンタリストリーム)および3次元画像データが挿入された第2のビデオストリーム(エレメンタリストリーム)が時分割的に含まれている。また、このトランスポートストリームTSには、第1の識別情報および第2の識別情報が挿入されている(図3参照)。第1の識別情報は、ビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別する識別情報である。第2の識別情報は、第1の識別情報の挿入があるか否かを識別する識別情報である。
トランスポートストリームTSに含まれる第1のビデオストリームおよび第2のビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に、3Dシグナリング情報(Stereo_Video_Format_Signaling())が挿入されている。この3Dシグナリング情報には、第1の識別情報としての、「Stereo_Video_Format_Signaling_type」の7ビットのデータが含まれている(図6参照)。
また、トランスポートストリームTSに含まれるプログラム・マップ・テーブル(PMT:Program Map Table)のビデオエレメンタリ・ループ(Video ESloop)の配下に、ビデオ・ストリーム・デスクリプタ(Video_stream_descriptor())が挿入されている。このデスクリプタには、第2の識別情報としての、「3DFormat_Signaling_existed」の1ビットのフラグデータが含まれている(図9参照)。
デマルチプレクサ213は、TSバッファ212に一時的に蓄積されたトランスポートストリームTSから、ビデオ、視差情報、グラフィクスおよびオーディオの各エレメンタリストリームを抽出する。視差情報エレメンタリストリームは、トランスポートストリームTSに含まれるビデオストリーム(ビデオエレメンタリストリーム)が、3次元(3D)画像データが挿入された第2のビデオストリームである場合のみ抽出される。
また、デマルチプレクサ213は、トランスポートストリームTSからプログラム・マップ・テーブル(PMT)を抽出し、このテーブルの情報をCPU201に供給する。上述したように、このテーブルには、第2の識別情報としての「3DFormat_Signaling_existed」の1ビットのフラグデータを有するビデオ・ストリーム・デスクリプタ(Video_stream_descriptor())も含まれている。CPU201は、この「3DFormat_Signaling_existed」の1ビットのフラグデータに基づいて、ビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に、3Dシグナリング情報(Stereo_Video_Format_Signaling())の挿入があるか否かを識別する。
ビデオデコーダ214は、上述の送信データ生成部110のビデオエンコーダ112とは逆の処理を行う。すなわち、このビデオデコーダ214は、デマルチプレクサ213で抽出されたビデオエレメンタリストリーム(ビデオストリーム)に含まれる符号化画像データに対して復号化処理を行って復号化された画像データを得る。
また、このビデオデコーダ214は、ビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に含まれているユーザデータ(userdata)を抽出し、このユーザデータをCPU201に供給する。上述したように、このユーザデータには、第1の識別情報としての「Stereo_Video_Format_Signaling_type」の7ビットのデータを有する3Dシグナリング情報(Stereo_Video_Format_Signaling())も含まれている。
第2の識別情報としての「3DFormat_Signaling_existed」の1ビットのフラグデータが“1”であるとき、第1の識別情報としての「Stereo_Video_Format_Signaling_type」の7ビットのデータが存在する。CPU201は、「3DFormat_Signaling_existed」の1ビットのフラグデータが“1”であるとき、「Stereo_Video_Format_Signaling_type」の7ビットのデータに基づいて、ビデオストリームが、2次元画像データが挿入された第1のビデオストリームであるか、3次元画像データが挿入された第2のビデオストリームであるかを識別する。
CPU101は、7ビットのデータが“0001000”であって、2次元画像データが挿入された第1のビデオストリームであると識別するとき、受信機200の各部を、2次元画像処理を行う状態とする。また、CPU101は、7ビットのデータが“0000011”あるいは“0000100”であって、3次元画像データが挿入された第2のビデオストリームであると識別するとき、受信機200の各部を、3次元画像処理を行う状態とする。
図13のフローチャートは、CPU201の制御処理の手順を示している。CPU201は、ステップST1において、処理を開始し、その後に、ステップST2の処理に移る。このステップST2において、CPU201は、「3DFormat_Signaling_existed」の1ビットのフラグデータが“1”であるか否かを判断する。「3DFormat_Signaling_existed=1」であるとき、CPU201は、ステップST3の処理に移る。
このステップST3において、CPU201は、「Stereo_Video_Format_Signaling_type」が、ビデオストリームに挿入されている画像データが2次元(2D)画像データであることを示しているか3次元(3D)画像データであることを示しているかを判断する。「Stereo_Video_Format_Signaling_type」が3次元画像データであることを示しているとき、CPU201は、ステップST4の処理に移る。このステップST4において、CPU201は、受信機200の各部を、3次元画像処理を行う状態とし、その後に、ステップST2の処理に戻る。
また、ステップST2で「3DFormat_Signaling_existed=0」であるとき、CPU201は、ステップST5の処理に移る。また、ステップST3で「Stereo_Video_Format_Signaling_type」が2次元画像データであることを示しているときも、CPU201は、ステップST5の処理に移る。このステップST5において、CPU201は、受信機200の各部を、2次元画像処理を行う状態とし、その後に、ステップST2の処理に戻る。
図12に戻って、3D信号処理部215は、ビデオデコーダ214の出力画像データが3次元画像データであるとき、伝送フォーマットに対応した処理を行って左眼画像データSLおよび右眼画像データSRを生成する。なお、3D信号処理部215は、ビデオデコーダ214の出力画像データが2次元画像データであるとき、この2次元画像データをそのまま出力する。
ビューバッファ216Lは、CPU201の制御により、3次元画像処理状態とされるとき、3D信号処理部215で生成された左眼画像データSLを一時的に蓄積する。また、ビューバッファ216Lは、CPU201の制御により、2次元画像処理状態とされるとき、3D信号処理部215から出力される2次元画像データSVを一時的に蓄積する。また、ビューバッファ216Rは、CPU201の制御により、3次元画像処理状態とされるとき、3D信号処理部215で生成された右眼画像データSRを一時的に蓄積する。
グラフィクスデコーダ218は、上述の送信データ生成部110のグラフィクスエンコーダ116とは逆の処理を行う。すなわち、グラフィクスデコーダ218は、デマルチプレクサ213で抽出されたグラフィクスエレメンタリストリームに含まれる符号化グラフィクスデータに対して復号化処理を行って復号化されたグラフィクスデータ(サブタイトルデータを含む)を得る。
視差情報デコーダ220は、上述の送信データ生成部110の視差情報エンコーダ113とは逆の処理を行う。すなわち、視差情報デコーダ220は、デマルチプレクサ213で抽出された視差情報エレメンタリストリームに含まれる符号化視差情報に対して復号化処理を行って復号化された視差情報を得る。この視差情報は、左眼画像と右眼画像との間の視差を示す視差ベクトル、あるいは奥行きデータ等である。奥行きデータは、所定の変換により視差ベクトルとして扱うことが可能となる。視差情報は、例えば、ビュー(画像)を所定数に分割して得られた各分割領域の視差情報である。
グラフィクス発生部219は、グラフィクスデコーダ218で得られたグラフィクスデータに基づいて、画像に重畳するグラフィクス情報のデータを発生する。グラフィクス発生部219は、CPU201の制御により、3次元画像処理状態とされるとき、左眼画像データおよび右眼画像データにそれぞれ重畳するグラフィクス情報のデータを発生する。この場合、グラフィクス発生部219は、視差情報デコーダ220で得られる視差情報に基づいて、各画像に重畳するグラフィクス情報の重畳位置を調整し、それぞれに視差を付与する。また、グラフィクス発生部219は、CPU201の制御により、2次元画像処理状態とされるとき、2次元画像データに重畳するグラフィクス情報のデータを発生する。
グラフィクスバッファ221Lは、CPU201の制御により、3次元画像処理状態とされるとき、グラフィクス発生部219で発生される、左眼画像データに重畳するグラフィクス情報のデータを一時的に蓄積する。また、グラフィクスバッファ221Lは、CPU201の制御により、2次元画像処理状態とされるとき、グラフィクス発生部219で発生される、2次元画像データに重畳するグラフィクス情報のデータを一時的に蓄積する。また、グラフィクスバッファ221Rは、CPU201の制御により、3次元画像処理状態とされるとき、右眼画像データに重畳するグラフィクス情報のデータを一時的に蓄積する。
ビデオ重畳部217Lは、CPU201の制御により、3次元画像処理状態とされるとき、グラフィクス情報が重畳された左眼画像を表示するための画像データSL′を出力する。このとき、ビデオ重畳部217Lは、ビューバッファ216Lに蓄積された左眼画像データSLに、グラフィクスバッファ221Lに蓄積されたグラフィクス情報のデータを重畳して、左眼画像データSL′を得る。また、ビデオ重畳部217Lは、CPU201の制御により、2次元画像処理状態とされるとき、グラフィクス情報が重畳された2次元画像を表示するための2次元画像データSV′を出力する。このとき、ビデオ重畳部217Lは、ビューバッファ216Lに蓄積された2次元画像データSVに、グラフィクスバッファ221Lに蓄積されたグラフィクス情報のデータを重畳して、2次元画像データSV′を得る。
また、ビデオ重畳部217Rは、CPU201の制御により、3次元画像処理状態とされるとき、グラフィクス情報が重畳された右眼画像を表示するための右眼画像データSR′を出力する。このとき、ビデオ重畳部217Rは、ビューバッファ216Rに蓄積された右眼画像データSRに、グラフィクスバッファ221Rに蓄積されたグラフィクス情報のデータを重畳する。
オーディオデコーダ222は、上述の送信データ生成部110のオーディオエンコーダ114とは逆の処理を行う。すなわち、このオーディオデコーダ222は、デマルチプレクサ213で抽出されたオーディオエレメンタリストリームに含まれる符号化音声データに対して復号化処理を行って復号化された音声データを得る。チャネル処理部223は、オーディオデコーダ222で得られる音声データに対して、例えば5.1chサラウンド等を実現するための各チャネルの音声データSAを生成して出力する。
受信機200の動作を簡単に説明する。アンテナ端子210に入力されたテレビ放送信号はデジタルチューナ211に供給される。このデジタルチューナ211では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のトランスポートストリームTSが出力される。このトランスポートストリームTSは、TSバッファ212に一時的に蓄積される。
デマルチプレクサ213では、TSバッファ212に一時的に蓄積されたトランスポートストリームTSから、ビデオ、視差情報、グラフィクスおよびオーディオの各エレメンタリストリームが抽出される。視差情報エレメンタリストリームは、トランスポートストリームTSに3次元画像データが挿入されたビデオストリーム(第2のビデオストリーム)が含まれている場合のみ抽出される。
また、デマルチプレクサ213では、トランスポートストリームTSからプログラム・マップ・テーブル(PMT)が抽出される。このテーブルの情報はCPU201に供給される。このテーブルには、上述したように、第2の識別情報としての「3DFormat_Signaling_existed」の1ビットのフラグデータを有するビデオ・ストリーム・デスクリプタ(Video_stream_descriptor())が含まれている(図9参照)。CPU201では、この「3DFormat_Signaling_existed」の1ビットのフラグデータに基づいて、ビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に、3Dシグナリング情報(Stereo_Video_Format_Signaling())の挿入があるか否かが識別される。
デマルチプレクサ213で抽出されるビデオエレメンタリストリーム(ビデオストリーム)は、ビデオデコーダ214に供給される。このビデオデコーダ214では、デマルチプレクサ213で抽出されたビデオエレメンタリストリームに含まれる符号化画像データに対して復号化処理が行われ、復号化された画像データが得られる。この場合、ビデオエレメンタリストリームに3次元画像データが挿入されているとき、3次元画像データが得られる。また、この場合、ビデオエレメンタリストリームに2次元画像データが挿入されているとき、2次元画像データが得られる。
また、ビデオデコーダ214では、ビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に含まれているユーザデータが抽出される。このユーザデータはCPU201に供給される。上述したように、このユーザデータには、第1の識別情報としての「Stereo_Video_Format_Signaling_type」の7ビットのデータを有する3Dシグナリング情報(Stereo_Video_Format_Signaling())が含まれている(図6参照)。
CPU201では、「3DFormat_Signaling_existed」の1ビットのフラグデータが“1”であるとき、「Stereo_Video_Format_Signaling_type」の7ビットのデータに基づいて、ビデオストリームの識別が行われる。CPU201では、この7ビットのデータに基づいて、ビデオストリームが、2次元画像データが挿入された第1のビデオストリームであるか、3次元画像データが挿入された第2のビデオストリームであるかが識別される。
7ビットのデータが“0001000”であって、2次元画像データが挿入された第1のビデオストリームであると識別されるとき、CPU101により、受信機200の各部は、2次元画像処理を行う状態とされる。また、7ビットのデータが“0000011”あるいは“0000100”であって、3次元画像データが挿入された第2のビデオストリームであると識別されるとき、CPU101により、受信機200の各部は、3次元画像処理を行う状態とされる。
以下、最初に、受信機200の各部が3次元(3D)画像処理状態とされる場合について説明する。ビデオデコーダ214で得られる3次元画像データは、3D信号処理部215に供給される。3D信号処理部215では、ビデオデコーダ214の出力画像データが3次元画像データであるとき、伝送フォーマットに対応した処理が行われて、左眼画像データSLおよび右眼画像データSRが生成される。左眼画像データSLはビューバッファ216Lに一時的に蓄積され、右眼画像データSRはビューバッファ216Rに一時的に蓄積される。
また、デマルチプレクサ213で抽出されたグラフィクスエレメンタリストリームは、グラフィクスデコーダ218に供給される。このグラフィクスデコーダ218では、グラフィクスエレメンタリストリームに含まれる符号化グラフィクスデータに対して復号化処理が行われて、復号化されたグラフィクスデータ(サブタイトルデータを含む)が得られる。このグラフィクスデータは、グラフィクス発生部219に供給される。
また、デマルチプレクサ213で抽出された視差情報エレメンタリストリームは、視差情報デコーダ220に供給される。この視差情報デコーダ220では、視差情報エレメンタリストリームに含まれる符号化視差情報に対して復号化処理が行われて、復号化された視差情報が得られる。この視差情報は、グラフィクス発生部219に供給される。
このグラフィクス発生部219では、グラフィクスデコーダ218で得られたグラフィクスデータに基づいて、画像に重畳するグラフィクス情報のデータが発生される。この場合、グラフィクス発生部219では、視差情報デコーダ220で得られる視差情報に基づいて、左眼画像および右眼画像の各画像に重畳するグラフィクス情報の重畳位置が調整されて、それぞれに視差が付与される。
このグラフィクス発生部219で発生される、左眼画像データに重畳するグラフィクス情報のデータは、グラフィクスバッファ221Lに一時的に蓄積される。また、グラフィクス発生部219で発生される、右眼画像データに重畳するグラフィクス情報のデータは、グラフィクスバッファ221Rに一時的に蓄積される。
ビデオ重畳部217Lでは、ビューバッファ216Lに蓄積された左眼画像データSLに、グラフィクスバッファ221Lに蓄積されたグラフィクス情報のデータが重畳されて、左眼画像データSL′が得られる。この左眼画像データSL′は、グラフィクス情報が重畳された左眼画像を表示するための画像データとして出力される。また、ビデオ重畳部217Rでは、ビューバッファ216Rに蓄積された右眼画像データSRに、グラフィクスバッファ221Rに蓄積されたグラフィクス情報のデータが重畳されて、右眼画像データSR′が得られる。この右眼画像データSR′は、グラフィクス情報が重畳された右眼画像を表示するための画像データとして出力される。
次に、受信機200の各部が2次元(2D)画像処理状態とされる場合について説明する。ビデオデコーダ214で得られる2次元画像データSVは、3D信号処理部215からそのまま出力される。この2次元画像データSVはビューバッファ216Lに一時的に蓄積される。
また、デマルチプレクサ213で抽出されたグラフィクスエレメンタリストリームは、グラフィクスデコーダ218に供給される。このグラフィクスデコーダ218では、グラフィクスエレメンタリストリームに含まれる符号化グラフィクスデータに対して復号化処理が行われて、復号化されたグラフィクスデータ(サブタイトルデータを含む)が得られる。このグラフィクスデータは、グラフィクス発生部219に供給される。
このグラフィクス発生部219では、グラフィクスデコーダ218で得られたグラフィクスデータに基づいて、画像に重畳するグラフィクス情報のデータが発生される。このグラフィクス情報のデータは、グラフィクスバッファ221Lに一時的に蓄積される。
ビデオ重畳部217Lでは、ビューバッファ216Lに蓄積された2次元画像データSVに、グラフィクスバッファ221Lに蓄積されたグラフィクス情報のデータが重畳されて、2次元画像データSV′が得られる。この2次元画像データSV′は、グラフィクス情報が重畳された2次元画像を表示するための画像データとして出力される。
また、デマルチプレクサ213で抽出されたオーディオエレメンタリストリームは、オーディオデコーダ222に供給される。このオーディオデコーダ222では、オーディオエレメンタリストリームに含まれる符号化音声データに対して復号化処理が行われて、復号化された音声データが得られる。この音声データは、チャネル処理部223に供給される。チャネル処理部223では、その音声データに対して、例えば5.1chサラウンド等を実現するための各チャネルの音声データSAが生成されて出力される。
以上説明したように、図1に示す画像送受信システム10において、放送局100から送信されるトランスポートストリームTSに、第1の識別情報が挿入される。この第1の識別情報は、ビデオストリームが、2次元画像データが挿入された第1のビデオストリームであるか、3次元画像データが挿入された第2のビデオストリームであるかを識別する識別情報である。
具体的には、トランスポートストリームTSに含まれるビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に、第1の識別情報としての「Stereo_Video_Format_Signaling_type」の7ビットのデータを含む3Dシグナリング情報が挿入される。そのため、受信側において、この第1の識別情報に基づいて、受信画像データが2次元画像データであるか3次元画像データであるかを容易に把握でき、受信画像データが2次元画像データから3次元画像データ、あるいはこの逆に時分割的に切り替わる場合であっても常に適切な処理を行うことができる。
また、図1に示す画像送受信システム10において、放送局100から送信されるトランスポートストリームTSに、第1の識別情報の挿入があるか否かを識別する第2の識別情報が挿入される。具体的には、PMTのビデオエレメンタリ・ループの配下に、第2の識別情報としての「3DFormat_Signaling_existed」の1ビットのフラグデータを含むビデオ・ストリーム・デスクリプタが挿入される。
そのため、受信側においては、この第2の識別情報が第1の識別情報の挿入があることを示す場合のみ、第1の識別情報を取得して、受信画像データに対する処理を、この第1の識別情報に基づいて適切な処理に切り換えることが可能となる。つまり、受信側においては、第2の識別情報が第1の識別情報の挿入がないことを示す場合には、第1の識別情報を取得してその内容を監視する処理を省略でき、効率的な処理が可能となる。
また、図1に示す画像送受信システム10において、放送局100から送信されるトランスポートストリームTSが3次元画像データを挿入したビデオストリームを含む場合、このトランスポートストリームTSにさらに視差情報も含められる。この視差情報は、3次元画像データを構成する左眼画像データおよび右眼画像データによる画像に重畳する同一の重畳情報に視差を付与するためのものである。
この場合、受信側には、3次元画像データと共に、この3次元画像データに対応した視差情報が送信される。そのため、受信側において、左眼画像データおよび右眼画像データに重畳される重畳情報のデータは、それぞれ、視差情報に基づいて重畳位置が調整されたものとなる。したがって、重畳情報の表示において、立体画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、図1に示す画像送受信システム10において、受信機200では、トランスポートストリームTSから、ビデオストリームが第1のビデオストリームであるか第2のビデオストリームであるかを識別するための第1の識別情報が取得される。そして、受信画像データに対して、この第1の情報に基づいて、2次元画像処理または3次元画像処理が選択的に行われる。そのため、受信機200では、受信画像データが2次元画像データから3次元画像データ、あるいはこの逆に時分割的に切り替わる場合であっても、常に適切な処理を行うことができる。
また、図1に示す画像送受信システム10において、受信機200では、トランスポートストリームTSから第1の識別情報の挿入があるか否かを識別する第2の識別情報が取得され、この第2の識別情報が第1の識別情報の挿入があることを示す場合のみ、第1の識別情報を取得してその内容を監視する処理が行われる。したがって、第2の識別情報が第1の識別情報の挿入がないことを示す場合、受信機200では、第1の識別情報を取得してその内容を監視する処理を省略でき、効率的な処理が可能となる。
また、図1に示す画像送受信システム10において、受信機200では、3次元(3D)画像データを挿入したビデオストリーム(第2のビデオストリーム)を含むトランスポートストリームTS1が送られてくるとき、3次元画像データの処理状態とされる。そして、グラフィクス発生部219では、視差情報デコーダ220で得られる視差情報に基づいて、左眼画像および右眼画像の各画像に重畳するグラフィクス情報の重畳位置が調整され、それぞれに視差が付与される。そのため、グラフィクス情報の表示において、立体画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、図1に示す画像送受信システム10において、受信機200では、左眼画像および右眼画像の各画像に重畳するグラフィクス情報の重畳位置を調整する際に、トランスポートストリームTSに挿入されている視差情報が抽出されて使用される。そのため、受信機200では、例えば、左眼画像データおよび右眼画像データを処理して視差情報を得る必要がなく、重畳情報のデータの重畳位置の調整を簡単かつ適切に行うことができる。
<2.変形例>
なお、上述実施の形態においては、トランスポートストリームTSに含まれるビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に、第1の識別情報を挿入する例を示した。しかし、この第1の識別情報を挿入する場所は、ビデオストリームのピクチャヘッダまたはシーケンスヘッダに限定されない。
また、上述実施の形態においては、第1の識別情報が、3Dシグナリング情報に含まれる「Stereo_Video_Format_Signaling_type」の7ビットのデータである例を示した。しかし、この第1の識別情報は、「Stereo_Video_Format_Signaling_type」の7ビットのデータに限定されない。要は、トランスポートストリームTSに含まれるビデオストリームが、2次元画像データが挿入された第1のビデオストリームであるか、3次元画像データが挿入された第2のビデオストリームであるかを識別可能な情報であればよい。
また、上述実施の形態においては、PMTのビデオエレメンタリ・ループの配下の記述子に、第2の識別情報を挿入する例を示した。しかし、この第2の識別情報を挿入する場所は、この場所に限定されない。すなわち、この第2の識別情報は、番組単位で送られるSI(Service Information)で送られる可能性もある。例えば、第2の識別情報を、トランスポートストリームTSに含まれるサービス・デスクリプション・テーブル(SDT:Service Description Table)の配下の記述子に挿入することも考えられる。また、例えば、第2の識別情報を、トランスポートストリームTSに含まれるイベント・インフォメーション・テーブル(EIT:Event Information Table)の配下の記述子に挿入することも考えられる。
また、上述実施の形態においては、第2の識別情報が、ビデオ・ストリーム・デスクリプタに含まれる「3DFormat_Signaling_existed」の1ビットのフラグデータである例を示した。しかし、この第2の識別情報は、「3DFormat_Signaling_existed」の1ビットのフラグデータに限定されない。要は、トランスポートストリームTSに第1の識別情報の挿入があるか否かを識別可能な情報であればよい。
また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG−2 TS)である例を示した。しかし、この発明は、インターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。インターネットの配信では、MP4やそれ以外のフォーマットのコンテナで配信されることが多い。つまり、コンテナとしては、デジタル放送規格で採用されているトランスポートストリーム(MPEG−2 TS)、インターネット配信で使用されているMP4などの種々のフォーマットのコンテナが該当する。
また、上述実施の形態においては、ビデオストリームがMPEG2ビデオストリームである例を示した。しかし、このビデオストリームは、MPEG2ビデオストリームに限定されるものではなく、例えば、VC−1やMPEG4−visual、その他の符号化方式によるビデオストリームであることも考えられる。
また、上述実施の形態においては、重畳情報がグラフィクスである例を示したが、クローズド・キャプションなどのその他の重畳情報の場合も同様に考えることができる。また、上述実施の形態においては、送信側から、画像データと共にグラフィクスのデータを送信する例を示したが、重畳情報のデータは、受信側において発生されるOSD表示などの場合も考えられる。
この発明は、立体画像データを放送波に載せて送信する、あるいは立体画像データをインターネット等のネットワークを介して配信する立体画像データ送受信システムに適用できる。
10・・・画像送受信システム
100・・・放送局
110・・・送信データ生成部
111・・・データ取り出し部
111a・・・データ記録媒体
112・・・ビデオエンコーダ
113・・・視差情報エンコーダ
114・・・オーディオエンコーダ
115・・・グラフィクス発生部
116・・・グラフィクスエンコーダ
117・・・マルチプレクサ
200・・・受信機
201・・・CPU
202・・・フラッシュROM
203・・・DRAM
204・・・内部バス
205・・・リモコン受信機
206・・・リモコン送信機
210・・・アンテナ端子
211・・・デジタルチューナ
212・・・トランスポートストリームバッファ(TSバッファ)
213・・・デマルチプレクサ
214・・・ビデオデコーダ
215・・・3D信号処理部
216L,216R・・・ビューバッファ
217L,217R・・・ビデオ重畳部
218・・・グラフィクスデコーダ
219・・・グラフィクス発生部
220・・・視差情報デコーダ
221L,221R・・・グラフィクスバッファ
222・・・オーディオデコーダ
223・・・チャネル処理部

Claims (16)

  1. 2次元画像データが挿入された第1のビデオストリームおよび3次元画像データが挿入された第2のビデオストリームを時分割的に含む所定フォーマットのコンテナを送信する送信部と、
    上記コンテナに、ビデオストリームが上記第1のビデオストリームであるか上記第2のビデオストリームであるかを識別する第1の識別情報を挿入する第1の識別情報挿入部と、
    上記コンテナに、上記第1の識別情報の挿入があるか否かを識別する第2の識別情報を挿入する第2の識別情報挿入部と
    を備える送信装置。
  2. 上記第1の識別情報挿入部は、上記第1の識別情報を、上記コンテナの第1のレイヤに挿入し、
    上記第2の識別情報挿入部は、上記第2の識別情報を、上記コンテナの上記第1のレイヤより上位の第2のレイヤに挿入する
    請求項1に記載の送信装置。
  3. 上記第1のレイヤは、上記ビデオのレイヤであり、
    上記第2のレイヤは、上記ビデオのレイヤよりも上位のレイヤである
    請求項2に記載の送信装置。
  4. 上記コンテナはトランスポートストリームであり、
    上記第1のレイヤは、ピクチャレイヤまたはシーケンスレイヤであり、
    上記第2のレイヤは、トランスポートレイヤである
    請求項3に記載の送信装置。
  5. 上記第1の識別情報挿入部は、上記第1の識別情報を、上記ビデオストリームのピクチャヘッダまたはシーケンスヘッダのユーザデータ領域に挿入する
    請求項4に記載の送信装置。
  6. 上記ビデオストリームは、MPEG2ビデオストリームである
    請求項4に記載の送信装置。
  7. 上記第2の識別情報挿入部は、上記第2の識別情報を、上記トランスポートストリームに含まれるプログラム・マップ・テーブルのビデオエレメンタリ・ループの配下の記述子に挿入する
    請求項4に記載の送信装置。
  8. 上記第2の識別情報挿入部は、上記第2の識別情報を、上記トランスポートストリームに含まれるサービス・デスクリプション・テーブルまたはイベント・インフォメーション・テーブルの配下の記述子に挿入する
    請求項4に記載の送信装置。
  9. 上記第1の識別情報は、上記3次元画像データが挿入された上記第2のビデオストリームが含まれていることを示す場合には、上記3次元画像データのフォーマット情報をさらに含む
    請求項1に記載の送信装置。
  10. 上記3次元画像データは左眼画像データおよび右眼画像データにより構成され、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する同一の重畳情報に視差を付与するための視差情報を出力する視差情報出力部をさらに備え、
    上記送信部は、上記第2のビデオストリームを含む上記コンテナを送信する際に、該コンテナに、上記視差情報出力部から出力される視差情報をさらに含める
    請求項1に記載の送信装置。
  11. 2次元画像データが挿入された第1のビデオストリームおよび3次元画像データが挿入された第2のビデオストリームを時分割的に含む所定フォーマットのコンテナを送信する送信ステップと、
    上記コンテナに、ビデオストリームが上記第1のビデオストリームであるか上記第2のビデオストリームであるかを識別する第1の識別情報を挿入する第1の識別情報挿入ステップと、
    上記コンテナに、上記第1の識別情報の挿入があるか否かを識別する第2の識別情報を挿入する第2の識別情報挿入ステップと
    を有する送信方法。
  12. 2次元画像データが挿入された第1のビデオストリームおよび3次元画像データが挿入された第2のビデオストリームが時分割的に含まれ、さらに、ビデオストリームが上記第1のビデオストリームであるか上記第2のビデオストリームであるかを識別する第1の識別情報と、該第1の識別情報の挿入があるか否かを識別する第2の識別情報が挿入されている所定フォーマットのコンテナを受信する受信部と、
    上記受信部で受信されたコンテナから画像データを取得する画像データ取得部と、
    上記受信部で受信されたコンテナから上記第2の識別情報を取得する第1の識別情報取得部と、
    上記第1の識別情報取得部で取得された上記第2の識別情報が上記第1の識別情報の挿入があることを示すとき、上記コンテナから上記第1の識別情報を取得する第2の識別情報取得部と、
    上記画像データ取得部で取得された画像データに対して、上記第2の識別情報取得部で取得された上記第1の識別情報に基づいて、2次元画像処理または3次元画像処理を選択的に行う画像データ処理部と
    を備える受信装置。
  13. 上記画像データ処理部は、上記第1の識別情報取得部で取得される上記第2の識別情報が上記第1の識別情報の挿入がないことを示すとき、上記受信部で受信された画像データに対して、2次元画像処理を行う
    請求項12に記載の受信装置。
  14. 重畳情報のデータを出力する重畳情報データ出力部と、
    上記画像データ処理部から出力される画像データに、上記重畳情報出力部から出力される重畳情報のデータを重畳するデータ重畳部をさらに備え、
    上記データ重畳部は、
    上記画像データ処理部で3次元画像処理が行われて上記3次元画像データを構成する左眼画像データおよび右眼画像データが出力されるとき、上記左眼画像データによる左眼画像と上記右眼画像データによる右眼画像との間の視差情報に基づいて、上記重畳情報データ出力部から出力される上記重畳情報のデータの重畳位置を調整し、該重畳位置が調整された重畳情報のデータを上記左眼画像データおよび上記右眼画像データに重畳し、
    上記画像データ処理部で2次元画像処理が行われて上記2次元画像データが出力されるとき、該2次元画像データに、上記重畳情報データ出力部から出力される上記重畳情報のデータをそのまま重畳する
    請求項12に記載の受信装置。
  15. 上記コンテナには、上記第2のビデオストリームが含まれる場合、上記3次元画像データを構成する左眼画像データおよび右眼画像データによる画像に重畳する同一の重畳情報に視差を付与するための視差情報が挿入されており、
    上記コンテナから上記視差情報を取得する視差情報取得部をさらに備え、
    上記データ重畳部は、上記画像データ処理部で3次元画像処理が行われて上記3次元画像データを構成する左眼画像データおよび右眼画像データが出力されるとき、視差情報取得部で取得された視差情報に基づいて、上記重畳情報データ出力部から出力される上記重畳情報のデータの重畳位置を調整し、該重畳位置が調整された重畳情報のデータを上記左眼画像データおよび上記右眼画像データに重畳する
    請求項14に記載の受信装置。
  16. 2次元画像データが挿入された第1のビデオストリームおよび3次元画像データが挿入された第2のビデオストリームが時分割的に含まれ、さらに、ビデオストリームが上記第1のビデオストリームであるか上記第2のビデオストリームであるかを識別する第1の識別情報と、該第1の識別情報の挿入があるか否かを識別する第2の識別情報が挿入されている所定フォーマットのコンテナを受信する受信ステップと、
    上記受信ステップで受信されたコンテナから画像データを取得する画像データ取得ステップと、
    上記受信ステップで受信されたコンテナから上記第2の識別情報を取得する第1の識別情報取得ステップと、
    上記第1の識別情報取得ステップで取得された上記第2の識別情報が上記第1の識別情報の挿入があることを示すとき、上記コンテナから上記第1の識別情報を取得する第2の識別情報取得ステップと、
    上記画像データ取得ステップで取得された画像データに対して、上記第2の識別情報取得ステップで取得された上記第1の識別情報に基づいて、2次元画像処理または3次元画像処理を選択的に行う画像データ処理ステップと
    を有する受信方法。
JP2010102347A 2010-04-27 2010-04-27 送信装置、送信方法、受信装置および受信方法 Active JP5577823B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010102347A JP5577823B2 (ja) 2010-04-27 2010-04-27 送信装置、送信方法、受信装置および受信方法
EP11775020.8A EP2434767B1 (en) 2010-04-27 2011-04-26 Transmission device, transmission method, reception device and reception method
US13/377,237 US9030526B2 (en) 2010-04-27 2011-04-26 Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
BRPI1105256A BRPI1105256A2 (pt) 2010-04-27 2011-04-26 aparelhos e metodos de transmissao e de recepcao
KR20117029346A KR20130014313A (ko) 2010-04-27 2011-04-26 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CN2011800025037A CN102474643A (zh) 2010-04-27 2011-04-26 发送设备、发送方法、接收设备以及接收方法
PCT/JP2011/060196 WO2011136239A1 (ja) 2010-04-27 2011-04-26 送信装置、送信方法、受信装置および受信方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010102347A JP5577823B2 (ja) 2010-04-27 2010-04-27 送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
JP2011234113A JP2011234113A (ja) 2011-11-17
JP5577823B2 true JP5577823B2 (ja) 2014-08-27

Family

ID=44861537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010102347A Active JP5577823B2 (ja) 2010-04-27 2010-04-27 送信装置、送信方法、受信装置および受信方法

Country Status (7)

Country Link
US (1) US9030526B2 (ja)
EP (1) EP2434767B1 (ja)
JP (1) JP5577823B2 (ja)
KR (1) KR20130014313A (ja)
CN (1) CN102474643A (ja)
BR (1) BRPI1105256A2 (ja)
WO (1) WO2011136239A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9041772B2 (en) * 2009-04-07 2015-05-26 Lg Electronics Inc. Broadcast transmitter, broadcast receiver, and 3D video data processing method thereof
JP2011142585A (ja) * 2010-01-08 2011-07-21 Sony Corp 画像処理装置、情報記録媒体、および画像処理方法、並びにプログラム
KR101694821B1 (ko) 2010-01-28 2017-01-11 삼성전자주식회사 다시점 비디오스트림에 대한 링크 정보를 이용하는 디지털 데이터스트림 전송 방법와 그 장치, 및 링크 정보를 이용하는 디지털 데이터스트림 전송 방법과 그 장치
WO2012164920A1 (ja) * 2011-06-01 2012-12-06 パナソニック株式会社 映像処理装置、送信装置、映像処理システム、映像処理方法、送信方法、コンピュータプログラム及び集積回路
WO2013069608A1 (ja) 2011-11-11 2013-05-16 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP2013110540A (ja) * 2011-11-18 2013-06-06 Sony Corp 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
JP2013126048A (ja) * 2011-12-13 2013-06-24 Sony Corp 送信装置、送信方法、受信装置および受信方法
WO2013108531A1 (ja) * 2012-01-19 2013-07-25 ソニー株式会社 受信装置、受信方法および電子機器
JP5928118B2 (ja) * 2012-04-16 2016-06-01 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP5903023B2 (ja) * 2012-10-04 2016-04-13 株式会社ジオ技術研究所 立体視地図表示システム
JP5789004B2 (ja) * 2013-08-09 2015-10-07 ソニー株式会社 送信装置、送信方法、受信装置、受信方法、符号化装置および符号化方法
RU2698779C2 (ru) * 2014-09-04 2019-08-29 Сони Корпорейшн Устройство передачи, способ передачи, устройство приема и способ приема
KR102643537B1 (ko) * 2014-09-12 2024-03-06 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CN107343220B (zh) 2016-08-19 2019-12-31 北京市商汤科技开发有限公司 数据处理方法、装置和终端设备
JP2017147749A (ja) * 2017-04-20 2017-08-24 シャープ株式会社 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム
CN108881877B (zh) * 2017-05-12 2020-07-24 京东方科技集团股份有限公司 显示处理装置及其显示处理方法以及显示装置
US10575018B2 (en) 2017-07-10 2020-02-25 Qualcomm Incorporated Enhanced high-level signaling for fisheye virtual reality video in dash
US10659760B2 (en) * 2017-07-10 2020-05-19 Qualcomm Incorporated Enhanced high-level signaling for fisheye virtual reality video
JP7119425B2 (ja) 2018-03-01 2022-08-17 ソニーグループ株式会社 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
WO2019178850A1 (zh) * 2018-03-23 2019-09-26 Oppo广东移动通信有限公司 无线通信方法、用户设备和网络设备
CN111337133B (zh) * 2020-03-02 2021-08-03 浙江大华技术股份有限公司 红外数据的生成方法及装置、解析方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3157384B2 (ja) * 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
JP3066298B2 (ja) 1995-11-15 2000-07-17 三洋電機株式会社 立体画像観察用眼鏡の制御方法
JP3784967B2 (ja) 1998-07-21 2006-06-14 日本放送協会 立体画像表示方法および装置
JP4497497B2 (ja) * 2001-01-22 2010-07-07 日本テレビ放送網株式会社 立体映像信号の伝送方法及び、そのシステム
JP2003045343A (ja) 2001-08-03 2003-02-14 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP4190357B2 (ja) * 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP4183587B2 (ja) * 2003-09-12 2008-11-19 シャープ株式会社 画像記録装置
JP2005094168A (ja) * 2003-09-12 2005-04-07 Sharp Corp ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
JP4602737B2 (ja) * 2004-10-25 2010-12-22 シャープ株式会社 映像表示装置
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
KR101488199B1 (ko) * 2008-03-12 2015-01-30 삼성전자주식회사 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체

Also Published As

Publication number Publication date
EP2434767A4 (en) 2015-04-22
US20120081516A1 (en) 2012-04-05
WO2011136239A1 (ja) 2011-11-03
BRPI1105256A2 (pt) 2016-05-03
JP2011234113A (ja) 2011-11-17
KR20130014313A (ko) 2013-02-07
EP2434767A1 (en) 2012-03-28
CN102474643A (zh) 2012-05-23
US9030526B2 (en) 2015-05-12
EP2434767B1 (en) 2019-04-24

Similar Documents

Publication Publication Date Title
JP5577823B2 (ja) 送信装置、送信方法、受信装置および受信方法
US9019343B2 (en) Image data transmission device, image data transmission method, and image data reception device
US20140071232A1 (en) Image data transmission device, image data transmission method, and image data reception device
WO2013105401A1 (ja) 送信装置、送信方法、受信装置および受信方法
US9485490B2 (en) Broadcast receiver and 3D video data processing method thereof
CA2772927C (en) Cable broadcast receiver and 3d video data processing method thereof
WO2013161442A1 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2012070364A1 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2013073455A1 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
US9693033B2 (en) Transmitting apparatus, transmitting method, receiving apparatus and receiving method for transmission and reception of image data for stereoscopic display using multiview configuration and container with predetermined format
WO2014050447A1 (ja) 送信装置、送信方法、受信装置および受信方法
KR20140000136A (ko) 화상 데이터 송신 장치, 화상 데이터 송신 방법, 화상 데이터 수신 장치 및 화상 데이터 수신 방법
WO2013054775A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP5928118B2 (ja) 送信装置、送信方法、受信装置および受信方法
WO2012147596A1 (ja) 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
WO2014042034A1 (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140623

R151 Written notification of patent or utility model registration

Ref document number: 5577823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250