JP2012100102A - 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 - Google Patents

立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 Download PDF

Info

Publication number
JP2012100102A
JP2012100102A JP2010246538A JP2010246538A JP2012100102A JP 2012100102 A JP2012100102 A JP 2012100102A JP 2010246538 A JP2010246538 A JP 2010246538A JP 2010246538 A JP2010246538 A JP 2010246538A JP 2012100102 A JP2012100102 A JP 2012100102A
Authority
JP
Japan
Prior art keywords
data
information
image data
unit
disparity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010246538A
Other languages
English (en)
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010246538A priority Critical patent/JP2012100102A/ja
Priority to CN2011800375558A priority patent/CN103039084A/zh
Priority to RU2012126548/07A priority patent/RU2012126548A/ru
Priority to EP11837849.6A priority patent/EP2506584A4/en
Priority to MX2012007793A priority patent/MX2012007793A/es
Priority to BR112012015683A priority patent/BR112012015683A2/pt
Priority to KR1020127016223A priority patent/KR20130132238A/ko
Priority to PCT/JP2011/073739 priority patent/WO2012060198A1/ja
Priority to US13/518,415 priority patent/US20120257019A1/en
Priority to ARP110103956A priority patent/AR083558A1/es
Publication of JP2012100102A publication Critical patent/JP2012100102A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ARIB方式の字幕(キャプション・ユニット)の重畳表示において、画像内の各物体との間の遠近感の整合性の維持を図る。
【解決手段】字幕データストリームに、字幕文データグループの字幕文データ(字幕符号)として、各キャプション・ユニットの字幕データを挿入する。表示制御情報を送出する拡張表示制御のデータユニット(データユニットパラメータ=0x4F)を新たに定義する。字幕文データグループのPESストリームにおいて、表示制御情報を送出するデータユニットに視差情報を挿入し、字幕文データ(字幕文情報)と視差情報との対応付けを行う。受信側では、左眼画像および右眼画像に重畳されるキャプション・ユニットに、適切な視差を付与できる。
【選択図】図11

Description

この発明は、立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法に関し、特に、字幕などの重畳情報の表示を良好に行い得る立体画像データ送信装置等に関する。
例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。
図43は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。DPaは、オブジェクトAに関する水平方向の視差ベクトルを表している。
また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。DPcは、オブジェクトCに関する水平方向の視差ベクトルを表している。
特開2005−6114号公報
上述したように立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳される重畳情報、例えば、字幕等に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。
例えば、画像に字幕を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。また、他のグラフィクス情報、あるいはテキスト情報を画像に重畳表示する場合にも、画像内の各物体の遠近感に応じて視差調整を施し、遠近感の整合性を維持することが期待される。
この発明の目的は、字幕などの重畳情報の表示において、画像内の各物体との間の遠近感の整合性の維持を図ることにある。また、この発明の目的は、例えば、ARIB方式において、視差情報を重畳情報に関連付けて送ることを容易とすることにある。
この発明の概念は、
左眼画像データおよび右眼画像データを含む立体画像データを出力する画像データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
上記画像データ出力部から出力される立体画像データ含む第1のデータストリームと、上記重畳情報出力部から出力される視差情報を含む第2のデータストリームとを有する多重化データストリームを送信するデータ送信部とを備え、
上記第2のデータストリームは、上記重畳情報の表示制御情報を送出するデータユニットを有し、
上記視差情報は、上記データユニットに挿入されている
立体画像データ送信装置。
この発明において、画像データ出力部により、左眼画像データおよび右眼画像データを含む立体画像データが出力される。また、重畳情報データ出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータが出力される。ここで、重畳情報は、画像に重畳される字幕などの情報を意味している。また、視差情報出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報が出力される。
そして、データ送信部により、第1のデータストリームと第2のデータストリームとを有する多重化データストリームが送信される。第1のデータストリームには、画像データ出力部から出力される立体画像データを含まれている。また、第2のデータストリームには、重畳情報データ出力部から出力される重畳情報のデータおよび視差情報出力部から出力される視差情報が含まれている。
第2のデータストリームは、重畳情報の表示制御情報を送出するデータユニットを有するものとされ、視差情報は、このデータユニットに挿入されている。例えば、重畳情報のデータはARIB方式の字幕文データであり、視差情報が挿入されるデータユニットは字幕文グループ内のデータユニットとされる。例えば、このデータユニットに挿入された視差情報は、タイプ情報により、他の表示制御情報と区別される。例えば、データユニットに挿入されている視差情報は、同一画面に表示される特定の重畳情報に対応した視差情報、または同一画面に表示される複数の重畳情報に対応した視差情報とされる。
このように、この発明においては、第2のデータストリームが有する、重畳情報の表示制御情報を送出するデータユニットに視差情報が挿入され、重畳情報と視差情報との対応付けが行われている。そのため、受信側においては、左眼画像および右眼画像に重畳される重畳情報に、対応する視差情報を用いて適切な視差を付与できる。そのため、字幕などの重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
なお、この発明において、例えば、視差情報は、重畳情報が表示される所定数のフレーム期間内で共通に使用される第1の視差情報、またはこの第1の視差情報および所定数のフレーム期間内で順次更新される第2の視差情報であり、データユニットには、第2の視差情報の存在を示すフラグ情報が挿入されていてもよい。この場合、第1の視差情報のみを送信するか、さらに、第2の視差情報を送信するかを選択することが可能となる。第2の視差情報を送信することで、受信側において、重畳情報に付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
また、この発明において、例えば、第2の視差情報は、所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなるようにしてもよい。この場合、更新フレーム間隔は任意に設定される。例えば、視差情報の時間方向(フレーム方向)の変化が激しい場合には、更新フレーム間隔を短くすることで、受信側に、視差情報の時間方向の変化をより正しく伝えることが可能となる。また、例えば、視差情報の時間方向の変化が緩やかな場合には、更新フレーム間隔を長くするとで、視差情報のデータ量を抑制することが可能となる。
また、この発明において、例えば、第2の視差情報には、更新フレーム間隔毎のフレームのそれぞれについて、視差情報の更新の有無を示すフラグ情報が付加されていてもよい。この場合、視差情報の時間方向の変化が同様となる期間が続く場合には、このフラグ情報を用いてその期間内の視差情報の伝送を省略でき、視差情報のデータ量を抑制することが可能となる。
また、この発明において、例えば、第2の視差情報には、更新フレーム期間毎のフレームのそれぞれについて、更新フレーム間隔を調整する情報が付加されていてもよい。この場合、この調整情報に基づいて、更新フレーム間隔を短くする方向あるいは長くする方向に任意に調整することが可能となり、受信側に、視差情報の時間方向の変化をより的確に伝えることが可能となる。
また、この発明において、例えば、視差情報が挿入される表示制御情報を送出するデータユニットには、フレーム周期を指定する情報が挿入されていてもよい。これにより、送信側で意図する視差情報の更新フレーム間隔を、受信側に正しく伝えることが可能となる。この情報が付加されていない場合、受信側においては、例えば、ビデオのフレーム周期が参照される。
また、この発明において、例えば、視差情報が挿入される表示制御情報を送出するデータユニットには、重畳情報の表示の際に必須の、視差情報に対する対応レベルを示す情報が挿入されていてもよい。この場合、この情報により、受信側における視差情報に対する対応を制御することが可能となる。
また、この発明において、例えば、第2のデータストリームには、データユニットの上位レイヤに、重畳情報の拡張表示に対応しているかを示すフラグ情報が含まれていてもよい。この場合、このフラグ情報により、受信側では、重畳情報の拡張表示、例えば3次元表示等に対応しているか否かを容易に把握可能となる。
また、この発明において、例えば、多重化データストリームに、第2のデータストリームが重畳情報の拡張表示制御に対応しているかを示すフラグ情報が挿入されていてもよい。この場合、受信側においては、第2のデータストリーム内のデータを開くことなく、この第2のデータストリームが重畳情報の拡張表示制御に対応しているか否かを把握可能となる。
例えば、多重化ストリームにはイベント単位の管理を行うサービス・インフォメーションとしてのイベント・インフォメーション・テーブルが含まれており、フラグ情報はイベント・インフォメーション・テーブルの配下に挿入される。また、例えば、多重化データストリームには、この多重化データストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを示すプログラム・スペシフィック・インフォメーションとしてのプログラム・マップ・テーブルが含まれており、フラグ情報はプログラム・マップ・テーブルの配下に挿入される
この発明の他の概念は、
第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームを受信するデータ受信部を備え、
上記第1のデータストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含み、
上記第2のデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
上記第2のデータストリームは、上記重畳情報の表示制御情報を送出するデータユニットを有し、上記視差情報は該データユニットに挿入されており、
上記データ受信部で受信された多重化データストリームに含まれる上記第1のデータストリームから上記立体画像データを取得する画像データ取得部と、
上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから上記重畳情報のデータを取得する重畳情報データ取得部と、
上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから上記視差情報を取得する視差情報取得部と、
上記画像データ取得部で取得された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データと、上記視差情報取得部で取得された上記視差情報と、上記重畳情報データ取得部で取得された上記重畳情報のデータを用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部とをさらに備える
立体画像データ受信装置にある。
この発明において、データ受信部により、第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームが受信される。第1のデータストリームには、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含まれている。また、第2のデータストリームには、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータと、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報とが含まれている。
第2のデータストリームは、重畳情報の表示制御情報を送出するデータユニットを有するものとされ、視差情報はこのデータユニットに挿入されている。例えば、重畳情報のデータはARIB方式の字幕文データであり、視差情報が挿入されるデータユニットは字幕文グループ内のデータユニットとされる。例えば、このデータユニットに挿入された視差情報は、タイプ情報により、他の表示制御情報と区別される。
画像データ取得部により、データ受信部で受信された多重化データストリームに含まれる第1のデータストリームから立体画像データが取得される。また、重畳情報データ取得部により、データ受信部で受信された多重化データストリームに含まれる第2のデータストリームから重畳情報のデータが取得される。また、視差情報取得部により、データ受信部で受信された多重化データストリームに含まれる第2のデータストリームから視差情報が取得される。
そして、画像データ処理部により、左眼画像データおよび右眼画像データと、重畳情報のデータと、視差情報とが用いられ、左眼画像および右眼画像に重畳する同一の重畳情報に視差が付与され、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータが得られる。
このように、この発明においては、重畳情報が含まれる第2のデータストリームが有する、この重畳情報の表示制御情報を送出するデータユニットに視差情報が挿入され、重畳情報と視差情報との対応付けが行われている。そのため、画像データ処理部では、左眼画像および右眼画像に重畳される重畳情報に、対応する視差情報を用いて適切な視差を付与できる。したがって、字幕などの重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、この発明において、例えば、データユニットに挿入されている視差情報は、重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなるようにしてもよい。この場合、重畳情報に付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
また、この発明において、例えば、画像データ処理部は、所定数のフレーム期間内で順次更新される視差情報を構成する複数フレームの視差情報に対して補間処理を施し、所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する、ようにされてもよい。この場合、送信側から更新フレーム間隔毎に視差情報が送信される場合であっても、重畳情報に付与される視差を、細かな間隔で、例えばフレーム毎に制御することが可能となる。
この場合、補間処理は、線形補間処理であってもよいが、例えば、時間方向(フレーム方向)のローパスフィルタ処理を伴うようにされてもよい。これにより、送信側から更新フレーム間隔毎に視差情報が送信される場合であっても、補間処理後の視差情報の時間方向の変化をなだらかにでき、重畳情報に付与される視差の推移が、更新フレーム間隔毎に不連続となることによる違和感を抑制できる。
この発明によれば、重畳情報が含まれる第2のデータストリームが有する、この重畳情報の表示制御情報を送出するデータユニットに視差情報が挿入され、重畳情報と視差情報との対応付けが行われている。そのため、受信側においては、左眼画像および右眼画像に重畳される重畳情報に、対応する視差情報を用いて適切な視差を付与できる。したがって、字幕などの重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
この発明の実施の形態としての立体画像表示システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 1920×1080のピクセルフォーマットの画像データを示す図である。 立体画像データ(3D画像データ)の伝送方式である「Top & Bottom」方式、「Side By Side」方式、「Frame Sequential」方式を説明するための図である。 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。 字幕データストリームの構成例とキャプション・ユニット(字幕)の表示例を示す図である。 ピクセル(画素)毎の視差ベクトルの値を各ピクセル(各画素)の輝度値として用いた場合の画像例を示す図である。 ブロック(Block)毎の視差ベクトルの一例を示す図である。 送信データ生成部の視差情報作成部で行われるダウンサイジング処理を説明するための図である。 字幕エンコーダで生成される字幕データストリームの構成例と、その場合の視差ベクトルの作成例を示す図である。 字幕エンコーダで生成される字幕データストリームの他の構成例と、その場合の視差ベクトルの作成例を示す図である。 第1、第2のビューに重畳する各キャプション・ユニットの位置をシフトさせる場合を説明するための図である。 字幕文データグループのPESストリームに含まれる字幕符号のパケット構造を示す図である。 字幕管理データグループのPESストリームに含まれる制御符号のパケット構造を示す図である。 ARIB方式の字幕データストリーム(PESストリーム)内のデータグループの構造を示す図である。 字幕文データグループの場合における、データグループ構造における「data_group_data_byte」としての字幕文データ(caption_data)の構造を概略的に示す図である。 字幕管理データグループの場合における、データグループ構造における「data_group_data_byte」としての字幕管理データ(caption_management_data)の構造を概略的に示す図である。 字幕データストリームに含まれるデータユニット(data_unit)の構造を示す図である。 データユニットの種類と、データユニットパラメータおよび機能を示す図である。 新たに定義された拡張表示制御のデータユニット(data_unit)の構造を示す図である。 新たに定義された拡張表示制御のデータユニット(data_unit)の構造を示す図である。 「Advanced_Rendering_Control」内の「disparity_information」の構造を示す図である。 「disparity_information」内の「disparity_temporal_extension」の構造を示す図である。 「Advanced_Rendering_Control」および「disparity_information」の構造における主要なデータ規定内容を示す図である。 「Advanced_Rendering_Control」および「disparity_information」の構造における主要なデータ規定内容を示す図である。 字幕表示期間内におけるベースセグメント期間(BSP)毎の視差情報の更新例を示す図である。 字幕表示期間内におけるベースセグメント期間(BSP)毎の視差情報の更新例を示す図である。 「Advanced_Rendering_Control」内の「disparity_information」の他の構造を示す図である。 ビデオエレメンタリストリーム、オーディオエレメンタリストリーム、字幕エレメンタリストリームを含むトランスポートストリーム(多重化データストリーム)の構成例を示す図である。 EITの配下に挿入されているデータコンテンツ記述子の構造例を示す図である。 データコンテンツ記述子に含まれる「arib_caption_info」の構造例を示す図である。 ビデオエレメンタリストリーム、オーディオエレメンタリストリーム、字幕エレメンタリストリームを含むトランスポートストリーム(多重化データストリーム)の他の構成例を示す図である。 PMTの配下に挿入されているデータ符号化方式記述子の構造例を示す図である。 データ符号化方式記述子に含まれる「additional_arib_caption_info」の構造例を示す図である。 画像上における字幕(グラフィクス情報)の表示例と、背景、近景オブジェクト、字幕の遠近感を示す図である。 画像上における字幕の表示例と、字幕を表示するための左眼字幕LGIおよび右眼字幕RGIを示す図である。 立体画像表示システムを構成するセットトップボックスの構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の構成例を示すブロック図である。 字幕表示期間内で順次更新される視差情報を構成する複数フレームの視差情報に対してローパスフィルタ処理を伴った補間処理を行って任意のフレーム間隔の視差情報(補間視差情報)を生成する一例を示す図である。 立体画像表示システムを構成するテレビ受信機の構成例を示すブロック図である。 立体画像表示システムの他の構成例を示すブロック図である。 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を説明するための図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[立体画像表示システムの構成例]
図1は、実施の形態としての立体画像表示システム10の構成例を示している。この立体画像表示システム10は、放送局100と、セットトップボックス(STB:Set Top Box)200と、テレビ受信機(TV:Television)300を有している。
セットトップボックス200およびテレビ受信機300は、HDMI(High Definition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
[放送局の説明]
放送局100は、ビットストリームデータBSDを、放送波に載せて送信する。放送局100は、ビットストリームデータBSDを生成する送信データ生成部110を備えている。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報のデータ、さらには視差情報(視差ベクトル)などが含まれる。重畳情報は、グラフィクス情報、テキスト情報などであるが、この実施の形態においては字幕である。
「送信データ生成部の構成例」
図2は、放送局100において、送信データ生成部110の構成例を示している。この送信データ生成部110は、既存の放送規格の一つであるARIB(Association of Radio Industries and Businesses)に容易に連携できるデータ構造で視差情報(視差ベクトル)を送信する。この送信データ生成部110は、データ取り出し部(アーカイブ部)130と、視差情報作成部131と、ビデオエンコーダ113と、オーディオエンコーダ117と、字幕発生部132と、字幕エンコーダ133と、マルチプレクサ122を有している。
データ取り出し部130には、データ記録媒体130aが、例えば、着脱自在に装着される。このデータ記録媒体130aには、左眼画像データおよび右眼画像データを含む立体画像データと共に、音声データ、視差情報が対応付けて記録されている。データ取り出し部130は、データ記録媒体130aから、立体画像データ、音声データ、視差情報等を取り出して出力する。データ記録媒体130aは、ディスク状記録媒体、半導体メモリ等である。
データ記録媒体130aに記録されている立体画像データは、所定の伝送方式の立体画像データである。立体画像データ(3D画像データ)の伝送方式の一例を説明する。ここでは、以下の第1〜第3の伝送方式を挙げるが、これら以外の伝送方式であってもよい。また、ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば、1920×1080のピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、トップ・アンド・ボトム(Top & Bottom)方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
第2の伝送方式は、サイド・バイ・サイド(Side By Side)方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。原信号に対して、水平解像度は半分となる。
第3の伝送方式は、フレーム・シーケンシャル(Frame Sequential)方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフレーム毎に順次切換えて伝送する方式である。なお、このフレーム・シーケンシャル方式は、フル・フレーム(Full Frame)方式、あるいはバックワード・コンパチブル(BackwardCompatible)方式と称される場合もある。
また、データ記録媒体130aに記録されている視差情報は、例えば、画像を構成するピクセル(画素)毎の視差ベクトルである。視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば4×4、8×8あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば4×4、8×8あるいは16×16の比較ブロックが順次設定されていく。
画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。
右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば4×4、8×8あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
図2に戻って、字幕発生部132は、字幕データ(ARIB方式の字幕文データ)を発生する。字幕エンコーダ133は、字幕発生部132で発生された字幕データを含む字幕データストリーム(字幕エレメンタリストリーム)を生成する。図7(a)は、字幕データストリームの構成例を示している。この例は、図7(b)に示すように、同一の画面に、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」の3つのキャプション・ユニット(字幕)が表示される例を示している。
字幕データストリームには、字幕文データグループの字幕文データ(字幕符号)として、各キャプション・ユニットの字幕データが挿入される。なお、各キャプション・ユニットの表示領域などの設定データは、図示していないが、字幕管理データグループのデータとして、字幕データストリームに挿入される。「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの表示領域は、それぞれ、(x1,y1)、(x2,y2)、(x3,y3)で示されている。
視差情報作成部131は、ビューワ機能を持っている。この視差情報作成部131は、データ取り出し部130から出力される視差情報、すなわちピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施し、所定の領域に属する視差ベクトルを生成する。
図8は、各ピクセル(画素)の輝度値のようにして与えられる相対的な深さ方向のデータの例を示している。ここで、相対的な深さ方向のデータは所定の変換により画素ごとの視差ベクトルとして扱うことが可能となる。この例において、人物部分の輝度値は高くなっている。これは、人物部分の視差ベクトルの値が大きいことを意味し、従って、立体画像表示では、この人物部分が浮き出た状態に知覚されることを意味している。また、この例において、背景部分の輝度値は低くなっている。これは、背景部分の視差ベクトルの値が小さいことを意味し、従って、立体画像表示では、この背景部分が沈んだ状態に知覚されることを意味している。
図9は、ブロック(Block)毎の視差ベクトルの一例を示している。ブロックは、最下層に位置するピクセル(画素)の上位層に当たる。このブロックは、画像(ピクチャ)領域が、水平方向および垂直方向に所定の大きさで分割されることで構成される。各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。この例においては、各ブロックの視差ベクトルを矢印で示しており、矢印の長さが視差ベクトルの大きさに対応している。
図10は、視差情報作成部131で行われるダウンサイジング処理の一例を示している。まず、視差情報作成部131は、図10(a)に示すように、ピクセル(画素)毎の視差ベクトルを用いて、ブロック毎の視差ベクトルを求める。上述したように、ブロックは、最下層に位置するピクセル(画素)の上位層に当たり、画像(ピクチャ)領域が水平方向および垂直方向に所定の大きさで分割されることで構成される。そして、各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部131は、図10(b)に示すように、ブロック毎の視差ベクトルを用いて、グループ(Group Of Block)毎の視差ベクトルを求める。グループは、ブロックの上位層に当たり、複数個の近接するブロックをまとめてグループ化することで得られる。図10(b)の例では、各グループは、破線枠で括られる4個のブロックにより構成されている。そして、各グループの視差ベクトルは、例えば、そのグループ内の全ブロックの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部131は、図10(c)に示すように、グループ毎の視差ベクトルを用いて、パーティション(Partition)毎の視差ベクトルを求める。パーティションは、グループの上位層に当たり、複数個の近接するグループをまとめてグループ化することで得られる。図10(c)の例では、各パーティションは、破線枠で括られる2個のグループにより構成されている。そして、各パーティションの視差ベクトルは、例えば、そのパーティション内の全グループの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部131は、図10(d)に示すように、パーティション毎の視差ベクトルを用いて、最上位層に位置するピクチャ全体(画像全体)の視差ベクトルを求める。図10(d)の例では、ピクチャ全体には、破線枠で括られる4個のパーティションが含まれている。そして、ピクチャ全体の視差ベクトルは、例えば、ピクチャ全体に含まれる全パーティションの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
このようにして、視差情報作成部131は、最下層に位置するピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施して、ブロック、グループ、パーティション、ピクチャ全体の各階層の各領域の視差ベクトルを求めることができる。なお、図10に示すダウンサイジング処理の一例では、最終的に、ピクセル(画素)の階層の他、ブロック、グループ、パーティション、ピクチャ全体の4階層の視差ベクトルを求めている。しかし、階層数ならびに各階層の領域の切り方や領域の数はこれに限定されるものではない。
視差情報作成部131は、上述したダウンサイジング処理により、同一の画面に表示される所定数のキャプション・ユニット(字幕)に対応した視差ベクトルを作成する。この場合、視差情報作成部131は、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)を作成するか、あるいは各キャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)を作成する。この選択は、例えば、ユーザの設定による。
視差情報作成部131は、個別視差ベクトルを作成する場合、各キャプション・ユニットの表示領域に基づき、上述のダウンサイジング処理によって、その表示領域に属する視差ベクトルを求める。また、視差情報作成部131は、共通視差ベクトルを作成する場合、上述のダウンサイジング処理によって、ピクチャ全体(画像全体)の視差ベクトルを求める(図10(d)参照)。なお、視差情報作成部131は、共通視差ベクトルを作成する場合、各キャプション・ユニットの表示領域に属する視差ベクトルを求め、最も値の大きな視差ベクトルを選択してもよい。
字幕エンコーダ133は、上述したように視差情報作成部131で作成された視差ベクトル(視差情報)を、字幕データストリームに含める。この場合、字幕データストリームには、字幕文データグループのPESストリームに、字幕文データ(字幕符号)として、同一画面に表示される各キャプション・ユニットの字幕データが挿入される。また、この字幕データストリームには、字幕文データグループのPESストリームに、字幕の表示制御情報として、視差ベクトル(視差情報)が挿入される。
ここで、視差情報作成部131で個別視差ベクトルが作成される場合について説明する。ここでは、同一の画面に、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」の3つのキャプション・ユニット(字幕)が表示される例とする。
視差情報作成部131は、図11(b)に示すように、各キャプション・ユニットに対応した個別視差ベクトルを作成する。「Disparity 1」は、「1st Caption Unit」に対応した個別視差ベクトルである。「Disparity 2」は、「2nd Caption Unit」に対応した視差ベクトルである。「Disparity 3」は、「3rd Caption Unit」に対応した個別視差ベクトルである。
図11(a)は、字幕エンコーダ133で生成される字幕データストリーム(PESストリーム)のうち、字幕文データグループのPESストリームの構成例を示している。この字幕文データグループのPESストリームには、各キャプション・ユニットの字幕文情報(字幕文データ)が挿入される。また、この字幕文データグループのPESストリームには、各キャプション・ユニットの字幕文情報にそれぞれ対応した表示制御情報(視差情報)が挿入される。この場合、各表示制御情報としての視差情報は、上述したように視差情報作成部131で作成された個別視差ベクトルとなる。
なお、各キャプション・ユニットの表示領域などの設定データは、図示していないが、字幕管理データグループのPESストリームに、字幕管理データ(制御符号)として、挿入される。また、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの表示領域は、それぞれ、(x1,y1)、(x2,y2)、(x3,y3)で示されている。
図11(c)は、各キャプション・ユニット(字幕)が重畳された第1のビュー(1st View)、例えば右眼画像を示している。また、図11(d)は、各キャプション・ユニットが重畳された第2のビュー(1st View)、例えば左眼画像を示している。各キャプション・ユニットに対応した個別視差ベクトルは、図示のように、例えば、右眼画像に重畳する各キャプション・ユニットと、左眼画像に重畳する各キャプション・ユニットとの間に視差を付与するために用いられる。
次に、視差情報作成部131で共通視差ベクトルが作成される場合について説明する。ここでは、同一の画面に、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」の3つのキャプション・ユニット(字幕)が表示される例とする。視差情報作成部131は、図12(b)に示すように、各キャプション・ユニットに共通の共通視差ベクトル「Disparity」を作成する。
図12(a)は、字幕エンコーダ133で生成される字幕データストリーム(PESストリーム)のうち、字幕文データグループのPESストリームの構成例を示している。この字幕文データグループのPESストリームには、各キャプション・ユニットの字幕文情報(字幕文データ)が挿入される。また、この字幕文データグループのPESストリームには、各キャプション・ユニットの字幕文情報に共通に対応した表示制御情報(視差情報)が挿入される。この場合、表示制御情報としての視差情報は、上述したように視差情報作成部131で作成された共通視差ベクトルとなる。
なお、各キャプション・ユニットの表示領域などの設定データは、図示していないが、字幕管理データグループのPESストリームに、字幕管理情報(制御符号)として、挿入される。また、「1st Caption Unit」、「2nd Caption Unit」、「3rd Caption Unit」のキャプション・ユニットの表示領域は、それぞれ、(x1,y1)、(x2,y2)、(x3,y3)で示されている。
図12(c)は、各キャプション・ユニット(字幕)が重畳された第1のビュー(1st View)、例えば右眼画像を示している。また、図12(d)は、各キャプション・ユニットが重畳された第2のビュー(1st View)、例えば左眼画像を示している。各キャプション・ユニットに共通の共通視差ベクトルは、図示のように、例えば、右眼画像に重畳する各キャプション・ユニットと、左眼画像に重畳する各キャプション・ユニットとの間に視差を付与するために用いられる。
なお、図11(c),(d)、図12(c),(d)の例は、第2のビュー(例えば、左眼画像)に重畳する各キャプション・ユニットの位置のみをシフトさせている。しかし、第1のビュー(例えば、右眼画像)に重畳する各キャプション・ユニットの位置のみをシフトさせる場合、あるいは、双方のビューに重畳する各キャプション・ユニットの位置をシフトさせる場合も考えられる。
図13(a),(b)は、第1のビューおよび第2のビューに重畳するキャプション・ユニットの双方の位置をシフトさせる場合を示している。この場合、各キャプション・ユニットに対応した視差ベクトル「Disparity」の値“disparity[i]”から、第1のビュー、第2のビューにおける各キャプション・ユニットのシフト値(オフセット値)D[i]が、以下のように求められる。
すなわち、disparity[i]が偶数の場合には、第1のビューでは、「D[i]=- disparity[i]/2」と求められ、第2のビューでは、「D[i]=disparity[i]/2」と求められる。これにより、第1のビュー(例えば、右眼画像)に重畳する各キャプション・ユニットの位置は、左側に「disparity[i]/2」だけシフトされる。また、第2のビュー(例えば、左眼画像)に重畳する各キャプション・ユニットの位置は、右側に(disparity[i]/2)だけシフトされる。
また、disparity(i)が奇数の場合には、第1のビューでは、「D[i]=- (disparity[i]+1)/2」と求められ、第2のビューでは、「D[i]=(disparity[i]-1)/2」と求められる。これにより、第1のビュー(例えば、右眼画像)に重畳する各キャプション・ユニットの位置は、左側に「(disparity[i]+1)/2」だけシフトされる。また、第2のビュー(例えば、左眼画像)に重畳する各キャプション・ユニットの位置は、右側に「(disparity[i]-1)/2」だけシフトされる。
ここで、字幕符号および制御符号のパケット構造を簡単に説明する。最初に、字幕文データグループのPESストリームに含まれる字幕符号の基本的なパケット構造について説明する。図14は、字幕符号のパケット構造を示している。「Data_group_id」は、データグループ識別を示し、ここでは、字幕文データグループであることを示す。なお、字幕文データグループを示す「Data_group_id」は、さらに、言語を特定する。例えば、「Data_group_id==0x21」とされ、字幕文データグループであって、字幕文(第1言語)であることが示される。
「Data_group_size」は、後続のデータグループデータのバイト数を示す。字幕文データグループである場合、このデータグループデータは、字幕文データ(caption_data)である。この字幕文データには、1以上のデータユニットが配置されている。各データユニットは、データユニット分離符号(unit_parameter)で分離されている。各データユニット内のデータユニットデータ(data_unit_data)として、字幕符号が配置される。
次に、制御符号のパケット構造について説明する。図15は、字幕管理データグループのPESストリームに含まれる制御符号のパケット構造を示している。「Data_group_id」は、データグループ識別を示す。ここでは、字幕管理データグループであることを示し、「Data_group_id==0x20」とされる。「Data_group_size」は、後続のデータグループデータのバイト数を示す。字幕管理データグループである場合、このデータグループデータは、字幕管理データ(caption_management_data)である。
この字幕管理データには、1以上のデータユニットが配置されている。各データユニットは、データユニット分離符号(unit_parameter)で分離されている。各データユニット内のデータユニットデータ(data_unit_data)として、制御符号が配置される。この実施の形態において、視差ベクトルの値は、8単位符号として与えられる。「TCS」は2ビットのデータであり、文字符号化方式を示す。ここでは、「TCS==00」とされ、8単位符号であることが示される。
図16は、字幕データストリーム(PESストリーム)内のデータグループの構造を示している。「data_group_id」の6ビットのフィールドは、データグループ識別を示し、字幕管理データ、字幕文データの種類を識別する。「data_group_size」の16ビットのフィールドは、このデータグループフィールドにおいて、後続のデータグループデータのバイト数を示す。「data_group_data_byte」に、データグループデータが格納される。「CRC_16」は、16ビットのサイクリック・リダンダンシー・チェック符号である。このCRC符号の符号化区間は、「data_group_id」の先頭から「data_group_data_byte」の終端までである。
字幕管理データグループの場合、図16のデータグループ構造における「data_group_data_byte」は、字幕管理データ(caption_management_data)となる。また、字幕文データグループの場合、図16のデータグループ構造における「data_group_data_byte」は、字幕データ(caption_data)となる。
図17は、字幕データの構造を概略的に示している。「advanced_rendering_version」は、この実施の形態で新たに定義された、字幕の拡張表示に対応しているかを示す1ビットのフラグ情報である。受信側においては、このようにデータユニットの上位レイヤに配置されるフラグ情報に基づいて、字幕の拡張表示に対応しているか否かを容易に把握可能となる。
「data_unit_loop_length」の24ビットフィールドは、この字幕文データフィールドにおいて、後続のデータユニットのバイト数を示す。「data_unit」に、この字幕文データフィールドで伝送するデータユニットが格納される。また、図18は、字幕管理データの構造を概略的に示している。詳細説明は省略するが、「advanced_rendering_version」がないことを除き、上述の字幕文データと同様の構造になっている。
図19は、字幕データストリームに含まれるデータユニット(data_unit)の構造(Syntax)を示している。「unit_separator」の8ビットフィールドは、データユニット分離符号を示し、“0x1F”とされている。「data_unit_parameter」の8ビットフィールドは、データユニットの種類を識別するデータユニットパラメータである。
図20は、データユニットの種類と、データユニットパラメータおよび機能を示している。例えば、本文のデータユニットを示すデータユニットパラメータは“0x20”とされている。また、例えば、ジオメトリックのデータユニットを示すデータユニットパラメータは“0x28”とされている。また、例えば、ビットマップのデータユニットを示すデータユニットパラメータは“0x35”とされている。この実施の形態において、表示制御情報(拡張表示制御情報)を格納する拡張表示制御のデータユニットを新たに定義し、このデータユニットを示すデータユニットパラメータを、例えば“0x4F”とする。
「data_unit_size」の24ビットのフィールドは、このデータユニットフィールドにおいて、後続のデータユニットデータのバイト数を示す。「data_unit_data_byte」に、データユニットデータが格納される。図21は、拡張表示制御のデータユニット(data_unit)の構造(Syntax)を示している。この場合、データユニットパラメータは“0x4F”であり、「data_unit_data_byte」としての「Advanced_Rendering_Control」に、表示制御情報が格納される。
図22は、「Advanced_Rendering_Control」の構造(Syntax)を示している。この図22は、表示制御情報として、ステレオビデオの視差情報を挿入する場合の構造を示している。すなわち、この図22は、字幕文データグループに含まれる拡張表示制御のデータユニット(data_unit)内の「Advanced_Rendering_Control」の構造を示している。
「start_code」の8ビットフィールドは、「Advanced_Rendering_Control」の始まりを示す。「data_unit_id」の16ビットフィールドは、データユニットIDを示す。「data_length」の16ビットフィールドは、このアドバンスレンダリングコントロールのフィールドにおいて、後続のデータバイト数を示す。「Advanced_rendering_type」の8ビットフィールドは、表示制御情報の種類を指定するアドバンスレンダリングタイプである。ここでは、データユニットパラメータは、例えば“0x01”であり、表示制御情報が「ステレオビデオの視差情報」であることが示される。「disparity_information」に、ディスパリティインフォメーションが格納される。
なお、図25、図26は、上述の「Advanced_Rendering_Control」の構造における、さらには、後述の図23、図24に示す「disparity_information」の構造における主要なデータ規定内容を示している。
図23、図24は、字幕文データグループに含まれる拡張表示制御のデータユニット(data_unit)内の「Advanced_Rendering_Control」における「disparity_information」の構造(Syntax)を示している。「sync_byte」の8ビットフィールドは、「disparity_information」の識別情報であり、この「disparity_information」の始まりを示す。「interval_PTS[32..0]」は、視差情報(disparity)の更新フレーム間隔におけるフレーム周期(1フレームの間隔)を90KHz単位で指定する。つまり、「interval_PTS[32..0]」は、フレーム周期を90KHzのクロックで計測した値を33ビット長で表す。
ディスパリティインフォメーションにおいて、「interval_PTS[32..0]」によりフレーム周期を指定することで、送信側で意図する視差情報の更新フレーム間隔を、受信側に正しく伝えることが可能となる。この情報が付加されていない場合、受信側においては、例えば、ビデオのフレーム周期が参照される。
「rendering_level」は、字幕表示の際に受信側(デコーダ側)で必須の視差情報(disparity)対応レベルを示す。“00”は、視差情報を用いた字幕の3次元表示は任意(optional)であることを示す。“01”は、字幕表示期間内で共通に使用される視差情報(default_disparity)による字幕の3次元表示が必須であることを示す。“10”は、字幕表示期間内で順次更新される視差情報(disparity_update)による字幕の3次元表示が必須であることを示す。
「temporal_extension_flag」は、字幕表示期間内で順次更新される視差情報(disparity_update)の存在の有無を示す1ビットのフラグ情報である。この場合、“1”は存在することを示し、“0”は存在しないことを示す。「default_disparity」の8ビットフィールドは、デフォルトの視差情報を示す。この視差情報は、更新をしない場合の視差情報、つまり字幕表示期間内において共通に使用される視差情報である。
「shared_disparity」は、データユニット(Data_unit)に跨る共通の視差情報(disparity)制御を行うかどうかを示す。“1”は、以後の複数のデータユニット(Data_unit)に対して、一つの共通の視差情報(disparity)が適用されることを示す。“0”は、視差情報(Disparity)は、一つのデータユニット(data_unit)にのみ適用されることを示す。
「temporal_extension_flag」が“1”である場合、ディスパリティインフォメーションは、「disparity_temporal_extension()」を有する。ここには、基本的に、ベースセグメント期間(BSP:Base Segment Period)毎に更新すべき視差情報が格納される。図27は、ベースセグメント期間(BSP)毎の視差情報の更新例を示している。ここで、ベースセグメント期間は、更新フレーム間隔を意味する。この図からも明らかなように、字幕表示期間内で順次更新される視差情報は、字幕表示期間の最初のフレームの視差情報と、その後のベースセグメント期間(更新フレーム間隔)毎のフレームの視差情報とからなっている。
「temporal_division_size」の2ビットフィールドは、ベースセグメント期間(更新フレーム間隔)に含まれるフレーム数を示す。“00”は、16フレームであることを示す。“01”は、25フレームであることを示す。“10”は、30フレームであることを示す。さらに、“11”は、32フレームであることを示す。
「temporal_division_count」は、字幕表示期間に含まれるベースセグメントの個数を示す。「disparity_curve_no_update_flag」は、視差情報の更新の有無を示す1ビットのフラグ情報である。“1”は対応するベースセグメントのエッジで視差情報の更新を行わない、つまりスキップすることを示し、“0”は対応するベースセグメントのエッジで視差情報の更新を行うことを示す。
図28は、ベースセグメント期間(BSP)毎の視差情報の更新例を示している。図において、「skip」が付されたベースセグメントのエッジでは視差情報の更新は行われない。このフラグ情報が存在することで、視差情報のフレーム方向の変化が同様となる期間が長く続く場合、視差情報の更新を行わないようにして、その期間内の視差情報の伝送を省略でき、視差情報のデータ量を抑制することが可能となる。
「disparity_curve_no_update_flag」が“0”で視差情報の更新を行う場合、ディスパリティインフォメーションは、対応するベースセグメントの「shifting_interval_counts」を含む。また、「disparity_curve_no_update_flag」が“0”で視差情報の更新を行う場合、ディスパリティインフォメーションは、「disparity_update」を含む。「shifting_interval_counts」の6ビットフィールドは、ベースセグメント期間(更新フレーム間隔)を調整するドローファクタ(Draw factor)、つまり差し引きフレーム数を示す。
図28のベースセグメント期間(BSP)毎の視差情報の更新例において、時点C〜Fの視差情報の更新タイミングに関しては、ドローファクタ(Draw factor)により、ベースセグメント期間が調整されている。この調整情報が存在することで、ベースセグメント期間(更新フレーム間隔)を調整することが可能となり、受信側に、視差情報の時間方向(フレーム方向)の変化をより的確に伝えることが可能となる。
なお、ベースセグメント期間(更新フレーム間隔)の調整としては、上述した差し引きフレーム数で短くする方向に調整する他に、加算フレーム数で長くする方向に調整することも考えられる。例えば、「shifting_interval_counts」の6ビットフィールドを符号付き整数とすることで、双方向の調整が可能となる。
「disparity_update」の8ビットフィールドは、対応するベースセグメントの視差情報を示す。なお、k=0における「disparity_update」は、字幕表示期間内において更新フレーム間隔で順次更新される視差情報の初期値、つまり、字幕表示期間における最初のフレームの視差情報である。
なお、上述の図23に示す「disparity_information」の構造(Syntax)においては「interval_PTS[32..0]」が付加されている。しかし「interval_PTS[32..0]」が付加されていない「disparity_information」の構造(Syntax)も考えられる。その場合、「disparity_information」の構造は、図29に示すようになる。
図2に戻って、ビデオエンコーダ113は、データ取り出し部130から供給される立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施し、ビデオエレメンタリストリームを生成する。オーディオエンコーダ117は、データ取り出し部130から供給される音声データに対して、MPEG−2Audio AAC等の符号化を施し、オーディオエレメンタリストリームを生成する。
マルチプレクサ122は、ビデオエンコーダ113、オーディオエンコーダ117および字幕エンコーダ133から出力される各エレメンタリストリームを多重化する。そして、このマルチプレクサ122は、伝送データ(多重化データストリーム)としてのビットストリームデータ(トランスポートストリーム)BSDを出力する。
図2に示す送信データ生成部110の動作を簡単に説明する。データ取り出し部130から出力される立体画像データは、ビデオエンコーダ113に供給される。このビデオエンコーダ113では、その立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含むビデオエレメンタリストリームが生成される。このビデオエレメンタリストリームはマルチプレクサ122に供給される。
また、字幕発生部132では、ARIB方式の字幕データが発生される。この字幕データは、字幕エンコーダ133に供給される。この字幕エンコーダ133では、字幕発生部132で発生された字幕データを含む字幕エレメンタリストリーム(字幕データストリーム)が生成される。この字幕エレメンタリストリームはマルチプレクサ122に供給される。
また、データ取り出し部130から出力されるピクセル(画素)毎の視差ベクトルは、視差情報作成部131に供給される。この視差情報作成部131では、ダウンサイジング処理により、同一の画面に表示される所定数のキャプション・ユニット(字幕)に対応した視差ベクトル(水平方向視差ベクトル)が作成される。この場合、視差情報作成部131では、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)、あるいは全てのキャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)が作成される。
視差情報作成部131で作成された視差ベクトルは、字幕エンコーダ133に供給される。字幕エンコーダ133では、視差ベクトルが、字幕データストリームに含められる(図11〜図12参照)。字幕データストリームには、字幕文データグループのPESストリームに、字幕文データ(字幕符号)として、同一画面に表示される各キャプション・ユニットの字幕データが挿入される。また、この字幕データストリームには、字幕文データグループのPESストリームに、字幕の表示制御情報として、視差ベクトル(視差情報)が挿入される。この場合、視差ベクトルは、新たに定義された表示制御情報を送出する拡張表示制御のデータユニットに挿入される(図21〜図24、図29参照)。
また、データ取り出し部130から出力される音声データはオーディオエンコーダ117に供給される。このオーディオエンコーダ117では、音声データに対して、MPEG−2Audio AAC等の符号化が施され、符号化オーディオデータを含むオーディオエレメンタリストリームが生成される。このオーディオエレメンタリストリームはマルチプレクサ122に供給される。
マルチプレクサ122には、上述したように、ビデオエンコーダ113、オーディオエンコーダ117および字幕エンコーダ133からのエレメンタリストリームが供給される。そして、このマルチプレクサ122では、各エンコーダから供給されるエレメンタリストリームがパケット化されて多重され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
図30は、ビデオエレメンタリストリーム、オーディオエレメンタリストリーム、字幕エレメンタリストリームを含む一般的なトランスポートストリーム(多重化データストリーム)の構成例を示している。このトランスポートストリームには、各エレメンタリストリームをパケット化して得られたPESパケットが含まれている。この構成例では、ビデオエレメンタリストリームのPESパケット「Video PES」が含まれている。また、この構成例では、オーディオエレメンタリストリームのPESパケット「Audio PES」および字幕エレメンタリストリームのPESパケット「SubtitlePES」が含まれている。
また、トランスポートストリームには、PSI(Program Specific Information)として、PMT(ProgramMap Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。また、トランスポートストリームには、イベント単位の管理を行うSI(Serviced Information)としてのEIT(EventInformation Table)が含まれている。
PMTには、プログラム全体に関連する情報を記述するプログラム・デスクリプタ(Program Descriptor)が存在する。また、このPMTには、各エレメンタリストリームに関連した情報を持つエレメンタリ・ループが存在する。この構成例では、ビデオエレメンタリ・ループ、オーディオエレメンタリ・ループ、サブタイトルエレメンタリ・ループが存在する。各エレメンタリ・ループには、ストリーム毎に、パケット識別子(PID)、ストリームタイプ(Stream_Type)等の情報が配置されると共に、図示していないが、そのエレメンタリストリームに関連する情報を記述するデスクリプタも配置される。
この実施の形態において、マルチプレクサ122(図2参照)から出力されるトランスポートストリーム(多重化データストリーム)には、字幕データストリームが、字幕の拡張表示制御に対応しているか否かを示すフラグ情報が挿入されている。ここで、字幕の拡張表示制御は、例えば視差情報を用いた3次元字幕表示などである。この場合、受信側(セットトップボックス200)においては、字幕データストリーム内のデータを開くことなく、この字幕データストリームが字幕の拡張表示制御に対応しているか否かを把握可能となる。
マルチプレクサ122は、このフラグ情報を、例えば、上述のEITの配下に挿入する。図30の構成例では、EITの配下に、データコンテンツ記述子が挿入されている。このデータコンテンツ記述子に、フラグ情報「Advanced_Rendering_support」が含まれている。図31は、データコンテンツ記述子の構造例(Syntax)を示している。「descriptor_tag」は、デスクリプタ(記述子)のタイプを示す8ビットのデータであり、ここでは、データコンテンツ記述子であることを示す。「descriptor _length」は、デスクリプタの長さ(サイズ)を示す8ビットのデータである。このデータは、デスクリプタの長さとして、「descriptor _length」以降のバイト数を示す。
「component_tag」は、字幕のエレメンタリストリームとの関連付けを行う8ビットのデータである。この「component_tag」の後に、「arib_caption_info」が定義されている。図32(a)は、この「arib_caption_info」の構造例(Syntax)を示している。「Advanced_Rendering_support」は、図32(b)に示すように、字幕データストリームが字幕の拡張表示制御に対応しているか否かを示す1ビットのフラグ情報である。“1”は、字幕の拡張表示に対応していることを示す。“0”は、字幕の拡張表示制御に対応していないことを示す。
なお、マルチプレクサ122は、PMTの配下に、上述のフラグ情報を挿入することもできる。図33は、その場合におけるトランスポートストリーム(多重化データストリーム)の構成例を示している。この構成例では、PMTの字幕ESループの配下にデータ符号化方式記述子が挿入されている。このデータ符号化方式記述子に、フラグ情報「Advanced_Rendering_support」が含まれている。
図34は、データ符号化方式記述子の構造例(Syntax)を示している。「descriptor_tag」は、デスクリプタ(記述子)のタイプを示す8ビットのデータであり、ここでは、データコンテンツ記述子であることを示す。「descriptor _length」は、デスクリプタの長さ(サイズ)を示す8ビットのデータである。このデータは、デスクリプタの長さとして、「descriptor _length」以降のバイト数を示す。
「component_tag」は、字幕のエレメンタリストリームとの関連付けを行う8ビットのデータである。「data_component_id」は、ここでは、字幕データを示す“0x0008”とされる。この「data_component_id」の後に、「additional_arib_caption_info」が定義されている。図35は、この「additional_arib_caption_info」の構造例(Syntax)を示している。「Advanced_Rendering_support」は、上述の図32(b)に示すように、字幕データストリームが字幕の拡張表示制御に対応しているか否かを示す1ビットのフラグ情報である。“1”は、字幕の拡張表示に対応していることを示す。“0”は、字幕の拡張表示制御に対応していないことを示す。
上述したように、図2に示す送信データ生成部110においては、マルチプレクサ122から出力されるビットストリームデータBSDは、ビデオデータストリームと字幕データストリームとを有する多重化データストリームである。ビデオデータストリームには、立体画像データが含まれている。また、字幕データストリームには、ARIB方式の字幕(キャプション・ユニット)のデータおよび視差ベクトル(視差情報)が含まれている。
また、字幕文データグループのPESストリーム内の字幕表示制御情報を送出するデータユニットに視差情報が挿入され、字幕文データ(字幕文情報)と視差情報との対応付けが行われている。そのため、受信側(セットトップボックス200)においては、左眼画像および右眼画像に重畳されるキャプション・ユニット(字幕)に、対応する視差ベクトル(視差情報)を用いて適切な視差を付与できる。したがって、キャプション・ユニット(字幕)の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、図2に示す送信データ生成部110においては、新たに定義された拡張表示制御のデータユニットに、字幕表示期間内で共通に使用される視差情報(図23の「default_disparity」参照)が挿入される。また、このデータユニットに、字幕表示期間内で順次更新される視差情報(図24の「disparity_update」参照)の挿入が可能とされている。そして、この拡張表示制御のデータユニットには、字幕表示期間内で順次更新される視差情報の存在を示すフラグ情報が挿入される(図23の(「temporal_extension_flag」参照)。
そのため、字幕表示期間内で共通に使用される視差情報のみを送信するか、さらに、字幕表示期間内で順次更新される視差情報を送信するかを選択することが可能となる。字幕表示期間内で順次更新される視差情報を送信することで、受信側(セットトップボックス200)において、重畳情報に付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
また、図2に示す送信データ生成部110においては、拡張表示制御のデータユニットに挿入される字幕表示期間内で順次更新される視差情報は、基本的には、ベースセグメント期間(BSP)毎の視差情報とされる(図27参照)。つまり、この視差情報は、字幕表示期間の最初のフレームの視差情報と、その後のベースセグメント期間毎のフレームの視差情報とからなっている。そして、ベースセグメント期間(更新フレーム間隔)は、任意に設定可能とされている(図24の「temporal_division_size」参照」。
そのため、例えば、視差情報の時間方向(フレーム方向)の変化が激しい場合には、更新フレーム間隔を短くすることで、受信側(セットトップボックス200)に、視差情報の時間方向の変化をより正しく伝えることが可能となる。また、例えば、視差情報の時間方向の変化が緩やかな場合には、更新フレーム間隔を長くするとで、視差情報のデータ量を抑制することが可能となる。
また、図2に示す送信データ生成部110においては、拡張表示制御のデータユニットに字幕表示期間内で順次更新される視差情報が挿入される場合、以下のフラグ情報が付加される。このフラグ情報は、視差情報の更新の有無を示すフラグ情報である(図24の「disparity_curve_no_update_flag」参照)。このフラグ情報は、ベースセグメント期間(更新フレーム間隔)毎のフレームのそれぞれについて付加される。この場合、視差情報の時間方向の変化が同様となる期間が続く場合には、このフラグ情報を用いてその期間内の視差情報の伝送を省略でき(図28の「skip」が付されたベースセグメントのエッジ参照)、視差情報のデータ量を抑制することが可能となる。
また、図2に示す送信データ生成部110においては、拡張表示制御のデータユニットに字幕表示期間内で順次更新される視差情報が挿入される場合、以下の調整情報が付加される。この調整情報は、ベースセグメント期間(更新フレーム間隔)を調整する調整情報である(図24の「shifting_interval_counts」参照)。この場合、この調整情報に基づいて、ベースセグメント期間を短くする方向あるいは長くする方向に任意に調整することが可能となる。これにより、受信側(セットトップボックス200)に、視差情報の時間方向(フレーム方向)の変化をより的確に伝えることが可能となる(図28の“Draw factor”による調整参照)。
また、図2に示す送信データ生成部110においては、拡張表示制御のデータユニットに、フレーム周期を指定する情報が挿入されている(図23の「interval_PTS[32..0]」参照)。これにより、送信側(放送局100)で意図する視差情報のベースセグメント期間(更新フレーム間隔)を、受信側(セットトップボックス200)に正しく伝えることが可能となる。この情報が付加されていない場合、受信側においては、例えば、ビデオのフレーム周期が参照される。
また、図2に示す送信データ生成部110において、拡張表示制御のデータユニットに、字幕表示の際に受信側(デコーダ側)で必須の視差情報(disparity)対応レベルを示す情報が含まれている(図23の「rendering_level」参照)。この場合、この情報により、受信側における視差情報に対する対応を制御することが可能となる。
また、図2に示す送信データ生成部110において、字幕データストリーム(字幕文データグループのPESストリーム)のレイヤ、従って拡張表示制御のデータユニットの上位レイヤに、字幕の拡張表示に対応しているかを示す1ビットのフラグ情報が挿入されている(図17の「advanced_rendering_version」参照)。受信側においては、このようにフラグ情報に基づいて、字幕の拡張表示に対応しているか否かを容易に把握可能となる。
また、図2に示す送信データ生成部110において、多重化データストリーム(トランスポートストリーム)に、従ってシステムレイヤに、字幕データストリームが重畳情報の拡張表示制御に対応しているかを示すフラグ情報が挿入されている(図32、図35の「Advanced_Rendering_support」参照)。そのため、受信側(セットトップボックス200)においては、字幕データストリーム内のデータを開くことなく、この字幕データストリームが字幕の拡張表示制御に対応しているか否かを把握可能となる。
[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波に載せて送信されてくるビットストリームデータ(トランスポートストリーム)BSDを受信する。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データが含まれている。また、ビットストリームデータBSDには、キャプション・ユニットの字幕データ、さらには、このキャプション・ユニットに視差を付与するための視差ベクトル(視差情報)が含まれている。
セットトップボックス200は、ビットストリーム処理部201を有している。このビットストリーム処理部201は、ビットストリームデータBSDから、立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等を抽出する。このビットストリーム処理部201は、立体画像データ、キャプション・ユニットの字幕データ等を用いて、字幕が重畳された左眼画像および右眼画像のデータを生成する。
この場合、視差ベクトルおよびキャプション・ユニットの字幕データに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼字幕、右眼字幕のデータが生成される。ここで、左眼字幕および右眼字幕は同一の字幕である。しかし、画像内の重畳位置が、例えば、左眼字幕と右眼字幕とは、視差ベクトルだけ、水平方向にずれるようにされる。これにより、左眼字幕と右眼字幕との間に視差が付与され、字幕の認識位置が画像の手前とされる。
図36(a)は、画像上におけるキャプション・ユニット(字幕)の表示例を示している。この表示例では、背景と近景オブジェクトとからなる画像上に、字幕が重畳された例である。図36(b)は、背景、近景オブジェクト、字幕の遠近感を示し、字幕が最も手前に認識されることを示している。
図37(a)は、図36(a)と同じ、画像上におけるキャプション・ユニット(字幕)の表示例を示している。図37(b)は、左眼画像に重畳される左眼字幕LGIと、右眼画像に重畳される右眼字幕RGIを示している。図37(c)は、字幕が最も手前に認識されるために、左眼字幕LGIと右眼字幕RGIとの間に視差が与えられることを示している。
[セットトップボックスの構成例]
セットトップボックス200の構成例を説明する。図38は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像信号処理回路205と、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
ビットストリーム処理部201は、上述したように、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等を抽出する。このビットストリーム処理部201は、立体画像データに対して、左眼字幕、右眼字幕のデータを合成し、表示用立体画像データを生成して出力する。また、ビットストリーム処理部201は、音声データを出力する。ビットストリーム処理部201の詳細構成は後述する。
映像信号処理回路205は、ビットストリーム処理部201から出力された立体画像データに対して必要に応じて画質調整処理などを行い、処理後の立体画像データをHDMI送信部206に供給する。音声信号処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。
HDMI送信部206は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像および音声のデータがパッキングされて、HDMI送信部206からHDMI端子202に出力される。
CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
リモコン受信部215は、リモコン送信機216から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ204から出力されるビットストリームデータBSDは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等が抽出される。また、このビットストリーム処理部201では、立体画像データに対し、左眼字幕、右眼字幕のデータが合成され、表示用立体画像データが生成される。その際、ビットストリーム処理部201では、視差ベクトルに基づいて、左眼字幕と右眼字幕との間に視差が付与される。
ビットストリーム処理部201で生成された表示用立体画像データは、映像信号処理回路205に供給される。この映像信号処理回路205では、表示用立体画像データに対して、必要に応じて画質調整処理等が行われる。この映像信号処理回路205から出力される処理後の表示用立体画像データは、HDMI送信部206に供給される。
また、ビットストリーム処理部201で得られた音声データは、音声信号処理回路207に供給される。この音声信号処理回路207では、音声データに対して、必要に応じて音質調整処理等の処理が行われる。この音声信号処理回路207から出力される処理後の音声データは、HDMI送信部206に供給される。そして、HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
[ビットストリーム処理部の構成例]
図39は、ビットストリーム処理部201の構成例を示している。このビットストリーム処理部201は、上述の図2に示す送信データ生成部110に対応した構成となっている。このビットストリーム処理部201は、デマルチプレクサ221と、ビデオデコーダ222と、字幕デコーダ223を有している。さらに、このビットストリーム処理部201は、立体画像用字幕発生部224と、視差情報取り出し部225と、ビデオ重畳部226と、オーディオデコーダ227と、視差情報処理部228を有している。
デマルチプレクサ221は、ビットストリームデータBSDから、ビデオ、オーディオ、字幕のパケットを抽出し、各デコーダに送る。ビデオデコーダ222は、上述の送信データ生成部110のビデオエンコーダ113とは逆の処理を行う。すなわち、デマルチプレクサ221で抽出されたビデオのパケットからビデオのエレメンタリストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。この立体画像データの伝送方式は、例えば、上述の第1の伝送方式(「Top & Bottom」方式)、第2の伝送方式は(「Side By Side」方式)、第3の伝送方式(「Frame Sequential」方式)などである(図4参照)。
字幕デコーダ223は、上述の送信データ生成部110の字幕エンコーダ133とは逆の処理を行う。すなわち、字幕デコーダ223は、デマルチプレクサ221で抽出された字幕のパケットから字幕エレメンタリストリーム(字幕データストリーム)を再構成し、復号化処理を行って、各キャプション・ユニットの字幕データ(ARIB方式の字幕データ)を得る。
視差情報取り出し部225は、字幕デコーダ223を通じて得られる字幕のストリームから、各キャプション・ユニットに対応した視差ベクトル(視差情報)を取り出す。この場合、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)、あるいは各キャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)が得られる(図11〜図12参照)。
上述したように、字幕データストリームには、ARIB方式の字幕(キャプション・ユニット)のデータおよび視差情報(視差ベクトル)が含まれている。そして、視差情報は、字幕の表示制御情報を送出するデータユニットに挿入されている。そのため、視差情報取り出し部225は、各キャプション・ユニットの字幕データと対応付けて、視差ベクトルを取り出すことができる。
視差情報取り出し部225では、字幕表示期間内で共通に使用される視差情報(図23の「default_disparity」参照)が取得される。また、この視差情報取り出し部225では、さらに、字幕表示期間内で順次更新される視差情報(図24の「disparity_update」参照)が取得されることもある。視差情報取り出し部225で取り出された視差情報(視差ベクトル)は、視差情報処理部228を通じて、立体画像用字幕発生部224に送られる。この字幕表示期間内で順次更新される視差情報は、上述したように、字幕表示期間の最初のフレームの視差情報と、その後のベースセグメント期間(更新フレーム間隔)毎のフレームの視差情報とからなっている。
視差情報処理部228は、字幕表示期間内で共通に使用される視差情報に関しては、そのまま立体画像用字幕発生部224に送る。一方、視差情報処理部228は、字幕表示期間内で順次更新される視差情報に関しては、補間処理を施して、字幕表示期間内における任意のフレーム間隔、例えば、1フレーム間隔の視差情報を生成して、立体画像用字幕発生部224に送る。
視差情報処理部228は、この補間処理として、線形補間処理ではなく、時間方向(フレーム方向)にローパスフィルタ(LPF)処理を伴った補間処理を行って、補間処理後の所定フレーム間隔の視差情報の時間方向(フレーム方向)を変化がなだらかにしている。図40は、視差情報処理部228における上述のLPF処理を伴った補間処理の一例を示している。この例では、上述の図28の視差情報の更新例に対応している。
立体画像用字幕発生部224は、左眼画像および右眼画像にそれぞれ重畳する左眼字幕および右眼字幕のデータを生成する。この生成処理は、字幕デコーダ223で得られた各キャプション・ユニットの字幕データと、視差情報処理部228を通じて供給される視差情報(視差ベクトル)に基づいて行われる。そして、この立体画像用字幕発生部224は、左眼字幕および左眼字幕のデータ(ビットマップデータ)を出力する。
この場合、左眼および左眼の字幕(キャプション・ユニット)は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼の字幕と右眼の字幕とは、視差ベクトル分だけ、水平方向にずれるようにされる。これにより、左眼画像および右眼画像に重畳される同一の字幕として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、この字幕の表示において、画像内の各物体との間の遠近感の整合性を維持するようにされる。
ここで、立体画像用字幕発生部224は、視差情報処理部228から字幕表示期間内で共通に使用される視差情報(視差ベクトル)のみが送られてくる場合、その視差情報を使用する。また、立体画像用字幕発生部224は、視差情報処理部228から、さらに字幕表示期間内で順次更新される視差情報も送られてくる場合には、いずれかを使用する。
いずれを使用するかは、例えば、上述したように、拡張表示制御のデータユニットに含まれている、字幕表示の際に受信側(デコーダ側)で必須の視差情報(disparity)対応レベルを示す情報(図23の「rendering_level」参照)に拘束される。その場合、例えば、“00”であるときは、ユーザ設定による。字幕表示期間内で順次更新される視差情報を用いることで、左眼および右眼に付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
ビデオ重畳部226は、ビデオデコーダ222で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、立体画像用字幕発生部224で発生された左眼および左眼の字幕のデータ(ビットマップデータ)を重畳し、表示用立体画像データVoutを得る。そして、このビデオ重畳部226は、表示用立体画像データVoutを、ビットストリーム処理部201の外部に出力する。
また、オーディオデコーダ227は、上述の送信データ生成部110のオーディオエンコーダ117とは逆の処理を行う。すなわち、このオーディオデコーダ227は、デマルチプレクサ221で抽出されたオーディオのパケットからオーディオのエレメンタリストリームを再構成し、復号化処理を行って、音声データAoutを得る。そして、このオーディオデコーダ227は、音声データAoutを、ビットストリーム処理部201の外部に出力する。
図39に示すビットストリーム処理部201の動作を簡単に説明する。デジタルチューナ204(図38参照)から出力されるビットストリームデータBSDは、デマルチプレクサ221に供給される。このデマルチプレクサ221では、ビットストリームデータBSDから、ビデオ、オーディオおよび字幕のパケットが抽出され、各デコーダに供給される。
ビデオデコーダ222では、デマルチプレクサ221で抽出されたビデオのパケットからビデオのエレメンタリストリームが再構成され、さらに復号化処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、ビデオ重畳部226に供給される。
また、字幕デコーダ223では、デマルチプレクサ221で抽出された字幕のパケットから字幕エレメンタリストリームが再構成され、さらに復号化処理が行われて、各キャプション・ユニットの字幕データ(ARIB方式の字幕データ)が得られる。この各キャプション・ユニットの字幕データは、立体画像用字幕発生部224に供給される。
また、視差情報取り出し部225では、字幕デコーダ223を通じて得られる字幕のストリームから、各キャプション・ユニットに対応した視差ベクトル(視差情報)が取り出される。この場合、キャプション・ユニット毎の視差ベクトル(個別視差ベクトル)、あるいは各キャプション・ユニットに共通の視差ベクトル(共通視差ベクトル)が得られる。
また、視差情報取り出し部225では、字幕表示期間内で共通に使用される視差情報、または、これと共に字幕表示期間内で順次更新される視差情報が取得される。視差情報取り出し部225で取り出された視差情報(視差ベクトル)は、視差情報処理部228を通じて、立体画像用字幕発生部224に送られる。視差情報処理部228では、字幕表示期間内で順次更新される視差情報に関して、以下の処理が行われる。すなわち、視差情報処理部228では、時間方向(フレーム方向)のLPF処理を伴った補間処理が施されて、字幕表示期間内における任意のフレーム間隔、例えば、1フレーム間隔の視差情報が生成されて、立体画像用字幕発生部224に送られる。
立体画像用字幕発生部224では、各キャプション・ユニットの字幕データと、各キャプション・ユニットに対応した視差ベクトルに基づいて、左眼画像および右眼画像にそれぞれ重畳する左眼字幕および右眼字幕のデータ(ビットマップデータ)が生成される。この場合、画像内の重畳位置が、例えば、左眼の字幕に対して、右眼の字幕は、視差ベクトル分だけ、水平方向にずれるようにされる。この左眼字幕および左眼字幕のデータはビデオ重畳部226に供給される。
ビデオ重畳部226では、ビデオデコーダ222で得られた立体画像データに対し、立体画像用字幕発生部224で発生された左眼字幕および右眼字幕のデータ(ビットマップデータ)が重畳され、表示用立体画像データVoutが得られる。この表示用立体画像データVoutは、ビットストリーム処理部201の外部に出力される。
また、オーディオデコーダ227では、デマルチプレクサ221で抽出されたオーディオのパケットからオーディオエレメンタリストリームが再構成され、さらに復号化処理が行われて、上述の表示用立体画像データVoutに対応した音声データAoutが得られる。この音声データAoutは、ビットストリーム処理部201の外部に出力される。
上述したように、図38に示すセットトップボックス200において、受信される字幕データストリームに、字幕(キャプション・ユニット)のデータおよび視差ベクトル(視差情報)が含まれている。そして、字幕文データグループのPESストリーム内の字幕表示制御情報を送出するデータユニットに視差ベクトル(視差情報)が挿入され、字幕データと視差ベクトルとが対応付けられている。そのため、ビットストリーム処理部201では、左眼画像および右眼画像に重畳されるキャプション・ユニット(字幕)に、対応する視差ベクトル(視差情報)を用いて適切な視差を付与できる。したがって、キャプション・ユニット(字幕)の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、図38に示すセットトップボックス200において、ビットストリーム処理部201の視差情報取り出し部225では、字幕表示期間内で共通に使用される視差情報、または、これと共に字幕表示期間内で順次更新される視差情報が取得される。立体画像用字幕発生部224では、字幕表示期間内で順次更新される視差情報が使用されることで、左眼および右眼の字幕に付与する視差を画像内容の変化に連動して動的に変化させることが可能となる。
また、図38に示すセットトップボックス200において、ビットストリーム処理部201の視差情報処理部228では、字幕表示期間内で順次更新される視差情報に対して補間処理が施されて字幕表示期間内における任意のフレーム間隔の視差情報が生成される。この場合、送信側(放送局100)から16フレーム等のベースセグメント期間(更新フレーム間隔)毎に視差情報が送信される場合であっても、左眼および右眼の字幕に付与される視差を、細かな間隔で、例えばフレーム毎に制御することが可能となる。
また、図38に示すセットトップボックス200において、ビットストリーム処理部201の視差情報処理部228では、時間方向(フレーム方向)のローパスフィルタ処理を伴った補間処理が行われる。そのため、送信側(放送局100)からベースセグメント期間(更新フレーム間隔)毎に視差情報が送信される場合であっても、補間処理後の視差情報の時間方向(フレーム方向)の変化をなだらかにできる(図40参照)。したがって、左眼および右眼の字幕に付与される視差の推移が、更新フレーム間隔毎に不連続となることによる違和感を抑制できる。
[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。
[テレビ受信機の構成例]
テレビ受信機300の構成例を説明する。図41は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。
また、このテレビ受信機300は、映像・グラフィック処理回路307と、パネル駆動回路308と、表示パネル309と、音声信号処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326を有している。
アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
ビットストリーム処理部306は、図38に示すセットトップボックス200内のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部306は、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等を抽出する。また、このビットストリーム処理部306は、立体画像データに対して、左眼字幕、右眼字幕のデータを合成し、表示用立体画像データを生成して出力する。また、ビットストリーム処理部306は、音声データを出力する。
HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データおよび音声データを受信する。このHDMI受信部303は、そのバージョンが例えばHDMI1.4aとされており、立体画像データの取り扱いが可能な状態にある。
3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、デコード処理を行って、左眼画像データおよび右眼画像データを生成する。この場合、3D信号処理部301は、ビットストリーム処理部306で得られた立体画像データに対しては、その伝送方式(図4参照)に対応したデコード処理を行う。また、3D信号処理部301は、HDMI受信部303で受信された立体画像データに対しては、TMDS伝送データ構造に対応したデコード処理を行う。
映像・グラフィック処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、画質調整処理を行う。また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、メニュー、番組表などの重畳情報のデータを合成する。パネル駆動回路308は、映像・グラフィック処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)等で構成されている。
音声信号処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声信号処理回路310から出力される音声信号を増幅してスピーカ312に供給する。
CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
図41に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声信号処理回路310に供給される。
アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ305から出力されるビットストリームデータBSDは、ビットストリーム処理部306に供給される。このビットストリーム処理部306では、ビットストリームデータBSDから立体画像データ、音声データ、キャプション・ユニットの字幕データ、視差ベクトル等が抽出される。また、このビットストリーム処理部306では、立体画像データに対して、左眼字幕、右眼字幕のデータが合成され、表示用立体画像データが生成される。
ビットストリーム処理部306で生成された表示用立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部306で得られた音声データは、音声信号処理回路310に供給される。
3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対してデコード処理が行われて、左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、映像・グラフィック処理回路307に供給される。この映像・グラフィック処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成され、必要に応じて、画質調整処理、重畳情報データの合成処理も行われる。
この映像・グラフィック処理回路307で得られる画像データはパネル駆動回路308に供給される。そのため、表示パネル309により立体画像が表示される。例えば、表示パネル309に、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示される。視聴者は、例えば、表示パネル309の表示に同期して左眼シャッタおよび右眼シャッタが交互に開くシャッタメガネを装着することで、左眼では左眼画像のみを見ることができ、右眼では右眼画像のみを見ることができ、立体画像を知覚できる。
また、音声信号処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から表示パネル309の表示画像に対応した音声が出力される。
<2.変形例>
なお、上述実施の形態においては、立体画像表示システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図41に示すように、セットトップボックス200内のビットストリーム処理部201と同等に機能するビットストリーム処理部306を備えている。したがって、図42に示すように、放送局100およびテレビ受信機300で構成される立体画像表示システム10Aも考えられる。
また、上述実施の形態においては、立体画像データを含むデータストリーム(ビットストリームデータ)が放送局100から放送される例を示した。しかし、この発明は、このデータストリームがインターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。
また、上述実施の形態においては、セットトップボックス200と、テレビ受信機300とが、HDMIのデジタルインタフェースで接続されるものを示している。しかし、これらが、HDMIのデジタルインタフェースと同様のデジタルインタフェース(有線の他に無線も含む)で接続される場合においても、この発明を同様に適用できる。
また、上述実施の形態においては、重畳情報としてキャプション・ユニット(字幕)を取り扱うものを示した。しかし、この発明は、その他のグラフィクス情報、テキスト情報などの重畳情報を扱うものにも同様に適用できる。
この発明は、画像に重ねて字幕などの重畳情報の表示を行う立体画像システムに適用できる。
10,10A・・・立体画像表示システム
100・・・放送局
110・・・送信データ生成部
113・・・ビデオエンコーダ
117・・・オーディオエンコーダ
122・・・マルチプレクサ
130・・・データ取り出し部
130a・・・データ記録媒体
131・・・視差情報作成部
132・・・字幕発生部
133・・・字幕エンコーダ
200・・・セットトップボックス(STB)
201・・・ビットストリーム処理部
202・・・HDMI端子
203・・・アンテナ端子
204・・・デジタルチューナ
205・・・映像信号処理回路
206・・・HDMI送信部
207・・・音声信号処理回路
211・・・CPU
215・・・リモコン受信部
216・・・リモコン送信機
221・・・デマルチプレクサ
222・・・ビデオデコーダ
223・・・字幕デコーダ
224・・・立体画像用字幕発生部
225・・・視差情報取り出し部
226・・・ビデオ重畳部
227・・・オーディオデコーダ
228・・・視差情報処理部
300・・・テレビ受信機(TV)
301・・・3D信号処理部
302・・・HDMI端子
303・・・HDMI受信部
304・・・アンテナ端子
305・・・デジタルチューナ
306・・・ビットストリーム処理部
307・・・映像・グラフィック処理回路
308・・・パネル駆動回路
309・・・表示パネル
310・・・音声信号処理回路
311・・・音声増幅回路
312・・・スピーカ
321・・・CPU
325・・・リモコン受信部
326・・・リモコン送信機
400・・・HDMIケーブル

Claims (19)

  1. 左眼画像データおよび右眼画像データを含む立体画像データを出力する画像データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力部と、
    上記画像データ出力部から出力される立体画像データ含む第1のデータストリームと、上記重畳情報出力部から出力される視差情報を含む第2のデータストリームとを有する多重化データストリームを送信するデータ送信部とを備え、
    上記第2のデータストリームは、上記重畳情報の表示制御情報を送出するデータユニットを有し、
    上記視差情報は、上記データユニットに挿入されている
    立体画像データ送信装置。
  2. 上記視差情報は、上記重畳情報が表示される所定数のフレーム期間内で共通に使用される第1の視差情報、または該第1の視差情報および上記所定数のフレーム期間内で順次更新される第2の視差情報であり、
    上記データユニットには、上記第2の視差情報の存在を示すフラグ情報が挿入されている
    請求項1に記載の立体画像データ送信装置。
  3. 上記第2の視差情報は、上記所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる
    請求項2に記載の立体画像データ送信装置。
  4. 上記第2の視差情報には、上記更新フレーム間隔毎のフレームのそれぞれについて、上記視差情報の更新の有無を示すフラグ情報が付加されている
    請求項3に記載の立体画像データ送信装置。
  5. 上記第2の視差情報には、上記更新フレーム期間毎のフレームのそれぞれについて、上記更新フレーム間隔を調整する情報が付加されている
    請求項3に記載の立体画像データ送信装置。
  6. 上記データユニットには、フレーム周期を指定する情報が挿入されている
    請求項3に記載の立体画像データ送信装置。
  7. 上記データユニットに挿入されている視差情報は、同一画面に表示される特定の重畳情報に対応した視差情報、または同一画面に表示される複数の重畳情報に対応した視差情報である
    請求項1に記載の立体画像データ送信装置。
  8. 上記データユニットには、上記重畳情報の表示の際に必須の、上記視差情報に対する対応レベルを示す情報が挿入されている
    請求項2に記載の立体画像データ送信装置。
  9. 上記第2のデータストリームには、上記データユニットの上位レイヤに、上記重畳情報の拡張表示に対応しているかを示すフラグ情報が含まれている
    請求項1に記載の立体画像データ送信装置。
  10. 上記多重化データストリームに、上記第2のデータストリームが上記重畳情報の拡張表示制御に対応しているかを示すフラグ情報が挿入されている
    請求項1に記載の立体画像データ送信装置。
  11. 上記多重化ストリームには、イベント単位の管理を行うサービス・インフォメーションとしてのイベント・インフォメーション・テーブルが含まれており、
    上記フラグ情報は、上記イベント・インフォメーション・テーブルの配下に挿入されている
    請求項10に記載の立体画像データ送信装置。
  12. 上記多重化データストリームには、該多重化データストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを示すプログラム・スペシフィック・インフォメーションとしてのプログラム・マップ・テーブルが含まれており、
    上記フラグ情報は、上記プログラム・マップ・テーブルの配下に挿入されている
    請求項10に記載の立体画像データ送信装置。
  13. 上記重畳情報のデータは、ARIB方式の字幕文データであり、
    上記データユニットは、字幕文データグループ内のデータユニットである
    請求項1に記載の立体画像データ送信装置。
  14. 左眼画像データおよび右眼画像データを含む立体画像データを出力する画像データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを出力する重畳情報データ出力ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を出力する視差情報出力ステップと、
    上記画像データ出力ステップで出力される立体画像データ含む第1のデータストリームと、上記重畳情報出力ステップで出力される重畳情報のデータおよび上記視差情報出力ステップで出力される視差情報を含む第2のデータストリームとを有する多重化データストリームを送信するデータ送信ステップとを備え、
    上記第2のデータストリームは、上記重畳情報の表示制御情報を送出するデータユニットを有し、
    上記視差情報は、上記データユニットに挿入されている
    立体画像データ送信方法。
  15. 第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームを受信するデータ受信部を備え、
    上記第1のデータストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含み、
    上記第2のデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    上記第2のデータストリームは、上記重畳情報の表示制御情報を送出するデータユニットを有し、上記視差情報は該データユニットに挿入されており、
    上記データ受信部で受信された多重化データストリームに含まれる上記第1のデータストリームから上記立体画像データを取得する画像データ取得部と、
    上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから上記重畳情報のデータを取得する重畳情報データ取得部と、
    上記データ受信部で受信された多重化データストリームに含まれる上記第2のデータストリームから上記視差情報を取得する視差情報取得部と、
    上記画像データ取得部で取得された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データと、上記視差情報取得部で取得された上記視差情報と、上記重畳情報データ取得部で取得された上記重畳情報のデータを用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部とをさらに備える
    立体画像データ受信装置。
  16. 上記データユニットに挿入されている視差情報は、上記重畳情報が表示される所定数のフレーム期間内で順次更新される視差情報であり、上記所定数のフレーム期間の最初のフレームの視差情報と、その後の更新フレーム間隔毎のフレームの視差情報とからなる
    請求項15に記載の立体画像データ受信装置。
  17. 上記画像データ処理部は、上記所定数のフレーム期間内で順次更新される視差情報を構成する複数フレームの視差情報に対して補間処理を施し、上記所定数のフレーム期間内における任意のフレーム間隔の視差情報を生成して使用する
    請求項15に記載の立体画像データ受信装置。
  18. 上記補間処理は、時間方向のローパスフィルタ処理を伴う
    請求項17に記載の立体画像データ受信装置。
  19. 第1のデータストリームと第2のデータストリームとが含まれる多重化データストリームを受信するデータ受信ステップを備え、
    上記第1のデータストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを含み、
    上記第2のデータストリームは、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報を含み、
    上記第2のデータストリームは、上記重畳情報の表示制御情報を送出するデータユニットを有し、上記視差情報は該データユニットに挿入されており、
    上記データ受信ステップで受信された多重化データストリームに含まれる上記第1のデータストリームから上記立体画像データを取得する画像データ取得ステップと、
    上記データ受信ステップで受信された多重化データストリームに含まれる上記第2のデータストリームから上記重畳情報のデータを取得する重畳情報データ取得ステップと、
    上記データ受信ステップで受信された多重化データストリームに含まれる上記第2のデータストリームから上記視差情報を取得する視差情報取得ステップと、
    上記画像データ取得ステップで取得された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データと、上記視差情報取得ステップで取得された上記視差情報と、上記重畳情報データ取得ステップで取得された上記重畳情報のデータを用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理ステップとをさらに備える
    立体画像データ受信方法。
JP2010246538A 2010-11-02 2010-11-02 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 Pending JP2012100102A (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2010246538A JP2012100102A (ja) 2010-11-02 2010-11-02 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
CN2011800375558A CN103039084A (zh) 2010-11-02 2011-10-14 三维图像数据发送设备、三维图像数据发送方法、三维图像数据接收设备和三维图像数据接收方法
RU2012126548/07A RU2012126548A (ru) 2010-11-02 2011-10-14 Устройство передачи данных стереоизображения, способ передачи данных стереоизображения, устройство приема данных стереоизображения и способ приема данных стереоизображения
EP11837849.6A EP2506584A4 (en) 2010-11-02 2011-10-14 DEVICE FOR TRANSMITTING THREE-DIMENSIONAL IMAGE DATA, METHOD FOR TRANSMITTING THREE-DIMENSIONAL IMAGE DATA, DEVICE FOR RECEIVING THREE-DIMENSIONAL IMAGE DATA AND METHOD FOR RECEIVING THREE-DIMENSIONAL IMAGE DATA
MX2012007793A MX2012007793A (es) 2010-11-02 2011-10-14 Dispositivo de transmision de datos de imagenes tridimensionales, metodo de transmision de datos de imagenes tridimensionales, dispositivo de recepcion de datos de imagenes tridimensionales y metodos de recepcion de datos de imagenes tridimensionales.
BR112012015683A BR112012015683A2 (pt) 2010-11-02 2011-10-14 aparelhos e métodos de transmissão e de recepção de dados de imagem estéreo
KR1020127016223A KR20130132238A (ko) 2010-11-02 2011-10-14 입체 화상 데이터 송신 장치, 입체 화상 데이터 송신 방법, 입체 화상 데이터 수신 장치 및 입체 화상 데이터 수신 방법
PCT/JP2011/073739 WO2012060198A1 (ja) 2010-11-02 2011-10-14 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US13/518,415 US20120257019A1 (en) 2010-11-02 2011-10-14 Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
ARP110103956A AR083558A1 (es) 2010-11-02 2011-10-26 Aparato transmisor de datos de imagen en estereo, metodo de transmision de datos de imagen en estereo, aparato receptor de datos de imagen en estereo y metodo de recepcion de datos de imagen en estereo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010246538A JP2012100102A (ja) 2010-11-02 2010-11-02 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法

Publications (1)

Publication Number Publication Date
JP2012100102A true JP2012100102A (ja) 2012-05-24

Family

ID=46024317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010246538A Pending JP2012100102A (ja) 2010-11-02 2010-11-02 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法

Country Status (10)

Country Link
US (1) US20120257019A1 (ja)
EP (1) EP2506584A4 (ja)
JP (1) JP2012100102A (ja)
KR (1) KR20130132238A (ja)
CN (1) CN103039084A (ja)
AR (1) AR083558A1 (ja)
BR (1) BR112012015683A2 (ja)
MX (1) MX2012007793A (ja)
RU (1) RU2012126548A (ja)
WO (1) WO2012060198A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016088582A1 (ja) * 2014-12-04 2017-09-21 ソニー株式会社 データ処理装置、データ処理方法、及び、プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5407968B2 (ja) * 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
EP2397953B1 (en) * 2010-06-15 2019-02-20 Accenture Global Services Limited A computer-implemented method, a computer program product and an embedded system for displaying data more efficiently
JP2013066075A (ja) * 2011-09-01 2013-04-11 Sony Corp 送信装置、送信方法および受信装置
CN109901765B (zh) * 2015-10-06 2022-06-21 佳能株式会社 电子设备及其控制方法
RU2623806C1 (ru) * 2016-06-07 2017-06-29 Акционерное общество Научно-производственный центр "Электронные вычислительно-информационные системы" (АО НПЦ "ЭЛВИС") Способ и устройство обработки стереоизображений
CN114500975A (zh) * 2022-01-24 2022-05-13 深圳市时代华影科技股份有限公司 3d视频处理方法、装置、3d眼镜和3d视频显示系统
CN114500973A (zh) * 2022-01-24 2022-05-13 深圳市时代华影科技股份有限公司 3d视频处理方法、装置、3d眼镜和3d视频显示系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
WO2010095411A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
WO2010119815A1 (ja) * 2009-04-15 2010-10-21 ソニー株式会社 データ構造、記録媒体、再生装置および再生方法、並びにプログラム
WO2011001859A1 (ja) * 2009-06-29 2011-01-06 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
JP2012518322A (ja) * 2009-02-17 2012-08-09 サムスン エレクトロニクス カンパニー リミテッド 映像処理方法及びその装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357156A (ja) * 2003-05-30 2004-12-16 Sharp Corp 映像受信装置および映像再生装置
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP2008537250A (ja) * 2005-04-19 2008-09-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 奥行き検知装置及び方法
KR101622688B1 (ko) * 2008-12-02 2016-05-19 엘지전자 주식회사 3차원 캡션 디스플레이 방법 및 이를 구현하기 위한 3차원 디스플레이 장치
WO2010095074A1 (en) * 2009-02-17 2010-08-26 Koninklijke Philips Electronics N.V. Combining 3d image and graphical data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
JP2012518322A (ja) * 2009-02-17 2012-08-09 サムスン エレクトロニクス カンパニー リミテッド 映像処理方法及びその装置
WO2010095411A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
WO2010119815A1 (ja) * 2009-04-15 2010-10-21 ソニー株式会社 データ構造、記録媒体、再生装置および再生方法、並びにプログラム
WO2011001859A1 (ja) * 2009-06-29 2011-01-06 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016088582A1 (ja) * 2014-12-04 2017-09-21 ソニー株式会社 データ処理装置、データ処理方法、及び、プログラム
JP2020120379A (ja) * 2014-12-04 2020-08-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US10764782B2 (en) 2014-12-04 2020-09-01 Sony Corporation Data processing apparatus, data processing method, and program
US11284299B2 (en) 2014-12-04 2022-03-22 Sony Corporation Data processing apparatus, data processing method, and program

Also Published As

Publication number Publication date
BR112012015683A2 (pt) 2016-05-24
AR083558A1 (es) 2013-03-06
CN103039084A (zh) 2013-04-10
RU2012126548A (ru) 2013-12-27
EP2506584A4 (en) 2015-03-04
WO2012060198A1 (ja) 2012-05-10
MX2012007793A (es) 2012-08-03
US20120257019A1 (en) 2012-10-11
EP2506584A1 (en) 2012-10-03
KR20130132238A (ko) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5429034B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US8860786B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
US8860782B2 (en) Stereo image data transmitting apparatus and stereo image data receiving apparatus
JP5454444B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012060198A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
JP2011249945A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5682149B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013005571A1 (ja) 送信装置、送信方法および受信装置
JP2012120143A (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012057048A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013018490A1 (ja) 送信装置、送信方法および受信装置
WO2013011834A1 (ja) 送信装置、送信方法および受信装置
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
WO2013018489A1 (ja) 送信装置、送信方法および受信装置
WO2013172142A1 (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150630