JP2011030176A - 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 - Google Patents

立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 Download PDF

Info

Publication number
JP2011030176A
JP2011030176A JP2009246179A JP2009246179A JP2011030176A JP 2011030176 A JP2011030176 A JP 2011030176A JP 2009246179 A JP2009246179 A JP 2009246179A JP 2009246179 A JP2009246179 A JP 2009246179A JP 2011030176 A JP2011030176 A JP 2011030176A
Authority
JP
Japan
Prior art keywords
information
data
image data
unit
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009246179A
Other languages
English (en)
Other versions
JP5521486B2 (ja
Inventor
Ikuo Tsukagoshi
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009246179A priority Critical patent/JP5521486B2/ja
Priority to TW99119491A priority patent/TWI413403B/zh
Priority to RU2011105392/08A priority patent/RU2530346C2/ru
Priority to PCT/JP2010/060581 priority patent/WO2011001853A1/ja
Priority to BRPI1004288A priority patent/BRPI1004288A2/pt
Priority to CN2010800028685A priority patent/CN102177723A/zh
Priority to EP10794023.1A priority patent/EP2451167A4/en
Priority to US13/058,982 priority patent/US20110141234A1/en
Priority to KR1020117003580A priority patent/KR20120038388A/ko
Publication of JP2011030176A publication Critical patent/JP2011030176A/ja
Application granted granted Critical
Publication of JP5521486B2 publication Critical patent/JP5521486B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Abstract

【課題】クローズド・キャプション表示等において画像内の各物体との間の遠近感の整合性を維持する。
【解決手段】ビデオフレーミング部112は、左眼画像データおよび右眼画像データを、伝送方式に応じた状態に加工して、送信用立体画像データを得る。CCエンコーダ127は、クローズド・キャプションデータ(CCデータ)を出力する。Zデータ部128は、クローズド・キャプション情報等の重畳情報のデータ毎に、対応付けされた視差情報を出力する。この対応付けをRegion_idを用いて行う。CCデータおよび視差情報をビデオエンコーダ113のストリームフォーマッタ113aに送り、ビデオのストリームに、ユーザデータとして埋め込こんで送信する。受信側においては、左眼画像および右眼画像に重畳される同一の重畳情報(クローズド・キャプション情報等)として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができる。
【選択図】図19

Description

この発明は、立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置に関し、特に、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報の表示を良好に行い得る立体画像データ送信装置等に関する。
例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。
図54は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。
また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。
特開2005−6114号公報
上述したように立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳される重畳情報、例えばクローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。
例えば、画像にクローズド・キャプション情報あるいはサブタイトル情報である字幕を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。また、他のグラフィクス情報、あるいはテキスト情報を画像に重畳表示する場合にも、画像内の各物体の遠近感に応じて視差調整を施し、遠近感の整合性を維持することが期待される。
この発明の目的は、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報の表示において、画像内の各物体との間の遠近感の整合性の維持を図ることにある。
この発明の概念は、
左眼画像データおよび右眼画像データを含む立体画像データに対して符号化を行って符号化ビデオデータを得る符号化部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを発生する重畳情報データ発生部と、
上記左眼画像データおよび上記右眼画像データによる画像に重畳する上記重畳情報に視差を付与するための視差情報を出力する視差情報出力部と、
上記符号化部で得られた符号化ビデオデータ、上記重畳情報データ発生部で発生された重畳情報データおよび上記視差情報出力部から出力された視差情報を送信する送信部と
を備える立体画像データ送信装置にある。
この発明において、符号化部により、左眼画像データおよび右眼画像データを含む立体画像データに対して符号化が行われて符号化ビデオデータが得られる。例えば、符号化部では、MPEG2、H.264 AVCあるいはVC−1等の符号化方式で、符号化が行われる。
また、重畳情報データ発生部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報のデータが発生される。ここで、重畳情報は、字幕を表示するクローズド・キャプション情報、サブタイトル情報、ロゴ等のグラフィクスを表示するグラフィクス情報、電子番組表(EPG:Electronic Program Guide)、文字放送内容等を表示するテキスト情報など、画像に重畳表示される情報を意味している。
また、視差情報出力部により、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報に視差を付与するための視差情報が出力される。例えば、重畳情報データ発生部で発生される各重畳情報データには識別子が付加されており、視差情報出力部から出力される各重畳情報データの視差情報には、対応する重畳情報データに付与されている識別子に対応した識別子が付加される。このように重畳情報データおよび視差情報のそれぞれに識別子が付加されることで、重畳情報データと視差情報との対応付けが可能となる。ここで、対応した識別子とは、同じ識別子、あるいは関連付けされている識別子を意味する。
例えば、視差情報出力部は、重畳情報データ発生部で発生される重畳情報データ毎に、左眼画像データおよび右眼画像データによる画像の内容に応じて、視差情報を決定する視差情報決定部を有し、この視差情報決定部で決定された視差情報を出力する、ようにされる。この場合、例えば、視差情報決定部は、左眼画像データおよび右眼画像データに基づき、画像内の複数の位置において、左眼画像および右眼画像の一方に対する他方の視差情報を検出する視差情報検出部を有し、重畳情報データ毎に、この視差情報検出部で検出された複数の視差情報のうち重畳位置に対応した検出位置で検出された視差情報に決定する、ようにされる。
また、例えば、視差情報出力部は、重畳情報データ発生部で発生される重畳情報データ毎に、視差情報を設定する視差情報設定部を有し、この視差情報設定部で設定された視差情報を出力する、ようにされる。視差情報設定部では、例えば、所定のプログラム処理により、またはユーザのマニュアル操作により、重畳情報データ毎に視差情報の設定が行われる。例えば、重畳位置に応じて異なる視差情報が設定され、あるいは重畳位置によらずに共通の視差情報が設定され、あるいは重畳情報の種類別に異なる視差情報が設定される。ここで、重畳情報の種類とは、例えば、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の種類である。また、この重畳情報の種類とは、例えば、重畳位置や重畳継続時間等により区分けされる種類である。
また、例えば、視差情報出力部は、重畳情報データ発生部で発生される重畳情報データ毎に、左眼画像データおよび右眼画像データによる画像の内容に応じて、視差情報を決定する視差情報決定部と、重畳情報データ発生部で発生される重畳情報データ毎に、視差情報を設定する視差情報設定部とを有し、視差情報決定部で決定された視差情報または視差情報設定部で設定された視差情報を選択的に出力する、ようにされる。
また、送信部により、符号化部で得られた符号化ビデオデータ、重畳情報データ発生部で発生された重畳情報データおよび視差情報出力部から出力された視差情報が送信される。例えば、視差情報出力部で出力された視差情報は、符号化部で得られた符号化ビデオデータをペイロード部に含むビデオエレメンタリーストリームのヘッダ部のユーザデータ領域に含めて送信される。また、例えば、重畳情報の重畳位置を示す情報および重畳情報の表示時間を示す情報のいずれかまたは両方が、視差情報に付加して送信される。視差情報に重畳位置および表示時間を示す情報を付加して送信することで、例えば、重畳情報データにそれらの情報を付加して送信しなくてもよくなる。
このように、この発明においては、左眼画像データおよび右眼画像データを含む立体画像データを符号化して得られた符号化ビデオデータと共に、重畳情報データおよび視差情報が送信される。そのため、受信側においては、左眼画像および右眼画像に重畳される同一の重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
また、この発明の概念は、
左眼画像データおよび右眼画像データを含む立体画像データに対して符号化を行って得られた符号化ビデオデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する上記重畳情報に視差を付与するための視差情報とを受信する受信部と、
上記受信部で受信された上記符号化ビデオデータに対して復号化を行って上記立体画像データを得る復号化部と、
上記受信部で受信された上記視差情報に基づいて、上記復号化部で得られた立体画像データに含まれる上記左眼画像データおよび上記右眼画像データによる画像に重畳する上記受信部で受信された上記重畳情報データによる同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部と
を備える立体画像データ受信装置にある。
この発明においては、受信部により、左眼画像データおよび右眼画像データを含む立体画像データを符号化して得られた符号化ビデオデータと共に、重畳情報データおよび視差情報が送信される。そして、復号化部により、受信部で受信された符号化ビデオデータに対して復号化が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。
また、画像データ処理部により、復号化部で得られた立体画像データに含まれる左眼画像データと、受信部で受信された重畳情報データに基づいて、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータが得られる。この場合、受信部で受信された視差情報に基づいて、左眼画像データおよび右眼画像データによる画像に重畳される重畳画像には、視差が付与される。そのため、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など重畳情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
この発明によれば、立体画像データの受信側で、左眼画像および右眼画像に重畳される同一の重畳情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報の表示において遠近感の整合性を維持することが可能となる。
この発明の実施の形態としての立体画像表示システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 1920×1080pのピクセルフォーマットの画像データを示す図である。 立体画像データ(3D画像データ)の伝送方式である「Top & Bottom」方式、「Side By Side」方式、「Frame Sequential」方式を説明するための図である。 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。 視差ベクトル検出部で検出される、画像内の所定位置おける視差ベクトルVVの一例を示す図である。 視差ベクトルの伝送内容を示す図である。 視差検出ブロック例と、その場合の視差ベクトルの伝送内容を示す図である。 視差ベクトルを検出して伝送するタイミングの例を説明するための図である。 視差ベクトルを検出して伝送するタイミングの例を説明するための図である。 送信データ生成部において多重化される各データのストリーム例を示す図である。 放送局における送信データ生成部の他の構成例を示すブロック図である。 伝送方式が第1の伝送方式(「Top & Bottom」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置等を説明するための図である。 伝送方式が第1の伝送方式(「Top & Bottom」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の生成方法を説明するための図である。 伝送方式が第2の伝送方式(「Side By Side」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の生成方法を説明するための図である。 伝送方式が第2の伝送方式(「Side By Side」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の生成方法を説明するための図である。 放送局における送信データ生成部の他の構成例を示すブロック図である。 放送局における送信データ生成部の他の構成例を示すブロック図である。 「Location」、「Region大きさ」の情報を説明するための図である。 重畳情報毎の視差情報を出力するZデータ部の構成例を示すブロック図である。 ビデオエレメンタリーストリームの構造例を概略的に示す図である。 MPEG2、H.264 AVC、VC−1の各符号化方式におけるユーザデータの構成例を示す図である。 視差情報(視差ベクトル)を含む「user_structure」の構成例を示す図である。 放送局における送信データ生成部の他の構成例を示すブロック図である。 放送局における送信データ生成部の他の構成例を示すブロック図である。 伝送方式が第2の伝送方式(「Side By Side」方式)の場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示す図である。 左眼画像、右眼画像に対して、ビットストリームデータから抽出された従来方法により伝送されるグラフィクスデータによるグラフィクス画像をそのまま重畳した状態を示す図である。 時刻T0,T1,T2,T3における3つのオブジェクト位置の視差ベクトル(View Vector)を示す図である。 画像上における字幕(グラフィクス情報)の表示例と、背景、近景オブジェクト、字幕の遠近感を示す図である。 画像上における字幕(グラフィクス情報)の表示例と、字幕を表示するための左眼グラフィクス情報LGIおよび右眼グラフィクス情報RGIを示す図である。 視差ベクトルとして、画像内の複数位置で検出された視差ベクトルのうち、その重畳位置に対応したものを使用することを説明するための図である。 画像内にA,B,Cの各オブジェクトが存在し、これら各オブジェクトの近傍位置に、各オブジェクトの注釈を示すテキスト情報を重畳することを示す図である。 立体画像表示システムを構成するセットトップボックスの構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の構成例を示すブロック図である。 視差ベクトルVV1が、テレビディスプレイに向かって左側のビデオオブジェクトの方が大きい場合のスピーカ出力制御例を示す図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。 立体画像表示システムを構成するテレビ受信機の構成例を示すブロック図である。 HDMI送信部(HDMIソース)とHDMI受信部(HDMIシンク)の構成例を示すブロック図である。 HDMI送信部を構成するHDMIトランスミッタと、HDMI受信部を構成するHDMIレシーバの構成例を示すブロック図である。 TMDS伝送データの構造例(横×縦が1920ピクセル×1080ラインの画像データが伝送される場合)を示す図である。 ソース機器およびシンク機器のHDMIケーブルが接続されるHDMI端子のピン配列(タイプA)を示す図である。 第1の伝送方式(「Top& Bottom」方式)のTMDS伝送データ例を示す図である。 第2の伝送方式(「SideBy Side」方式)のTMDS伝送データ例を示す図である。 第3の伝送方式(「FrameSequential」方式)のTMDS伝送データ例を示す図である。 HDMI 1.4(New HDMI)での「Frame Sequential」方式と、HDMI 1.3(Legacy HDMI)での「FrameSequential」方式を説明するための図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。 セットトップボックスを構成するビットストリーム処理部の他の構成例を示すブロック図である。 立体画像表示システムの他の構成例を示すブロック図である。 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[立体画像送受信システムの構成例]
図1は、実施の形態としての立体画像送受信システム10の構成例を示している。この立体画像送受信システム10は、放送局100と、セットトップボックス(STB:Set Top Box)200と、テレビ受信機300を有している。
セットトップボックス200およびテレビ受信機300は、HDMI(High Definition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
[放送局の説明]
放送局100は、ビットストリームデータを、放送波にのせて送信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報データ、さらには視差情報(視差ベクトル)などが含まれる。ここで、重畳情報データは、クローズド・キャプションデータ、サブタイトルデータ、グラフィクスデータ、テキストデータなどである。
「送信データ生成部の構成例」
図2は、放送局100において、上述のビットストリームデータを生成する送信データ生成部110の構成例を示している。この構成例は、視差ベクトルを数値情報として送信する例である。この送信データ生成部110は、カメラ111L,111Rと、ビデオフレーミング部112と、ビデオエンコーダ113と、ビデオエンコーダ113と、視差ベクトル検出部114と、視差ベクトルエンコーダ115を有している。また、この送信データ生成部110は、マイクロホン116と、オーディオエンコーダ117を有している。さらに、この送信データ生成部110は、サブタイトル・グラフィクス発生部118と、サブタイトル・グラフィクスエンコーダ119と、テキスト発生部120と、テキストエンコーダ121と、マルチプレクサ122を有している。
カメラ111Lは、左眼画像を撮影して立体画像表示のための左眼画像データを得る。カメラ111Rは、右眼画像を撮影して立体画像表示のための右眼画像データを得る。ビデオフレーミング部112は、カメラ111Lで得られる左眼画像データおよびカメラ111Rで得られる右眼画像データを、伝送方式に応じた状態に加工処理する。
[立体画像データの伝送方式例]
ここでは、立体画像データ(3D画像データ)の伝送方式として、以下の第1〜第3の方式を挙げるが、これら以外の伝送方式であってもよい。ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、「Top& Bottom」方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
第2の伝送方式は、「SideBy Side」方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。現信号に対して、水平解像度は半分となる。
第3の伝送方式は、「FrameSequential」方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式である。
図2に戻って、ビデオエンコーダ113は、ビデオフレーミング部112で加工処理された立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施して符号化ビデオデータを得る。また、ビデオエンコーダ113は、後段にストリームフォーマッタ113aを備える。このストリームフォーマッタ113により、ペイロード部に符号化ビデオデータを含むビデオのエレメンタリーストリームを生成する。
視差ベクトル検出部114は、左眼画像データおよび右眼画像データに基づき、画像内の所定位置において、左眼画像および右眼画像の一方に対する他方の視差情報である視差ベクトルを検出する。ここで、画像内の所定位置は、全ての画素位置、複数画素からなる各領域の代表位置、あるいは、重畳情報、ここではグラフィック情報やテキスト情報を重畳する領域の代表位置等である。
[視差ベクトルの検出]
視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば8×8あるいは16×16の比較ブロックが順次設定されていく。画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。
右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
図7(a)は、視差ベクトル検出部114で検出される、画像内の所定位置おける視差ベクトルVVの一例を示している。この場合、図7(b)に示すように、この画像内の所定位置においては、左眼画像(検出画像)を視差ベクトルVVだけずらすと、右眼画像(参照画像)と重なることを意味する。
図2に戻って、視差ベクトルエンコーダ115は、視差ベクトル検出部114で検出された視差ベクトル等を含む視差ベクトルのエレメンタリーストリームを生成する。ここで、視差ベクトルのエレメンタリーストリームには、以下の内容が含まれる。すなわち、ID(ID_Block)、垂直位置情報(Vertical_Position)、水平位置情報(Horizontal_Position)、視差ベクトル(View_Vector)が1セットとされる。そして、この1セットが視差検出ブロックの数であるN個分だけ繰り返される。図8は、視差ベクトルの伝送内容を示している。視差ベクトルには、垂直方向成分(View_Vector_Vertical)および水平方向成分(View_Vector_Horizontal)が含まれている。
なお、視差検出ブロックの垂直、水平の位置は、画像の左上の原点から、ブロックの左上の画素までの垂直方向、水平方向のオフセット値となる。各視差ベクトルの伝送に、視差検出ブロックのIDを付すのは、画像に重畳表示させるサブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報のパターンとのリンクがとれるようにするためである。
例えば、図9(a)に示すように、A〜Fまでの視差検出ブロックが存在するとき、伝送内容には、図9(b)に示すように、その視差検出ブロックA〜FのIDと、垂直、水平の位置情報と、視差ベクトルが含まれる。例えば、図9(b)において、視差検出ブロックAに関しては、ID2は視差検出ブロックAのIDを示し、(Ha,Va)は視差検出ブロックAの垂直、水平の位置情報を示し、視差ベクトルaは視差検出ブロックAの視差ベクトルを示している。
ここで、視差ベクトルを検出して伝送するタイミングについて説明する。このタイミングに関しては、例えば、以下の第1〜第4の例が考えられる。
第1の例においては、図10(a)に示すように、ピクチャの符号化に同期させる。この場合、視差ベクトルは、ピクチャ単位で伝送される。このピクチャ単位は、視差ベクトルを伝送する際のもっとも細かい単位である。第2の例においては、図10(b)に示すように、ビデオのシーンに同期させる。この場合、視差ベクトルは、シーン単位で伝送される。
第3の例においては、図10(c)に示すように、符号化ビデオのIピクチャ(Intrapicture)、またはGOP(Group Of Pictures)に同期させる。第4の例においては、図11に示すように、画像に重畳表示されるサブタイトル情報、グラフィクス情報、テキスト情報等の表示開始タイミングに同期させる。
図2に戻って、マイクロホン116は、カメラ111L,111Rで撮影された画像に対応した音声を検出して、音声データを得る。オーディオエンコーダ117は、マイクロホン116で得られた音声データに対して、MPEG−2 Audio AAC等の符号化を施し、オーディオのエレメンタリーストリームを生成する。
サブタイトル・グラフィクス発生部118は、画像に重畳するサブタイトル情報やグラフィクス情報のデータ(サブタイトルデータ、グラフィクスデータ)を発生する。サブタイトル情報は、例えば字幕である。また、グラフィクス情報は、例えばロゴなどである。このサブタイトルデータおよびグラフィクスデータは、ビットマップデータである。このサブタイトルデータおよびグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。
このアイドリングオフセット情報は、例えば、画像の左上の原点から、サブタイトル情報やグラフィクス情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、字幕データをビットマップデータとして伝送する規格は、ヨーロッパのデジタル放送規格であるDVBでDVB_Subtitlingとして規格化され、運用されている。
サブタイトル・グラフィクスエンコーダ119は、サブタイトル・グラフィクス発生部118で発生されたサブタイトル情報やグラフィクス情報のデータ(サブタイトルデータ、グラフィクスデータ)を入力する。そして、このサブタイトル・グラフィクスエンコーダ119は、これらのデータをペイロード部に含むエレメンタリーストリームを生成する。
テキスト発生部120は、画像に重畳するテキスト情報のデータ(テキストデータ)を発生する。テキスト情報は、例えば電子番組表、文字放送内容などである。このテキストデータには、上述のグラフィクスデータと同様に、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。このアイドリングオフセット情報は、例えば、画像の左上の原点から、テキスト情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、テキストデータを伝送する例としては、番組予約として運用されているEPG、アメリカのデジタル地上波規格ATSCのCC_data(Closed Caption)がある。
テキストエンコーダ121は、テキスト発生部120で発生されたテキストデータを入力する。そして、テキストエンコーダ121は、これらのデータをペイロード部に含むエレメンタリーストリームを生成する。
マルチプレクサ122は、エンコーダ113,115,117,119,121から出力されるパケット化されたエレメンタリーストリームを多重化する。そして、このマルチプレクサ122は、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDを出力する。
図2に示す送信データ生成部110の動作を簡単に説明する。カメラ111Lでは、左眼画像が撮影される。このカメラ111Lで得られる立体画像表示のための左眼画像データはビデオフレーミング部112に供給される。また、カメラ111Rでは、右眼画像が撮影される。このカメラ111Rで得られる立体画像表示のための右眼画像データはビデオフレーミング部112に供給される。ビデオフレーミング部112では、左眼画像データおよび右眼画像データが、伝送方式に応じた状態に加工処理されて、立体画像データが得られる(図4(a)〜(c)参照)。
ビデオフレーミング部112で得られる立体画像データはビデオエンコーダ113に供給される。このビデオエンコーダ113では、立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含むビデオエレメンタリーストリームが生成される。このビデオエレメンタリーストリームはマルチプレクサ122に供給される。
また、カメラ111L,111Rで得られた左眼画像データ、右眼画像データは、ビデオフレーミング部112を通じて、視差ベクトル検出部114に供給される。この視差ベクトル検出部114では、左眼画像データおよび右眼画像データに基づき、画像内の所定位置において、視差検出ブロックが設定され、左眼画像および右眼画像の一方に対する他方の視差情報である視差ベクトルが検出される。
視差ベクトル検出部114で検出された画像内の所定位置における視差ベクトルは、視差ベクトルエンコーダ115に供給される。この場合、視差検出ブロックのID、視差検出ブロックの垂直位置情報、視差検出ブロックの水平位置情報、視差ベクトルが1セットとして渡される。視差ベクトルエンコーダ115では、視差ベクトルの伝送内容(図8参照)を含む視差ベクトルエレメンタリーストリームが生成される。この視差ベクトルエレメンタリーストリームはマルチプレクサ122に供給される。
また、マイクロホン116では、カメラ111L,111Rで撮影された画像に対応した音声が検出される。このマイクロホン116で得られる音声データはオーディオエンコーダ117に供給される。このオーディオエンコーダ117では、音声データに対して、MPEG−2 Audio AAC等の符号化が施され、符号化オーディオデータを含むオーディオエレメンタリーストリームが生成される。このオーディオエレメンタリーストリームはマルチプレクサ122に供給される。
また、サブタイトル・グラフィクス発生部118では、画像に重畳するサブタイトル情報やグラフィクス情報のデータ(サブタイトルデータ、グラフィクスデータ)が発生される。このデータ(ビットマップデータ)は、サブタイトル・グラフィクスエンコーダ119に供給される。このサブタイトル・グラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。サブタイトル・グラフィクスエンコーダ119では、このグラフィクスデータに対して所定の符号化が施され、符号化データを含むエレメンタリーストリームが生成される。このエレメンタリーストリームはマルチプレクサ122に供給される。
また、テキスト発生部120では、画像に重畳するテキスト情報のデータ(テキストデータ)が発生される。このテキストデータは、テキストエンコーダ121に供給される。このテキストデータには、上述のグラフィクスデータと同様に、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。テキストエンコーダ121では、このテキストデータに対して所定の符号化が施され、符号化データを含むエレメンタリーストリームが生成される。このエレメンタリーストリームはマルチプレクサ122に供給される。
マルチプレクサ122では、各エンコーダから供給されるエレメンタリーストリームのパケットが多重化され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
図12は、図2に示す送信データ生成部110において多重化される各データのストリーム例を示している。なお、この例は、視差ベクトルが、ビデオのシーン単位で検出されて伝送される場合(図10(b)参照)を示している。なお、各ストリームのパケットには、同期表示用のタイムスタンプが付され、受信側で、画像に対して、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳タイミングを制御することが可能となっている。
「送信データ生成部の他の構成例」
なお、上述の図2に示す送信データ生成部110は、視差ベクトルの伝送内容(図8参照)を独立したエレメンタリーストリームとして受信側に伝送する構成となっている。しかし、視差ベクトルの伝送内容を他のストリームの中に埋め込んで伝送することも考えられる。例えば、視差ベクトルの伝送内容は、ビデオのストリームにユーザデータとして埋め込まれて伝送される。また、例えば、視差ベクトルの伝送内容は、サブタイトル、グラフィクス、あるいはテキストのストリームに埋め込まれて伝送される。
図13は、送信データ生成部110Aの構成例を示している。この例も、視差ベクトルを数値情報として送信する例である。この送信データ生成部110Aは、視差ベクトルの伝送内容を、ビデオのストリームにユーザデータとして埋め込んで伝送する構成となっている。この図13において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
この送信データ生成部110Aにおいて、視差ベクトル検出114で検出された画像内の所定位置における視差ベクトルは、ビデオエンコーダ113内のストリームフォーマッタ113aに供給される。この場合、視差検出ブロックのID、視差検出ブロックの垂直位置情報、視差検出ブロックの水平位置情報、視差ベクトルが1セットとして渡される。ストリームフォーマッタ113aでは、ビデオのストリームに、視差ベクトルの伝送内容(図8参照)が、ユーザデータとして埋め込まれる。
詳細説明は省略するが、この図13に示す送信データ生成部110Aのその他は、図2に示す送信データ生成部110と同様に構成され、同様に動作する。
「送信データ生成部の他の構成例」
また、上述の図2に示す送信データ生成部110および上述の図13に示す送信データ生成部110Aは、視差ベクトルを数値情報として送信する(図8参照)。しかし、視差ベクトルを数値情報として伝送する代わりに、画像に重畳するための重畳情報(例えば、サブタイトル情報、グラフィクス情報、テキスト情報等)のデータに送信側で視差情報を予め反映させて送信する。
例えば、グラフィクス情報のデータに反映させる場合、送信側で、左眼画像に重畳すべき左眼グラフィクス情報と右眼画像に重畳すべき右眼グラフィクス情報の双方に対応したグラフィクスデータが生成される。この場合、左眼グラフィクス情報および右眼グラフィクス情報は同一のグラフィクス情報である。しかし、画像内の表示位置が、例えば、左眼グラフィクス情報に対して、右眼グラフィクス情報は、その表示位置に対応した視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、その重畳位置に対応したものが使用される。また、例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルが使用される。なお、詳細説明は省略するが、サブタイトル情報やグラフィクス情報のデータに視差情報を反映させる場合も同様である。
図14(a)は、伝送方式が上述の第1の伝送方式(「Top & Bottom」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。これら左眼グラフィクス情報および右眼グラフィクス情報は同一の情報である。ただし、左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。
各画像IL,IRに対して、図14(a)に示すように、各グラフィクス情報LGI,RGIが重畳されるように、グラフィクスデータが生成される。これにより、視聴者は、図14(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。
例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図15(a)に示すように、単一領域のデータとして生成される。この場合、各グラフィクス情報LGI,RGI以外の部分のデータは、透明データとして生成されればよい。また、例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図15(b)に示すように、別領域のデータとして生成される。
図16(a)は、伝送方式が上述の第2の伝送方式(「Side By Side」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。これら左眼グラフィクス情報および右眼グラフィクス情報は同一の情報である。ただし、左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。なお、ITは、アイドリングオフセット値である。
各画像IL,IRに対して、図16(a)に示すように、各グラフィクス情報LGI,RGIが重畳されるように、グラフィクスデータが生成される。これにより、視聴者は、図16(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。
例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図17に示すように、単一領域のデータとして生成される。この場合、各グラフィクス情報LGI,RGI以外の部分のデータは、透明データとして生成されればよい。
図18は、送信データ生成部110Bの構成例を示している。この送信データ生成部110Bは、サブタイトル情報、グラフィクス情報、テキスト情報のデータに視差情報を反映させて送信する構成となっている。この図18において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
この送信データ生成部110Bでは、サブタイトル・グラフィクス発生部118とサブタイトル・グラフィクスエンコーダ119との間に、サブタイトル・グラフィクス処理部124が挿入されている。また、この送信データ生成部110Bでは、テキスト発生部120とテキストエンコーダ121との間に、テキスト処理部125が挿入されている。そして、視差ベクトル検出部114で検出された画像内の所定位置における視差ベクトルは、サブタイトル・グラフィクス処理部124およびテキスト処理部125に供給される。
サブタイトル・グラフィクス処理部124では、左眼画像IL、右眼画像IRに重畳される、左眼、右眼のサブタイトルやグラフィクスの情報LGI,RGIのデータが生成される。この場合、サブタイトル・グラフィクス発生部118で発生されるサブタイトルデータやグラフィクスデータに基づいて発生される。左眼および右眼のサブタイトル情報やグラフィクス情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼のサブタイトル情報やグラフィクス情報に対して、右眼のサブタイトル情報やグラフィクス情報は、視差ベクトルの水平方向成分VVTだけ、水平方向にずれるようにされる(図14(a)、図16(a)参照)。
このようにサブタイトル・グラフィクス処理部124で生成されたサブタイトルデータやグラフィクスデータは、サブタイトル・グラフィクスエンコーダ119に供給される。なお、このサブタイトルデータやグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。サブタイトル・グラフィクスエンコーダ119では、サブタイトル・グラフィクス処理部124で生成されたサブタイトルデータやグラフィクスデータのエレメンタリーストリームが生成される。
また、テキスト処理部125では、テキスト発生部120で発生されるテキストデータに基づいて、左眼画像上に重畳される左眼テキスト情報のデータおよび右眼画像上に重畳される右眼テキスト情報のデータが生成される。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分VVTだけ、水平方向にずれるようにされる。
このようにテキスト処理部125で生成されたテキストデータは、テキストエンコーダ121に供給される。なお、このテキストデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。テキストエンコーダ121では、テキスト処理部で生成されたテキストスデータのエレメンタリーストリームが生成される。
詳細説明は省略するが、この図18に示す送信データ生成部110Bのその他は、図2に示す送信データ生成部110と同様に構成され、同様に動作する。
「送信データ生成部の他の構成例」
図2に示す送信データ生成部110は、視差ベクトル検出部114で検出された視差ベクトルに基づく伝送内容(図8参照)を、重畳情報データの個々に対応させることなく、そのまま受信側に伝送する構成となっている。しかし、重畳情報データ毎に対応付けされた視差情報を伝送することも考えられる。
図19は、送信データ生成部110Cの構成例を示している。この送信データ生成部110Cは、重畳情報データ毎に対応付けされた視差情報を伝送する構成となっている。この図19において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。この送信データ生成部110Cは、コントローラ126と、CC(Closed Caption)エンコーダ127と、Zデータ部128を有している。
CCエンコーダ127は、CEA−708準拠のエンコーダであって、クローズド・キャプションの字幕表示をするためのCCデータ(クローズド・キャプション情報のデータ)を出力する。コントローラ126は、このCCエンコーダ127を制御する。例えば、コントローラ126からCCエンコーダ127に、「Region_ID(WindowID)」、「Location(AnchorID)」、「Region大きさ(SetPenAttribute)」の情報セットが与えられる。
ここで、「Location(AnchorID)」の情報は、図20に示すように、「Region_ID(WindowID)」で識別されるクローズド・キャプションの字幕表示を画像(Picture)のどの位置に表示するかを示す。また、「Region大きさ(SetPenAttribute)」の情報は、図20に示すように、「Region_ID(WindowID)」で識別されるクローズド・キャプションの字幕表示を行う領域の大きさを示す。
Zデータ部128は、重畳情報データ毎に対応付けされた視差情報(視差ベクトル)を出力する。すなわち、このZデータ部128は、クローズド・キャプション情報に関しては、CCエンコーダ127から出力されるCCデータに含まれるWindowID毎に、対応付けされた視差情報を出力する。また、このZデータ部128は、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報に関しても、重畳情報データ毎に対応付けされた視差情報を出力する。
図21は、Zデータ部128の構成例を示している。Zデータ部128は、コントローラ126によって指定される Region_id 毎に視差情報を出力する。ここで、 Region_id について説明する。このRegion_idは、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報などの各重畳情報と視差情報との対応付けを行うための識別子となる。
例えば、Region_idの0〜7は、CEA−708規定のCCデータのWindow0〜7に対応した視差情報を識別するために割り当てられる。また、Region_idの8〜15は、将来の拡張用にリザーブされる。また、Region_idの16以降は、クローズド・キャプション情報以外の他の重畳情報(サブタイトル情報、グラフィクス情報、テキスト情報など)に対応した視差情報を識別するために割り当てられる。
なお、サブタイトル・グラフィクス発生部118で発生されるサブタイトルデータやグラフィクスデータ、およびテキスト発生部120で発生されるテキストデータには、上述のRegion_idに対応した識別子が付与されている。ここで、Region_idに対応した識別子とは、このRegion_idと同じ識別子、あるいはこのRegion_idに関連付けされている識別子を意味する。これにより、受信側で、サブタイトル情報、グラフィクス情報、テキスト情報の各重畳情報と、その重畳情報に対して使用すべき視差情報との対応付けが可能となる。
Zデータ部128は、上述したようにRegion_id毎に視差情報を出力する。Zデータ部128は、例えば、ユーザ操作に基づくコントローラ126の切り換え制御により、決定視差ベクトルまたは設定視差ベクトルを、視差情報として選択的に出力する。決定視差ベクトルは、視差ベクトル検出部114で検出された複数個の視差ベクトルに基づいて決定された視差ベクトルである。設定視差ベクトルは、例えば、所定のプログラム処理、またはユーザのマニュアル操作によって設定された視差ベクトルである。
最初に、決定視差ベクトルを視差情報として出力する場合について説明する。この場合、クローズド・キャプション情報に関連して、コントローラ126からZデータ部128に、上述した「Region_ID(WindowID)」、「Location(AnchorID)」、「Region大きさ(SetPenAttribute)」の情報セットが供給される。また、サブタイトル情報、グラフィクス情報、テキスト情報などの各重畳情報に関連して、コントローラ126からZデータ部128に、「Region_ID」、「Location」、「Region大きさ」の情報セットが供給される。
また、視差ベクトル検出部114からZデータ部114に、複数個、ここではN個の視差ベクトルDv0〜DvNが入力される。このN個の視差ベクトルDv0〜DvNは、視差ベクトル検出部114において、左眼画像データおよび右眼画像データに基づいて、画像内のN個の位置で検出された視差ベクトルである。
Zデータ部128は、Region_id毎に、N個の視差ベクトルDv0〜DvNから、「Location」および「Region大きさ」の情報で決定される重畳情報の表示領域に関連する視差ベクトルを抽出する。例えば、表示領域に関連する視差ベクトルとしては、検出位置が表示領域内にある一つまたは複数の視差ベクトルが存在するときは、その視差ベクトルが選択される。また、例えば、表示領域に関連する視差ベクトルとしては、検出位置が表示領域内にある一つまたは複数の視差ベクトルが存在しないときは、表示領域の近傍に位置する一つまたは複数の視差ベクトルが選択される。図示の例では、表示領域に関連する視差ベクトルとして、Dv2〜Dvnが選択されている。
そして、Zデータ部128は、表示領域に関連する視差ベクトルから、例えば、符号付きの値が最大のものを選択して、決定視差ベクトルDzDとする。上述したように、視差ベクトルは、垂直方向成分(View_Vector_Vertical)と水平方向成分(View_Vector_Horizontal)からなっているが、ここでの符号付きの値としては、例えば水平方向成分の値だけが用いられる。受信側において、左眼画像および右眼画像に重畳するクローズド・キャプション情報等の重畳情報を視差情報に基づいて水平方向にずらす処理を行うものであり、水平方向成分が重要だからである。
なお、上述したようにRegion_id毎に決定された決定視差ベクトルDzDには、クローズド・キャプション情報以外の他の重畳情報に対応するものにあっては、コントローラ126の制御により、重畳位置を示す情報と表示時間を示す情報が付加される。重畳位置を示す情報は、例えば、垂直方向位置情報(Vertical_Position)および水平方向位置情報(Horizontal_Position)である。また、表示時間を示す情報は、例えば、表示継続時間に対応したフレーム数情報(Duration_Counter)である。クローズド・キャプション情報の場合には、CCデータ内に重畳位置および表示時間の制御データが含まれているので、これらの情報を別途送る必要はない。
次に、設定視差ベクトルを視差情報として出力する場合について説明する。この場合、コントローラ126は、所定のプログラム処理、またはユーザのマニュアル操作によって、Region_id毎に視差ベクトルを設定する。例えば、重畳情報の重畳位置に応じて異なる視差ベクトルを設定し、あるいは重畳位置によらずに共通の視差情報を設定し、あるいは重畳情報の種類別に異なる視差情報を設定する。Zデータ部128は、このように設定されたRegion_id毎の視差ベクトルを、設定視差ベクトルDzD′とする。ここで、重畳情報の種類とは、例えば、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の種類である。また、この重畳情報の種類とは、例えば、重畳位置や重畳継続時間等により区分けされる種類である。
なお、コントローラ126によりRegion_id毎に設定される視差ベクトルは、実質的には水平方向成分のみを設定すればよい。これは、上述したように、受信側において、左眼画像および右眼画像に重畳するクローズド・キャプション情報等の重畳情報を視差情報に基づいて水平方向にずらす処理を行うものであり、水平方向成分が重要だからである。また、この設定視差ベクトルDzD′にも、上述した決定視差ベクトルDzDと同様に、クローズド・キャプション情報以外の他の重畳情報に対応するものにあっては、コントローラ126の制御により、重畳位置を示す情報と表示時間を示す情報が付加される。
図19に戻って、CCエンコーダ127から出力されるCCデータおよびZデータ部128から出力される視差情報(DzD/DzD′、必要に応じて重畳位置情報、表示時間情報を含む)は、ビデオエンコーダ113のストリームフォーマッタ113aに送られる。ストリームフォーマッタ113aでは、ビデオエレメンタリーストリームに、CCデータおよび視差情報がユーザデータとして埋め込まれる。
図22は、ビデオエレメンタリーストリーム(Video Elementary Stream)の構造例を概略的に示している。ビデオエレメンタリーストリームには、先頭に、シーケンス単位のパラメータを含むシーケンスヘッダ部が配置されている。このシーケンスヘッダ部に続いて、ピクチャ単位のパラメータおよびユーザデータを含むピクチャヘッダが配置されている。このピクチャヘッダ部に続いてピクチャーデータを含むペイロード部が配置される。以下、ピクチャヘッダ部およびペイロード部が繰り返し配置されている。
上述したようにCCデータおよび視差情報は、ピクチャヘッダ部のユーザデータ領域に埋め込まれる。図23は、ユーザデータの構成例を示している。図23(a)は、符号化方式がMPEG2である場合のユーザデータの構成を示している。図23(b)は、符号化方式がH.264 AVC(MPEG4−AVC)である場合のユーザデータの構成を示している。さらに、図23(c)は、符号化方式がVC−1である場合のユーザデータの構成を示している。
詳細説明は省略するが、各方式のユーザデータの構成はほぼ同様の構成となっている。すなわち、最初に、ユーザデータの開始を示すコードが配置され、その後に、データの種類を示す識別子「user_identifier」が配置され、さらにその後に、データ本体「user_structure」が配置されている。
図24は、「user_structure」の構成例を示している。「Data_Length」は、この「user_structure」のデータサイズを示す。「Page_id」は、データグループIDとして字幕言語識別に利用される場合もあるが、字幕データのパターンに対応するもので、この「user_structure」のページを識別する識別子である。「Number_of_ViewBlocks N」は、この「user_structure」に、N個のRegion_idの視差情報等が含まれていることを示す。
「ID_Block(i)」は、Region_id(i)を示す。「2D_object_posion_flag」は、ID_Block(i)の情報として含まれている重畳位置情報(2D用の重畳情報の表示位置の情報)を参照するか否かを示すフラグである。このフラグが立っている場合には、この重畳位置情報を参照することを示す。この場合、ID_Block(i)の情報として、重畳位置情報(「Vertical_Position」、「Horizontal_Position」)が含まれる。「Vertical_Position」は、2D用の重畳情報の垂直方向位置を示す。「Horizontal_Position」は、2D用の重畳情報の水平方向位置を示す。
上述のCCエンコーダ127から出力されるCCデータ内に重畳位置の制御データが含まれている。そのため、例えば、ID_Block(i)がクローズド・キャプション情報に対応している場合、「2D_object_posion_flag」は立っていない。そして、ID_Block(i)の情報として重畳位置情報(「Vertical_Position」、「Horizontal_Position」)は、含まれない。
「3D_disparity_flag」は、ID_Block(i)の情報として、視差情報(視差ベクトル)が含まれているか否かを示す。このフラグが立っている場合には、視差情報が含まれていることを示す。「View_Vector_Vertical」は、視差ベクトルの垂直方向成分を示す。「View_Vector_Horizontal」は、視差ベクトルの水平方向成分を示す。なお、この例では、「View_Vector_Vertical」および「View_Vector_Horizontal」の双方が含まれている。しかし、水平方向成分だけを使用するときには、「View_Vector_Horizontal」だけが含まれるようにしてもよい。
「Status_Count_flag」は、ID_Block(i)の情報として、重畳情報の表示時間情報を参照するか否かを示すフラグである。このフラグが立っている場合には、表示時間情報を参照することを示す。この場合、ID_Block(i)の情報として、例えば、表示継続時間に対応したフレーム数を示す情報「Duration_Counter」が含まれる。受信側において、重畳情報の表示はシステムレイヤのタイムスタンプで開始されるが、この表示継続時間に対応したフレーム数の経過後に、重畳情報の表示(視差情報による効果を含む)がリセットされる。これにより、同じ情報をピクチャ毎に繰り返し送る必要はなくなる。
上述のCCエンコーダ127から出力されるCCデータ内に表示時間の制御データが含まれている。そのため、ID_Block(i)がクローズド・キャプション情報に対応している場合、「Status_Count_flag」は立っておらず、ID_Block(i)の情報として情報「Duration_Counter」は含まれない。
詳細説明は省略するが、この図19に示す送信データ生成部110Cのその他は、図2に示す送信データ生成部110と同様に構成され、同様に動作する。
「送信データ生成部の他の構成例」
図19に示す送信データ生成部110Cは、Zデータ部128からの視差情報をビデオエレメンタリーストリームにユーザデータとして埋め込まれて伝送される。しかし、このZデータ部128からの視差情報を独立したエレメンタリーストリームとして受信側に伝送することも考えられる。
図25は、送信データ生成部110Dの構成例を示している。この図25において、図19と対応する部分には同一符号を付し、その詳細説明は省略する。この送信データ生成部110Dは、視差情報エンコーダ129を有している。Zデータ部128から出力されるRegion_id毎の視差情報(DzD/DzD′、必要に応じて位置情報、時間情報を含む)は、視差情報エンコーダ129に送られる。
この視差情報エンコーダ129では、視差情報を含む視差情報エレメンタリーストリームが生成される。この視差情報エレメンタリーストリームはマルチプレクサ122に供給される。そして、マルチプレクサ122では、視差情報エンコーダ129を含む各エンコーダから供給されるエレメンタリーストリームのパケットが多重化され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
詳細説明は省略するが、この図25に示す送信データ生成部110Dのその他は、図19に示す送信データ生成部110と同様に構成され、同様に動作する。
「送信データ生成部の他の構成例」
図18に示す送信データ生成部110Bは、重畳情報としてサブタイトル情報、グラフィクス情報およびテキスト情報を扱っている。この図18に示す送信データ生成部110Bと同様の構成で、さらにクローズド・キャプション情報を扱う構成も考えられる。
図26は、送信データ生成部110Eの構成例を示している。この例は、視差ベクトルを数値情報として伝送する代わりに、画像に重畳するための重畳情報(例えば、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等)のデータに視差情報を反映させて伝送する構成となっている。この図26において、図18および図19と対応する部分には同一符号を付し、その詳細説明は省略する。
この図26の送信データ生成部において、CCエンコーダ127とストリームフォーマッタ113aとの間に、CCデータ処理部130が挿入されている。そして、視差ベクトル検出部114で検出された画像内の所定位置における視差ベクトルは、CCデータ処理部130に供給される。
CCデータ処理部130では、CCエンコーダ127で発生されるCCデータに基づいて、左眼画像上に重畳される左眼クローズド・キャプション情報のデータおよび右眼画像上に重畳される右眼クローズド・キャプション情報のデータが生成される。この場合、左眼クローズキャプション情報および右眼クローズキャプション情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼クローズド・キャプション情報に対して、右眼クローズド・キャプション情報は、視差ベクトルの水平方向成分VVTだけ、水平方向にずれるようにされる。
このようにCCデータ処理部130で処理された後のCCデータは、ビデオエンコーダ113のストリームフォーマッタ113aに供給される。ストリームフォーマッタ113aでは、CCデータ処理部130からのCCデータがビデオエレメンタリーストリームにユーザデータとして埋め込まれる。
詳細説明は省略するが、この図26に示す送信データ生成部110Eのその他は、図18に示す送信データ生成部110Bと同様に構成され、同様に動作する。
[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波にのせて送信されてくるビットストリームデータ(トランスポートストリーム)を受信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報データ、さらには視差情報(視差ベクトル)が含まれる。ここで、重畳情報データは、例えばクローズド・キャプションデータ、サブタイトルデータ、グラフィクスデータ、テキストデータ等である。
セットトップボックス200は、ビットストリーム処理部201を有している。このビットストリーム処理部201は、ビットストリームデータから、立体画像データ、音声データ、重畳情報データ、視差ベクトル等を抽出する。このビットストリーム処理部201は、立体画像データ、重畳情報データ(サブタイトルデータ、グラフィクスデータ、テキストデータ、CC(Closed Caption)データ)等を用いて、重畳情報が重畳された左眼画像および右眼画像のデータを生成する。
ここで、視差ベクトルが数値情報として送信されてくる場合には、視差ベクトルと重畳情報データに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼重畳情報、右眼重畳情報を生成する。この場合、左眼重畳情報および右眼重畳情報は同一の重畳情報である。しかし、画像内の重畳位置が、例えば、左眼重畳情報に対して、右眼重畳グ情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
図27(a)は、伝送方式が上述の第2の伝送方式(「Side By Side」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。なお、ITは、アイドリングオフセット値である。
ビットストリーム処理部201では、各画像IL,IRに対して各グラフィクス情報LGI,RGIが図27(a)に示すように重畳されるように、グラフィクスデータが生成される。ビットストリーム処理部201は、ビットストリームデータから抽出された立体画像データ(左眼画像データ、右眼画像データ)に対して、生成された左眼グラフィクスデータ、右眼グラフィクスデータを合成して、処理後の立体画像データを取得する。この立体画像データによれば、視聴者は、図27(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。
なお、図28(a)は、各画像IL,IRに対して、ビットストリームデータから抽出されたグラフィクスデータによるグラフィクス画像をそのまま重畳した状態を示している。この場合、視聴者は、図28(b)に示すように、左眼画像ILと共にグラフィクス情報の左半分、右眼画像IRと共にグラフィクス情報の右半分を観察する。そのため、グラフィクス情報を正しく認識できなくなる。
図27は、グラフィクス情報の場合を示したが、その他の重畳情報(クローズド・キャプション情報、サブタイトル情報、テキスト情報など)に関しても同様である。すなわち、視差ベクトルが数値情報として送信されてくる場合には、視差ベクトルと重畳情報データデータに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼重畳情報、右眼重畳情報を生成する。この場合、左眼重畳情報および右眼重畳情報は同一の重畳情報である。しかし、画像内の重畳位置が、例えば、左眼重畳情報に対して、右眼重畳情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
ここで、左眼重畳情報と右眼重畳情報との間に視差を与える視差ベクトルとしては、以下の視差ベクトルを用いることが考えられる。例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルを使用することが考えられる。図29(a),(b),(c),(d)は、それぞれ時刻T0,T1,T2,T3における3つのオブジェクト位置の視差ベクトル(View Vector)を示している。
時刻T0では、オブジェクト1に対応した位置(H0,V0)における視差ベクトルVV0-1が最大の視差ベクトルMaxVV(T0)となっている。時刻T1では、オブジェクト1に対応した位置(H1,V1)における視差ベクトルVV1-1が最大の視差ベクトルMaxVV(T1)となっている。時刻T2では、オブジェクト2に対応した位置(H2,V2)における視差ベクトルVV2-2が最大の視差ベクトルMaxVV(T2)となっている。時刻T3では、オブジェクト1に対応した位置(H3,V3)における視差ベクトルVV3-0が最大の視差ベクトルMaxVV(T3)となっている。
このように、視差ベクトルとして、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルを使用することで、遠近感でいうところの最も近い画像内の物体よりも手前に、重畳情報を表示できる。
図30(a)は、画像上における字幕(例えば、クローズド・キャプション情報、サブタイトル情報)の表示例を示している。この表示例では、背景と近景オブジェクトとからなる画像上に、字幕が重畳された例である。図30(b)は、背景、近景オブジェクト、字幕の遠近感を示し、字幕が最も近くにあるように認識されることを示している。
図31(a)は、図30(a)と同じ、画像上における字幕(例えば、クローズド・キャプション情報、サブタイトル情報)の表示例を示している。図31(b)は、字幕を表示するための左眼サブタイトル情報LGIと、右眼サブタイトル情報RGIを示している。図31(c)は、字幕が最も近くにあるように認識されるために、各サブタイトル情報LGI,RGIに視差が与えられることを示している。
また、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、その重畳位置に対応したものを使用することが考えられる。図32(a)は、ビットストリームデータから抽出されるグラフィックデータによるグラフィック情報と、ビットストリームデータから抽出されるテキストデータによるテキスト情報を示している。
図32(b)は、左眼画像に、左眼グラフィクス情報LGIおよび左眼テキスト情報LTIが重畳された状態を示している。この場合、左眼グラフィクス情報LGIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-0)で規制されている。また、左眼テキスト情報LTIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-1)で規制されている。
図32(c)は、右眼画像に、右眼グラフィクス情報RGIおよび右眼テキスト情報RTIが重畳された状態を示している。この場合、右眼グラフィクス情報RGIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-0)で規制され、さらにこの重畳位置に対応した視差ベクトルの水平方向成分VVT-0だけ、左眼グラフィクス情報LGIの重畳位置よりずらされている。また、右眼テキスト情報RTIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-1)で規制され、さらにこの重畳位置に対応した視差ベクトルの水平方向成分VVT-1だけ、左眼テキスト情報LTIの重畳位置よりずらされている。
上述では、左眼画像および右眼画像に、ビットストリームデータから抽出されたグラフィクスデータによるグラフィクス情報、あるいはビットストリームデータから抽出されたテキストデータによるテキスト情報を重畳する場合を説明した。この他に、セットトップボックス200内でグラフィクスデータあるいはテキストデータが発生され、それらによる情報を、左眼画像および右眼画像に、重畳する場合も考えられる。
その場合にあっても、ビットストリームデータから抽出された画像内の所定位置の視差ベクトルを利用して、左眼グラフィクス情報と右眼グラフィクス情報との間、あるいは左眼テキスト情報と右眼テキスト情報との間に、視差を持たせることができる。これにより、グラフィクス情報、テキスト情報の表示において、画像内の各物体(オブジェクト)の遠近感との間で遠近感の整合性の維持を図った適切な遠近感を付与できる。
図33(a)は、画像内にA,B,Cの各オブジェクトが存在し、例えば、これら各オブジェクトの近傍位置に、各オブジェクトの注釈を示すテキスト情報を重畳することを示している。図33(b)は、A,B,Cの各オブジェクトの位置と、その位置における視差ベクトルの対応を示す視差ベクトルリストと、それぞれの視差ベクトルを、A,B,Cの各オブジェクの注釈を示すテキスト情報に視差を与える場合に利用することを示している。例えば、Aのオブジェクトの近傍には「Text」のテキスト情報が重畳されるが、その左眼テキスト情報と右眼テキスト情報との間には、Aのオブジェクトの位置(Ha,Va)における視差ベクトルVV-aに対応した視差が与えられる。なお、B,Cのオブジェクトの近傍に重畳されるテキスト情報に関しても同様である。
なお、図32は、重畳情報がグラフィクス情報およびテキスト情報である場合を示している。また、図33は、畳情報がテキスト情報である場合を示している。詳細説明は省略するが、その他の重畳情報(クローズド・キャプション情報、サブタイトル情報など)の場合も同様である。
次に、視差ベクトルが、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)のデータに予め反映されて送信されてくる場合について説明する。この場合、ビットストリームデータから抽出された重畳情報データには、視差ベクトルにより視差が与えられた、左眼重畳情報および右眼重畳情報のデータが含まれている。
そのため、ビットストリーム処理部201は、ビットストリームデータから抽出された立体画像データ(左眼画像データ、右眼画像データ)に対して、ビットストリームデータから抽出された重畳情報データを単に合成して、処理後の立体画像データを取得する。なお、クローズド・キャプションデータやテキストデータに関しては、キャラクタコードをビットマップデータに変換する等の処理は必要である。
[セットトップボックスの構成例]
セットトップボックス200の構成例を説明する。図34は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像信号処理回路205と、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。
ビットストリーム処理部201は、上述したように、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、重畳情報データ、視差情報(視差ベクトル)等を抽出する。重畳情報データは、クローズド・キャプションデータ、サブタイトルデータ、グラフィクスデータ、テキストデータなどである。このビットストリーム処理部201は、上述したように、立体画像データに対し、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)のデータを合成し、表示用立体画像データを取得する。また、ビットストリーム処理部201は、音声データを出力する。ビットストリーム処理部201の詳細構成は後述する。
映像信号処理回路205は、ビットストリーム処理部201から出力された立体画像データに対して必要に応じて画質調整処理などを行い、処理後の立体画像データをHDMI送信部206に供給する。音声信号処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。
HDMI送信部206は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像および音声のデータがパッキングされて、HDMI送信部206からHDMI端子202に出力される。このHDMI送信部206の詳細は後述する。
CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
リモコン受信部215は、リモコン送信機216から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。
デジタルチューナ204から出力されるビットストリームデータは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、グラフィクスデータ、テキストデータ、視差ベクトル等が抽出される。また、このビットストリーム処理部201では、立体画像データに対し、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)のデータが合成され、表示用立体画像データが生成される。
ビットストリーム処理部201で生成される表示用立体画像データは、映像信号処理回路205で必要に応じて画質調整処理等が行われた後に、HDMI送信部206に供給される。また、ビットストリーム処理部201で得られる音声データは、音声信号処理回路207で必要に応じて音質調整処理等が行われた後に、HDMI送信部206に供給される。HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
「ビットストリーム処理部の構成例」
図35は、ビットストリーム処理部201の構成例を示している。このビットストリーム処理部201は、上述の図2に示す送信データ生成部110に対応させた構成となっている。このビットストリーム処理部201は、デマルチプレクサ220と、ビデオデコーダ221と、サブタイトル・グラフィクスデコーダ222と、テキストデコーダ223と、オーディオデコーダ224と、視差ベクトルデコーダ225を有している。また、このビットストリーム処理部201は、立体画像用サブタイトル・グラフィクス発生部226と、立体画像用テキスト発生部227と、ビデオ重畳部228と、マルチチャネルスピーカコントロール部229を有している。
デマルチプレクサ220は、ビットストリームデータBSDから、ビデオ、オーディオ、視差ベクトル、サブタイトルやグラフィクスおよびテキストのパケットを抽出し、各デコーダに送る。
ビデオデコーダ221は、上述の送信データ生成部110のビデオエンコーダ113とは逆の処理を行う。すなわち、このビデオデコーダ221は、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。立体画像データの伝送方式は、例えば、上述の第1の伝送方式(「Top & Bottom」方式)、第2の伝送方式(「Side By Side」方式)、第3の伝送方式(「Frame Sequential」方式)などである(図4(a)〜(c)参照)。
サブタイトル・グラフィクスデコーダ222は、上述の送信データ生成部110のサブタイトル・グラフィクスエンコーダ119とは逆の処理を行う。すなわち、このサブタイトル・グラフィクスデコーダ222は、デマルチプレクサ220で抽出されたサブタイトルやグラフィクスのパケットからサブタイトルやグラフィクスのエレメンタリーストリームを再構成する。そして、このサブタイトル・グラフィクスデコーダ222は、さらに復号化処理を行って、サブタイトルデータやグラフィクスデータを得る。
テキストデコーダ223は、上述の送信データ生成部110のテキストエンコーダ121とは逆の処理を行う。すなわち、このテキストデコーダ223は、デマルチプレクサ220で抽出されたテキストのパケットからテキストのエレメンタリーストリームを再構成し、復号化処理を行って、テキストデータを得る。
オーディオデコーダ224は、上述の送信データ生成部110のオーディオエンコーダ117とは逆の処理を行う。すなわち、このオーディオデコーダ224は、デマルチプレクサ220で抽出されたオーディオのパケットからオーディオのエレメンタリーストリームを再構成し、復号化処理を行って、音声データを得る。
視差ベクトルデコーダ225は、上述の送信データ生成部110の視差ベクトルエンコーダ115とは逆の処理を行う。すなわち、この視差ベクトルデコーダ225は、デマルチプレクサ220で抽出された視差ベクトルのパケットから視差ベクトルのエレメンタリーストリームを再構成し、復号化処理を行って、画像内の所定位置の視差ベクトルを得る。
立体画像用サブタイトル・グラフィクス発生部226は、左眼画像および右眼画像にそれぞれ重畳する左眼および左眼のサブタイトル情報やグラフィクス情報を生成する。この生成処理は、デコーダ222で得られたサブタイトルデータやグラフィクスデータと、デコーダ225で得られた視差ベクトルに基づいて行われる。この場合、左眼および左眼のサブタイトル情報やグラフィクス情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼のサブタイトル情報やグラフィクス情報に対して、右眼のブタイトル情報やグラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。そして、この立体画像用サブタイトル・グラフィクス発生部226は、生成された左眼および左眼のサブタイトル情報やグラフィクス情報のデータ(ビットマップデータ)を出力する。
立体画像用テキスト発生部227は、デコーダ223で得られたテキストスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼テキスト情報、右眼テキスト情報を生成する。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。そして、この立体画像用テキスト発生部227は、生成された左眼テキスト情報および右眼テキスト情報のデータ(ビットマップデータ)を出力する。
ビデオ重畳部228は、ビデオデコーダ221で得られた立体画像データ(左眼画像データ、右眼画像データ)に対して、発生部226,227で発生されたデータを重畳し、表示用立体画像データVoutを得る。なお、立体画像データ(左眼画像データ、右眼画像データ)への重畳情報データの重畳はシステムレイヤのタイムスタンプにより開始される。
マルチチャネルスピーカコントロール部229は、オーディオデコーダ224で得られる音声データに対して、例えば5.1chサラウンド等を実現するためのマルチチャネルスピーカの音声データを生成する処理、所定の音場特性を付与する処理等を施す。また、このマルチチャネルスピーカコントロール部229は、デコーダ225で得られた視差ベクトルに基づいて、マルチチャネルスピーカの出力を制御する。
視差ベクトルの大きさが大きくなる程、立体感が際だつ効果がある。立体の度合いに合わせて、マルチチャネルのスピーカ出力を制御することで、更なる立体体験の提供を実現できる。
図36は、視差ベクトルVV1が、テレビディスプレイに向かって、左側のビデオオブジェクトの方が大きい場合のスピーカ出力制御例を示している。この制御例では、マルチチャネルスピーカのRear Leftのスピーカ音量は大きくされ、Front Leftのスピーカ音量は中程度とされ、さらに、Front Right,Rear Rightのスピーカ音量が小さくされる。このように、ビデオコンテンツ(立体画像データ)の視差ベクトルを、音声データ等の他のメディアデータへ受信側で適用することで、視聴者に、立体感を総合的に体感させることが可能になる。
図35に示すビットストリーム処理部201の動作を簡単に説明する。デジタルチューナ204(図34参照)から出力されるビットストリームデータBSDは、デマルチプレクサ220に供給される。このデマルチプレクサ220では、ビットストリームデータBSDから、ビデオ、オーディオ、視差ベクトル、サブタイトルやグラフィクス、およびテキストのパケットが抽出され、各デコーダに供給される。
ビデオデコーダ221では、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、ビデオ重畳部228に供給される。また、視差ベクトルデコーダ225では、デマルチプレクサ220で抽出された視差ベクトルのパケットから視差ベクトルのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、画像内の所定位置の視差ベクトルが得られる(図8参照)。
サブタイトル・グラフィクスデコーダ222では、デマルチプレクサ220で抽出されたサブタイトルやグラフィクスのパケットからサブタイトルやグラフィクスのエレメンタリーストリームが再構成される。サブタイトル・グラフィクスデコーダ222では、さらに、サブタイトルやグラフィクスのエレメンタリーストリームに対して復号化処理が行われて、サブタイトルデータやグラフィクスデータが得られる。このサブタイトルデータやグラフィクスデータは、立体画像用サブタイトル・グラフィクス発生部226に供給される。この立体画像用サブタイトル・グラフィクス発生部226には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。
この立体画像用サブタイトル・グラフィクス発生部226では、左眼画像、右眼画像にそれぞれ重畳する左眼および右眼のサブタイトル情報やグラフィクス情報のデータが生成される。この生成処理は、デコーダ222で得られたサブタイトルデータやグラフィクスデータと、デコーダ225で得られた視差ベクトルに基づいて行われる。この場合、画像内の重畳位置が、例えば、左眼のサブタイトル情報や左眼グラフィクス情報に対して、右眼のサブタイトル情報やグラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。この立体画像用サブタイトル・グラフィクス発生部226からは、生成された左眼および右眼のサブタイトル情報やグラフィクス情報のデータ(ビットマップデータ)が出力される。
また、テキストデコーダ223では、デマルチプレクサ220で抽出されたテキストのパケットからテキストのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、テキストデータが得られる。このテキストデータは立体画像用テキスト発生部227に供給される。この立体画像用テキスト発生部227には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。
この立体画像用テキスト発生部227では、デコーダ223で得られたテキストスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼テキスト情報、右眼テキスト情報が生成される。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。この立体画像用テキスト発生部227からは、生成された左眼テキスト情報および右眼テキスト情報のデータ(ビットマップデータ)が出力される。
ビデオ重畳部228には、上述したビデオデコーダ221からの立体画像データ(左眼画像データ、右眼画像データ)の他に、サブタイトル・グラフィクス発生部226およびテキスト発生部227から出力されるデータが供給される。このビデオ重畳部228では、立体画像データ(左眼画像データ、右眼画像データ)に対して、サブタイトル・グラフィクス発生部226およびテキスト発生部227で発生されたデータが重畳され、表示用立体画像データVoutが得られる。この表示用立体画像データVoutは、映像信号処理回路205を介して、HDMI送信部206(図34参照)に、送信画像データとして供給される。
また、オーディオデコーダ224では、デマルチプレクサ220で抽出されたオーディオのパケットからオーディオのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、音声データが得られる。この音声データは、マルチチャネルスピーカコントロール部229に供給される。このマルチチャネルスピーカコントロール部229では、音声データに対して、例えば5.1chサラウンド等を実現するためのマルチチャネルスピーカの音声データを生成する処理、所定の音場特性を付与する処理等が施される。
このマルチチャネルスピーカコントロール部229には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。そして、このマルチチャネルスピーカコントロール部229では、視差ベクトルに基づいて、マルチチャネルスピーカの出力が制御される。このマルチチャネルスピーカコントロール部229で得られるマルチチャネル音声データは、音声信号処理回路207を介してHDMI送信部206(図34参照)に、送信音声データとして供給される。
「ビットストリーム処理部の他の構成例」
図37に示すビットストリーム処理部201Aは、上述の図13に示す送信データ生成部110Aに対応させた構成となっている。この図37において、図35と対応する部分には同一符号を付し、その詳細説明は省略する。
このビットストリーム処理部201Aは、図35に示すビットストリーム処理部201の視差ベクトルデコーダ225の代わりに、視差ベクトル取り出し部231が設けられる。この視差ベクトル取り出し部231は、ビデオデコーダ221を通じて得られるビデオのストリームから、そのユーザデータ領域に埋め込まれている視差ベクトルを取り出す。そして、この視差ベクトル取り出し部231は、取り出した視差ベクトルを、立体画像用サブタイトル・グラフィクス発生部226、立体画像用テキスト発生部227およびマルチチャネルスピーカコントロール部229に供給する。
詳細説明は省略するが、この図37に示すビットストリーム処理部201Aのその他は、図35に示すビットストリーム処理部201と同様に構成され、同様に動作する。
「ビットストリーム処理部の他の構成例」
また、図38に示すビットストリーム処理部201Bは、上述の図18に示す送信データ生成部110Bに対応させた構成となっている。この図38において、図35と対応する部分には同一符号を付し、その詳細説明は省略する。
このビットストリーム処理部201Bは、図35に示すビットストリーム処理部201から、視差ベクトルデコーダ225、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227が除かれたものである。この場合、視差ベクトルは、サブタイトル情報、グラフィクス情報、テキスト情報のデータに予め反映されている。
送信されてくるサブタイトルデータやグラフィクスデータには、上述したように、左眼画像に重畳される左眼のサブタイトル情報やグラフィクス情報のデータ、および右眼画像に重畳される右眼のサブタイトル情報やグラフィクス情報のデータが含まれている。同様に、送信されてくるテキストデータには、上述したように、左眼画像に重畳される左眼テキスト情報のデータおよび右眼画像に重畳される右眼テキスト情報のデータが含まれている。したがって、視差ベクトルデコーダ225、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227は不要となる。
なお、テキストデコーダ223で得られるテキストデータはコードデータ(キャラクタコード)であるので、これをビットマップデータに変換する処理は必要である。この処理は、例えば、テキストデコーダ223の最終段で行われるか、あるいはビデオ重畳部228の入力段で行われる。
「ビットストリーム処理部の他の構成例」
また、図39に示すビットストリーム処理部201Cは、上述の図19に示す送信データ生成部110Cに対応させた構成となっている。この図39において、図35と対応する部分には同一符号を付し、その詳細説明は省略する。
このビットストリーム処理部201Cは、視差情報取り出し部232、CCデコーダ233および立体画像用クローズド・キャプション発生部234を有している。上述したように、図19に示す送信データ生成部110Cのビデオエンコーダ113から出力されるビデオエレメンタリーストリームには、CC(クローズド・キャプション)データおよびRegion_id毎の視差情報が、ユーザデータとして埋め込まれている。
視差情報取り出し部232では、ビデオデコーダ221を通じて得られるビデオエレメンタリーストリームからRegion_id毎の視差情報が取り出される。視差情報取り出し部232から立体画像用クローズド・キャプション発生部234には、取り出されたRegion_id毎の視差情報のうち、クローズド・キャプション情報に対応した視差情報(重畳位置情報、表示時間情報を含まない)が供給される。
また、視差情報取り出し部232から立体画像用サブタイトル・グラフィクス発生部226には、取り出されたRegion_id毎の視差情報のうち、サブタイトル情報やグラフィクス情報に対応した視差情報(重畳位置情報、表示時間情報を含む)が供給される。さらに、視差情報取り出し部232から立体画像用テキスト発生部227には、取り出されたRegion_id毎の視差情報のうち、テキスト情報に対応した視差情報(重畳位置情報、表示時間情報を含む)が供給される。
CCデコーダ233では、ビデオデコーダ233を通じて得られるビデオエレメンタリーストリームからCCデータ(クローズド・キャプションデータ)が取り出される。さらに、CCデコーダ233では、このCCデータからWindow毎にクローズド・キャプションデータ(字幕のキャラクタコード)、さらには重畳位置および表示時間の制御データが取得される。そして、このCCデコーダ233から立体画像用クローズド・キャプション発生部234に、クローズド・キャプションデータと、重畳位置および表示時間の制御データが供給される。
立体画像用クローズド・キャプション発生部234では、Window毎に、左眼画像、右眼画像にそれぞれ重畳する左眼クローズド・キャプション情報(字幕)、右眼クローズド・キャプション情報(字幕)のデータが生成される。この生成処理は、CCデコーダ233で得られたクローズド・キャプションデータおよび重畳位置制御データと、視差情報取り出し部232から供給された視差情報(視差ベクトル)に基づいて行われる。この場合、左眼および右眼のクローズド・キャプション情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼クローズド・キャプション情報に対して、右眼クローズド・キャプション情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
このように、立体画像用クローズド・キャプション発生部234でWindow毎に生成された左眼および右眼のクローズド・キャプション情報のデータ(ビットマップデータ)は、表示時間の制御データと共に、ビデオ重畳部228に供給される。
また、立体画像用サブタイトル・グラフィクス発生部226では、左眼画像および右眼画像にそれぞれ重畳する左眼および左眼のサブタイトル情報やグラフィクス情報が生成される。この生成処理は、サブタイトル・グラフィクスデコーダ222で得られたサブタイトルデータやグラフィクスデータと、視差情報取り出し部232から供給される視差情報(視差ベクトル)に基づいて行われる。この場合、左眼および左眼のサブタイトル情報やグラフィクス情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼のサブタイトル情報やグラフィクス情報に対して、右眼のブタイトル情報やグラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
このように、立体画像用サブタイトル・グラフィクス発生部234で生成された左眼および右眼のサブタイトル情報やグラフィクス情報のデータ(ビットマップデータ)は、表示時間情報(フレーム数情報)と共に、ビデオ重畳部228に供給される。
また、立体画像用テキスト発生部227では、左眼画像および右眼画像にそれぞれ重畳する左眼および左眼のテキスト情報が生成される。この生成処理は、テキストデコーダ223で得られたテキストデータと、視差情報取り出し部232から供給される視差情報(視差ベクトル)に基づいて行われる。この場合、左眼および左眼のテキスト情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼のテキスト情報に対して、右眼のテキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
このように、立体画像用テキスト発生部227で生成された左眼および右眼のテキスト情報のデータ(ビットマップデータ)は、表示時間情報(フレーム数情報)と共に、ビデオ重畳部228に供給される。
ビデオ重畳部228では、ビデオデコーダ221で得られた立体画像データ(左眼画像データ、右眼画像データ)に対して、各デコーダから供給される重畳情報データが重畳され、表示用立体画像データVoutが得られる。なお、立体画像データ(左眼画像データ、右眼画像データ)への重畳情報データの重畳はシステムレイヤのタイムスタンプにより開始される。また、その重畳継続時間は、クローズド・キャプション情報に関しては表示時間の制御データに基づいて、サブタイトル情報、グラフィクス情報、テキスト情報等に関しては表示時間情報に基づいて制御される。
詳細説明は省略するが、この図39に示すビットストリーム処理部201Cのその他は、図35に示すビットストリーム処理部201と同様に構成され、同様に動作する。
「ビットストリーム処理部の他の構成例」
また、図40に示すビットストリーム処理部201Dは、上述の図25に示す送信データ生成部110Dに対応させた構成となっている。この図40において、図35および図9と対応する部分には同一符号を付し、その詳細説明は省略する。
ビットストリーム処理部201Dは、視差情報デコーダ235を有している。図25に示す送信データ生成部110Dでは、視差情報エンコーダ129によりZデータ部128から視差情報を含む視差情報エレメンタリーストリームが生成される。そして、マルチプレクサ122では、視差情報エンコーダ129を含む各エンコーダから供給されるエレメンタリーストリームのパケットが多重化され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
視差情報デコーダ235には、デマルチプレクサ220で抽出された視差情報のパケットから視差情報のエレメンタリーストリームが再構成され、さらに復号化処理が行われて、Region_id毎の視差情報が得られる。この視差情報は、図39のビットストリーム処理部201Cの視差情報取り出し部232で取り出される視差情報と同じものである。
この視差情報デコーダ235では、ビデオデコーダ221を通じて得られるビデオエレメンタリーストリームからRegion_id毎の視差情報が取り出される。視差情報デコーダ235から立体画像用クローズド・キャプション発生部234には、取り出されたRegion_id毎の視差情報のうち、クローズド・キャプション情報に対応した視差情報(重畳位置情報、表示時間情報を含まない)が供給される。
また、視差情報デコーダ235から立体画像用サブタイトル・グラフィクス発生部226には、取り出されたRegion_id毎の視差情報のうち、サブタイトル情報やグラフィクス情報に対応した視差情報(重畳位置情報、表示時間情報を含む)が供給される。さらに、視差情報デコーダ235から立体画像用テキスト発生部227には、取り出されたRegion_id毎の視差情報のうち、テキスト情報に対応した視差情報(重畳位置情報、表示時間情報を含む)が供給される。
詳細説明は省略するが、この図40に示すビットストリーム処理部201Dのその他は、図39に示すビットストリーム処理部201Cと同様に構成され、同様の動作をする。
「ビットストリーム処理部の他の構成例」
また、図41に示すビットストリーム処理部201Eは、上述の図26に示す送信データ生成部110Eに対応させた構成となっている。この図41において、図35および図38と対応する部分には同一符号を付し、その詳細説明は省略する。
このビットストリーム処理部201Eは、CCデコーダ236を有している。図26に示す送信データ生成部110EのCCデータ処理部130では、CCデータに基づいて、左眼画像上に重畳される左眼クローズド・キャプション情報のデータおよび右眼画像上に重畳される右眼クローズド・キャプション情報のデータが生成されている。そして、CCデータ処理部130で処理された後のCCデータがビデオエンコーダ113のストリームフォーマッタ113aに供給され、ビデオのストリームにユーザデータとして埋め込まれている。
CCデコーダ236では、ビデオデコーダ221を通じて得られるビデオエレメンタリーストリームからCCデータが取り出され、さらに、このCCデータからWindow毎に左眼および右眼のクローズド・キャプション情報のデータが取得される。そして、このCCデコーダ236で取得される左眼および右眼のクローズド・キャプション情報のデータは、ビデオ重畳部228に供給される。
ビデオ重畳部228では、立体画像データ(左眼画像データ、右眼画像データ)に対して、CCデコーダ236、サブタイトル・グラフィクスデコーダ222およびテキストデコーダ223で発生されたデータが重畳され、表示用立体画像データVoutが得られる。
詳細説明は省略するが、この図41に示すビットストリーム処理部201Eのその他は、図38に示すビットストリーム処理部201Bと同様に構成され、同様に動作する。
[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。すなわち、この3D信号処理部301は、図2、図13、図18、図19、図25、図26に示す送信データ生成部110,110A,110B,110C,110D,110Eにおけるビデオフレーミング部112とは逆の処理を行う。そして、この3D信号処理部301は、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。
[テレビ受信機の構成例]
テレビ受信機300の構成例を説明する。図42は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。また、このテレビ受信機300は、映像信号処理回路307と、パネル駆動回路308と、表示パネル309と、音声信号処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326を有している。
アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。
ビットストリーム処理部306は、図34に示すセットトップボックス200のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部306は、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、重畳情報データ、視差ベクトル(視差情報)等を抽出する。重畳情報データは、クローズド・キャプションデータ、サブタイトルデータ、グラフィクスデータ、テキストデータ等である。そして、このビットストリーム処理部306は、立体画像データに対し、重畳情報データを合成し、表示用立体画像データを取得する。また、ビットストリーム処理部306は、音声データを出力する。
HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データ(立体画像データ)および音声データを受信する。このHDMI受信部303の詳細は後述する。3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。
映像信号処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像信号処理回路は、画像データに対して、必要に応じて、画質調整処理を行う。パネル駆動回路308は、映像信号処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)等で構成されている。
音声信号処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声信号処理回路310から出力される音声信号を増幅してスピーカ312に供給する。
CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
図42に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声信号処理回路310に供給される。
アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。
デジタルチューナ305から出力されるビットストリームデータは、ビットストリーム処理部306に供給される。このビットストリーム処理部306では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、重畳情報データ、視差ベクトル(視差情報)等が抽出される。また、このビットストリーム処理部306では、立体画像データに対し、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報)のデータが合成され、表示用立体画像データが生成される。
ビットストリーム処理部306で生成される表示用立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部306で得られる音声データは、音声信号処理回路310に供給される。
3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、伝送方式に対応した処理(デコード処理)が行われて、左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、映像信号処理部回路307に供給される。この映像信号処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成される。そのため、表示パネル309により立体画像が表示される。
また、音声信号処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から音声が出力される。
[HDMI送信部、HDMI受信部の構成例]
図43は、図1の立体画像表示システム10における、セットトップボックス200のHDMI送信部(HDMIソース)206と、テレビ受信機300のHDMI受信部(HDMIシンク)303の構成例を示している。
HDMI送信部206は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。ここで、有効画像区間は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部206は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。
HDMI送信部206とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部206からHDMI受信部303に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。
HDMI送信部206は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル400を介して接続されているHDMI受信部303に、一方向にシリアル伝送する。
また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部303に、一方向にシリアル伝送する。
さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル400を介して接続されているHDMI受信部303に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。
HDMI受信部303は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部303は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
すなわち、HDMI受信部303は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部206からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。
HDMI送信部206とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2の他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル400に含まれる図示しない2本の信号線からなる。このDDC83は、HDMI送信部206がHDMI受信部303から、E−EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。
すなわち、HDMI受信部303は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部206は、例えば、CPU211(図34参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、当該HDMI受信部303のE−EDIDを、DDC83を介して読み出す。HDMI送信部206は、読み出したE−EDIDをCPU211に送る。CPU211は、このE−EDIDを、フラッシュROM212あるいはDRAM213に格納する。
CPU211は、E−EDIDに基づき、HDMI受信部303の性能の設定を認識できる。例えば、CPU211は、HDMI受信部303を有するテレビ受信機300が対応可能な画像データのフォーマット(解像度、フレームレート、アスペクト等)を認識する。
CECライン84は、HDMIケーブル400に含まれる図示しない1本の信号線からなり、HDMI送信部206とHDMI受信部303との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。
また、HDMIケーブル400には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。また、HDMIケーブル400には、ソース機器からシンク機器に電源を供給するために用いられるライン87が含まれている。さらに、HDMIケーブル400には、リザーブライン88が含まれている。
図44は、図43のHDMIトランスミッタ81とHDMIレシーバ82の構成例を示している。HDMIトランスミッタ81は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのエンコーダ/シリアライザ81A,81B,81Cを有する。そして、エンコーダ/シリアライザ81A,81B,81Cのそれぞれは、そこに供給される画像データ、補助データ、制御データをエンコードし、パラレルデータからシリアルデータに変換して、差動信号により送信する。ここで、画像データが、例えばR,G,Bの3成分を有する場合、B成分はエンコーダ/シリアライザ81Aに供給され、G成分はエンコーダ/シリアライザ81Bに供給され、R成分はエンコーダ/シリアライザ81Cに供給される。
また、補助データとしては、例えば、音声データや制御パケットがあり、制御パケットは、例えば、エンコーダ/シリアライザ81Aに供給され、音声データは、エンコーダ/シリアライザ81B,81Cに供給される。さらに、制御データとしては、1ビットの垂直同期信号(VSYNC)、1ビットの水平同期信号(HSYNC)、および、それぞれ1ビットの制御ビットCTL0,CTL1,CTL2,CTL3がある。垂直同期信号および水平同期信号は、エンコーダ/シリアライザ81Aに供給される。制御ビットCTL0,CTL1はエンコーダ/シリアライザ81Bに供給され、制御ビットCTL2,CTL3はエンコーダ/シリアライザ81Cに供給される。
エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分、垂直同期信号および水平同期信号、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
また、エンコーダ/シリアライザ81Aは、そこに供給される垂直同期信号および水平同期信号の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。さらに、エンコーダ/シリアライザ81Aは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分、制御ビットCTL0,CTL1、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
また、エンコーダ/シリアライザ81Bは、そこに供給される制御ビットCTL0,CTL1の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。さらに、エンコーダ/シリアライザ81Bは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分、制御ビットCTL2,CTL3、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
また、エンコーダ/シリアライザ81Cは、そこに供給される制御ビットCTL2,CTL3の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。さらに、エンコーダ/シリアライザ81Cは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
HDMIレシーバ82は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのリカバリ/デコーダ82A,82B,82Cを有する。そして、リカバリ/デコーダ82A,82B,82Cのそれぞれは、TMDSチャネル#0,#1,#2で差動信号により送信されてくる画像データ、補助データ、制御データを受信する。さらに、リカバリ/デコーダ82A,82B,82Cのそれぞれは、画像データ、補助データ、制御データを、シリアルデータからパラレルデータに変換し、さらにデコードして出力する。
すなわち、リカバリ/デコーダ82Aは、TMDSチャネル#0で差動信号により送信されてくる画像データのB成分、垂直同期信号および水平同期信号、補助データを受信する。そして、リカバリ/デコーダ82Aは、その画像データのB成分、垂直同期信号および水平同期信号、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ82Bは、TMDSチャネル#1で差動信号により送信されてくる画像データのG成分、制御ビットCTL0,CTL1、補助データを受信する。そして、リカバリ/デコーダ82Bは、その画像データのG成分、制御ビットCTL0,CTL1、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ82Cは、TMDSチャネル#2で差動信号により送信されてくる画像データのR成分、制御ビットCTL2,CTL3、補助データを受信する。そして、リカバリ/デコーダ82Cは、その画像データのR成分、制御ビットCTL2,CTL3、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
図45は、TMDS伝送データの構造例を示している。この図45は、TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。
HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、3種類の区間が存在する。この3種類の区間は、ビデオデータ区間(Video Data period)、データアイランド区間(Data Islandperiod)、およびコントロール区間(Control period)である。
ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(active edge)から次の垂直同期信号の立ち上がりエッジまでの区間である。このビデオフィールド区間は、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(verticalblanking)、並びに、アクティブビデオ区間(Active Video)に分けられる。このアクティブビデオ区間は、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間である
ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータが伝送される。
データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。
コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
図46は、HDMI端子211,251のピン配列の一例を示している。図46に示すピン配列はタイプA(type-A)と呼ばれている。
TMDSチャネル#iの差動信号を伝送する差動線である2本のラインは、TMDS Data#i+が割り当てられているピン(ピン番号が1,4,7のピン)と、TMDS Data#i−が割り当てられているピン(ピン番号が3,6,9のピン)に接続される。
また、制御用のデータであるCEC信号が伝送されるCECライン84は、ピン番号が13であるピンに接続され、ピン番号が14のピンは空き(Reserved)ピンとなっている。また、E−EDID等のSDA(SerialData)信号が伝送されるラインは、ピン番号が16であるピンに接続される。また、SDA信号の送受信時の同期に用いられるクロック信号であるSCL(Serial Clock)信号が伝送されるラインは、ピン番号が15であるピンに接続される。上述のDDC83は、SDA信号が伝送されるラインおよびSCL信号が伝送されるラインにより構成される。
また、上述したようにソース機器がシンク機器の接続を検出するためのHPDライン86は、ピン番号が19であるピンに接続される。また、上述したように電源を供給するためのライン87は、ピン番号が18であるピンに接続される。
[立体画像データの各方式におけるTMDS伝送データ例]
ここで、立体画像データの各方式におけるTMDS伝送データ例を説明する。図47は、第1の伝送方式(「Top & Bottom」方式)のTMDS伝送データ例を示している。この場合、1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第1の方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、垂直方向のラインが1/2に間引かれる。ここで、伝送すべき左眼画像データは奇数ラインまたは偶数ラインのいずれかであり、同様に、伝送すべき右眼画像データは奇数ラインまたは偶数ラインのいずれかである。
図48は、第2の伝送方式(「Side By Side」方式)のTMDS伝送データ例を示している。この場合、1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータ(左眼(L)画像データおよび右眼(R)画像データの合成データ)が配置される。この第2の伝送方式の場合、上述したように、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。
図49は、第3の伝送方式(「Frame Sequential」方式)におけるTMDS伝送データ例を示している。この場合、奇数フィールドの1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)の左眼(L)画像データが配置される。また、偶数フィールドの1920ピクセル×1080ラインのアクティブビデオ区間に、1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)の右眼(R)画像データが配置される。
なお、図49に示す「Frame Sequential」方式におけるTMDS伝送データ例は、HDMI 1.4(New HDMI)での「FrameSequential」方式を示している。この場合、図50(a)に示すように、各フレーム期間Vfreqにおいて、奇数フィールドに左眼画像データが配置され、偶数フィールドに右眼画像データが配置されている。
しかし、HDMI 1.3(Legacy HDMI)での「Frame Sequential」方式の場合には、図50(b)に示すように、フレーム期間Vfreq毎に、左眼画像データと右眼画像データとは交互に伝送される。この場合、フレーム毎に伝送される画像データが左眼画像データ、右眼画像データのいずれであるかを示す情報(L,Rのsignaling情報)を、ソース機器はシンク機器に送ることが必要となる。
「Top &Bottom」方式、「Side By Side」方式、「FrameSequential」方式の立体画像データをシンク機器に送信する場合、ソース機器側で方式を指定する。さらに、「FrameSequential」方式の場合には、L,Rをフレーム毎にsignalingする。
例えば、以下のシンタクスをLegacyHDMI仕様のブランキングに定義されているVendor Specific、あるいはAVI InfoFrame、もしくはReservedの一つを新規定義して、伝送する。
HDMI 1.3の場合、ブランキング期間で送る情報としては、次のものが定義されている。
InfoFrame Type # (8bits)
--------------------------
0x01: Vendor Specific
0x02: AVI InfoFrame
0x03: Source ProductDescription
0x04: Audio InfoFrame
0x05: MPEG Source
0x06 - 0xFF Reserved
このうちの、VendorSpecific、あるいはAVI InfoFrame、もしくは未使用領域の一つを新規定義して、以下のようにする。

3DVideoFlag 1bit (0:2D, 1: 3D)
if (3DVideoFlag) {
3DVideoFormat 3bits (0x0:Frame Packing Left View
0x1:Frame Packing Right View
0x2:Side by Side
0x4:Top & Bottom by Frame
0x6:Top & Bottom by Field
0x3,5,7:Reserved )
Reserved 4bits (0x0)
}
else {
Reserved 7bits (0x0)
}
上述の情報には、3次元画像データ(立体画像データ)および2次元画像データの切り替え情報(1ビットの3DVideoFlag情報)が含まれている。また、上述の情報には、3次元画像データのフォーマットの指定あるいは左眼画像データおよび右眼画像データの切り替えの情報(3ビットの3DVideoFormat情報)が含まれている。
なお、この情報は、同様の内容が放送されるビットストリームの中において、ピクチャヘッダあるいはそれに相当するタイミングで送られる補助情報に定義されるべきものである。この場合、このビットストリームには、3次元画像データ(左眼画像データおよび右眼画像データからなる立体画像データ)または2次元画像データが択一的に含まれる。
受信機(セットトップボックス200)では、そのストリームを受信した際に、このシグナリング情報を後段のデジタルインタフェースへ送ることで、表示ディスプレイ(テレビ受信機300)において正確な3D変換が行えるようにとり図る。
受信機は、切り替え情報(1ビットの3DVideoFlag情報)が3次元画像データを示すとき、データストリームに含まれる3次元画像データを処理するためのソフトウェアを放送サーバ等の外部機器からダウンロードしてインストールするようにしてもよい。
例えば、上述の3D情報を伝送するため、HDMI1.3対応のシステム上に追加で対応すること、あるいはHDMI1.4対応のシステムのソフトウェアを更新することが必要となる。そのため、ソフトウェアのアップデートの際には、例えば、上述の3D情報を伝送するために必要なファームウェア、ミドルウェア関係のソフトウェアがアップデートの対象となる。
上述したように、図1に示す立体画像表示システム10においては、視差情報に基づいて、左眼画像および右眼画像に重畳する同一の重畳情報(クローズド・キャプション情報、サブタイトル情報など)に視差が付与される。そのため、左眼画像および右眼画像に重畳される同一の重畳情報として、画像内の各物体(オブジェクト)の遠近感に応じて視差調整が施されたものを用いることができ、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
<2.変形例>
なお、上述実施の形態においては、放送局100側からセットトップボックス200に画像内の所定位置の視差ベクトルが送信されてくる。この場合、セットトップボックス200は、受信された立体画像データに含まれる左眼画像データおよび右眼画像データに基づいて視差ベクトルを得ることを必要とせず、セットトップボックス200の処理が簡単となる。
しかし、立体画像データの受信側、上述の実施の形態ではセットトップボックス200に、図2の送信データ生成部110における視差ベクトル検出部114と同等の視差ベクトル検出部を配置することも考えられる。この場合、視差ベクトルが送られてこなくても、視差ベクトルを用いた処理が可能となる。
図51は、例えば、セットトップボックス200に設けられるビットストリーム処理部201Fの構成例を示している。この図51において、図35と対応する部分には同一符号を付し、その詳細説明は省略する。このビットストリーム処理部201Fでは、図35に示すビットストリーム処理部201における視差ベクトルデコーダ225の代わりに、視差ベクトル検出部237が配置されている。
この視差ベクトル検出部237は、ビデオデコーダ221で得られる立体画像データを構成する左眼画像データおよび右眼画像データに基づいて、画像内の所定位置における視差ベクトルを検出する。そして、この視差ベクトル検出部237は、検出した視差ベクトルを、立体画像用サブタイトル・グラフィクス発生部226、立体画像用テキスト発生部227およびマルチチャネルスピーカ出力制御部229に供給する。
詳細説明は省略するが、この図51に示すビットストリーム処理部201Fのその他は、図35に示すビットストリーム処理部201と同様に構成され、同様に動作する。
また、図52は、例えば、セットトップボックス200に設けられるビットストリーム処理部201Gの他の構成例を示している。この図52において、図35、図39と対応する部分には同一符号を付し、その詳細説明は省略する。このビットストリーム処理部201Gでは、図39に示すビットストリーム処理部201Cにおける視差情報取り出し部232視差ベクトルデコーダ225の代わりに、視差ベクトル検出部237が配置されている。
この視差ベクトル検出部237は、ビデオデコーダ221で得られる立体画像データを構成する左眼画像データおよび右眼画像データに基づいて、画像内の所定位置における視差ベクトルを検出する。視差ベクトル検出部237は、検出した視差ベクトルを、立体画像用クローズド・キャプション発生部234、立体画像用サブタイトル・グラフィクス発生部226、立体画像用テキスト発生部227およびマルチチャネルスピーカコントロール部229に供給する。
詳細説明は省略するが、この図52に示すビットストリーム処理部201Gのその他は、図39に示すビットストリーム処理部201Cと同様に構成され、同様に動作する。
また、上述実施の形態においては、立体画像表示システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図42に示すように、セットトップボックス200内のビットストリーム処理部201と同等に機能するビットストリーム処理部306を備えている。したがって、図53に示すように、放送局100およびテレビ受信機300で構成される立体画像表示システム10Aも考えられる。
また、上述実施例においては、立体画像データを含むデータストリーム(ビットストリームデータ)が放送局100から放送される例を示した。しかし、この発明は、このデータストリームがインターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できることは勿論である。
この発明は、グラフィクス情報、テキスト情報等の重畳情報を画像に重畳して表示する立体画像表示システム等に適用できる。
10,10A・・・立体画像表示システム、100・・・放送局、110,110A〜100E・・・送信データ生成部、111L,111R・・・カメラ、112・・・ビデオフレーミング部、113・・・ビデオエンコーダ、113a・・・ストリームフォーマッタ、114・・・視差ベクトル検出部、115・・・視差ベクトルエンコーダ、116・・・マイクロホン、117・・・オーディオエンコーダ、118・・・サブタイトル・グラフィクス発生部、119・・・サブタイトル・グラフィクスエンコーダ、120・・・テキスト発生部、121・・・テキストエンコーダ、122・・・マルチプレクサ、124・・・サブタイトル・グラフィクス処理部、125・・・テキスト処理部、126・・・コントローラ、127・・・CCエンコーダ、128・・・Zデータ部、129・・・視差情報エンコーダ、130・・・CCデータ処理部、200・・・セットトップボックス、201,201A〜201G・・・ビットストリーム処理部、202・・・HDMI端子、203・・・アンテナ端子、204・・・デジタルチューナ、205・・・映像信号処理回路、206・・・HDMI送信部、207・・・音声信号処理回路、211・・・CPU、212・・・フラッシュROM、213・・・DRAM、214・・・内部バス、215・・・リモコン受信部、216・・・リモコン送信機、220・・・デマルチプレクサ、221・・・ビデオデコーダ、222・・・サブタイトル・グラフィクスデコーダ、223・・・テキストデコーダ、224・・・オーディオデコーダ、225・・・視差ベクトルデコーダ、226・・・立体画像用サブタイトル・グラフィクス発生部、227・・・立体画像用テキスト発生部、228・・・ビデオ重畳部、229・・・マルチチャネルスピーカコントロール部、231・・・視差ベクトル取り出し部、232・・・視差情報取り出し部、233・・・CCデコーダ、234・・・立体画像用クローズド・キャプション発生部、235・・・視差情報取り出し部、236・・・CCデコーダ、237・・・視差ベクトル検出部、300・・・テレビ受信機、301・・・3D信号処理部、302・・・HDMI端子、303・・・HDMI受信部、304・・・アンテナ端子、305・・・デジタルチューナ、306・・・ビットストリーム処理部、307・・・映像信号処理回路、308・・・パネル駆動回路、309・・・表示パネル、310・・・音声信号処理回路、311・・・音声増幅回路、312・・・スピーカ、321・・・CPU、322・・・フラッシュROM、323・・・DRAM、324・・・内部バス、325・・・リモコン受信部、326・・・リモコン送信機、400・・・HDMIケーブル

Claims (12)

  1. 左眼画像データおよび右眼画像データを含む立体画像データに対して符号化を行って符号化ビデオデータを得る符号化部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを発生する重畳情報データ発生部と、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する上記重畳情報に視差を付与するための視差情報を出力する視差情報出力部と、
    上記符号化部で得られた符号化ビデオデータ、上記重畳情報データ発生部で発生された重畳情報データおよび上記視差情報出力部から出力された視差情報を送信する送信部と
    を備える立体画像データ送信装置。
  2. 上記重畳情報データ発生部で発生される各重畳情報データには識別子が付加されており、
    上記視差情報出力部から出力される各重畳情報データの視差情報には、対応する重畳情報データに付与されている識別子に対応した識別子が付加される
    請求項1に記載の立体画像データの送信装置。
  3. 上記視差情報出力部は、
    上記重畳情報データ発生部で発生される重畳情報データ毎に、上記左眼画像データおよび上記右眼画像データによる画像の内容に応じて、上記視差情報を決定する視差情報決定部を有し、
    上記視差情報決定部で決定された視差情報を出力する
    請求項1または請求項2に記載の立体画像データ送信装置。
  4. 上記視差情報決定部は、
    上記左眼画像データおよび上記右眼画像データに基づき、画像内の複数の位置において、左眼画像および右眼画像の一方に対する他方の視差情報を検出する視差情報検出部を有し、
    上記重畳情報データ毎に、上記視差情報検出部で検出された複数の視差情報のうち重畳位置に対応した検出位置で検出された視差情報に決定する
    請求項3に記載の立体画像データ送信装置。
  5. 上記視差情報出力部は、
    上記重畳情報データ発生部で発生される重畳情報データ毎に、上記視差情報を設定する視差情報設定部を有し、
    上記視差情報設定部で設定された視差情報を出力する
    請求項1または請求項2に記載の立体画像データ送信装置。
  6. 上記視差情報出力部は、
    上記重畳情報データ発生部で発生される重畳情報データ毎に、上記左眼画像データおよび上記右眼画像データによる画像の内容に応じて、上記視差情報を決定する視差情報決定部と、上記重畳情報データ発生部で発生される重畳情報データ毎に、上記視差情報を設定する視差情報設定部とを有し、
    上記視差情報決定部で決定された視差情報または上記視差情報設定部で設定された視差情報を選択的に出力する
    請求項1または請求項2に記載の立体画像データ送信装置。
  7. 上記送信部は、
    上記視差情報出力部で出力された視差情報を、上記符号化部で得られた符号化ビデオデータをペイロード部に含むビデオエレメンタリーストリームのヘッダ部のユーザデータ領域に含めて送信する
    請求項1に記載の立体画像データ送信装置。
  8. 上記送信部は、
    上記視差情報出力部から出力された視差情報を送信する際に、上記重畳情報の重畳位置を示す情報および上記重畳情報の表示時間を示す情報のいずれかまたは両方を、上記視差情報に付加して送信する
    請求項1に記載の立体画像データ送信装置。
  9. 上記重畳情報のデータは字幕または番組情報を表示するためのキャラクタコードである
    請求項1に記載の立体画像データ送信装置。
  10. 上記重畳情報のデータは、サブタイトルまたはグラフィクスを表示するためのビットマップデータである
    請求項1に記載の立体画像データ送信装置。
  11. 左眼画像データおよび右眼画像データを含む立体画像データに対して符号化を行って符号化ビデオデータを得る符号化ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータを発生する重畳情報データ発生ステップと、
    上記左眼画像データおよび上記右眼画像データによる画像に重畳する上記重畳情報に視差を付与するための視差情報を出力する視差情報出力ステップと、
    上記符号化ステップで得られた符号化ビデオデータ、上記重畳情報データ発生ステップで発生された重畳情報データおよび上記視差情報出力ステップで出力された視差情報を送信する送信ステップと
    を備える立体画像データ送信方法。
  12. 左眼画像データおよび右眼画像データを含む立体画像データに対して符号化を行って得られた符号化ビデオデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報のデータと、上記左眼画像データおよび上記右眼画像データによる画像に重畳する上記重畳情報に視差を付与するための視差情報とを受信する受信部と、
    上記受信部で受信された上記符号化ビデオデータに対して復号化を行って上記立体画像データを得る復号化部と、
    上記受信部で受信された上記視差情報に基づいて、上記復号化部で得られた立体画像データに含まれる上記左眼画像データおよび上記右眼画像データによる画像に重畳する上記受信部で受信された上記重畳情報データによる同一の重畳情報に視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部と
    を備える立体画像データ受信装置。
JP2009246179A 2009-06-29 2009-10-27 立体画像データ送信装置および立体画像データ送信方法 Active JP5521486B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2009246179A JP5521486B2 (ja) 2009-06-29 2009-10-27 立体画像データ送信装置および立体画像データ送信方法
TW99119491A TWI413403B (zh) 2009-06-29 2010-06-15 Three-dimensional image data transmission device, three-dimensional image data transmission method and three-dimensional image data receiving device
PCT/JP2010/060581 WO2011001853A1 (ja) 2009-06-29 2010-06-22 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
BRPI1004288A BRPI1004288A2 (pt) 2009-06-29 2010-06-22 dispositivos de transmissão e recepção de dados de imagem estereoscópica, e, método de transmissão de dados de imagem estereoscópica
RU2011105392/08A RU2530346C2 (ru) 2009-06-29 2010-06-22 Устройство передачи данных стереоскопического изображения, способ передачи данных стереоскопического изображения и устройство для приёма данных стереоскопического изображения
CN2010800028685A CN102177723A (zh) 2009-06-29 2010-06-22 立体图像数据发送器、用于发送立体图像数据的方法和立体图像数据接收器
EP10794023.1A EP2451167A4 (en) 2009-06-29 2010-06-22 TRANSMITTER FOR STEREOSCOPIC IMAGE DATA, METHOD FOR TRANSMITTING STEREOSCOPIC IMAGE DATA AND RECEIVER FOR STEREOSCOPIC IMAGE DATA
US13/058,982 US20110141234A1 (en) 2009-06-29 2010-06-22 Stereoscopic Image Data Transmission Device, Stereoscopic AImage Data Transmission Method, And Stereoscopic Image Data Reception Device
KR1020117003580A KR20120038388A (ko) 2009-06-29 2010-06-22 입체화상 데이터 송신 장치, 입체화상 데이터 송신 방법 및 입체화상 데이터 수신 장치

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009153686 2009-06-29
JP2009153686 2009-06-29
JP2009246179A JP5521486B2 (ja) 2009-06-29 2009-10-27 立体画像データ送信装置および立体画像データ送信方法

Publications (2)

Publication Number Publication Date
JP2011030176A true JP2011030176A (ja) 2011-02-10
JP5521486B2 JP5521486B2 (ja) 2014-06-11

Family

ID=43410930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009246179A Active JP5521486B2 (ja) 2009-06-29 2009-10-27 立体画像データ送信装置および立体画像データ送信方法

Country Status (9)

Country Link
US (1) US20110141234A1 (ja)
EP (1) EP2451167A4 (ja)
JP (1) JP5521486B2 (ja)
KR (1) KR20120038388A (ja)
CN (1) CN102177723A (ja)
BR (1) BRPI1004288A2 (ja)
RU (1) RU2530346C2 (ja)
TW (1) TWI413403B (ja)
WO (1) WO2011001853A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012209930A (ja) * 2011-03-28 2012-10-25 Samsung Electronics Co Ltd 3次元画像データ処理方法及び3次元画像データ処理方法により表示する表示装置
WO2012144372A1 (ja) * 2011-04-21 2012-10-26 シャープ株式会社 映像供給装置、および、映像供給方法
KR20130116826A (ko) * 2012-04-16 2013-10-24 삼성전자주식회사 3d 비디오 부호화/복호화 장치 및 부호화/복호화 방법
WO2013157812A1 (ko) * 2012-04-16 2013-10-24 삼성전자주식회사 3d 비디오 부호화/복호화 장치 및 부호화/복호화 방법
US9313442B2 (en) 2010-04-14 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for generating a broadcast bit stream for digital broadcasting with captions, and method and apparatus for receiving a broadcast bit stream for digital broadcasting with captions
JP2021534616A (ja) * 2018-07-31 2021-12-09 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. データ配信のための方法、装置、システムおよびコンピュータプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5620651B2 (ja) * 2009-06-26 2014-11-05 キヤノン株式会社 再生装置、撮像装置、及びその制御方法
US20130010064A1 (en) * 2010-03-24 2013-01-10 Panasonic Corporation Video processing device
US9258541B2 (en) * 2010-08-17 2016-02-09 Lg Electronics Inc. Apparatus and method for receiving digital broadcasting signal
WO2012045319A1 (en) * 2010-10-05 2012-04-12 Telefonaktiebolaget L M Ericsson (Publ) Multi-view encoding and decoding technique based on single-view video codecs
WO2012144039A1 (ja) * 2011-04-20 2012-10-26 株式会社東芝 画像処理装置、および方法
KR101626683B1 (ko) * 2011-08-30 2016-06-01 인텔 코포레이션 멀티뷰 비디오 코딩 방안
WO2013046281A1 (ja) 2011-09-30 2013-04-04 パナソニック株式会社 映像処理装置及び映像処理方法
EP2781103A1 (en) * 2011-11-14 2014-09-24 Motorola Mobility LLC Association of mvc stereoscopic views to left or right eye display for 3dtv
WO2013114887A1 (en) 2012-02-02 2013-08-08 Panasonic Corporation Methods and apparatuses for 3d media data generation, encoding, decoding and display using disparity information
US9392214B2 (en) * 2013-02-06 2016-07-12 Gyrus Acmi, Inc. High definition video recorder/player
CN112383695B (zh) * 2014-12-29 2022-06-14 索尼公司 发送装置、接收装置和接收方法
WO2018089040A1 (en) * 2016-11-14 2018-05-17 Lightcraft Technology Llc Spectator virtual reality system
CN116489454A (zh) * 2018-06-25 2023-07-25 华为技术有限公司 一种包含字幕的高动态范围视频处理的方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2009017198A (ja) * 2007-07-04 2009-01-22 Panasonic Corp データ処理装置およびデータ処理方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
JP2004040445A (ja) * 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
JP4190263B2 (ja) * 2002-11-25 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
KR100727513B1 (ko) * 2002-12-16 2007-06-14 산요덴키가부시키가이샤 입체 영상 생성 장치 및 입체 영상 배신 방법
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP3746506B2 (ja) * 2004-03-08 2006-02-15 一成 江良 立体視化パラメータ埋込装置及び立体視画像再生装置
US7929728B2 (en) * 2004-12-03 2011-04-19 Sri International Method and apparatus for tracking a movable object
US7563228B2 (en) * 2005-01-24 2009-07-21 Siemens Medical Solutions Usa, Inc. Stereoscopic three or four dimensional ultrasound imaging
RU2407224C2 (ru) * 2005-04-19 2010-12-20 Конинклейке Филипс Электроникс Н.В. Восприятие глубины
WO2007116549A1 (ja) * 2006-04-07 2007-10-18 Sharp Kabushiki Kaisha 画像処理装置
CN101653011A (zh) * 2007-03-16 2010-02-17 汤姆森许可贸易公司 用于将文本与三维内容相结合的系统和方法
EP2393301A1 (en) * 2007-06-11 2011-12-07 Samsung Electronics Co., Ltd. Method and apparatus for generating header information of stereoscopic image
KR100955578B1 (ko) * 2007-12-18 2010-04-30 한국전자통신연구원 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
JP2009153686A (ja) 2007-12-26 2009-07-16 Lion Corp 床用清掃シート
MX2010013448A (es) * 2008-06-26 2010-12-22 Panasonic Corp Medio de grabacion, dispositivo de reproduccion, dispositivo de grabacion, metodo de reproduccion, metodo de grabacion y programa.
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
WO2010064853A2 (en) * 2008-12-02 2010-06-10 Lg Electronics Inc. 3d caption display method and 3d display apparatus for implementing the same
KR101657123B1 (ko) * 2009-02-12 2016-09-13 엘지전자 주식회사 방송 수신기 및 3d 자막 데이터 처리 방법
WO2010095074A1 (en) * 2009-02-17 2010-08-26 Koninklijke Philips Electronics N.V. Combining 3d image and graphical data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289555A (ja) * 1998-04-02 1999-10-19 Toshiba Corp 立体映像表示装置
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2009017198A (ja) * 2007-07-04 2009-01-22 Panasonic Corp データ処理装置およびデータ処理方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9313442B2 (en) 2010-04-14 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for generating a broadcast bit stream for digital broadcasting with captions, and method and apparatus for receiving a broadcast bit stream for digital broadcasting with captions
JP2012209930A (ja) * 2011-03-28 2012-10-25 Samsung Electronics Co Ltd 3次元画像データ処理方法及び3次元画像データ処理方法により表示する表示装置
US9374575B2 (en) 2011-03-28 2016-06-21 Samsung Display Co., Ltd. Method of processing three-dimensional image data and a display apparatus for performing the same
WO2012144372A1 (ja) * 2011-04-21 2012-10-26 シャープ株式会社 映像供給装置、および、映像供給方法
JP2012227842A (ja) * 2011-04-21 2012-11-15 Sharp Corp 映像供給装置、および、映像供給方法
KR20130116826A (ko) * 2012-04-16 2013-10-24 삼성전자주식회사 3d 비디오 부호화/복호화 장치 및 부호화/복호화 방법
WO2013157812A1 (ko) * 2012-04-16 2013-10-24 삼성전자주식회사 3d 비디오 부호화/복호화 장치 및 부호화/복호화 방법
KR102133936B1 (ko) 2012-04-16 2020-07-14 삼성전자주식회사 3d 비디오 부호화/복호화 장치 및 부호화/복호화 방법
JP2021534616A (ja) * 2018-07-31 2021-12-09 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. データ配信のための方法、装置、システムおよびコンピュータプログラム

Also Published As

Publication number Publication date
US20110141234A1 (en) 2011-06-16
WO2011001853A1 (ja) 2011-01-06
BRPI1004288A2 (pt) 2016-02-23
RU2011105392A (ru) 2012-08-20
RU2530346C2 (ru) 2014-10-10
EP2451167A1 (en) 2012-05-09
CN102177723A (zh) 2011-09-07
KR20120038388A (ko) 2012-04-23
TW201116043A (en) 2011-05-01
EP2451167A4 (en) 2013-12-04
TWI413403B (zh) 2013-10-21
JP5521486B2 (ja) 2014-06-11

Similar Documents

Publication Publication Date Title
JP5521486B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
WO2011001854A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2011001851A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置、立体画像データ受信方法、画像データ送信装置および画像データ受信装置
JP5446913B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
JP5402715B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5407957B2 (ja) 立体画像データ送信装置および立体画像データ受信装置
TWI452892B (zh) Image data transmission device, control method and program
WO2011001858A1 (ja) 立体画像データ送信装置および立体画像データ受信装置
WO2011001855A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5633259B2 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2011166757A (ja) 送信装置、送信方法および受信装置
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP2011010255A (ja) 立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2013176141A (ja) 立体画像データ受信装置および立体画像データ受信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140324

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250