JP6333226B2 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP6333226B2
JP6333226B2 JP2015198688A JP2015198688A JP6333226B2 JP 6333226 B2 JP6333226 B2 JP 6333226B2 JP 2015198688 A JP2015198688 A JP 2015198688A JP 2015198688 A JP2015198688 A JP 2015198688A JP 6333226 B2 JP6333226 B2 JP 6333226B2
Authority
JP
Japan
Prior art keywords
information
data
audio
stream
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015198688A
Other languages
English (en)
Other versions
JP2016029816A (ja
Inventor
塚越 郁夫
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saturn Licensing LLC
Original Assignee
Saturn Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saturn Licensing LLC filed Critical Saturn Licensing LLC
Priority to JP2015198688A priority Critical patent/JP6333226B2/ja
Publication of JP2016029816A publication Critical patent/JP2016029816A/ja
Application granted granted Critical
Publication of JP6333226B2 publication Critical patent/JP6333226B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関する。
従来、放送局から立体画像データを表示するための立体画像データを送信し、この立体画像データをセットトップボックス(STB:Set Top Box)で受信し、そして、このセットトップボックスからテレビ受信機(TV:Television)にHDMI(High Definition Multimedia Interface)規格などのデジタルインタフェースで立体画像データを送信することが知られている。例えば、非特許文献1には、HDMI規格の詳細についての記載がある。
例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。
図48は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。
また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。
特開2005−6114号公報
High-Definition Multimedia Interface Specification Version 1.4,June 5 2009
上述したように立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳されるOSD表示等の重畳情報に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。例えば、立体画像にOSD表示を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。
そこで、立体画像データを構成する左眼画像データおよび右眼画像データに対応した視差情報を立体画像データと共にテレビ受信機に送信し、左眼画像および右眼画像に重畳する重畳情報をシフトさせて視差を付与することが考えられる。これにより、立体画像に重畳表示するOSD表示等の重畳情報を最も近い画像内の物体(オブジェクト)よりも手前に表示させることが可能となる。
本技術の目的は、例えば、放送局等から視差情報等の情報を簡単に送信してテレビ受信機等で利用可能とすることにある。
本技術の概念は、
音声データに直接関係しない所定情報が埋め込まれた音声圧縮データストリームを生成する音声圧縮データストリーム生成部と、
上記音声圧縮データストリーム生成部で生成された音声圧縮データストリーム送信するデータ送信部と
を備える送信装置にある。
本技術においては、音声圧縮データストリーム生成部により、音声圧縮データストリームが生成される。この圧縮フォーマットは、例えば、AC3,AACなどである。この音声圧縮データストリームには、音声データに直接関係しない所定情報(メタデータ)が埋め込まれている。この所定情報は、例えば、音声圧縮データストリームのユーザデータ領域に埋め込まれている。例えば、圧縮フォーマットがAC3の場合、所定情報は、付加データ領域(Aux領域)に挿入される。また、例えば、圧縮フォーマットがAACの場合、所定情報は、DSE(data stream element)として、挿入される。
本技術において、例えば、データストリーム生成部に所定情報を供給すると共に、この所定情報をユーザデータ領域に埋め込むためのサイズ情報を供給し、音声圧縮データストリームのユーザデータ領域に所定情報の埋め込みが行われるように制御する制御部をさらに備える、ようにされてもよい。
また、本技術において、例えば、画像圧縮データストリームを生成する画像圧縮データストリーム生成部をさらに備え、データ送信部は、画像圧縮データストリーム生成部で生成された画像圧縮データストリームと音声圧縮データストリームとを多重して送信し、画像圧縮データストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを圧縮符号化した画像圧縮データを含み、音声圧縮データストリームに埋め込まれた所定情報は、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報であってよい。
また、本技術において、例えば、音声圧縮データストリームに埋め込まれた所定情報は、他のサービスにアクセスするための情報であってもよい。この場合、例えば、所定情報は、音声圧縮データに関係した情報を得るためのネットワークアクセス情報とされる。また、この場合、例えば、画像圧縮データストリームを生成する画像圧縮データストリーム生成部をさらに備え、データ送信部は、画像圧縮データストリーム生成部で生成された画像圧縮データストリームと音声圧縮データストリームとを多重して送信し、音声圧縮データストリームに埋め込まれた所定情報は、画像圧縮データに関係した情報を得るためのネットワークアクセス情報とされる。
また、本技術において、例えば、画像圧縮データストリームを生成する画像圧縮データストリーム生成部をさらに備え、データ送信部は、画像圧縮データストリーム生成部で生成された画像圧縮データストリームと音声圧縮データストリームとを多重して送信し、音声圧縮データストリームに埋め込まれた所定情報は、画像圧縮データによる画像に重畳する重畳情報のデータであってもよい。
このように本技術においては、音声データに直接関係しない所定情報が、圧縮音声データストリームに埋め込まれて送信される。そのため、例えば、放送局、配信サーバ等から視差情報、重畳情報データ、他サービスアクセス情報等の情報を、圧縮音声データストリームをコンテナとして簡単に送信でき、テレビ受信機等で利用することが可能となる。
本技術において、例えば、音声圧縮データストリームに埋め込まれる所定情報には、情報のタイプを示すタイプ情報が付加されていてもよい。この場合、タイプ情報によって情報のタイプの識別が可能となるため、複数のタイプの情報を選択的に送信することが可能となる。
また、本技術において、例えば、音声圧縮データストリームに埋め込まれる所定情報には情報識別子で区別された複数種類の情報を含めることが可能とされてもよい。この場合、複数種類の情報を同時に送信するこが可能となる。
また、本技術において、例えば、音声圧縮データストリームに埋め込まれる所定情報を、一連の情報を分割して得られた複数の分割情報のいずれかとすることが可能とされ、所定情報としての分割情報には、最初の分割情報であるか否かを示す情報および順番を示す情報が付加されてもよい。この場合、所定の情報の容量が大きい場合には複数に分割して送信することが可能となる。
また、本技術において、例えば、音声圧縮データストリームに埋め込まれる所定情報には、時間同期を管理するためのタイムスタンプが付加されてもよい。この場合、画像表示、あるいは音声出力との間の同期管理が可能となる。
また、本技術の他の概念は、
所定情報が付加された音声圧縮データストリームを取得するデータ取得部と、
上記データ取得部で取得された音声圧縮データストリームを、伝送路を介して、上記外部機器に送信するデータ送信部と
を備える送信装置にある。
本技術において、データ取得部により、音声圧縮データストリームが取得される。この圧縮フォーマットは、例えば、AC3,AACなどである。この音声圧縮データストリームには、所定情報、例えば音声データに直接関係しない情報が付加されている。例えば、データ取得部は、音声圧縮データストリームを、放送信号から取得するか、あるいは、配信サーバ(ストリーミングサーバ)からネットワークを介して取得する。また、例えば、データ取得部は、音声圧縮データストリームを、ディスク等の記録媒体から再生して取得する。データ送信部では、データ取得部で取得された音声圧縮データストリームが、伝送路を介して、外部機器に送信される。
本技術において、例えば、データ送信部は、データ取得部で取得された音声圧縮データストリームの圧縮フォーマットが外部機器で取り扱い可能な圧縮フォーマットであるとき、データ取得部で取得された音声圧縮データストリームを上記外部機器に送信する、ようにされる。この場合、例えば、データ送信部は、データ取得部で取得された音声圧縮データストリームの圧縮フォーマットが外部機器で取り扱い可能な圧縮フォーマットであるとき、データ取得部で取得された音声圧縮データストリームを外部機器に送信する、ようにされてもよい。
そして、この場合、データ送信部は、データ取得部で取得された音声圧縮データストリームの圧縮フォーマットが外部機器で取り扱い可能な圧縮フォーマットであり、さらに外部機器が音声圧縮データストリームの送信を要求しているとき、データ取得部で取得された音声圧縮データストリームを上記外部機器に送信する、ようにされてもよい。
さらに、この場合、データ取得部で取得された音声圧縮データストリームにデコード処理を施して非圧縮音声データおよび所定情報を得るデコード処理部をさらに備え、データ送信部は、少なくとも、データ取得部で取得された音声圧縮データストリームの圧縮フォーマットが外部機器で取り扱い可能な圧縮フォーマットでないか、あるいは、外部機器が音声圧縮データストリームの送信を要求していないとき、デコード処理部で得られた非圧縮音声データおよび所定情報を、伝送路を介して、外部機器に送信する、ようにされてもよい。
また、本技術において、例えば、データ送信部は、外部機器が取り扱い可能な音声圧縮データストリームの圧縮フォーマット情報と、外部機器が音声圧縮データストリームの送信を要求しているか否かの情報を、外部機器が備える記憶部から伝送路を介して読み出して取得する、ようにされてもよい。
また、本技術において、例えば、データ送信部は、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを、伝送路を介して外部機器にさらに送信し、音声圧縮データストリームに埋め込まれた所定情報は、立体画像データを表示するための左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報であってもよい。
また、本技術において、例えば、音声圧縮データストリームに埋め込まれた所定情報は、他のサービスにアクセスするための情報であってもよい。
また、本技術において、データ送信部は、画像データを、伝送路を介して、外部機器にさらに送信し、音声圧縮データストリームに埋め込まれた所定情報は、画像データによる画像に重畳する重畳情報のデータであってもよい。
このように本技術においては、データ取得部で取得された、所定情報が付加されている音声圧縮データストリームが外部機器にそのまま送信される。そのため、音声圧縮データストリームにデコード処理を施す必要がなく、視差情報、重畳情報データ、他サービスアクセス情報等の情報を、音声圧縮データストリームをコンテナとして簡単に送信でき、テレビ受信機等で利用することが可能となる。
また、本技術のさらに他の概念は、
所定情報が付加された音声圧縮データストリームを受信するデータ受信部と、
上記データ受信部で受信された音声圧縮データストリームにデコード処理を施して非圧縮音声データおよび上記所定情報を得るデコード処理部と
を備える受信装置にある。
本技術において、データ受信部により、音声圧縮データストリームが受信される。この場合、例えば、データ受信部は、放送信号または配信サーバから所定情報が埋め込まれた音声圧縮データストリームを受信する、ようにされる。また、この場合、例えば、データ受信部は、外部機器から、伝送路を介して、所定情報が埋め込まれた音声圧縮データストリームを受信する、ようにされる。音声圧縮データストリームの圧縮フォーマットは、例えば、AC3,AACなどである。デコード処理部により、音声圧縮データストリームにデコード処理が施されて非圧縮音声データおよび所定情報が得られる。
本技術において、例えば、データ受信部は、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データをさらに受信し、デコード処理部で得られた所定情報は、立体画像データを表示するための左眼画像データおよび右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報であり、データ受信部で受信された立体画像データが有する左眼画像データおよび右眼画像データと、デコード処理部で得られた視差情報を用い、左眼画像および右眼画像に重畳する同一の重畳情報に視差を付与し、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータを得る画像データ処理部をさらに備える、ようにされてもよい。
また、本技術において、例えば、デコード処理部で得られた所定情報は、他のサービスにアクセスするための情報であり、デコード処理部で得られた他のサービスにアクセスするための情報を用いて、他のサービスにアクセスする通信部をさらに備える、ようにされてもよい。
また、本技術において、例えば、データ受信部は、画像データをさらに受信し、デコード処理部で得られた所定情報は、データ受信部で受信された画像データによる画像に重畳する重畳情報のデータであり、データ受信部で受信された画像データと、デコード処理部で得られた重畳情報のデータを用い、重畳情報が重畳された画像のデータを得る画像データ処理部をさらに備える、ようにされてもよい。
このように本技術においては、所定情報が埋め込まれている音声圧縮データストリームを受信し、埋め込まれている視差情報、重畳情報データ、他サービスアクセス情報等の情報を利用することが可能となる。
本技術によれば、放送局、配信サーバ等から、視差情報、重畳情報データ、他サービスアクセス情報等の情報を、音声圧縮データストリームをコンテナとして簡単に送信でき、テレビ受信機等で利用することが可能となる。
本技術の第1の実施の形態としての立体画像表示システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 1920×1080pのピクセルフォーマットの画像データを示す図である。 立体画像データ(3D画像データ)の伝送方式である「Top & Bottom」方式、「Side By Side」方式、「Frame Sequential」方式を説明するための図である。 左眼画像に対する右眼画像の視差ベクトルを検出する例を説明するための図である。 視差ベクトルをブロックマッチング方式で求めることを説明するための図である。 送信データ生成部の視差情報作成部で行われるダウンサイジング処理を説明するための図である。 立体画像表示システムを構成するセットトップボックスの構成例を示すブロック図である。 セットトップボックスのCPUの制御処理の手順の一例を示すフローチャートである。 立体画像表示システムを構成するテレビ受信機の構成例を示すブロック図である。 立体画像表示システムにおける、セットトップボックスのHDMI送信部(HDMIソース)と、テレビ受信機のHDMI受信部(HDMIシンク)の構成例を示す図である。 テレビ受信機に含まれるE−EDIDの構造(Block1以降、HDMI用拡張部分)を示す図である。 “Audio Data Block”の各“CEA Short Audio Descriptor”の詳細を示す図である。 「Audio Code」と「Audio Format」の対応関係(一部抜粋)を示す図である。 EDID構造内のVendor Specific Data Block(VSDB)の構造を示す図である。 放送局における送信データ生成部の他の構成例を示すブロック図である。 立体画像表示システムを構成するテレビ受信機の他の構成例を示すブロック図である。 放送局における送信データ生成部の他の構成例を示すブロック図である。 立体画像表示システムを構成するテレビ受信機の他の構成例を示すブロック図である。 本技術の第2の実施の形態としての立体画像表示システムの構成例を示すブロック図である。 放送局における送信データ生成部の構成例を示すブロック図である。 AC3のフレーム(AC3 Synchronization Frame)の構造を示す図である。 AACの1024サンプル分の音声データが入るフレーム(Raw_data_block)の構造を示す図である。 圧縮フォーマットがAC3の場合にメタデータMDが挿入される「AUX(AUXILIARY DATA)」のの構成を示す図である。 圧縮フォーマットがAACの場合にメタデータMDが挿入される「DSE(data stream element)」の構成を示す図である。 IEC 60958の基本的な論理データ構造を示す図である。 メタデータ汎用シンタクスの一例を説明するための図である。 メタデータ汎用シンタクスの一例を説明するための図である。 メタデータ汎用シンタクスの一例を説明するための図である。 メタデータ汎用シンタクスにおける主要なデータ規定内容を示す図である。 一連のメタデータ(メタデータパケット)を分割して送信する場合における、「metadata_counter」、「metadata_start_flag」の変化例を示す図である。 複数のメタデータが各々の同期対象と同期管理される例を示す図である。 「metadata_linking_Packet()」のシンタクスを示す図である。 「metadata_linking_Packet()」の主要なデータ規定内容を示す図である。 複数のメタデータユニットが各々の同期対象と同期管理される例を示す図である。 「disparity_shift_data_Packet()」のシンタクスを示す図である。 「disparity_shift_data_Packet()」の主要なデータ規定内容を示す図である。 「horizontal_partition」、「vertical_partition」による画面分割数あるいは画面分割パターンの一例を示す図である。 放送トリガ信号のライフサイクルの一例を示す図である。 レジスタ(Register)コマンドとしてのトリガ情報に含まれる項目を示す図である。 エクスキュート(Execute)コマンドとしてのトリガ情報に含まれる項目を示す図である。 インジェクトイベント(Inject_event)コマンドとしてのトリガ情報に含まれる項目を示す図である。 サスペンド(Suspend)コマンドとしてのトリガ情報に含まれる項目を示す図である。 ターミネート(Terminate)コマンドとしてのトリガ情報に含まれる項目を示す図である。 各コマンドとしてのトリガ情報に対応可能なトリガ情報である「Trigger_info_data()」のシンタクスを示す図である。 セットトップボックスの他の構成例を示すブロック図である。 立体画像表示システムの他の構成例を示すブロック図である。 両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクトの左右像の表示位置と、その立体像の再生位置との関係を説明するための図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
<1.第1の実施の形態>
[立体画像表示システムの構成例]
図1は、実施の形態としての立体画像表示システム10の構成例を示している。この立体画像表示システム10は、放送局100と、セットトップボックス(STB)200と、テレビ受信機(TV)300を有している。
セットトップボックス200およびテレビ受信機300は、HDMI(High Definition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
[放送局の説明]
放送局100は、ビットストリームデータBSDを、放送波に載せて送信する。放送局100は、ビットストリームデータBSDを生成する送信データ生成部110を備えている。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、さらには視差情報(視差ベクトル)が含まれる。
「送信データ生成部の構成例」
図2は、放送局100において、上述のビットストリームデータBSDを生成する送信データ生成部110の構成例を示している。この送信データ生成部110は、データ取り出し部(アーカイブ部)111と、ビデオエンコーダ112と、オーディオエンコーダ113と、視差情報作成部114と、マルチプレクサ115を有している。
データ取り出し部111には、データ記録媒体111aが、例えば、着脱自在に装着される。このデータ記録媒体111aには、左眼画像データおよび右眼画像データを含む立体画像データと共に、音声データ、視差情報が対応付けて記録されている。データ取り出し部111は、データ記録媒体111aから、立体画像データ、音声データ、視差情報等を取り出して出力する。データ記録媒体111aは、ディスク状記録媒体、半導体メモリ等である。
データ記録媒体111aに記録されている立体画像データは、所定の伝送方式の立体画像データである。立体画像データ(3D画像データ)の伝送方式の一例を説明する。ここでは、以下の第1〜第3の伝送方式を挙げるが、これら以外の伝送方式であってもよい。また、ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば、1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、トップ・アンド・ボトム(Top & Bottom)方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
第2の伝送方式は、サイド・バイ・サイド(Side By Side)方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。原信号に対して、水平解像度は半分となる。
第3の伝送方式は、フレーム・シーケンシャル(Frame Sequential)方式あるいは2D後方互換方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式である。
また、データ記録媒体111aに記録されている視差情報は、例えば、画像を構成するピクセル(画素)毎の視差ベクトルである。視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば8×8あるいは16×16の比較ブロックが順次設定されていく。
画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。
右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
図2に戻って、視差情報作成部114は、データ取り出し部130から出力される視差情報、すなわちピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施す。そして、視差情報作成部114は、画像(ピクチャ)領域を所定の大きさに分割して得られた各領域の視差ベクトルのセット、つまり視差情報セットを作成して出力する。図7は、視差情報作成部114で行われるダウンサイジング処理の一例を示している。
最初に、視差情報作成部134は、図7(a)に示すように、ピクセル(画素)毎の視差ベクトルを用いて、ブロック毎の視差ベクトルを求める。上述したように、ブロックは、最下層に位置するピクセル(画素)の上位層に当たり、画像(ピクチャ)領域が水平方向および垂直方向に所定の大きさで分割されることで構成される。そして、各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部114は、図7(b)に示すように、ブロック毎の視差ベクトルを用いて、グループ(Group Of Block)毎の視差ベクトルを求める。グループは、ブロックの上位層に当たり、複数個の近接するブロックをまとめてグループ化することで得られる。図7(b)の例では、各グループは、破線枠で括られる4個のブロックにより構成されている。そして、各グループの視差ベクトルは、例えば、そのグループ内の全ブロックの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部114は、図7(c)に示すように、グループ毎の視差ベクトルを用いて、パーティション(Partition)毎の視差ベクトルを求める。パーティションは、グループの上位層に当たり、複数個の近接するグループをまとめてグループ化することで得られる。図7(c)の例では、各パーティションは、破線枠で括られる2個のグループにより構成されている。そして、各パーティションの視差ベクトルは、例えば、そのパーティション内の全グループの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報作成部114は、図7(d)に示すように、パーティション毎の視差ベクトルを用いて、最上位層に位置するピクチャ全体(画像全体)の視差ベクトルを求める。図7(d)の例では、ピクチャ全体には、破線枠で括られる4個のパーティションが含まれている。そして、ピクチャ全体の視差ベクトルは、例えば、ピクチャ全体に含まれる全パーティションの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
このようにして、視差情報作成部114は、最下層に位置するピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施して、ブロック、グループ、パーティション、ピクチャ全体の各階層の各領域の視差ベクトルを求めることができる。なお、図7に示すダウンサイジング処理の一例では、最終的に、ピクセル(画素)の階層の他、ブロック、グループ、パーティション、ピクチャ全体の4階層の視差ベクトルを求めている。しかし、階層数ならびに各階層の領域の切り方や領域の数はこれに限定されるものではない。
視差情報作成部114は、上述したダウンサイジング処理により、所定階層の各領域の視差ベクトルのセットを作成して、視差情報セットとして出力する。なお、視差ベクトルを求める各領域の大きさ、つまり階層の選択は、例えば、受信側が要求する視差ベクトルの空間密度、あるいは伝送帯域などに基づいて行われる。
図2に戻って、ビデオエンコーダ112は、データ取り出し部111から供給される立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施し、画像圧縮データストリーム(ビデオエレメンタリストリーム)を生成する。オーディオエンコーダ113は、データ取り出し部111から供給される音声データに対して、AC3、AAC等の符号化を施し、音声圧縮データストリーム(オーディオエレメンタリストリーム)を生成する。
オーディオエンコーダ113は、音声圧縮データストリームに、上述の視差情報作成部114で作成された視差情報セットを付加する。ここで、視差情報セットは、音声圧縮データストリームに、ユーザデータとして挿入される。例えば、圧縮フォーマットがAC3の場合、視差情報セットは、付加データ領域(Aux領域)に挿入される。また、例えば、圧縮フォーマットがAACの場合、所定情報は、DSE data stream element(ユーザデータ)として挿入される。これにより、視差情報セットは、音声圧縮データストリームをコンテナとして送信されることになる。この視差情報セットは、後述するように、テレビ受信機300において、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報(OSD表示など)をシフトさせて視差を付与するために使用される。
マルチプレクサ115は、ビデオエンコーダ112から出力される画像圧縮データストリームおよびオーディオエンコーダ113から出力される音声圧縮データストリームを多重化する。そして、マルチプレクサ115は、多重化データストリームとしてのビットストリームデータ(トランスポートストリーム)BSDを生成して出力する。
図2に示す送信データ生成部110の動作を簡単に説明する。データ取り出し部111から出力される立体画像データは、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、その立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含む画像圧縮データストリーム(ビデオエレメンタリストリーム)が生成される。この画像圧縮データストリームは、マルチプレクサ115に供給される。
また、データ取り出し部111から出力されるピクセル(画素)毎の視差ベクトルは、視差情報作成部114に供給されて、ダウンサイジング処理が施される。この視差情報作成部114では、画像(ピクチャ)領域が所定の大きさに分割されて得られた各領域の視差ベクトルのセット、つまり視差情報セットが作成される。この視差情報セットは、オーディオエンコーダ113に供給される。
また、データ取り出し部111から出力される音声データはオーディオエンコーダ113に供給される。このオーディオエンコーダ111では、データ取り出し部111から供給される音声データに対して、AC3、AAC等の符号化が施され、音声圧縮データストリーム(オーディオエレメンタリストリーム)が生成される。
また、このオーディオエンコーダ113では、音声圧縮データストリームに、上述の視差情報作成部114で作成された視差情報セットが付加される。この場合、視差情報セットは、音声圧縮データストリームに、ユーザデータとして挿入される。このように視差情報セットが付加された音声圧縮データストリームは、マルチプレクサ115に供給される。
マルチプレクサ115には、上述したように、ビデオエンコーダ112から画像圧縮データストリームが供給されると共に、オーディオエンコーダ113から視差情報セットが付加された音声圧縮データストリームが供給される。そして、このマルチプレクサ115では、各エンコーダから供給される圧縮データストリーム(エレメンタリストリーム)がパケット化されて多重され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波に載せて送信されてくるビットストリームデータ(トランスポートストリーム)BSDを受信する。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データおよび視差情報セットなどが含まれている。このセットトップボックス200は、ビットストリーム処理部201を有している。
このビットストリーム処理部201は、ビットストリームデータBSDから、非圧縮の立体画像データを得る。また、このビットストリーム処理部201は、ビットストリームデータBSDから、音声圧縮データストリーム、または、非圧縮音声データおよび視差情報セットを得る。
図8は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、オーディオフレーミング部208と、HDMI送信部209を有している。ビットストリーム処理部201には、デマルチプレクサ205、ビデオデコーダ206およびオーディオデコーダ207が含まれている。また、セットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
リモコン受信部215は、リモコン送信機216から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
ビットストリーム処理部201は、上述したように、ビットストリームデータBSDから立体画像データを取得し、さらに、音声圧縮データストリーム、または、非圧縮音声データおよび視差情報セットを取得する。デマルチプレクサ205は、ビットストリームデータBSDからビデオおよびオーディオのエレメンタリストリームのパケットを抽出し、各デコーダに送る。
ビデオデコーダ206は、上述の送信データ生成部110のビデオエンコーダ112とは逆の処理を行う。すなわち、デマルチプレクサ205で抽出されたビデオのパケットからビデオエレメンタリストリーム(画像圧縮データストリーム)を再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む非圧縮の立体画像データを得る。この立体画像データの伝送方式は、例えば、上述の第1の伝送方式(「Top & Bottom」方式)、第2の伝送方式は(「Side By Side」方式)、第3の伝送方式(「Frame Sequential」方式)などである(図4参照)。
オーディオデコーダ207は、上述の送信データ生成部110のオーディオエンコーダ113とは逆の処理を行う。オーディオデコーダ207は、デマルチプレクサ205で抽出されたオーディオのパケットからオーディオエレメンタリストリーム(音声圧縮データストリーム)を再構成し、デコード処理を行って、非圧縮音声データ(PCMデータ)および視差情報セットを得る。ただし、オーディオデコーダ207は、以下の場合には、圧縮音声データストリームを、デコード処理をすることなく、そのまま出力する。すなわち、その圧縮フォーマットがテレビ受信機300で取り扱い可能で、しかも、テレビ受信機300が圧縮音声データストリームの送信を要求している場合である。
上述のオーディオデコーダ207の処理は、CPU211の制御のもとに行われる。CPU211は、後述するように、テレビ受信機300からE−EDID(Enhanced Extended Display Identification Data)を取得する。CPU211は、このE−EDIDに含まれる、テレビ受信機300で取り扱い可能な音声圧縮データストリームの圧縮フォーマット情報、および音声圧縮データストリームの送信を要求しているか否かを示す情報(圧縮強制フラグ情報)に基づいて、制御を行う。
図9のフローチャートは、CPU211の制御処理の手順の一例を示している。CPU211は、ステップST1で処理を開始し、その後、ステップST2の処理に移る。このステップST2において、CPU211は、圧縮強制フラグ情報に基づいて、テレビ受信機300が音声圧縮データストリームの送信を要求しているか否かを判断する。送信を要求しているとき、CPU211は、ステップST3の処理に移る。
このステップST3において、CPU211は、圧縮フォーマットが、テレビ受信機300で取り扱い可能か否かを判断する。取り扱い可能な圧縮フォーマットであるとき、CPU211は、ステップST4において、音声圧縮データストリームを、デコード処理せずに、そのまま出力するように、オーディオデコーダ207を制御する。CPU211は、ステップST4の処理の後、ステップST5において、制御処理を終了する。
ステップST2でテレビ受信機300が音声圧縮データストリームの送信を要求していないとき、CPU211は、ステップST6の処理に移る。また、ステップST3で受信音声圧縮データストリームの圧縮フォーマットがテレビ受信機300で取り扱い可能な圧縮フォーマットでないとき、CPU211は、ステップST6の処理に移る。このステップST6において、CPU211は、音声圧縮データストリームをデコードし、非圧縮音声データと視差情報セットを出力するように、オーディオデコーダ207を制御する。CPU211は、ステップST6の処理の後、ステップST5において、制御処理を終了する。
オーディオフレーミング部208は、オーディオデコーダ207の出力に対して、IEC60958のフレーミングを行う。オーディオデコーダ207から音声圧縮データストリームが出力されるとき、オーディオフレーミング部208は、音声圧縮データストリームに対してIEC60958のフレーミングを行う。また、オーディオデコーダ207から非圧縮音声データおよび視差情報セットが出力されるとき、オーディオフレーミング部208は非圧縮音声データに対してIEC60958のフレーミングを行うと共に、視差情報セットを付加データ領域(Aux領域)に入れる。
HDMI送信部209は、HDMIに準拠した通信により、立体画像データおよび音声データを、HDMI端子202から送出する。このHDMI送信部209は、立体画像データの取り扱いが可能な状態にある。HDMI送信部209は、HDMIのTMDSチャネルで送信するため、画像および音声のデータをパッキングして、HDMI端子202に出力する。このHDMI送信部209の詳細は後述する。
セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ204から出力されるビットストリームデータBSDは、ビットストリーム処理部201を構成するデマルチプレクサ205に供給される。このデマルチプレクサ205では、ビットストリームデータBSDからビデオおよびオーディオのエレメンタリストリームのパケットが抽出され、各デコーダに送られる。
ビデオデコーダ206では、デマルチプレクサ205で抽出されたビデオのパケットからビデオのエレメンタリストリーム(画像圧縮データストリーム)が再構成される。そして、このビデオデコーダ206では、画像圧縮データストリームに対してデコード処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、HDMI送信部209に供給される。
また、オーディオデコーダ207では、デマルチプレクサ205で抽出されたオーディオのパケットからオーディオのエレメンタリストリーム(音声圧縮データストリーム)が再構成される。そして、圧縮フォーマットがテレビ受信機300で取り扱い可能で、しかも、テレビ受信機300が圧縮音声データストリームの送信を要求しているとき、オーディオデコーダ207からは、音声圧縮データストリームがそのまま出力される。
また、少なくとも、圧縮フォーマットがテレビ受信機300で取り扱い可能でないとき、あるいはテレビ受信機300が圧縮音声データストリームの送信を要求していないとき、オーディオデコーダ207ではデコード処理が行われる。この場合、オーディオデコーダ207では、再構成された圧縮音声データストリームに対してデコード処理が行われ、非圧縮音声データ(PCMデータ)および視差情報セットが得られる。
オーディオデコーダ207の出力は、オーディオフレーミング部208に供給される。このオーディオフレーミング部208では、オーディオデコーダ207の出力に対して、IEC60958のフレーミングが行われる。オーディオデコーダ207から音声圧縮データストリームが出力されるとき、オーディオフレーミング部208では、音声圧縮データストリームに対してIEC60958のフレーミングが行われる。また、オーディオデコーダ207から非圧縮音声データおよび視差情報セットが出力されるとき、オーディオフレーミング部208では、非圧縮音声データに対してIEC60958のフレーミングが行われ、視差情報セットは付加データ領域(Aux領域)に挿入される。
オーディオフレーミング部208の出力は、HDMI送信部209に供給される。このHDMI送信部209では、立体画像データおよび音声データがパッキングされ、HDMI端子202からHDMIケーブル400に送出される。
[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データ、音声データなどを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを取得する。
図10は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、オーディオデコーダ304を有している。また、このテレビ受信機300は、アンテナ端子305と、デジタルチューナ306と、ビットストリーム処理部307と、映像・グラフィック処理回路308と、OSD表示データ生成部309と、パネル駆動回路310と、表示パネル311を有している。
また、テレビ受信機300は、音声信号処理回路312と、音声増幅回路313と、スピーカ314を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326と、ネットワーク端子327と、イーサネットインタフェース328を有している。なお、「イーサネット」は登録商標である。
CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
イーサネットインタフェース328は、ネットワーク端子327を介して、インターネット等の図示しないネットワークに接続される。イーサネットインタフェース218は、ユーザ操作に応じて、ネットワークを通じて種々の情報、例えばウィジェット(Widget)でグラフィクス表示する天気予報、株価等の情報も取得できる。このイーサネットインタフェース328は、内部バス324に接続されている。このイーサネットインタフェース328は、ネットワーク通信部を構成している。
アンテナ端子305は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ306は、アンテナ端子305に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDを出力する。
ビットストリーム処理部307は、図8に示すセットトップボックス200のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部307は、ビットストリームデータBSDから非圧縮立体画像データを取得し、さらに、非圧縮音声データおよび視差情報セットを取得する。
HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される立体画像データおよび音声データを受信する。このHDMI受信部303は、立体画像データの取り扱いが可能な状態にある。このHDMI受信部303の詳細は後述する。
ここで、音声データは、上述のセットトップボックス200の部分で説明したように、以下のいずれかである。すなわち、音声データは、視差情報セットがユーザデータとして付加された音声圧縮データストリーム、あるいは視差情報セットが付加データ領域(Aux領域)に挿入された非圧縮音声データ(PCMデータ)である。
オーディオデコーダ304は、HDMI受信部303で視差情報セットがユーザデータとして付加された音声圧縮データストリームが受信されるとき、デコード処理を行って、非圧縮音声データ(PCMデータ)および視差情報セットを出力する。また、このオーディオデコーダ304は、HDMI受信部303で視差情報セットが付加データ領域(Aux領域)に挿入された非圧縮音声データ(PCMデータ)が受信されるとき、非圧縮音声データ(PCMデータ)および視差情報セットをそのまま出力する。
3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部307で得られた立体画像データに対して、デコード処理を行って、左眼画像データおよび右眼画像データを生成する。この場合、3D信号処理部301は、ビットストリーム処理部307で得られた立体画像データに対しては、その伝送方式(図4参照)に対応したデコード処理を行う。また、3D信号処理部301は、HDMI受信部303で受信された立体画像データに対しては、TMDS伝送データ構造に対応したデコード処理を行う。
映像・グラフィック処理回路308は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像・グラフィック処理回路308は、画像データに対して、必要に応じて、画質調整処理を行う。また、映像・グラフィック処理回路308は、画像データに対して、必要に応じて、重畳情報のデータを合成する。
重畳情報のデータは、例えば、OSD表示データ生成部309で生成されるメニュー、番組表などのOSD表示データである。また、重畳情報データは、例えば、ウィジェット(Widget)のグラフィクス表示データである。映像・グラフィック処理回路308は、左眼画像および右眼画像に重畳する同一の重畳情報に、重畳位置に応じた視差を付与する。映像・グラフィック処理回路308は、この視差付与処理を、オーディオデコーダ304から出力される視差情報セット、あるいはいはビットストリーム処理部307から出力される視差情報セットに基づいて行う。そして、映像・グラフィック処理回路308は、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像データを得る。
パネル駆動回路310は、映像・グラフィック処理回路308から出力される画像データに基づいて、表示パネル311を駆動する。表示パネル311は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)等で構成されている。表示パネル311に、立体画像を表示するための表示を行う。例えば、表示パネル311は、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示する。
音声信号処理回路312は、オーディオデコーダ304から出力された、あるいはビットストリーム処理部307で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路313は、音声信号処理回路312から出力される音声信号を増幅してスピーカ314に供給する。
図10に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302に接続されているセットトップボックス200から送信されてくる、立体画像データ、音声データが受信される。HDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。
また、HDMI受信部303で受信された音声データはオーディオデコーダ304に供給される。この音声データは、視差情報セットがユーザデータとして付加された音声圧縮データストリーム、あるいは視差情報セットが付加データ領域(Aux領域)に挿入された非圧縮音声データ(PCMデータ)である。
オーディオデコーダ304では、HDMI受信部303の受信音声データが音声圧縮データストリームであるとき、音声圧縮データストリームのデコード処理が行われ、非圧縮音声データ(PCMデータ)および視差情報セットが取得される。また、オーディオデコーダ304では、HDMI受信部303の受信音声データが非圧縮音声データであるとき、デコード処理が行わることなく、非圧縮音声データおよび視差情報セットがそのまま出力される。
オーディオデコーダ304で得られる非圧縮音声データは、音声信号処理回路312に供給される。また、このオーディオデコーダ304で得られる視差情報セットは、映像・グラフィック処理回路308に供給される。
アンテナ端子305に入力されたテレビ放送信号はデジタルチューナ306に供給される。このデジタルチューナ306では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ306から出力されるビットストリームデータBSDは、ビットストリーム処理部307に供給される。このビットストリーム処理部307では、ビットストリームデータBSDから非圧縮の立体画像データが取得され、さらに、非圧縮音声データおよび視差情報セットが取得される。
ビットストリーム処理部307で取得される立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部307で取得される非圧縮音声データは、音声信号処理回路312に供給される。さらに、このビットストリーム処理部307で取得される視差情報セットは、映像・グラフィック処理回路308に供給される。
3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部307で得られた立体画像データに対して、デコード処理が行われ、左眼画像データおよび右眼画像データが生成される。また、映像・グラフィック処理回路308では、3D信号処理部301で生成された画像データに対して、必要に応じて、画質調整処理が行われる。また、この映像・グラフィック処理回路308では、その画像データに対して、必要に応じて、重畳情報のデータが合成される。
この場合、左眼画像および右眼画像に重畳する同一の重畳情報(OSD表示、ウィジェットのグラフィクス表示など)に、視差情報セットに基づいて、重畳位置に応じた視差が付与される。この場合、左眼画像に重畳する重畳情報のみ、あるいは右眼画像に重畳する重畳情報のみ、あるいは両方が、視差ベクトルの値に応じてシフトされる。この映像・グラフィック処理回路308からは、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像データが得られる。
この映像・グラフィック処理回路308で得られる左眼画像データおよび右眼画像データは、パネル駆動回路310に供給される。そのため、表示パネル311により立体画像が表示される。例えば、表示パネル311に、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示される。視聴者は、表示パネル311の表示に同期して左眼シャッタおよび右眼シャッタが交互に開くシャッタメガネを装着することで、左眼では左眼画像のみを見ることができ、右眼では右眼画像のみを見ることができ、立体画像を知覚できる。
また、音声信号処理回路312では、オーディオデコーダ304で得られた、あるいはビットストリーム処理部307で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路313で増幅された後に、スピーカ314に供給される。そのため、スピーカ314から、表示パネル311の表示画像に対応した音声が出力される。
[HDMI送信部、HDMI受信部の構成例]
図11は、図1の立体画像表示システム10における、セットトップボックス200のHDMI送信部(HDMIソース)209と、テレビ受信機300のHDMI受信部(HDMIシンク)303の構成例を示している。
HDMI送信部209は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。ここで、有効画像区間は、ある垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部209は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。
HDMI送信部209とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部209からHDMI受信部303に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。
HDMI送信部209は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル400を介して接続されているHDMI受信部303に、一方向にシリアル伝送する。
また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部303に、一方向にシリアル伝送する。
さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル400を介して接続されているHDMI受信部303に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。
HDMI受信部303は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部209から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部303は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部209から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
すなわち、HDMI受信部303は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部209から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部209からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。
HDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2およびTMDSクロックチャネルの他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル400に含まれる図示しない2本の信号線からなる。DDC83は、HDMI送信部209が、HDMI受信部303から、E−EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。
HDMI受信部303は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部206は、例えば、CPU211(図8参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E−EDIDを、DDC83を介して読み出す。
HDMI送信部209は、読み出したE−EDIDをCPU211に送る。CPU211は、このE−EDIDを、フラッシュROM212あるいはDRAM213に格納する。E−EDIDには、上述したように、テレビ受信機300の取り扱い可能な音声圧縮データストリームの圧縮フォーマット情報、およびテレビ受信機300が音声圧縮データストリームの送信を要求しているか否かを示す情報(圧縮強制フラグ情報)が含まれている。
CECライン84は、HDMIケーブル400に含まれる図示しない1本の信号線からなり、HDMI送信部209とHDMI受信部303との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。
また、HDMIケーブル400には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。なお、このHPDライン86は双方向通信路を構成するHEAC−ラインとしても使用される。また、HDMIケーブル400には、ソース機器からシンク機器に電源を供給するために用いられる電源ライン87が含まれている。さらに、HDMIケーブル400には、ユーティリティライン88が含まれている。このユーティリティライン88は双方向通信路を構成するHEAC+ラインとしても使用される。
[E−EDID構造]
上述したように、HDMI送信部209は、例えば、CPU211(図8参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E−EDIDを、DDC83を介して読み出す。そして、CPU211は、このE−EDIDから、テレビ受信機300で取り扱い可能な音声圧縮データストリームの圧縮フォーマット情報、および音声圧縮データストリームの送信を要求しているか否かを示す情報(圧縮強制フラグ情報)を取得する。
図12は、EDID構造(Block1以降、HDMI用拡張部分)を示している。このEDID構造は、詳細説明は省略するが、EIA/CEA−861B規格で規定されている。
“Audio Data Block”の各“CEA Short Audio Descriptor”に、テレビ受信機(シンク機器)300で再生可能なAudio Format、最大チャネル数、サンプリング周波数、量子化ビット数が定義される。CPU211は、この各“CEA Short Audio Descriptor”から、テレビ受信機300で取り扱い可能な音声圧縮データストリームの圧縮フォーマット情報を取得する。
“CEA Short Audio Descriptor”は、Audio Formatの違いから、3種類に分類されている。図13(a)は、「Audio Code=1: Linear-PCM」に対応した“CEA Short Audio Descriptor”の詳細である。図13(b)は、「Audio Code=2-8」に対応した“CEA Short Audio Descriptor”の詳細である。なお、「Audio Code=9-15」に対応した“CEA Short Audio Descriptor”の詳細については、図示を省略している。
図14は、「Audio Code」と「Audio Format」の対応関係(一部抜粋)を示している。例えば、「Audio Code=2」は、「Audio Format」がAC−3であることを示す。この「Audio Code=2」の“CEA Short Audio Descriptor”の存在により、CPU211は、テレビ受信機300でAC−3の音声圧縮データストリームの取り扱いが可能であることを認識する。また、例えば、「Audio Code=6」は、「Audio Format」がAACであることを示す。この「Audio Code=6」の“CEA Short Audio Descriptor”の存在により、CPU211は、テレビ受信機300でAACの音声圧縮データストリームの取り扱いが可能であることを認識する。
また、図15は、HDMI Vendor Specific Data Block(VSDB)の構造例を示している。第0ブロックには、“Vendor-Specific tag code(=3)”で表されるデータ“Vender Specific”のデータ領域を示すヘッダが配置される。また、この第0ブロックには、“Length(=N)”で表されるデータ“Vender Specific”の長さを示す情報が配置される。また、第1ブロック乃至第3ブロックには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。
このHDMI Vendor Specific Data Block(VSDB)の所定のリザーブビット、この例では、例えば、第6ブロックの第1ビットに、“FC_flg”で表される1ビットの圧縮強制フラグが新たに定義されて配置される。この圧縮強制フラグは、セットトップボックス200に音声圧縮データストリームの送信を要求するための情報(圧縮強制フラグ情報)である。音声圧縮データストリームの送信を要求しない場合、“FC_flg=0”とされる。一方、音声圧縮データストリームの送信を要求する場合、“FC_flg=1”とされる。
なお、図15に示すHDMI Vendor Specific Data Block(VSDB)の構造例においては、1ビットのフラグ“FC_flg”が第6ブロックの第1ビットに配置されている。しかし、必ずしもこの位置に配置される必要はない。このフラグ“FC_flg”は、その他のリザーブ状態にあるビット位置、例えば第6ブロックの第2ビット、第8ブロックの第4ビット、第13ブロックの第0ビット〜第2ビットなどに配置されてもよい。
上述したように、図1に示す立体画像表示システム10において、放送局100からは画像圧縮データストリームおよび音声圧縮データストリームの多重化データストリームが送信される。そして、視差情報セットが、音声圧縮データストリームに付加されて送信される。そのため、視差情報セットを、音声圧縮データストリームをコンテナとして簡単に送信でき、テレビ受信機300で利用することが可能となる。
また、図1に示す立体画像表示システム10において、セットトップボックス200では、所定の条件を満たすことで、放送局100からの音声圧縮データストリームがそのままテレビ受信機300に送信される。ここで、所定の条件とは、音声圧縮データストリームの圧縮フォーマットがテレビ受信機300で取り扱い可能な圧縮フォーマットであり、かつテレビ受信機300が音声圧縮データストリームの送信を要求していることである。
そのため、セットトップボックス200では、音声圧縮データストリームにデコード処理を施す必要がなく、視差情報セットを、音声圧縮データストリームをコンテナとしてテレビ受信機300に簡単に送信して、テレビ受信機300で利用することが可能となる。この場合、オーディオフレーミング部208では、非圧縮音声データに対してIEC60958のフレーミングを行って、視差情報セットを付加データ領域(Aux領域)に入れる処理等も不要となる。つまり、オーディオフレーミング部208では、音声圧縮データストリームに対してIEC60958のフレーミングを行うだけで済む。これにより、セットトップボックス200における処理負荷を軽減できる。
また、図1に示す立体画像表示システム10において、セットトップボックス200では、所定の条件を満たすか否かの情報が、テレビ受信機300が備えるEDID ROM85から読み出すことで得られる。この情報は、テレビ受信機300で取り扱い可能な音声圧縮データストリームの圧縮フォーマット情報、および音声圧縮データストリームの送信を要求しているか否かを示す情報(圧縮強制フラグ情報)である。そのため、ユーザの情報入力の手間を省略でき、ユーザの使い勝手の向上を図ることができる。
また、図1に示す立体画像表示システム10において、セットトップボックス200では、上述の所定の条件を満たしていないとき、音声圧縮データストリームに対して、デコード処理が行われ、非圧縮音声データ(PCMデータ)および視差情報セットが取得される。そして、セットトップボックス200からテレビ受信機300には、非圧縮音声データがIEC60958のフレーミング処理を経て送信され、その際、視差情報セットは付加データ領域(Aux領域)に挿入されて送信される。そのため、セットトップボックス200からテレビ受信機300に視差情報セットを送信でき、テレビ受信機300で利用することが可能となる。
また、図1に示す立体画像表示システム10において、テレビ受信機300では、視差情報セットが付加されている音声圧縮データストリームを受信し、デコード処理を施して、非圧縮音声データおよび視差情報セットを得ることができる。そのため、この視差情報セットを用いて、左眼画像および右眼画像に重畳する重畳情報(重畳情報(OSD表示、ウィジェットのグラフィクス表示など)に重畳位置に応じた視差を付与できる。したがって、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
[送信データ生成部の他の構成例]
なお、上述実施の形態においては、放送局100は、音声圧縮データストリームに、立体画像データを構成する左眼画像データおよび右眼画像データに対応した視差情報セットを付加して送信する構成となっている。しかし、音声圧縮データストリームに付加して送信する所定情報としては、この視差情報セットに限定されるものではない。
例えば、音声圧縮データストリームに付加して送信する所定情報として、グラフィクス情報、テキスト情報、字幕情報などの重畳情報のデータが考えられる。図16は、その場合における放送局100の送信データ生成部110Aの構成例を示している。この例は、音声圧縮データストリームに字幕データを付加して送信する例である。この図16において、図2と対応する部分には、同一符号を付し、適宜、その詳細説明を省略する。
この送信データ生成部110Aは、データ取り出し部(アーカイブ部)111と、ビデオエンコーダ112と、オーディオエンコーダ113と、マルチプレクサ115と、字幕発生部116を有している。すなわち、この送信データ生成部110Aは、図2に示す送信データ生成部110における視差情報作成部114が字幕発生部116に置き換えられたものである。
字幕発生部116では、字幕データ(クローズド・キャプションデータ、サブタイトルデータ、ARIB方式の字幕文データなど)が発生される。オーディオエンコーダ113は、音声圧縮データストリームに、上述の字幕発生部116で発生された字幕データを付加する。ここで、字幕データは、音声圧縮データストリームに、ユーザデータとして挿入される。これにより、字幕データは、音声圧縮データストリームをコンテナとして送信されることになる。この図16に示す送信データ生成部110Aのその他は、図2に示す送信データ生成部110と同様に構成され、同様に動作する。
[テレビ受信機の他の構成例]
図17は、上述したように音声圧縮データストリームに字幕データが付加されて送信される場合におけるテレビ受信機300Aの構成例を示している。この図17において、図10と対応する部分には、同一符号を付し、適宜、その詳細説明を省略する。このテレビ受信機300Aにおいては、字幕データに基づいて字幕表示データを生成する字幕表示データ生成部315が設けられる。
オーディオデコーダ304では、HDMI受信部303の受信音声データが音声圧縮データストリームであるとき、音声圧縮データストリームのデコード処理が行われ、非圧縮音声データ(PCMデータ)および字幕データが取得される。また、オーディオデコーダ304では、HDMI受信部303の受信音声データが非圧縮音声データであるとき、デコード処理が行わることなく、非圧縮音声データおよび字幕データがそのまま出力される。
字幕表示データ発生部315では、オーディオデコーダ304で得られる字幕データに基づいて、字幕表示データ(ビットマップデータ)が発生される。この場合、例えば、テレビ受信機300Aに予め設定された固定の視差情報に基づいて視差が付与された左眼字幕および右眼字幕のデータが生成される。映像・グラフィック処理回路308では、左眼画像データ、右眼画像データに、それぞれ字幕表示データ生成部315で生成された左眼字幕、左眼字幕のデータが合成される。
これにより、テレビ受信機300Aにおいては、音声データをコンテナとして送られてきた字幕データによる字幕表示が、立体画像に重畳されて表示される。この図17に示すテレビ受信機300Aのその他は、図10に示す送信データ生成部300と同様に構成され、同様に動作する。
[送信データ生成部のさらに他の構成例]
また、例えば、音声圧縮データストリームに付加して送信する所定情報として、URL(Uniform Resource Locator)等のネットワークアクセス情報が考えられる。図18は、その場合における放送局100の送信データ生成部110Bの構成例を示している。この図18において、図2と対応する部分には、同一符号を付し、適宜、その詳細説明を省略する。
この送信データ生成部110Bでは、オーディオエンコーダ113に、URL等のネットワークアクセス情報(NWアクセス情報)が供給される。オーディオエンコーダ113では、音声圧縮データストリームに、このネットワークアクセス情報が付加される。ここで、ネットワークアクセス情報は、例えば、インターネットから、送信立体画像データに対応した視差情報、送信画像データに対応した字幕情報、送信画像データに対応した副音声データ等の情報、あるいはその他の情報を取得するためのアクセス情報である。
このように音声圧縮データストリームにネットワークアクセス情報が付加されることで、ネットワークアクセス情報は音声圧縮データストリームをコンテナとして送信されることになる。ここで、ネットワークアクセス情報は、音声圧縮データストリームに、ユーザデータとして挿入される。この図18に示す送信データ生成部110Bのその他は、図2に示す送信データ生成部110と同様に構成され、同様に動作する。
[テレビ受信機のさらに他の構成例]
図19は、上述したように音声圧縮データストリームにネットワークアクセス情報(NWアクセス情報)が付加されて送信される場合におけるテレビ受信機300Bの構成例を示している。この図19において、図10と対応する部分には、同一符号を付し、適宜、その詳細説明を省略する。
オーディオデコーダ304では、HDMI受信部303の受信音声データが音声圧縮データストリームであるとき、音声圧縮データストリームのデコード処理が行われ、非圧縮音声データ(PCMデータ)およびネットワークアクセス情報が取得される。また、オーディオデコーダ304では、HDMI受信部303の受信音声データが非圧縮音声データであるとき、デコード処理が行わることなく、非圧縮音声データおよびネットワークアクセス情報がそのまま出力される。
オーディオデコーダ304で得られるネットワークアクセス情報はCPU321に供給される。CPU321は、このネットワークアクセス情報に基づいて、イーサネットインタフェース328を制御し、インターネットから、視差情報、字幕情報、副音声データ等の情報を取得させる。例えば、イーサネットインタフェース328で取得された視差情報は、映像・グラフィック処理回路308に供給され、左眼画像、右眼画像に重畳されるOSD表示などの重畳情報に視差を付与するために使用される。
また、例えば、イーサネットインタフェース328で取得された字幕情報は、映像・グラフィック処理回路308に供給され、左眼画像、右眼画像に重畳される。また、例えば、イーサネットインタフェース328で取得された副音声データは、音声信号処理回路312に供給され、選択的に、スピーカ314から副音声が出力される。この図19に示すテレビ受信機300Bのその他は、図10に示す送信データ生成部300と同様に構成され、同様に動作する。
なお、上述実施の形態においては、セットトップボックス200は、以下の条件で、放送局100からの音声圧縮データストリームをそのままテレビ受信機300に送信する。この条件は、音声圧縮データストリームの圧縮フォーマットがテレビ受信機300で取り扱い可能な圧縮フォーマットであり、かつテレビ受信機300が音声圧縮データストリームの送信を要求している、ことである。
しかし、音声圧縮データストリームの圧縮フォーマットがテレビ受信機300で取り扱い可能な圧縮フォーマットであるときには、受信音声圧縮データストリームを、デコード処理を行うことなく、そのままテレビ受信機300に送信する構成とすることも考えられる。この場合には、テレビ受信機300において、HDMI VSDBに、音声圧縮データストリームの送信を要求しているか否かの情報を配置する必要がなくなる。
<2.第2の実施の形態>
[立体画像表示システムの構成例]
図20は、実施の形態としての立体画像表示システム10Cの構成例を示している。この立体画像表示システム10Cは、放送局100Cと、セットトップボックス(STB)200Cと、テレビ受信機(TV)300Cを有している。この図20において、図1と対応する部分には同一符号を付し、適宜、その詳細説明を省略する。
セットトップボックス200Cおよびテレビ受信機300Cは、HDMI(High Definition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200Cには、HDMI端子202が設けられている。テレビ受信機300Cには、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200CのHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300CのHDMI端子302に接続されている。
[放送局の説明]
放送局100Cは、ビットストリームデータBSDを、放送波に載せて送信する。放送局100Cは、ビットストリームデータBSDを生成する送信データ生成部110Cを備えている。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、さらにはメタデータ(視差情報、他サービスアクセス情報、放送トリガ信号等の情報)が含まれる。
「送信データ生成部の構成例」
図21は、放送局100Cにおいて、上述のビットストリームデータBSDを生成する送信データ生成部110Cの構成例を示している。この送信データ生成部110Cは、ビデオエンコーダ112と、オーディオエンコーダ113Cと、CPU116aを備えてなる制御部126と、マルチプレクサ115を有している。ここで、ビデオエンコーダ112は画像圧縮データストリーム生成部を構成し、オーディオエンコーダ113Cは音声圧縮データストリーム生成部を構成している。
ビデオエンコーダ112は、画像データSVに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施し、画像圧縮データストリーム(ビデオエレメンタリストリーム)を生成する。ここで、画像データSVは、左眼画像データおよび右眼画像データを含む立体画像データである。オーディオエンコーダ113Cは、音声データSAに対して、AC3、AAC等の符号化を施し、音声圧縮データストリーム(オーディオエレメンタリストリーム)を生成する。
オーディオエンコーダ113Cは、オーディオ符号化ブロック部113aおよびオーディオフレーミング部113bを有している。オーディオ符号化ブロック部113aで符号化ブロックが生成され、オーディオフレーミング部113bでフレーミングが行われる。AC3、AAC等の圧縮フォーマットにより、符号化ブロックが異なると共に、フレーミングも異なる。
上述のオーディオエンコーダ113Cで生成される音声圧縮データストリームに、メタデータMDが埋め込まれる。このメタデータMDは、音声データと直接関係しない所定情報、例えば視差情報、他サービスアクセス情報、放送トリガ信号等である。メタデータMDは、音声圧縮データストリームのユーザデータ領域に埋め込まれる。
制御部126は、オーディオエンコーダ113Cに、メタデータMDを供給すると共に、このメタデータMDをユーザデータ領域に埋め込むためのサイズ情報を供給する。そして、制御部126は、音声圧縮データストリームのユーザデータ領域にメタデータMDの埋め込みが行われるように、制御する。
例えば、圧縮フォーマットがAC3の場合、制御部126は、サイズS=(frmsizcod−AUXDATA)の情報を、オーディオエンコーダ113Cに供給する。ここで、“frmsizcod”は、AC3のオーディオフレームのサイズであり、ビットレートおよびサンプリング周波数に応じた値が規定されている。例えば、ビットレートが128kbpsで、サンプリング周波数が32kHzの場合には、384*2Bytesである。また、例えば、ビットレートが128kbpsで、サンプリング周波数が44.1kHzの場合には、279*2Bytesである。また、例えば、ビットレートが128kbpsで、サンプリング周波数が48kHzの場合には、256*2Bytesである。
図22は、詳細説明は省略するが、AC3のフレーム(AC3 Synchronization Frame)の構造を示している。オーディオエンコーダ113Cは、サイズSを目標値として符号化し、「Audblock 5」の“mantissa data”と、「AUX」と、「CRC」との合計サイズが全体の3/8を超えないように、音声データSAをエンコードする。そして、「AUX」のエリアにメタデータMDを挿入し、CRCを施してストリームを完成する。
また、例えば、圧縮フォーマットがAACの場合、制御部126は、メタデータMDを挿入すべきDSE(data stream element)のサイズDSE_S=cntの情報を、オーディオエンコーダ113Cに供給する。図23は、詳細説明は省略するが、AACの1024サンプル分の音声データが入るフレーム(Raw_data_block)の構造を示している。オーディオエンコーダ113Cは、音声データSAをエンコードすると共に、メタデータMDが挿入されたDSEを付加して、ストリームを完成する。
なお、オーディオエンコーダ113Cは、2回に分けてエンコードすることも可能である。この場合、オーディオエンコーダ113Cは、最初は通常の、つまりDSEあるいはAUXがない場合のエンコードを行い、その後に予め予約しておいたサイズのDSEあるいはAUXにメタデータMDを挿入して、再度エンコードを行う。
上述したように、メタデータMDは、音声圧縮データストリームのユーザデータ領域(AC3の場合は「AUX」、AACの場合は「DSE」)に埋め込まれるが、その詳細については後述する。
図21に戻って、マルチプレクサ115は、ビデオエンコーダ112から出力される画像圧縮データストリームおよびオーディオエンコーダ113Cから出力される音声圧縮データストリームを多重化する。そして、マルチプレクサ115は、多重化データストリームとしてのビットストリームデータ(トランスポートストリーム)BSDを生成して出力する。
図21に示す送信データ生成部110Cの動作を簡単に説明する。画像データSVはビデオエンコーダ112に供給される。このビデオエンコーダ112では、その画像データSVに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含む画像圧縮データストリーム(ビデオエレメンタリストリーム)が生成される。
また、音声データSAは、オーディオエンコーダ113Cに供給される。このオーディオエンコーダ113Cでは、その音声データSAに対して、AC3、AAC等の符号化が施され、音声圧縮データストリーム(オーディオエレメンタリストリーム)が生成される。
この際、制御部126からオーディオエンコーダ113Cに、メタデータMDが供給されると共に、このメタデータMDをユーザデータ領域に埋め込むためのサイズ情報が供給される。そして、オーディオエンコーダ113Cでは、音声圧縮データストリームのユーザデータ領域(AC3の場合は「AUX」、AACの場合は「DSE」)に、メタデータMDを埋め込むことが行われる。
ビデオエンコーダ112で生成された画像圧縮データストリームは、マルチプレクサ115に供給される。また、オーディオエンコーダ113Cで生成された、ユーザデータ領域にメタデータMDが埋め込まれた音声圧縮データストリームは、マルチプレクサ115に供給される。そして、このマルチプレクサ115では、各エンコーダから供給される圧縮データストリーム(エレメンタリストリーム)がパケット化されて多重され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
[メタデータMDの埋め込みの詳細]
音声圧縮データストリームのユーザデータ領域へのメタデータMDの埋め込みについてさらに説明する。上述したように、圧縮フォーマットがAC3の場合、メタデータMDは「AUX(AUXILIARY DATA)」の領域に挿入される。
図24は、「AUX(AUXILIARY DATA)」の構成(Syntax)を示している。「auxdatae」が“1”のとき、「aux data」がイネーブルされ、「auxdatalの14bits(ビット単位)で示されるサイズのデータが、「auxbits」の中に定義される。その際の「audbits」のサイズは「nauxbits」に記載される。本技術においては、「auzbits」の空間が、「metadata()」と定義される。
図25は、「DSE(data stream element)」の構成(Syntax)を示している。「element_instance_tag」は4ビットで、「data_stream_element」の中のデータ種別を示すが、DSEを統一したユーザデータとして利用する場合は、この値を“0”としてもよい。「Data_byte_align_flag」は、“1”とされ、DSEの全体がバイトアラインされるようにする。「count」、あるいは、その追加バイト数を意味する「esc_count」は、ユーザデータのサイズによって適宜、値が決められる。本技術においては、「data_stream_byte」の空間が、「metadata ()」と定義される。
なお、上述では、音声圧縮データストリームのユーザデータ領域にメタデータMDの埋め込みを行う場合について説明した。これにより、後述するように、例えば、セットトップボックス200CがHDMIインタフェースでテレビ受信機300Cに音声圧縮データストリームを送信することで、当該テレビ受信機300ではメタデータMDの利用が可能となる。
しかし、例えば、テレビ受信機300Cが音声圧縮データストリームの圧縮フォーマットに対応したデコード処理ができない等の理由で、セットトップボックス200CがHDMIインタフェースで音声圧縮データストリームを送信できないこともある。その場合、HDMIで採用されているIEC60958のPCM構造を利用し、その中に定義されているAUX領域(4bits)にメタデータを埋め込むことで、メタデータMDをテレビ受信機300C側に送信可能となる。
図26は、IEC60958の基本的な論理データ構造を示している。1ブロックは192個のフレーム(frame)で構成されている。そして、各フレームは、左右のサブフレーム(Sub-frame)からなっている。サブフレームは、32ビットの長さを持っている。このサブフレームには、「Audio Sample Data」の20ビットと、「AUX(Auxiliary)」の4ビットが与えられている。また、このサブフレームには、その先頭を識別する「Sync Preamble」と、さらに付加情報のために「V,U,C,P」の各フラグ(flag)のデータが付加されている。
メタデータMDは、上述のIEC60958の基本的な論理データ構造における各サブフレーム内の「Aux(Auxiliary)」の4ビット領域に分散して挿入される。ここで、例えば、後述する「metadata ()」のシンタクスの中の「metadata_length」は、1ブロック(192フレーム)が一括りとされる。その場合、「metadata_length」は、最大で192バイトとなる。
これにより、音声圧縮データストリームにおけるユーザデータ領域をコンテナとする場合だけでなく、非圧縮のオーディオPCMデータにおいても、IEC60958のAUX領域を利用して、メタデータMDを自在にコンテナすることが可能となる。
この場合、送受信機の処理は、例えば、以下のようになる。すなわち、放送などのオーディオストリーム配信において、圧縮オーディオで配信する場合は、そのユーザデータ領域にメタデータMDを挿入する。そして、それを受信したセットトップボックス(STB)では、オーディオデコードを行う際に、ユーザデータ領域からメタデータMDを抜き出し、メタデータのヘッダ部分を変換し、IEC60958のAUX領域にMSBから(最上位ビットから順番に)挿入する。
また、放送などのオーディオストリーム配信において、非圧縮のPCMで配信される場合は、24ビットPCMの下位4ビットをAUX領域の代わりとしてメタデータMDを挿入するができる。そして、それを受信したセットトップボックス(STB)では、そのメタデータMDをそのままIEC60958のAUX領域にMSBから(最上位ビットから順番に)挿入し、HDMI送信部に送る。
テレビ受信機では、HDMI経由で受信したAUX領域を読み、メタデータMDの中身の処理を行う。
図27〜図29は、メタデータ汎用シンタクス(Syntax)を示している。また、図30は、メタデータ汎用シンタクスにおける主要なデータ規定内容(semantics)を示している。
「sync_byte」の8ビットフィールドは、メタデータ・コンテナ(metadata container)を示すユニークワードとされる。「metadata_type」の8ビットフィールドは、メタデータのタイプ情報を示す。このタイプ情報により、複数のタイプのメタデータを選択的に送信することが可能となる。例えば、“00000001”は、送信されるメタデータが連携する他サービスのアクセス情報であることを示す。また、例えば、“00000010”は、送信されるメタデータが視差情報であることを示す。また、例えば、図30には示していないが、“00000011”は、送信されるメタデータが放送トリガ信号であることを示す。
「metadata_length 」の11ビットフィールドは、以降のバイト数を示す。「metadata_ID」の3ビットフィールドは、メタデータのタイプ内において種類を識別する識別子を示す。この識別子により、同一タイプの複数種類の情報を同時に送信するこが可能となる。
「metadata_counter」の3ビットフィールドは、一連のメタデータを分割して送信する場合に、何番目の分割情報であるかを示すカウント情報である。このカウント情報はオーディオフレーム毎にインクリメントされるカウンタのカウント値である。「metadata_start_flag」の1ビットフィールドは、一連のメタデータ(メタデータパケット)を分割して送信する場合に、最初の分割情報であるか否かを示す。例えば、“1”は最初の分割情報であることを示し、“0”は最初の分割情報ではなく、前のフレームの分割情報に続く分割情報であることを示す。
図31は、一連のメタデータ(メタデータパケット)が3分割され、3つの分割情報が3つのオーディオフレームのユーザデータ領域に埋め込まれて送信される場合における、「metadata_counter」、「metadata_start_flag」の変化例を示している。最初のオーディオフレームでは、「metadata_counter=0」、「metadata_start_flag=1」となる。次のオーディオフレームでは、「metadata_counter=1」、「metadata_start_flag=0」となる。さらに、最後のオーディオフレームでは、「metadata_counter=2」、「metadata_start_flag=0」となる。
図27に戻って、「sync_control_flag 」の1ビットフィールドは、メタデータが同期管理されているか否かを示す。“1”は、「PTS_management()」内のPTSによって同期管理されることを示す。“0”は、同期管理されていないことを示す。「sync_control_flag 」が“1”であるとき、「PTS_management()」が存在する。図28は、「PTS_management()」の構造(Syntax)を示しており、PTS[32-0]の33ビットで示される時間情報が存在する。
図32は、複数のメタデータが各々の同期対象と同期管理される例を示している。この例では、メタデータ(ID1)はオーディオ PTS1と同期し、メタデータ(ID2)はビデオ PTS1と同期し、メタデータ(ID3)はオーディオ PTS2およびビデオ PTS2と同期している。
図27に戻って、「metadata_length 」で示されるバイト数分の「data_byte」は、メタデータパケット「Metadata_packet()」の全体、あるいは、このメタデータパケット「Metadata_packet()」を複数個に分割して得られたいずれかの分割情報を構成する。
図29は、メタデータパケット「metadata_packet()」の構成(syntax)を示している。「padket_type」の8ビットフィールドは、メタデータ「metadata()」(図26参照)内の「metadata_type」の8ビットフィールドと同様に、メタデータのタイプ情報を示す。「metadata_packet_length」の16ビットフィールドは、以降のバイト数を示す。そして、この「metadata_packet_length」で示されるバイト数分の「data_byte」に、メタデータパケット「metadata_packet()」の全体が記載される。
次に、(1)他サービスアクセス情報、(2)視差情報、(3)放送トリガ信号である場合の「metadata_Packet()」のシンタクス(Syntax)を説明する。最初に、(1)メタデータが他サービスアクセス情報(Metadata for linking service)である場合の「metadata_Packet()」、つまり「metadata_linking_Packet()」について説明する。リンクサービスなどのサーバへの接続の場合、コンテンツあるいはサービスの供給元サーバとして、「http://www/xxx/com/yyy.zzz」の個々の文字は文字データで「unit_data」になる。また、その他の制御符号は別途定義される約束に基づき、該当符号を「unit_data」に入れる。
図33は、「metadata_linking_Packet()」のシンタクス(Syntax)を示している。また、図34は、「metadata_linking_Packet()」の主要なデータ規定内容(semantics)を示している。「packet_type」の8ビットフィールドは、メタデータのタイプが他サービスアクセス情報であることを示す。「metadata_linking_packet_length」の16ビットフィールドは、以降のバイト数を示す。「number_of_units」の8ビットフィールドは、メタデータエレメントの数を示す。
「unit_ID」の8ビットフィールドは、ユニット(unit)を識別する識別子を示す。「unit_size」の8ビットフィールドは、メタデータエレメント(metadata_element)のサイズを示す。「extended_size」の8ビットフィールドは、ユニットサイズ(unit_size)の拡張を示す。ユニットサイズ(unit_size)が254を超えるときは、unit_size=255として、拡張サイズ(exended_size)を入力する。「unit_data」の8ビットフィールドは、メタデータエレメント(metadata_element)を示す。
図35は、複数のメタデータユニットが各々の同期対象と同期管理される例を示している。この例で、メタデータ(ID1)のユニット(Unit_ID1)はURLによるリンクサーバの指定を行うための情報、メタデータ(ID1)のユニット(Unit_ID2)は、“Activate”または“Inactivate”を制御するコマンド群である。また、この例では、メタデータ(ID2)のユニット(Unit_ID1)はURLによるリンクサーバの指定を行うための情報、メタデータ(ID2)のユニット(Unit_ID2)は、“Activate”または“Inactivate”などの、リンクサービスに対しての制御をおこなうコマンド群である。
メタデータ(ID1)のユニット(Unit_ID1)は、オーディオ PTS1と同期している。また、メタデータ(ID1)のユニット(Unit_ID2)は、ビデオ PTS1と同期している。また、メタデータ(ID2)のユニット(Unit_ID1)は、オーディオ PTS2およびビデオ PTS2と同期している。
次に、(2)メタデータが視差情報(Metadata for disparity shifting data)である場合の「metadata_Packet()」、つまり「disparity_shift_data_Packet()」について説明する。
図36は、「disparity_shift_data_Packet()」のシンタクス(Syntax)を示している。また、図37は、「disparity_shift_data_Packet()」の主要なデータ規定内容(semantics)を示している。「packet_type」の8ビットフィールドは、メタデータのタイプが視差情報であることを示す。「disparity_shift_data_packet_length」の16ビットフィールドは、以降のバイト数を示す。
「disparity_set_target_picture_size」の4ビットフィールドは、視差情報が適用される目標ピクチャサイズを示す。例えば、“0000”は1920(h)×1080(v)のピクチャサイズを示し、“0001”は、1280(h)×720(v)のピクチャサイズを示す。「horizontal_partition」の4ビットフィールドは、水平方向の分割数(1〜16)を示す。「vertical_partition」の4ビットフィールドは、垂直方向の分割数(1〜16)を示す。
この場合、「horizontal_partition」、「vertical_partition」により、画面分割数あるいは画面分割パターンが決まる。例えば、「horizontal_partition=0000」、「vertical_partition=0000」の場合、図38(a)に示すように、画面は分割されておらず、この画面を代表する1つの視差情報が送信される。また、例えば、「horizontal_partition=0001」、「vertical_partition=0001」の場合、図38(b)に示すように、画面は4分割されており、各分割領域を代表する4個の視差情報が送信される。この場合、左上の領域の視差情報が最初で、右下の領域の視差情報が最後となるように配置される(0〜3の順)。
また、例えば、「horizontal_partition=0010」、「vertical_partition=0010」の場合、図38(c)に示すように、画面は9分割されており、各分割領域を代表する9個の視差情報が送信される。この場合、左上の領域の視差情報が最初で、右下の領域の視差情報が最後となるように配置される(0〜8の順)。また、例えば、「horizontal_partition=0011」、「vertical_partition=0011」の場合、図38(d)に示すように、画面は16分割されており、各分割領域を代表する16個の視差情報が送信される。この場合、左上の領域の視差情報が最初で、右下の領域の視差情報が最後となるように配置される(0〜15の順)。
図37に戻って、「disparity_shift_value」の8ビットフィールドは、視差情報の値を示す。この視差情報の値は、上述したように、「horizontal_partition」、「vertical_partition」で決まる画面分割数分だけ存在する。
次に、(3)メタデータが放送トリガ信号である場合の「metadata_Packet()」、つまり「Trigger_info_data()」について説明する。この放送トリガ信号に関しては、例えば、本出願人による出願である「特願2011−041801号(出願日:平成23年2月28日)」に記載されている。
この放送トリガ信号は、放送連動アプリケーションを制御するための信号である。この放送トリガ信号には、レジスタ(Register)、エクスキュート(Execute)、サスペンド(Suspend)、ターミネート(Terminate)およびインジェクトイベント(Inject_event)のコマンドが含まれる。
レジスタ(Register)コマンドは、アプリケーションの登録コマンドである。このレジスタ(Register)コマンドにより、アプリケーションの取得先と、アプリケーションの保持期限を指定する。端末はアプリケーションが保持可能である限りアプリケーションを取得先から取得し、最大保持期限まで保持する。
エクスキュート(Execute)コマンドは、アプリケーションの実行コマンドである。サスペンド(Suspend)コマンドは、アプリケーションの一時停止コマンドである。ターミネート(Terminate)コマンドは、アプリケーションの終了コマンドである。端末は、これらのコマンドにより、アプリケーションを実行し、一時停止し、終了する。
端末は、アプリケーションを終了しても、最大保持期限までアプリケーションを保持可能とされる。端末は、複数の登録されたアプリケーションが存在する場合、レジスタ(Register)コマンドに含まれる保持優先度により、保持すべきアプリケーションを判断する。
インジェクトイベント(Inject_event)コマンドは、指定された実行中のアプリケーションに対して、特定のイベントを発火(発生)させて、アプリケーションで規定された処理を行わせるコマンドである。
図39は、放送トリガ信号のライフサイクルの一例を示している。(1)端末は、オーディオストリームに埋め込まれたレジスタ(Register)コマンドにより、指定された取得先からアプリケーションを取得して登録する。(2)その後、端末は、オーディオストリームに埋め込まれたエクスキュート(Execute)コマンドにより、登録されているアプリケーションの実行を開始する。
(3)その後、端末は、オーディオストリームに埋め込まれたサスペンド(Suspend)コマンドにより、アプリケーションの実行を一時停止する。(4)その後、端末は、オーディオストリームに埋め込まれたエクスキュート(Execute)コマンドにより、アプリケーションの実行を再開する。この場合、端末は、一時停止した状態からアプリケーションの実行を再開できる。
(5)その後、端末は、オーディオストリームに埋め込まれたターミネート(Terminate)コマンド、あるいは他のアプリケーションに係るエクスキュート(Execute)コマンドにより、アプリケーションを終了する。(6)その後、端末は、最大保持期限までアプリケーションを保持する。
図40は、レジスタ(Register)コマンドとしてのトリガ情報に含まれる項目を示している。このレジスタコマンドは、上述したように、端末に対して、データ放送用アプリケーションの取得と登録を指示するためのコマンドである。ここで、データ放送用アプリケーションの登録とは、取得したデータ放送用アプリケーションに対応付けて、その優先度(Persistent_priority)と、保持期限(Expire_date)を記憶することを意味する。取得されたデータ放送用アプリケーションは、優先度と保持期限に従って管理される。
「Trigger_id」は、当該トリガ情報を識別するための情報である。同一内容のトリガ情報が複数回送信される場合、各トリガ情報の「Trigger_id」は同一である。「Protcol_version」は、当該トリガ情報のプロトコルのバージョンを示している。「Command_code」は、当該トリガ情報のコマンドの種類を示す。ここでは、レジスタ(Register)コマンドであることを示す。
「Trigger_varidity」は、当該トリガ情報を受信した装置が、当該トリガ情報に従って処理を実行する確率を示すサーバアクセス分散パラメータ値Nである。この値を設けることにより、複数の装置がサーバからデータ放送用アプリケーションを取得するに際し、そのアクセスが一時期に集中せず分散させることができる。
例えば、数多く存在し得る装置からのサーバに対するアクセスを4回に分散させるためには、同一のトリガ情報を4回送信するようにする。そして、1回目のトリガ情報におけるサーバアクセス分散パラメータN=4とし、2回目のトリガ情報におけるサーバアクセス分散パラメータN=3とし、3回目のトリガ情報におけるサーバアクセス分散パラメータN=2とし、4回目のトリガ情報におけるサーバアクセス分散パラメータN=1とする。
「App_id」は、当該トリガ情報に対応して取得するデータ放送用アプリケーションの識別情報であるとともに,その取得先のURLも示している。換言すれば、データ放送用アプリケーションの取得先がその識別情報にも流用されて「App_id」とされている。
「Persistent_priority」は、対応するデータ放送用アプリケーションを取得、保持するときの優先度を示している。ここでは、2ビットが割り当てられているので、4段階の優先度を付与することができる。対応するデータ放送用アプリケーションを取得、保持するとき、端末は、保持するだけの記録容量が残っていない場合、対応するデータ放送用アプリケーションよりも優先度の低いものを消去して記録容量を確保する。対応するデータ放送用アプリケーションよりも優先度の低いものが保持されていない場合、対応するデータ放送用アプリケーションは取得されない。ただし、可能であれば、取得してキャッシュメモリに一時的に保持するようにしてもよい。
「Expire_date」は、データ放送用アプリケーションの保持期限を示す。保持期限が経過した場合、対応するデータ放送用アプリケーションは消去される。
図41は、エクスキュート(Execute)コマンドとしてのトリガ情報に含まれる項目を示している。エクスキュートコマンドは、上述したように、端末に対して、データ放送用アプリケーションの起動を指示するためのコマンドである。
このエクスキュートコマンドとしてのトリガ情報に含まれる項目は、図40に示されたレジスタコマンドとしてのトリガ情報に含まれる項目と同様である。ただし、「Command_code」には、エクスキュートコマンドであることを示す情報が記載される。
図42は、インジェクトイベント(Inject_event)コマンドとしてのトリガ情報に含まれる項目を示している。インジェクトイベントコマンドは、上述したように、指定された実行中のアプリケーションに対して、特定のイベントを発火(発生)させて、アプリケーションで規定された処理を行わせるコマンドである。
「Trigger_id」,「Protcol_version」,「Command_code」,「Trigger_varidity」,「App_id」については、図40に示されたレジスタコマンドとしてのトリガ情報と同様である。ただし、「Command_code」には、インジェクトイベントコマンドであることを示す情報が記載される。
「Event_id」は、「App_id」にて指定されたデータ放送用アプリケーションにおいて発火すべきイベントの識別情報である。「Event Embedded Data」には、イベントを発火する際に参照されるデータが記載される。
図43は、サスペンド(Suspend)コマンドとしてのトリガ情報に含まれる項目を示している。サスペンドコマンドは、上述したように、端末に対して、実行中のデータ放送用アプリケーションを一時停止させるためのコマンドである。
「Trigger_id」,「Protcol_version」,「Command_code」,「Trigger_varidity」,「App_id」については、図40に示されたレジスタコマンドとしてのトリガ情報と同様である。ただし、「Command_code」には、サスペンドコマンドであることを示す情報が記載される。
図44は、ターミネート(Terminate)コマンドとしてのトリガ情報に含まれる項目を示している。ターミネートコマンドは、上述したように、端末に対して、実行中のデータ放送用アプリケーションを終了させるためのコマンドである。
「Trigger_id」,「Protcol_version」,「Command_code」,「Trigger_varidity」,「App_id」については、図40に示されたレジスタコマンドとしてのトリガ情報と同様である。ただし、「Command_code」には、ターミネートコマンドであることを示す情報が記載される。
図45は、上述した各コマンドとしてのトリガ情報に対応可能なトリガ情報、つまり「Trigger_info_data()」のシンタクス(Syntax)を示している。なお、トリガ情報のシンタクスは任意であって、図45の例に限定されるものではない。Trigger_Info_data()をそのまま図29の「metadata_packet()」内のペイロード部分の「data_byte」に埋め込むことができる。また、図33の「metadata_linking_packet」の中に実現することも可能である。
[セットトップボックスの説明]
図20に戻って、セットトップボックス200Cは、放送局100Cから放送波に載せて送信されてくるビットストリームデータ(トランスポートストリーム)BSDを受信する。このビットストリームデータBSDには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データおよびメタデータMD(例えば、視差情報、他サービスアクセス情報、放送トリガ信号などの情報)が含まれている。セットトップボックス200Cは、ビットストリーム処理部201Cを有している。
このビットストリーム処理部201Cは、ビットストリームデータBSDから、非圧縮の立体画像データを得る。また、このビットストリーム処理部201Cは、ビットストリームデータBSDから、音声圧縮データストリームを得る。上述したように、メタデータMDは、この音声圧縮データストリームのユーザデータ領域に埋め込まれている。
図46は、セットトップボックス200Cの構成例を示している。この図46において、図8に対応する部分には同一符号を付し、その詳細説明は省略する。このセットトップボックス200Cは、ビットストリーム処理部201Cを除き、図8に示すセットトップボックス200と同様の構成とされている。このセットトップボックス200Cは、非圧縮立体画像データと共に、音声圧縮データストリームをそのままの状態で、HDMIのデジタルインタフェースで、テレビ受信機300Cに送信する。
ビットストリーム処理部201Cは、デジタルチューナ204で得られるビットストリームデータBSDから立体画像データを取得し、さらに、音声圧縮データストリームを取得する。すなわち、ビットストリーム処理部201Cは、デマルチプレクサ205Cおよびビデオデコーダ206を備えている。
デマルチプレクサ205Cは、ビットストリームデータBSDからビデオのエレメンタリストリームのパケットを抽出し、ビデオデコーダ206に送る。ビデオデコーダ206は、デマルチプレクサ205Cで抽出されたビデオのパケットからビデオエレメンタリストリーム(画像圧縮データストリーム)を再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む非圧縮の立体画像データを得る。
また、デマルチプレクサ205Cは、ビットストリームデータBSDからオーディオのエレメンタリストリームのパケットを抽出し、オーディオエレメンタリストリーム(音声圧縮データストリーム)を再構成する。オーディオフレーミング部208は、デマルチプレクサ205Cの出力に対してフレーミングを行う。
HDMI送信部209は、HDMIに準拠した通信により、立体画像データおよび音声データを、HDMI端子202から送出する。このHDMI送信部209は、立体画像データの取り扱いが可能な状態にある。HDMI送信部209は、HDMIのTMDSチャネルで送信するため、ビデオデコーダ206から出力される立体画像データおよびオーディオフレーミング部208から出力される音声圧縮データストリームをパッキングして、HDMI端子202に出力する。
セットトップボックス200Cの動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)BSDが出力される。
デジタルチューナ204から出力されるビットストリームデータBSDは、ビットストリーム処理部201Cを構成するデマルチプレクサ205Cに供給される。このデマルチプレクサ205Cでは、ビットストリームデータBSDからビデオのエレメンタリストリームのパケットが抽出され、ビデオデコーダ206に送られる。
ビデオデコーダ206では、デマルチプレクサ205Cで抽出されたビデオのパケットからビデオのエレメンタリストリーム(画像圧縮データストリーム)が再構成される。そして、このビデオデコーダ206では、画像圧縮データストリームに対してデコード処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、HDMI送信部209に供給される。
また、デマルチプレクサ205Cでは、ビットストリームデータBSDからオーディオのエレメンタリストリームのパケットが抽出され、オーディオのエレメンタリストリーム(音声圧縮データストリーム)が再構成される。この音声圧縮データストリームはオーディオフレーミング部208でフレーミングが行われた後に、HDMI送信部209に供給される。そして、HDMI送信部209では、立体画像データおよび音声圧縮データストリームがパッキングされ、HDMI端子202からHDMIケーブル400に送出される。
[テレビ受信機の説明]
図20に戻って、テレビ受信機300Cは、セットトップボックス200CからHDMIケーブル400を介して送られてくる立体画像データ、音声圧縮データストリームなどを受信する。このテレビ受信機300Cは、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを取得する。これにより、テレビ受信機300Aは、ユーザが立体画像を知覚するための画像表示を行う。
また、テレビ受信機300Cは、音声圧縮データストリームをデコードして、音声データを得ると共に、メタデータMD(例えば、視差情報、他サービスアクセス情報、放送トリガ信号などの情報)を取得する。これにより、立体画像データに対応した音声を出力する。また、メタデータMDに基づいて、種々の処理を実行する。
詳細説明は省略するが、テレビ受信機200Cは、上述の図10、図17あるいは図19のような構成、さらにはこれらの処理機能を併せ持った構成とされ、上述のメタデータMD(例えば、視差情報、他サービスアクセス情報、放送トリガ信号などの情報)を用いた処理が行われる。
上述したように、図20に示す立体画像表示システム10Cにおいて、放送局100Cからは画像圧縮データストリームおよび音声圧縮データストリームの多重化データストリームが送信される。そして、メタデータMD(例えば、視差情報、他サービスアクセス情報、放送トリガ信号などの情報)等が、音声圧縮データストリームに埋め込まれて送信される。そのため、メタデータMDを、音声圧縮データストリームをコンテナとして簡単に送信でき、テレビ受信機300Cで利用することが可能となる。
<3.変形例>
なお、上述実施の形態において、セットトップボックス200,200Cでは、放送局100,100Cからの放送信号から立体画像データを受信する構成となっている。しかし、セットトップボックス200,200Cは、配信サーバ(ストリーミングサーバ)からネットワークを介して立体画像データおよび音声データを受信する構成も考えられる。
また、上述実施の形態において、セットトップボックス200,200Cでは、デジタルチューナ204で受信された立体画像データ、音声データを直接テレビ受信機300,300Cに送信する構成となっている。しかし、セットトップボックス200,200Cでは、デジタルチューナ204で受信された立体画像データ、音声データを図示しないストレージに一旦蓄積することも考えられる。この場合、所定のタイミングで、ストレージから立体画像データ、音声データを読み出して、テレビ受信機300,300Cに送信する構成となる。所定のタイミングとは、例えば、ユーザによる再生操作のタイミング等である。
また、上述実施の形態において、セットトップボックス200,200Cはテレビ受信機300,300Cに受信立体画像データ、受信音声データを送信する構成となっている。しかし、テレビ受信機300,300Cの代わりに、モニタ装置、あるいはプロジェクタ等に受信立体画像データ、受信音声データを送信する構成も考えられる。また、セットトップボックス200,200Cの代わりに、受信機能付きのレコーダ、パーソナルコンピュータ等である構成も考えられる。
また、上述実施の形態において、セットトップボックス200,200Cとテレビ受信機300,300CはHDMIケーブル400で接続されてなるものである。しかし、これらの間が、HDMIと同様のデジタルインタフェースで有線接続される場合、さらには、無線によって接続される場合にも、この発明を同様に適用できることは勿論である。
また、上述実施の形態においては、立体画像表示システム10,10Cが、放送局100,100C、セットトップボックス200,200Cおよびテレビ受信機300,300Cで構成されているものを示した。しかし、テレビ受信機300,300Cは、図10、図17、図19に示すように、セットトップボックス200,200C内のビットストリーム処理部201,201Cと同等に機能するビットストリーム処理部307を備えている。したがって、図47に示すように、放送局100,100Cおよびテレビ受信機300,300Cで構成される立体画像表示システム10Dも考えられる。
また、上述実施の形態においては、立体画像データを含むデータストリーム(ビットストリームデータ)が放送局100,100Cから放送される例を示した。しかし、この発明は、このデータストリームがインターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できる。
なお、本技術は、以下のような構成もとることができる。
(1)音声データに直接関係しない所定情報が埋め込まれた音声圧縮データストリームを生成する音声圧縮データストリーム生成部と、
上記音声圧縮データストリーム生成部で生成された音声圧縮データストリームを送信するデータ送信部と
を備える送信装置。
(2)上記データストリーム生成部は、上記所定情報を上記音声圧縮データストリームのユーザデータ領域に埋め込む
前記(1)に記載の送信装置。
(3)上記データストリーム生成部に上記所定情報を供給すると共に、該所定情報を上記ユーザデータ領域に埋め込むためのサイズ情報を供給し、上記音声圧縮データストリームのユーザデータ領域に上記所定情報の埋め込みが行われるように制御する制御部をさらに備える
前記(2)に記載の送信装置。
(4)画像圧縮データストリームを生成する画像圧縮データストリーム生成部をさらに備え、
上記データ送信部は、上記画像圧縮データストリーム生成部で生成された画像圧縮データストリームと上記音声圧縮データストリームとを多重して送信し、
上記画像圧縮データストリームは、立体画像を表示するための左眼画像データおよび右眼画像データを有する立体画像データを圧縮符号化した画像圧縮データを含み、
上記音声圧縮データストリームに埋め込まれた上記所定情報は、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報をシフトさせて視差を付与するための視差情報である
前記(1)から(3)のいずれかに記載の送信装置。
(5)上記音声圧縮データストリームに埋め込まれた上記所定情報は、他のサービスにアクセスするための情報である
前記(1)から(3)のいずれかに記載の送信装置。
(6)上記音声圧縮データストリームに埋め込まれた上記所定情報は、上記音声圧縮データに関係した情報を得るためのネットワークアクセス情報である
前記(5)に記載の送信装置。
(7)画像圧縮データストリームを生成する画像圧縮データストリーム生成部をさらに備え、
上記データ送信部は、上記画像圧縮データストリーム生成部で生成された画像圧縮データストリームと上記音声圧縮データストリームとを多重して送信し、
上記音声圧縮データストリームに埋め込まれた上記所定情報は、上記画像圧縮データに関係した情報を得るためのネットワークアクセス情報である
前記(5)に記載の送信装置。
(8)画像圧縮データストリームを生成する画像圧縮データストリーム生成部をさらに備え、
上記データ送信部は、上記画像圧縮データストリーム生成部で生成された画像圧縮データストリームと上記音声圧縮データストリームとを多重して送信し、
上記音声圧縮データストリームに埋め込まれた上記所定情報は、上記画像圧縮データによる画像に重畳する重畳情報のデータである
前記(1)から(3)のいずれかに記載の送信装置。
(9)上記音声圧縮データストリームに埋め込まれる上記所定情報には、情報のタイプを示すタイプ情報が付加されている
前記(1)から(8)のいずれかに記載の送信装置。
(10)上記音声圧縮データストリームに埋め込まれる上記所定情報には、情報識別子で区別された複数種類の情報を含めることが可能とされている
前記(1)から(9)のいずれかに記載の送信装置。
(11)上記音声圧縮データストリームに埋め込まれる上記所定情報を、一連の情報を分割して得られた複数の分割情報のいずれかとすることが可能とされ、
上記所定情報としての上記分割情報には、最初の分割情報であるか否かを示す情報および順番を示す情報が付加されている
前記(1)から(10)のいずれかに記載の送信装置。
(12)上記音声圧縮データストリームに埋め込まれる上記所定情報には、時間同期を管理するためのタイムスタンプが付加されている
前記(1)から(11)のいずれかに記載の送信装置。
10,10C,10D・・・立体画像表示システム
81・・・HDMIトランスミッタ
82・・・HDMIレシーバ
83・・・DDC
84・・・CECライン
85・・・EDID ROM
100,100C・・・放送局
110,110A,110B,110C・・・送信データ生成部
111・・・データ取り出し部
111a・・・データ記録媒体
112・・・ビデオエンコーダ
113,113C・・・オーディオエンコーダ
113a・・・オーディオ符号化ブロック部
113b・・・オーディオフレーミング部
114・・・視差情報作成部
115・・・マルチプレクサ
116・・・字幕発生部
126・・・制御部
200,200C・・・セットトップボックス(STB)
201,201C・・・ビットストリーム処理部
202・・・HDMI端子
203・・・アンテナ端子
204・・・デジタルチューナ
205,205C・・・デマルチプレクサ
206・・・ビデオデコーダ
207・・・オーディオデコーダ
208・・・オーディオフレーミング部
209・・・HDMI端子
211・・・CPU
300,300A,300B,300C・・・テレビ受信機
301・・・3D信号処理部
302・・・HDMI端子
303・・・HDMI受信部
304・・・オーディオデコーダ
305・・・アンテナ端子
306・・・デジタルチューナ
307・・・ビットストリーム処理部
308・・・映像・グラフィック処理回路
309・・・OSD表示データ生成部
310・・・パネル駆動回路
311・・・表示パネル
312・・・音声信号処理回路
313・・・音声増幅回路
314・・・スピーカ
321・・・CPU
327・・・ネットワーク端子
328・・・イーサネットインタフェース
400・・・HDMIケーブル

Claims (7)

  1. 処理情報を分割して所定数の分割情報を得、該所定数の分割情報のそれぞれに少なくとも最初の分割情報であるか否かを示す情報および上記処理情報を用いた処理を行うタイミングを示す共通のタイムスタンプを含むヘッダ情報を付加して所定数の挿入情報を生成する情報生成部と、
    音声圧縮データストリームの所定数のオーディオフレームのユーザデータ領域のそれぞれに上記所定数の挿入情報を挿入する情報挿入部と、
    上記所定数の挿入情報が挿入された音声圧縮データストリームを送信するストリーム送信部を備え
    上記処理情報は、他サービスアクセス情報、視差情報または放送トリガ信号を含む
    送信装置。
  2. 上記ヘッダ情報は、何番目の分割情報であるかを示す情報をさらに含む
    請求項1に記載の送信装置。
  3. 上記ヘッダ情報は、上記処理情報のタイプを示す情報をさらに含む
    請求項1に記載の送信装置。
  4. 上記ヘッダ情報は、上記処理情報の上記タイプ内における種類を識別する情報をさらに含む
    請求項3に記載の送信装置。
  5. 情報生成部が、処理情報を分割して所定数の分割情報を得、該所定数の分割情報のそれぞれに少なくとも最初の分割情報であるか否かを示す情報および上記処理情報を用いた処理を行うタイミングを示す共通のタイムスタンプを含むヘッダ情報を付加して所定数の挿入情報を生成する情報生成ステップと、
    情報挿入部が、音声圧縮データストリームの所定数のオーディオフレームのユーザデータ領域のそれぞれに上記所定数の挿入情報を挿入する情報挿入ステップと、
    送信部が、上記所定数の挿入情報が挿入された音声圧縮データストリームを送信するストリーム送信ステップを有し、
    上記処理情報は、他サービスアクセス情報、視差情報または放送トリガ信号を含む
    送信方法。
  6. 所定数の挿入情報がそれぞれ所定数のオーディオフレームのユーザデータ領域に挿入されている音声圧縮データストリームを、外部機器からデジタルインタフェースを介して受信するストリーム受信部を備え、
    上記所定数の挿入情報は、処理情報を分割して得られた所定数の分割情報のそれぞれに少なくとも最初の分割情報であるか否かを示す情報および上記処理情報を用いた処理を行うタイミングを示す共通のタイムスタンプを含むヘッダ情報が付加されたものであり、
    上記処理情報は、他サービスアクセス情報、視差情報または放送トリガ信号を含み、
    上記音声圧縮データストリームにデコード処理を施して音声データを得ると共に、上記ヘッダ情報に基づいて上記所定数のオーディオフレームから上記処理情報を構成する所定数の分割情報を得るデコード部と、
    記処理情報および上記タイムスタンプに基づいた情報処理を行う情報処理部をさらに備える
    受信装置。
  7. ストリーム受信部が、所定数の挿入情報がそれぞれ所定数のオーディオフレームのユーザデータ領域に挿入されている音声圧縮データストリームを、外部機器からデジタルインタフェースを介して受信するストリーム受信ステップを有し、
    上記所定数の挿入情報は、処理情報を分割して得られた所定数の分割情報のそれぞれに少なくとも最初の分割情報であるか否かを示す情報および上記処理情報を用いた処理を行うタイミングを示す共通のタイムスタンプを含むヘッダ情報が付加されたものであり、
    上記処理情報は、他サービスアクセス情報、視差情報または放送トリガ信号を含み、
    デコード部が、上記音声圧縮データストリームにデコード処理を施して音声データを得ると共に、上記ヘッダ情報に基づいて上記所定数のオーディオフレームから上記処理情報を構成する所定数の分割情報を得るデコードステップと、
    情報処理部が、上記処理情報および上記タイムスタンプに基づいた情報処理を行う情報処理ステップを有する
    受信方法。
JP2015198688A 2010-05-26 2015-10-06 送信装置、送信方法、受信装置および受信方法 Active JP6333226B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015198688A JP6333226B2 (ja) 2010-05-26 2015-10-06 送信装置、送信方法、受信装置および受信方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010121044 2010-05-26
JP2010121044 2010-05-26
JP2015198688A JP6333226B2 (ja) 2010-05-26 2015-10-06 送信装置、送信方法、受信装置および受信方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011061549A Division JP2012010311A (ja) 2010-05-26 2011-03-18 送信装置、送信方法、受信装置、受信方法および送受信システム

Publications (2)

Publication Number Publication Date
JP2016029816A JP2016029816A (ja) 2016-03-03
JP6333226B2 true JP6333226B2 (ja) 2018-05-30

Family

ID=44117808

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011061549A Pending JP2012010311A (ja) 2010-05-26 2011-03-18 送信装置、送信方法、受信装置、受信方法および送受信システム
JP2015198688A Active JP6333226B2 (ja) 2010-05-26 2015-10-06 送信装置、送信方法、受信装置および受信方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011061549A Pending JP2012010311A (ja) 2010-05-26 2011-03-18 送信装置、送信方法、受信装置、受信方法および送受信システム

Country Status (5)

Country Link
US (1) US9787968B2 (ja)
EP (1) EP2391139B1 (ja)
JP (2) JP2012010311A (ja)
CN (2) CN107566823A (ja)
TW (1) TWI504231B (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103597823B (zh) 2012-02-16 2017-11-03 索尼公司 发送装置、发送方法和接收器装置
CN103322908A (zh) * 2012-03-23 2013-09-25 鸿富锦精密工业(深圳)有限公司 影像测量程序生成系统及方法
TWI505699B (zh) * 2012-11-23 2015-10-21 Inst Information Industry 資料串流傳輸方法
KR102158002B1 (ko) * 2013-01-21 2020-09-21 돌비 레버러토리즈 라이쎈싱 코오포레이션 프로그램 라우드니스 및 경계 메타데이터를 가진 오디오 인코더 및 디코더
KR102201826B1 (ko) * 2013-03-15 2021-01-12 삼성전자주식회사 데이터 전송 장치, 데이터 수신 장치, 데이터 송수신 시스템, 데이터 전송 방법 및 데이터 수신 방법
EP2779578B1 (en) 2013-03-15 2019-11-20 Samsung Electronics Co., Ltd. Data Transmitting Apparatus, Data Receiving Apparatus, Data Transceiving System, Method for Transmitting Data, and Method for Receiving Data
WO2015190864A1 (ko) * 2014-06-12 2015-12-17 엘지전자(주) 고속 인터페이스를 이용하여 객체 기반 오디오 데이터를 처리하는 방법 및 장치
WO2016009944A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10109285B2 (en) * 2014-09-08 2018-10-23 Sony Corporation Coding device and method, decoding device and method, and program
JP6809221B2 (ja) 2014-09-12 2021-01-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US10271094B2 (en) 2015-02-13 2019-04-23 Samsung Electronics Co., Ltd. Method and device for transmitting/receiving media data
JP6809450B2 (ja) * 2015-04-07 2021-01-06 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2016190091A1 (ja) * 2015-05-28 2016-12-01 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2016194563A1 (ja) * 2015-06-02 2016-12-08 ソニー株式会社 送信装置、送信方法、メディア処理装置、メディア処理方法および受信装置
KR102393158B1 (ko) 2015-10-13 2022-05-02 삼성전자주식회사 메타데이터를 포함하는 비트 스트림을 이용한 서비스 제공 방법 및 장치
TWI578126B (zh) * 2015-10-13 2017-04-11 大量科技股份有限公司 訊號傳輸裝置
JP6876924B2 (ja) 2015-12-08 2021-05-26 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
CN105632542B (zh) * 2015-12-23 2019-05-28 小米科技有限责任公司 音频播放方法及装置
WO2017154646A1 (ja) * 2016-03-09 2017-09-14 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP7003079B2 (ja) * 2019-03-14 2022-01-20 株式会社東芝 電子機器

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1013999B (zh) 1989-10-19 1991-09-18 东南大学 光纤多端耦合器及其制造方法
US5396497A (en) * 1993-02-26 1995-03-07 Sony Corporation Synchronization of audio/video information
JP2000173174A (ja) * 1998-09-29 2000-06-23 Nippon Columbia Co Ltd オ―ディオシステム、再生装置及び記憶装置
JP3250532B2 (ja) 1998-11-24 2002-01-28 日本電気株式会社 データ送受信システム、データ受信装置、及びデータ受信方法
GB9902235D0 (en) 1999-02-01 1999-03-24 Emuse Corp Interactive system
US8170538B2 (en) * 1999-12-06 2012-05-01 Solocron Media, Llc Methods and apparatuses for programming user-defined information into electronic devices
KR100396547B1 (ko) * 2000-12-27 2003-09-02 삼성전자주식회사 통합 입력기의 입력 코드 생성과 그 송수신 방법 및 장치
US20030131350A1 (en) * 2002-01-08 2003-07-10 Peiffer John C. Method and apparatus for identifying a digital audio signal
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
JP2004297628A (ja) * 2003-03-27 2004-10-21 Sanyo Electric Co Ltd ストリーム切替装置およびその装置にコンテンツを提供する装置
JP4190357B2 (ja) * 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
US20130097302A9 (en) * 2003-10-01 2013-04-18 Robert Khedouri Audio visual player apparatus and system and method of content distribution using the same
JP2005136675A (ja) * 2003-10-30 2005-05-26 Mitsubishi Electric Corp 映像音声送信装置及び映像音声受信装置
KR100571824B1 (ko) 2003-11-26 2006-04-17 삼성전자주식회사 부가정보 삽입된 mpeg-4 오디오 bsac부호화/복호화 방법 및 장치
JP2005176107A (ja) 2003-12-12 2005-06-30 Canon Inc デジタル放送受信装置およびその制御方法、デジタル放送送信装置、ならびにデジタル放送受信システム
JP2006128818A (ja) 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2006254022A (ja) * 2005-03-10 2006-09-21 Matsushita Electric Ind Co Ltd デジタル放送受信装置
JP2006287812A (ja) * 2005-04-04 2006-10-19 Daisuke Omori 立体映像撮影装置、立体映像表示装置
JP4613674B2 (ja) 2005-04-11 2011-01-19 パナソニック株式会社 音声再生装置
US20090123066A1 (en) * 2005-07-22 2009-05-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein,
US20070028278A1 (en) * 2005-07-27 2007-02-01 Sigmon Robert B Jr System and method for providing pre-encoded audio content to a television in a communications network
US20070089158A1 (en) * 2005-10-18 2007-04-19 Clark Christopher M Apparatus and method for providing access to associated data related to primary media data
KR20070057558A (ko) * 2005-12-02 2007-06-07 삼성전자주식회사 디지털신호 수신장치 및 디지털신호 송신장치와 이 장치들을 사용하는 방법
US8214516B2 (en) * 2006-01-06 2012-07-03 Google Inc. Dynamic media serving infrastructure
US8312497B2 (en) * 2006-03-29 2012-11-13 At&T Intellectual Property I, L.P. Closed-captioning universal resource locator (URL) capture system and method
WO2007116549A1 (ja) * 2006-04-07 2007-10-18 Sharp Kabushiki Kaisha 画像処理装置
JP5023662B2 (ja) 2006-11-06 2012-09-12 ソニー株式会社 信号処理システム、信号送信装置、信号受信装置およびプログラム
US20080141317A1 (en) * 2006-12-06 2008-06-12 Guideworks, Llc Systems and methods for media source selection and toggling
JP5003389B2 (ja) * 2007-09-28 2012-08-15 ソニー株式会社 電子機器および電子機器における制御方法
JP5337370B2 (ja) * 2007-11-13 2013-11-06 ソニー エスパナ,エス.エー. 表示装置、表示装置における映像信号送信方法、送信装置および映像信号の送信方法
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
US8103908B2 (en) * 2007-12-28 2012-01-24 Intel Corporation Method and system for recovery of a computing environment during pre-boot and runtime phases
JP2010014979A (ja) * 2008-07-03 2010-01-21 Sharp Corp 表示装置、映像出力装置及び映像表示システム
BRPI0914459A2 (pt) 2008-10-21 2015-10-27 Koninkl Philips Electronics Nv "método para processar um sinal de vídeo de entrada tridimensional compreendendo múltiplas visualizações, produto de programa de computador e sistema para processar um sinal de vídeo de entrada tridimensional compreendendo múltiplas visualizações"
JP5274212B2 (ja) * 2008-11-13 2013-08-28 日本テレビ放送網株式会社 デジタル放送方法及びシステムと、放送局及び受信機
JP5362332B2 (ja) 2008-11-19 2013-12-11 日東電工株式会社 表面保護シートおよびその利用

Also Published As

Publication number Publication date
EP2391139B1 (en) 2019-10-09
CN102263989A (zh) 2011-11-30
EP2391139A3 (en) 2014-05-21
TW201215097A (en) 2012-04-01
JP2012010311A (ja) 2012-01-12
TWI504231B (zh) 2015-10-11
EP2391139A2 (en) 2011-11-30
US9787968B2 (en) 2017-10-10
JP2016029816A (ja) 2016-03-03
US20110292173A1 (en) 2011-12-01
CN107566823A (zh) 2018-01-09

Similar Documents

Publication Publication Date Title
JP6333226B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP5446913B2 (ja) 立体画像データ送信装置および立体画像データ送信方法
JP5531972B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
CN102177724B (zh) 立体图像数据传输装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法
US8289998B2 (en) Method and apparatus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream
KR101998892B1 (ko) 송신 장치, 송신 방법 및 수신 장치
CN102369735B (zh) 立体图像数据发送装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法
WO2011001858A1 (ja) 立体画像データ送信装置および立体画像データ受信装置
JP7099510B2 (ja) 受信装置および受信方法
US20140063187A1 (en) Reception device, reception method, and electronic device
JP2011166757A (ja) 送信装置、送信方法および受信装置
WO2012060198A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP5682149B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2012063675A1 (ja) 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置
JP6891806B2 (ja) 送信装置、送信方法、受信装置および受信方法
US20190037255A1 (en) Transmission device, transmission method, reception device, and reception method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160908

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180424

R150 Certificate of patent or registration of utility model

Ref document number: 6333226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250