JP4190357B2 - Broadcast data transmitting apparatus, broadcast data transmitting method, and broadcast data receiving apparatus - Google Patents
Broadcast data transmitting apparatus, broadcast data transmitting method, and broadcast data receiving apparatus Download PDFInfo
- Publication number
- JP4190357B2 JP4190357B2 JP2003168265A JP2003168265A JP4190357B2 JP 4190357 B2 JP4190357 B2 JP 4190357B2 JP 2003168265 A JP2003168265 A JP 2003168265A JP 2003168265 A JP2003168265 A JP 2003168265A JP 4190357 B2 JP4190357 B2 JP 4190357B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- display
- data
- image data
- broadcast data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はデジタル放送技術に関し、特に立体視を行うことのできる3次元画像データを含む放送データを送信する放送データ送信装置、および3次元画像データを含む放送データを受信するための放送データ受信装置等に関する。
【0002】
【従来の技術】
従来、3次元画像を表示する様々な方法が提案されている。その中でも一般的に用いられているのは両眼視差を利用する2眼式と呼ばれるものである。すなわち、両眼視差を持った左眼画像と右眼画像を用意し、それぞれ独立に左右の眼に投影することにより立体視を行う。2眼式の代表的な方式としてフィールドシーケンシャル方式やパララクスバリア方式が提案されている。
【0003】
図25は、フィールドシーケンシャル方式を説明するための概念図である。このフィールドシーケンシャル方式は、図25のように、左眼画像と右眼画像が垂直方向1画素おきに交互にならんだ形に配置され、左眼画像の表示と右眼画像の表示が交互に切り替えて表示されるものである。左眼画像および右眼画像は通常の2次元表示時に比べて垂直解像度が1/2になっている。観察者はディスプレイの切り替え周期に同期して開閉するシャッタ式のメガネを着用する。ここで使用するシャッタは、左眼画像が表示されている時は左眼側が開いて右眼側が閉じ、右眼画像が表示されている時は左眼側が閉じて右眼側が開く。こうすることで、左眼画像は左眼だけで、右眼画像は右眼だけで観察されることになり、立体視を行うことができる。
【0004】
図26は、パララクスバリア方式を説明するための概念図である。図26(A)は、視差が生じる原理を示す図である。一方、図26(B)は、パララクスバリア方式で表示される画面を示す図である。
【0005】
図26(A)では、図26(B)に示すような左眼画像と右眼画像が水平方向1画素おきに交互にならんだ形に配置された画像を、画像表示パネル2601に表示し、同一視点の画素の間隔よりも狭い間隔でスリットを持つパララクスバリア2602を画像表示パネル2601の前面に置くことにより、左眼画像は左眼2603だけで、右眼画像は右眼2604だけで観察することになり、立体視を行うことができる。
【0006】
表示の方式に適した画像の形式が異なるため、それぞれの表示形式に合わせて3次元画像を作成する必要があり、3次元画像に汎用性がないという問題があった。
【0007】
このような問題を解決するために、特開2003−111101号公報(2003年4月11日公開)では、画像の構成や視点数など立体画像を表示するための一連の処理において参照すべき情報を、3次元画像データに付加することで、立体画像に汎用性を持たせることのできる立体画像処理方法、装置、およびシステムが開示されている。
【0008】
【特許文献1】
特開2003−111101号公報
【0009】
【発明が解決しようとする課題】
しかしながら、特開2003−111101号公報では、前記情報は画像データのヘッダ領域に配置されるため、通信回線を利用したデータ配信やファイルへの記録を目的としており、画像データを放送する場合が考慮されておらず、そのままでは画像データの放送に適用できないという問題がある。
【0010】
本発明は、以上のような問題点を解決するためになされたものであって、その目的は、汎用性を具備した3次元画像を含む放送データの送受信をすることのできる放送データ送信装置、放送データ送信方法および放送データ受信装置を提供することにある。
【0011】
【課題を解決するための手段】
上記目的を達成するために、画像データを含むコンテンツを放送データとして送信する放送データ送信装置であって、前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成手段を備え、前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、前記番組配列情報作成手段は、前記3次元画像データの再生時間帯を示す情報を前記3次元制御情報に格納することを特徴とする。
【0013】
また、本発明は、画像データを含むコンテンツを放送データとして送信する放送データ送信装置であって、前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成手段を備え、前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、前記番組配列情報作成手段は、前記3次元画像データを2次元表示するときに選択される視点画像を示す2次元表示画像情報を前記3次元制御情報に格納することを特徴とする。
【0014】
また、本発明は、画像データを含むコンテンツを放送データとして送信する放送データ送信方法であって、前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成ステップを持ち、前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、前記番組配列情報作成ステップは、前記3次元画像データの再生時間帯を示す情報を前記3次元制御情報に格納することを特徴とする。
【0016】
また、本発明は、画像データを含むコンテンツを放送データとして送信する放送データ送信方法であって、前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成ステップを持ち、前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、前記番組配列情報作成ステップは、前記3次元画像データを2次元表示するときに選択される視点画像を示す2次元表示画像情報を前記3次元制御情報に格納することを特徴とする。
【0017】
また、本発明は、放送データを受信する放送データ受信装置であって、前記放送データに含まれるコンテンツに対する制御情報を解析する番組配列情報解析手段と、入力された画像データを2次元表示するか、もしくは3次元表示するかを外部の入力により切り替えて表示することのできる表示手段と、前記表示手段を制御する表示制御手段とを備え、前記番組配列情報は、放送データに含まれる3次元画像データの表示を制御する3次元制御情報を含み、更に前記3次元制御情報は、コンテンツ中に3次元画像データが存在する時間帯を示す3次元表示時間情報を含み、前記番組配列情報解析手段は、前記番組配列情報を解析することにより前記3次元制御情報を表示制御手段に送り、前記表示制御手段は、内部にタイマーを備え、入力された前記3次元制御情報に従って前記表示手段を2次元表示するか、もしくは3次元表示するかを切り替え、前記3次元表示時間情報と前記タイマーの時刻から受信した放送データに含まれる画像データが2次元画像データであるか、もしくは3次元画像データであるかを判定し、2次元画像データであれば2次元表示を、3次元画像データであれば3次元表示を行うように前記表示手段を制御することを特徴とする。
【0018】
また、本発明は、放送データを受信する放送データ受信装置であって、前記放送データに含まれるコンテンツに対する制御情報を解析する番組配列情報解析手段と、入力された画像データを2次元表示する表示手段と、前記表示手段を制御する表示制御手段と、を備え、前記番組配列情報は、放送データに含まれる3次元画像データの表示を制御する3次元制御情報を含み、前記3次元制御情報は、受信した放送データに含まれる受信画像データが2次元画像データであることを示す識別子と、3次元画像データであることを示す識別子をそれぞれ定義する識別子情報を含み、前記番組配列情報解析手段は、前記番組配列情報を解析することにより前記3次元制御情報を表示制御手段に送り、前記表示制御手段は、入力された前記3次元制御情報に従って前記表示手段を制御し、前記識別子情報と前記受信画像データの識別子から、前記受信画像データが2次元画像データであるか、もしくは3次元画像データであるかを判定し、2次元画像データである場合は表示を行うように前記表示手段を制御し、3次元画像データである場合は表示できない、または正しく表示できない旨を観察者に通知する表示制御手段であることを特徴とする。
【0019】
また、本発明は、放送データを受信する放送データ受信装置であって、前記放送データに含まれるコンテンツに対する制御情報を解析する番組配列情報解析手段と、入力された画像データを2次元表示する表示手段と、前記表示手段を制御する表示制御手段とを備え、前記番組配列情報は、放送データに含まれる3次元画像データの表示を制御する3次元制御情報を含み、更に前記3次元制御情報は、コンテンツ中に3次元画像データが存在する時間帯を示す3次元表示時間情報を含み、前記番組配列情報解析手段は、前記番組配列情報を解析することにより前記3次元制御情報を表示制御手段に送り、前記表示制御手段は、内部にタイマーを備え、入力された前記3次元制御情報に従って前記表示手段を制御し、前記3次元表示時間情報と前記タイマーの時刻から、受信した放送データに含まれる受信画像データが2次元画像データであるか、もしくは3次元画像データであるかを判定し、2次元画像データである場合は表示を行うように前記表示手段を制御し、3次元画像データである場合は表示できない、または正しく表示できない旨を観察者に通知する表示制御手段であることを特徴とする。
【0038】
【発明の実施の形態】
本発明における実施の形態の説明をする前に、本明細書において使用する用語について、以下のように定義する。
【0039】
放送データとは、放送局から送出されるデータの総称であり、無線や有線を介して送信される放送や、インターネットのストリーミング放送など含む。
コンテンツとは、一般的には放送される番組と同じ意味であるが、ここでは少なくともビデオデータとオーディオデータとデータ放送用データのいずれか1つを含むデータの集まりである。放送データには、複数のコンテンツが含まれる。
【0040】
番組配列情報とは、放送データ中にどのようなコンテンツが含まれているかを管理するための情報であり、複数のコンテンツの内容を示す情報である。
【0041】
番組配列情報には、PMT(Program Map Table)やEIT(Event Information Table)などがある。
【0042】
PMTとは、放送データの中からチャンネルを構成するビデオデータやオーディオデータなどを分離するためのPID(Packet ID)などのストリーム情報を含み、同じチャンネル内のコンテンツで共通する番組配列情報である。PMTは、同じチャンネル内のコンテンツで共通の番組配列情報であるため、頻繁に更新されないという特徴がある。
【0043】
EITとは、チャンネルに含まれる各コンテンツの放送時間帯を示す番組時間情報などの番組情報を含み、コンテンツ毎に異なる固有の情報を1つまたは複数のコンテンツ分だけ含む番組配列情報である。EITは、コンテンツ毎に異なる固有の情報であるため、頻繁に更新されるという特徴がある。
【0044】
これらの番組配列情報は、受信機におけるチャンネルの切り替えがどの時点で行われても対応できるように、図12に示すように放送データ中に繰り返し多重化されて送信される。
【0045】
3D画像とは、視差のある複数の画像の組により構成される画像である。図13に3D画像の一例を示す。この例の3D画像は、左眼画像と右眼画像の2つの視点に対応する画像を、横並びに配置した3D画像である。
3D画像制御情報とは、3D画像の特徴を示す2視点や横並びといった情報や、3D画像の表示を制御する際に用いる情報である。
3D表示とは、複数の視点画像を用いて、観察者の左眼と右眼が異なる視点画像を画像を観察できるように表示することである。これに対して、2D表示とは、観察者の左眼と右眼が同じ画像を観察できるように表示することである。
【0046】
3Dコンテンツとは、コンテンツ中に3D画像からなるビデオデータやデータ放送用データを含むコンテンツのことである。
【0047】
画像多重方式とは、3D画像を構成する各視点画像がどのように配置されているかを示す情報である。本実施形態では、画像多重方式として、統合方式、時分割方式、マルチストリーム方式の3つを用いる。ここで、画像多重方式について、図14を用いて説明する。図14は、2視点の場合の画像多重方式を説明するための模式図である。図14(A)に示すように、3D画像の画像多重に用いられる各視点のビデオデータは、複数のフレームから構成され、それぞれ独立した系列であるものとする。
【0048】
統合方式とは、図14(B)に示すように、各視点画像をフレーム毎に隣接させて伝送する方式である。時分割方式とは、図14(C)に示すように、フレーム周期で左眼画像と右眼画像を交互に切り替えて伝送する方式である。ここで伝送される右眼画像のフレームは、先に送られる左眼画像のフレームと同じ時間のものである。この例では左眼画像を先に伝送しているが、右眼画像が先であってもよい。マルチストリーム方式とは、図14(A)に示す左眼画像と右眼画像のビデオデータを、それぞれ別のデータ列として伝送する方式である。
なお、走査方式がインターレースの場合には、上記のフレームをフィールドで置き換えてもよい。
また、それぞれの画像多重方式は視点数が3以上であっても適用できる。
【0049】
<第1の実施形態>
本発明における第1の実施形態について説明する。第1の実施形態による送信装置は、3Dコンテンツを送信する際、3Dコンテンツに含まれる3D画像の3D画像制御情報を、番組配列情報に格納して送信するものである。その際、図11に示すように、3D画像制御情報の中でも、同じチャンネル内に含まれる3Dコンテンツで共通であり、頻繁に更新されない情報(以下、3D共通情報とする)をPMTに格納し、3Dコンテンツ毎に固有であり、頻繁に更新される情報(以下、3D固有情報とする)をEITに格納し、3Dコンテンツと多重して繰り返し送信する。PMTやEITは、例えば約1秒に1回の割合で送信するというように、それぞれある一定の時間毎に送信してもよいし、また、例えばビデオデータのキーフレームを送信する時にPMTやEITも送信するというように、送信するビデオデータを構成するフレームの種別と同期させて送信してもよい。3D共通情報と3D固有情報の詳細については後述する。また、本実施形態の受信装置は、番組配列情報に格納されている3D共通情報と3D固有情報をもとに、3D画像の立体表示を行う。
【0050】
はじめに、本実施形態による放送データ送信装置の詳細について説明する。図1は本実施形態による放送データ送信装置の構成例を示すブロック図である。図1に示すように、放送データ送信装置100は、番組配列情報作成手段101と、多重化手段102と、伝送路符号化手段103から構成される。
【0051】
番組配列情報作成手段101は、3D画像制御情報を含むPMTやEITなどの番組配列情報を作成する。番組配列情報作成手段101の詳細については後述する。
【0052】
多重化手段102は、番組配列情報作成手段101で作成された番組配列情報と、MPEG(Moving Picture Experts Group)−1、MPEG−2、MPEG−4などを含むビデオデータと、AAC(Advanced Audio Coding)、MP3(MPeg audio layer3)、WMA(Windows(R) Media Audio)などを含むオーディオデータと、JPEG(Joint Picture Experts Group)、PNG(Portable Network Graphics)、BML(Broadcast Markup Language)などを含むデータ放送用データなどを、それぞれTS(Transport Stream)パケットに格納して多重化をする。
伝送路符号化手段103は、TSパケットを既定の変調方式に従って符号化し、放送データとして送信する。
【0053】
ここで、番組配列情報作成手段101の詳細について説明する。図2は番組配列情報作成手段101の構成例を示すブロック図である。番組配列情報作成手段101は、PMTを作成するPMT作成手段200と、EITを作成するEIT作成手段201を含む構成となっている。
【0054】
まず、PMT作成手段200について説明する。PMT作成手段200には、チャンネルを構成するビデオデータやオーディオデータなどのストリームを、放送データの中から分離するためのPIDを含むストリーム情報が入力される。ストリーム情報が、3D画像を含む、または3D画像を構成するビデオデータに関するストリーム情報の場合、ストリーム情報の他に3D共通情報が入力される。3D共通情報は、3D画像制御情報の中で、同じチャンネル内に含まれる3Dコンテンツで共通の情報である。3D共通情報に含まれる情報の例として、視点数情報や画像多重方式情報、強制2Dフラグ情報などが挙げられる。
【0055】
視点数情報は、3D画像を構成する画像の視点数を示す情報である。
また、画像多重方式情報は、前述の画像多重方式を示す情報である。
また、強制2Dフラグ情報は、受信装置において3Dコンテンツを強制的に2D表示させるための情報である。強制2Dフラグ情報については後述する。
【0056】
次に、PMT作成手段200が作成するPMTの構成例を図5に示す。
図5(A)のPMTは、PMTを識別するPMT識別子500と、PMTのバージョン番号を含むPMT制御情報501と、チャンネルを構成するストリームを識別するPIDを含むストリーム情報502、504と、各ストリーム情報の拡張情報を格納する記述子503、505を含む構成となっている。
【0057】
図5(A)において、ストリーム情報502が、3D画像を含む、または3D画像を構成するビデオデータに関するストリーム情報であるとすると、ストリーム情報502に続く記述子503に3D共通情報記述子を格納する。
【0058】
図5(B)に3D共通情報記述子の構成例を示す。3D共通情報記述子は、3D画像制御情報を含む記述子であることを識別する3D識別子506と、3D共通情報記述子を識別する3D共通情報識別子507と、前述した視点数情報508および画像多重方式情報509、強制2Dフラグ情報510と、付加情報511を含む構成となっている。付加情報511については後に説明する。
【0059】
続いて、図5のPMTを作成する際のPMT作成手段200の動作について、図3のフローチャートを用いて説明する。
まず、作成する番組配列情報がPMTであることを示すPMT識別子を作成し(ステップS300)、続いてPMTのバージョン番号を含むPMT制御情報を作成する(ステップS301)。次に、コンテンツを構成するビデオデータやオーディオデータなどのストリーム毎に、PIDを含むストリーム情報を作成する(ステップS302)。次に、ストリームがビデオデータかどうかを判定し(ステップS303)、ビデオデータである場合は、3D共通情報を格納する3D共通情報記述子を作成する(ステップS304)。全てのストリーム情報が完成するまで以上の動作を繰り返し、全てのストリーム情報が完成するとPMTの作成を終了する(ステップS305)。なお、画像多重方式がマルチストリームの場合は、3D画像を構成する各ビデオデータごとにストリーム情報と3D共通情報記述子を作成する。
【0060】
ここで、ステップS304の3D共通情報記述子の作成方法について、図4のフローチャートを用いて説明する。まず、作成する記述子が3D共通情報記述子であることを示す3D識別子および3D共通情報識別子などを作成する(ステップS400)。次に、必須共通情報を作成する(ステップS401)。必須共通情報とは、3D共通情報記述子に必ず格納しなければならない情報を指す。例えば、前述の視点数情報、画像多重方式情報、強制2Dフラグ情報などが挙げられる。
【0061】
次に、必須共通情報の付加情報を作成する。必須共通情報の付加情報とは、必須共通情報の拡張情報であり、必須共通情報の値によって異なる情報である。必須共通情報の付加情報を作成する例として、画像多重方式情報ごとに異なる付加情報を作成する例を挙げる。
【0062】
まず、画像多重方式が統合方式かどうかを判定する(ステップS402)。統合方式であれば統合方式固有の付加情報を作成する(ステップS403)。統合方式固有の付加情報の例として、フレーム内の各視点画像の配置が、横並びか縦並びかを示す画像配置情報と、フレーム内の各視点画像の縮小率を示す画像縮小情報が挙げられる。
【0063】
画像多重方式が統合方式でなければ、時分割方式かどうかを判定する(ステップS404)。時分割方式であれば時分割方式固有の付加情報を作成する(ステップS405)。時分割方式固有の付加情報の例として、例えば2視点の場合、どのフレームが左眼画像または右眼画像に対応するかを示す視点・フレーム対応情報が挙げられる。
【0064】
画像多重方式が時分割方式でなければ、マルチストリーム方式であるので、マルチストリーム方式固有の付加情報を作成する(ステップS406)。マルチストリーム方式固有の付加情報の例として、3D共通情報と関連づけられている各ビデオデータが、どの視点に相当する画像であるかを示す視点位置情報が挙げられる。このようにして、3D共通情報記述子を作成する。
【0065】
上記の例は、全てのチャンネルに含まれるPMTに3D共通情報記述子を含める場合について述べているが、3Dコンテンツを含まないチャンネルにおいては、PMTに3D共通情報記述子を含めないようにすることを選択できるようにしてもよい。
【0066】
また、上記の例では、ストリーム情報が、3D画像を含む、または3D画像を構成するビデオデータに関するストリーム情報である場合に3D共通情報記述子を付加しているが、ストリーム情報が、3D画像を含む、または3D画像を構成するデータ放送用データに関するストリーム情報である場合にも3D共通情報記述子を付加してもよい。
【0067】
また、あるチャンネルには画像多重方式が統合方式である3Dコンテンツのみを送信し、別のチャンネルには画像多重方式が時分割方式である3Dコンテンツのみを送信するというように、複数のチャンネルに、異なった画像多重方式の3Dコンテンツを送信してもよい。
【0068】
次に、EIT作成手段201について説明する。EIT作成手段201には、コンテンツの放送時間帯を示す番組時間情報を含む番組情報が入力される。また、番組に3D画像が含まれている場合、番組情報の他に、3D固有情報が入力される。3D固有情報は、3D画像制御情報の中で、3Dコンテンツ毎に固有の情報である。3D固有情報に含まれる情報の例として、2D表示画像情報や視差量調整情報、3Dシーン時間情報などが挙げられる。
【0069】
2D表示画像情報は、受信装置において3D画像を2D表示する際に選択すべき視点の画像を示す情報である。
また、視差量調整情報は、3D画像を立体表示した時の飛び出し具合の程度の調整値を示す情報である。
【0070】
また、3Dシーン時間情報は、ビデオデータが3Dシーンと2Dシーンで構成されている場合に、3Dシーンの時間帯を指定する情報である。図6に示すように、3Dシーン時間情報は、3Dシーンデータが始まる時刻を示す3Dシーン開始時刻と、3Dシーン開始時刻から3Dシーンが継続する時間を示す3Dシーン継続時間を含む構成となっている。ビデオデータの中に3Dシーンが複数含まれている場合は、3Dシーンの数だけ3Dシーン開始時刻と3Dシーン継続時間を格納する。
【0071】
また、ビデオデータの中に含まれる3Dシーンの数を3Dシーン時間情報に格納してもよい。また、3Dシーン継続時間の代わりに、3Dシーンが終了する時刻を示す3Dシーン終了時刻を用いてもよい。また、ビデオデータの中に、2Dビデオデータが含まれず、3Dシーンだけで構成される場合は、3Dシーン時間情報はなくてもよい。また、3D固有情報の中に、3Dシーン時間情報を含むかどうかを示すフラグを格納してもよい。また、3Dシーン時間情報の代わりに、2Dシーンが始まる時刻を示す2Dシーン開始時刻と、2Dシーン開始時刻から2Dシーンが継続する時間を示す2Dシーン継続時間を含む、2Dシーン時間情報を用いてもよい。
【0072】
次に、EIT作成手段201が作成するEITの構成例を図9に示す。図9(A)のEITは、EITを識別するEIT識別子900と、EITのバージョン番号を含むEIT制御情報901と、チャンネルに含まれるコンテンツの放送時間帯を記述した番組時間情報を含む番組情報902、904と、各番組情報の拡張情報を格納する記述子903、905を含む構成となっている。
【0073】
図9(A)において、番組情報902が3Dシーンを含む番組に関する情報であるとすると、番組情報902に続く記述子903に3D固有情報記述子を格納する。
【0074】
図9(B)に3D固有情報記述子の構成を示す。3D固有情報記述子は、3D画像制御情報を含む記述子であることを識別する3D識別子906と、3D固有情報記述子を識別する3D固有情報識別子907と、前述した2D表示画像情報908、視差量調整情報909、3Dシーン時間情報910を含む構成となっている。
【0075】
続いて、図9のEITを作成する際のEIT作成手段201の動作について、図7のフローチャートを用いて説明する。
まず、どの番組の番組情報を作成してEITに格納するかを指定する(ステップS700)。例えば、全番組の番組情報の作成を指定したり、ある1つの番組のみの番組情報の作成を指定することができる。次に、作成する番組配列情報がEITであることを示すEIT識別子を作成し(ステップS701)、続いてEITのバージョン番号を含むEIT制御情報を作成する(ステップS702)。
【0076】
次に、番組毎に番組時間情報を含む番組情報を作成する(ステップS703)。次いで、番組が3Dコンテンツかどうかを判定し(ステップS704)、3Dコンテンツである場合は3D固有情報を格納する3D固有情報記述子を作成する(ステップS705)。ステップS700において指定された番組の番組情報が完成するまで以上の動作を繰り返し、完成するとEITの作成を終了する(ステップS706)。
【0077】
ここで、ステップS705の3D固有情報記述子の作成方法について、図8のフローチャートを用いて説明する。
まず、作成する記述子が3D固有情報記述子であることを示す3D識別子および3D固有情報識別子などを作成する(ステップS800)。次に、必須固有情報を作成する(ステップS801)。ここで、必須固有情報とは、3D固有情報記述子に必ず格納しなければならない情報を指す。例えば、前述の2D表示画像情報や視差量調整情報などが挙げられる。次に、前述の3Dシーン時間情報を作成する。まず、ビデオデータに2Dシーンが含まれるかを判定し(ステップS802)、2Dシーンを含んでいれば、3Dシーンの数だけ前述の3Dシーン時間情報を作成し(ステップS803)、2Dビデオデータを含んでいなければ、ビデオデータは3Dシーンのみで構成されているので、3Dシーン時間情報は作成しない。このようにして、3D固有情報記述子を作成する。
【0078】
次に、データ放送用データに含まれる3D画像に対応する3D固有情報の格納場所について説明する。
データ放送用データに含まれる3D画像に対応する3D固有情報は、DII(Download Information Indication)と呼ばれるデータ放送用データの制御情報が定義してあるテーブルに格納する。DIIの構成例を図10に示す。図10のDIIは、DIIを識別するDII識別子1000と、データ放送用データを構成するモジュールの制御情報を記述したモジュール情報1001、1003と、各モジュール情報の拡張情報が格納されている記述子1002、1004とを含む構成となっている。モジュール情報1001が、3D画像を含む、または3D画像を構成するモジュールに関するモジュール情報であるとすると、モジュール情報1001に続く記述子1002に前述の3D固有情報記述子を格納する。
【0079】
ここで、モジュール情報1001に対応するモジュールが複数のサブモジュールで構成され、各サブモジュールに3D画像が含まれているとすると、各サブモジュールの3D画像毎に3D固有情報記述子を作成し、記述子1002に格納する。この際、各サブモジュールの3D画像と3D固有情報記述子を関連付けるために、3D固有情報記述子を記述子1002に格納する順番を決めておいてもよいし、各3D画像を識別するインデックス情報を3D固有情報記述子に格納してもよい。なお、DIIはチャンネルの切り替えがどの時点で行われても対応できるように、放送データ中に繰り返し多重化されて送信される。また、データ放送用データに含まれる3D画像に対応する3D固有情報をEITに格納してもよい。
【0080】
以上説明したように、PMT作成手段200で作成された3D共通情報を含むPMTと、EIT作成手段201で作成された3D固有情報を含むEITと、PMTとEIT以外の番組配列情報は、多重化手段102でTSパケットに変換され、ビデオデータやオーディオデータなどのTSパケットと多重化される。多重化されたTSパケットは、伝送路符号化手段103で変調方式に従って符号化され、放送データとして送信される。
【0081】
なお、上記の実施形態では、3D共通情報をPMTに格納し、3D固有情報をEITに格納しているが、3D共通情報と3D固有情報をPMTもしくはEITにまとめて格納してもよし、PMTとEIT以外の番組配列情報に格納してもよい。その際、3D共通情報と3D固有情報をまとめて同じ記述子に格納してもよい。
【0082】
また、上記の実施形態では、3D共通情報と3D固有情報をPMTやEITなどの番組配列情報に格納して送信しているが、番組配列情報のようなテーブルを含む情報以外の情報に格納して送信してもよい。また、3D共通情報と3D固有情報をそれぞれ単独で送信してもよい。
【0083】
また、上記の実施形態では、3D共通情報記述子と3D固有情報記述子の先頭を3D識別子としているが、3D識別子は省略し、3D共通情報記述子の先頭を3D共通情報識別子、3D固有情報記述子の先頭を3D固有情報識別子としてもよい。
【0084】
次に、本発明の実施形態における放送データ受信装置について説明する。図15は本発明の実施形態における放送データ受信装置1500の構成例を示すブロック図である。放送データ受信装置1500は、放送データを入力とし、入力された放送データをTSパケットデータに復号する伝送路復号手段1501と、TSパケットデータを分離する分離手段1502と、番組配列情報解析手段1503と、3D表示の制御を行う3D制御手段1504と、ビデオデータを復号するビデオ復号手段1505と、データ放送用データを処理するデータ処理手段1506と、オーディオデータを復号するオーディオ復号手段1507と、ビデオ復号手段1505とデータ処理手段1506の出力を合成する合成手段1508とを含んで構成される。
【0085】
なお、図には示さないが、伝送路復号手段1501の先にはチューナが接続されており、チューナから受信した放送データが入力される。また、合成手段1508の先には画面データを表示するための表示装置が接続される。この際の表示装置は、入力された画面データを、外部の入力によって2D表示を行うか、もしくは、3D表示を行うかを切り替えることのできる表示装置とする。また、表示装置は2D/3D切り替えのために、3D制御手段1504と接続してもよい。また、オーディオ復号手段1507の先にはスピーカ等が接続される。
【0086】
以上のように構成された放送データ受信装置1500について、その動作を説明する。伝送路復号手段1501には、チューナにより受信された放送データが入力される。
伝送路復号手段1501は、入力された放送データに対して、デジタル復調や誤り訂正を施してTSパケットデータを得る。
【0087】
分離手段1502はTSパケットデータに付けられたPIDを参照し、必要なTSパケットデータを選択する。不必要なTSパケットデータは廃棄する。PIDはビデオデータ、オーディオデータ、データ放送用データごとに一意に割り当てられ、1つのビデオデータを構成するデータを含むTSパケットデータには、同一のPIDが付される。前述のPMTやEITにも一意のPIDが付されている。分離手段1502はPIDをもとに、目的とするPMTまたはEITを含むTSパケットデータをサーチし、TSパケットデータを番組配列情報解析手段1503に出力する。
【0088】
番組配列情報解析手段1503は、分離手段1502から入力されたPMTを解析し、番組を構成するビデオデータ、オーディオデータ、データ放送用データのPIDを得て、分離手段1502に出力する。PMTに3D共通情報記述子が含まれている場合には、解析した結果として得られる3D共通情報を3D制御手段1504に出力する。
【0089】
同様に、分離手段1502から入力されたEITを解析し、番組情報を得る。EITに3D固有情報記述子が含まれている場合には、解析した結果として得られる3D固有情報を3D制御手段1504に出力する。
【0090】
3D制御手段1504は、表示装置において3D表示ができるように、3D画像制御情報に基づいて表示画面の制御を行う。また、3D画像制御情報の有無等により、表示装置に対する表示モードの指定を決定する。これらの動作については後述する。
【0091】
PMTやEITは一定の周期で継続して送信されるため、3D画像制御情報が、繰り返し3D制御手段1504に入力される。3D制御手段1504は、入力された3D画像制御情報を保持しておき、新たに番組情報解析手段1503から3D画像制御情報が入力された場合には、保持している3D画像制御情報と、入力された3D画像制御情報とを比較する。この結果、3D画像制御情報が更新されていれば、保持している3D画像制御情報を入力された3D画像制御情報に置き換える。3D画像制御情報の一部の情報が更新されている場合には、その情報のみを更新する。以上の動作を、3D制御手段1504における更新動作と呼ぶ。
【0092】
分離手段1502は、番組配列情報解析手段1503から入力されたPIDを基に、目的とするビデオデータ、オーディオデータ、データ放送用データを含んだTSパケットデータをサーチし、それぞれビデオ復号手段1505、オーディオ復号手段1507、データ処理手段1506に出力する。
ビデオ復号手段1505は、入力されたビデオデータを復号する。復号後のビデオデータは合成手段1508に出力される。
【0093】
データ処理手段1506は、データ放送用データを処理し、文字や図形、静止画データなどを得る。文字や図形、静止画データは合成手段1506に出力される。なお、図15には図示しないが、データ処理手段1506と3D制御手段1504は接続されており、データ放送用データの制御情報であるDIIに3D固有情報が格納されている場合には、データ処理手段1506によりDIIから読み取られた3D固有情報が、3D制御手段1504に対して出力される。3D制御手段1504は、この3D固有情報に基づいてデータ放送用データの表示制御を行う。
【0094】
オーディオ復号手段1507は入力されたオーディオデータを復号する。復号後のオーディオデータはスピーカ等に出力される。
合成手段1508は、ビデオデータ、静止画データおよび文字や図形を表示するための表示用画面を複数持っており、必要に応じてそれぞれを重ね合わせて1つの画面を合成し、画面データを画面の表示方式に合わせて変換し、表示装置に対して出力する。
【0095】
ここで、画面の表示形式とは、表示装置により規定されるビデオの構造に関する形式である。例えば、表示装置がフィールドシーケンシャル方式の場合、入力として想定されているのは、図25に示すような左眼画像と右眼画像が垂直方向に1画素おきに交互に並べられた形式である。また、表示装置がパララクスバリア方式の場合には、図26(B)に示すような左眼画像と右眼画像が水平方向に1画素おきに交互に並べられた形式が、入力として想定されている。
【0096】
次に、3D制御手段1504の動作について説明する。3D制御手段1504は、番組配列情報解析手段1503から入力された3D画像制御情報を参照することで、ビデオデータや静止画データの構造に関する形式を知ることができる。以下の説明では、ビデオデータについて述べるが、静止画データや図形や文字に関しても同様の制御を行う。
【0097】
まずはじめに、受信するビデオデータに3Dシーンが含まれるかどうかの判定を行う。番組配列情報解析手段1503から3D共通情報が入力されない場合には、受信するビデオデータには3Dシーンが含まれないと判定する。3D共通情報が入力される場合には、受信したビデオデータには3Dシーンが含まれると判定する。ビデオデータに3Dシーンが含まれる場合、ビデオデータは2Dシーンと3Dシーンが混在している可能性があるため、3D固有情報に含まれる3Dシーン時間情報の内容により、以下のように判定する。
【0098】
3D制御手段1504は、その内部に時間を管理するためのタイマーを備えている。タイマーの示す時刻が、前述の3Dシーン時間情報により指定された3Dシーンの放送時間帯であれば、3Dシーンであると判定し、それ以外の場合には2Dシーンであると判定する。この際、3Dシーン時間情報をもとに、番組表中に3Dシーンの時間帯を表示してもよい。
【0099】
2Dシーンの場合、3D制御手段1504は、合成手段1508に対して入力されたビデオデータをそのままの形式で合成し、表示するように制御する。また、表示モードを2Dとする。
【0100】
一方、3Dシーンの場合には、前述したように画像多重方式情報により統合方式、時分割方式、マルチストリーム方式のいずれかが指定される。また、例えば画像多重方式情報が統合方式を示す場合には、さらに画像配置情報と、画像縮小情報が指定されている。
【0101】
また、3Dシーンの場合、強制2Dフラグ情報をもとに3Dシーンのビデオデータの表示制御を行ってもよい。強制2Dフラグ情報が1の場合、3Dシーンのビデオデータから、2D表示画像情報で指定される視点のビデオデータを選択し、画素アスペクト比が1:1となるように、拡大または縮小処理を行うように合成手段1508の表示制御を行う。ここで、2D表示画像情報で指定される視点のフレームを選択しているが、受信装置であらかじめ決められた視点のフレームを選択してもよいし、ユーザが自由に選択できるようにしてもよい。2D表示画像情報で指定されない場合も同様である。3D制御手段1504は、表示モードを2Dとする。
【0102】
一方、強制2Dフラグ情報が0の場合、3D表示するように合成手段1508に対して表示制御を行い、表示モードを3Dとする。例えば画像多重方式情報が統合方式を示し、画像配置情報が横並びを示す場合には、ビデオデータとして入力される画像フレームは図13で示した形態となっている。したがって、表示装置がパララクスバリア方式であるならば、画像フレームを図26(B)で示す形式に変換するように合成手段1508を制御する。
【0103】
なお、3D制御手段1504は、内部に保持した3D画像制御情報に基づいて合成手段1508に対する表示制御を行うが、新たに3D画像制御情報が入力された場合には、該3D画像制御情報の3Dシーン時間情報をチェックし、現在の時刻から3Dシーンの開始時刻までの時間が所定の時間より短い場合には、前述の更新動作を後まわしにして、直ちに該3D画像制御情報に基づいて合成手段1508に対する表示制御を行うようにしてもよい。
【0104】
また、3Dシーンの場合、視差量調整情報を用いて表示装置の表示面から3D画像が飛び出して見える量を調整してもよい。飛び出し量について、図16を用いて説明する。図16において、左眼画像の画素L1は表示位置1601に表示され、右眼画像の対応する画素R1は表示位置1602に表示される。これらの画素は位置1603に結像する。
【0105】
ここで、右眼画像の画素R1の表示位置を左に移動して表示位置1602から表示位置1604に変更すると、位置1603に像を結んでいた画像が位置1605に見えるようになる。位置1605は位置1603と比べて手前にあるため、表示面から飛び出して見えるようになる。逆に画素R1を表示位置1602よりも右に移動させると、位置1603に像を結んでいた画像が表示面よりも奥に見えるようになる。ここで、画素R1を画素L1の対応点と呼ぶ。
【0106】
このように視差量調整情報により指定された飛び出し量を実現するために、3D制御手段1504は左右いずれかの画像を、水平方向に所定の画素数だけシフトさせるように、合成手段1508に対して制御情報を出力する。
【0107】
図17は右眼画像を左にシフトした場合を示す図である。図17(A)はシフト前の状態を示しており、表示画面の全域が3D表示されている。図17(B)はシフト後の状態を示しており、右眼画像をシフトさせた結果、右眼画像のうち点線で示した領域1701が表示画面の外にでるため画像全体は表示できなくなる。
【0108】
図18はこのときの表示例を示す図である。図18(A)はシフトすることにより表示画面の外に出てしまった右眼画像(ここでは図17で示した領域1701のことである)を表示せず、左眼画像のうち右眼画像との対応点がなくなった領域を2D表示する場合である。図18(B)は反対に右眼画像を残して左眼画像を表示しない場合を示しており、図18(A)と同様に右眼画像のうち左眼画像との対応点のなくなった領域を2D表示している。図18(C)は対応点のある領域のみを3D表示した場合を示している。
【0109】
なお、視差量調整情報は、放送データ受信装置1500において予め決められた設定を用いてもよいし、ユーザ指定により変更できるようにしてもよい。
以上のような動作で、3D制御手段1504は受信したビデオデータに対する処理を行う。
【0110】
上記の例では、合成手段1508に接続される表示装置を、入力された画面データに対して、外部の指示によって2D表示を行うか、もしくは、3D表示を行うかを切り替えて表示することのできる表示装置としたが、この表示装置を2D表示のみが可能な表示装置としてもよい。この場合、前述の説明と同様に、表示装置を3D制御手段1504と接続して、入力された画面データが3D表示用のデータである場合は、入力された画面データのかわりに前の画面データを保持したり、特定の画面データを表示するなどして、3D表示用の画面データは表示しないようにしてもよい。
【0111】
また、3D表示用の画面データをそのまま2D表示してもよい。
また、合成手段1508と表示装置の間に、3D表示用の画面データから2D表示用の画面データを変換する変換手段を設けて、2D表示用の画面データを作成し、その画面データを2D表示するようにしてもよい。
【0112】
また、3D表示用の画面データを2D表示のみが可能な表示装置で表示する場合、現在表示している画面データが3D表示用の画面データであることを観察者に伝えるための、ブザー、発光灯などの光源、警告メッセージなどの伝達手段を設けてもよい。その際、画面データを表示しない場合は画面データが不適切なため表示できない旨を通知したり、3D表示用の画面データをそのまま2D表示する場合は3D表示用の画面データをそのまま表示する旨を通知したり、変換手段による変換を行って表示する場合は変換して表示する旨を通知したりするような通知手段を設けてもよい。
また、3D表示のみが可能な表示装置に2D表示用のデータが入力された場合も同様の動作を行う。
【0113】
以上のように、表示装置に不適切な表示方法の画像データから構成されている放送データを受信した際であっても、適切な画面データに変換して表示したり、不適切である旨を観察者に伝えて表示を行ったり、画面データ自体を非表示にすることができる。
【0114】
また、番組配列情報解析手段1503において解析した画像多重方式情報が、放送データ受信装置が対応していない画像多重方式情報であった場合、番組配列情報解析手段1503が受信したビデオデータを表示できないことを示す情報を3D制御手段1504に送り、その情報に従って3D制御手段1504が前記のように表示を行わないように表示装置を制御してもよい。
【0115】
また、非対応の画像多重方式の種類を表示してもよい。
また、上記の例では、3D画像を含む、または3D画像を構成するビデオデータを受信した場合の動作を説明したが、3D画像を含む、または3D画像を構成するデータ放送用データを受信した場合にも同様の動作を行う。
【0116】
また、上記の実施形態は、放送データ送信装置においてPMTおよびEITに3D画像制御情報を格納し、放送データ受信装置において3D画像制御情報の有無とその内容により、2Dビデオデータと3Dビデオデータの判定を行っているが、2Dビデオデータと3Dビデオデータの種別を示すフラグ情報をビデオデータに付加してもよい。
【0117】
ビデオデータをTSパケットにする際は、符号化により得られるビット列を所定の処理単位で分割してPES(Packetized Elementary Stream)パケットに格納し、さらに前記パケットを所定のサイズのTSパケットに分割する。したがって、フラグ情報をPESパケットのヘッダ部や、TSパケットのヘッダ部に記録してもよいし、符号化後のビット列の所定位置に格納するようにしてもよい。例えばMPEG−4の場合には、VOL(Video Object Layer)内のユーザデータに格納する。
【0118】
<第2の実施形態>
次に、本発明における第2の実施形態の放送データ送信装置と放送データ受信装置について説明する。
【0119】
本発明における第2の実施形態の放送データ送信装置は、1つのPMTの中で、2Dシーンのみで構成されるビデオデータのPIDと、3Dシーンのみで構成されるビデオデータのPIDを別々に定義するというように、種別の違うビデオデータのPIDを定義したPMTを含む放送データを作成し、送信する放送データ送信装置である。
【0120】
また、本発明における第2の実施形態の放送データ受信装置は、上記の放送データを受信する放送データ受信装置である。放送データを上記のような構成にすると、PIDの違いから、受信したビデオデータが2Dシーンのみで構成されるビデオデータなのか、3Dシーンのみで構成されるビデオデータなのかを区別することが出来る。
【0121】
以下に、本実施形態の放送データ送信装置と放送データ受信装置について詳細に説明する。
まず、本実施形態による放送データ送信装置について、図面を参照して説明する。
【0122】
本実施形態による放送データ送信装置の構成は、図1及び図2で説明した第1の実施形態の放送データ送信装置と同じであり、相違点は、図2のPMT作成手段200における、ビデオデータのストリーム情報の作成部分のみである。
【0123】
前述の第1の実施形態による放送データ送信装置では、1つのビデオデータに2Dシーンと3Dシーンが混在している例を説明したが、本実施形態の放送データ送信装置では、2Dシーンのみで構成されるビデオデータと、3Dシーンのみで構成されるビデオデータを作成し、PMT内でこれらのビデオデータの種別ごとにPIDを定義する。以下の説明では、2Dシーンのみで構成されるビデオデータを2Dビデオデータ、3Dシーンのみで構成されるビデオデータを3Dビデオデータとする。
【0124】
また、図1の多重化手段102において、ビデオデータとオーディオデータとデータ放送用データとを多重化する際に、番組配列情報作成手段101で作成されたPMTにおけるPIDの定義と対応させて、TSパケットデータを作成する。
【0125】
次に、本実施形態の放送データ受信装置において、図2のPMT作成手段200で作成されるPMTにについて詳細に説明する。本実施形態では、図5(A)の記載のストリーム情報と記述子を合わせたものをPID定義情報とする。
まず、2DビデオデータのPID定義情報について図面を用いて詳細に説明する。
【0126】
図19は、2DビデオデータのPID定義情報を含むPMTの構造の一例を示す図である。
PMT1900はPID定義情報1901を含んでおり、このPID定義情報1901がどのような種別のデータであるか示すストリームタイプと、PIDを含む構成となっている。ストリームタイプの定義の例として、「MPEG−4圧縮符号化を用いたビデオデータ」や、「MPEG−2AAC符号化によるオーディオデータ」や、「データ放送用データ」などがある。
【0127】
ここで、例えばPID定義情報1901のストリームタイプが「MPEG−4圧縮符号化を用いたビデオデータ」、PIDが「0x01」であるとすると、PIDの値が「0x01」のデータはすべて、2Dシーンのみで構成されるMPEG−4圧縮符号化を用いたビデオデータとなる。
【0128】
一方、図20は、前述の画像多重方式が統合方式または時分割方式である場合における、3DビデオデータのPID定義情報を含むPMTの構造の一例を示す図である。
【0129】
PMT2000はPID定義情報2001を含んでおり、このPID定義情報2001は、ストリームタイプおよびPIDと、このPID定義情報が3Dビデオデータ用のPID定義情報であることを示す3D共通情報記述子2002を含む。3D共通情報記述子2002は図5(B)で示した3D共通情報記述子と同様のものであり、3D共通情報記述子2002に含まれる画像多重方式情報は、統合方式または時分割方式を示すものとする。
【0130】
ここで例えば、PID定義情報2001のストリームタイプが「MPEG−4圧縮符号化を用いたビデオデータ」、PIDが「0x02」と記述されているとすると、PIDの値が「0x02」のデータはすべて、3Dシーンのみで構成されるMPEG−4圧縮符号化を用いたビデオデータとなる。
【0131】
上記で説明した2Dビデオデータに対するPID定義情報と、3Dビデオデータに対するPID定義情報は、同一のPMT内に格納することができる。この場合、複数のビデオデータに対するPID定義情報がPMT内で存在することになるが、3D共通情報記述子2002の有無により、3Dビデオデータに対するPID定義情報と2Dビデオデータに対するPID定義情報の区別が可能である。
【0132】
つまり、PID定義情報内に3D共通情報記述子2002が存在すれば、そのPID定義情報は3Dビデオデータに対応したPID定義情報であり、またPID定義情報内に3D共通情報記述子2002が存在しなければ、そのPID定義情報は2Dビデオデータに対応したPID定義情報であると判定することができる。
【0133】
次に、画像多重方式情報がマルチストリーム方式を示す場合のPID定義情報について説明する。
【0134】
画像多重方式情報がマルチストリーム方式である場合、放送データ内に複数のビデオデータのストリームが存在する。この場合、3Dビデオデータを復元するために複数のビデオデータのストリームが必要となる。よってPMT内において、3Dビデオデータに対するPID定義情報は、放送データ受信装置が3D表示するのに必要なビデオデータのストリームの数だけ必要となる。
【0135】
図21は、画像多重方式情報がマルチストリーム方式を示す場合の3DビデオデータのPID定義情報を含むPMTの構造の一例を示す図である。
PMT2100は、PID定義情報2101とPID定義情報2102を含んでおり、このPID定義情報2101は、ストリームタイプとPID、3D共通情報記述子2103を、PID定義情報2102は、ストリームタイプとPID、3D共通情報記述子2104を、それぞれ含んでいる。
【0136】
ここで、例えばPID定義情報2101において、ストリームタイプが「MPEG−4圧縮符号化を用いたビデオデータ」、PIDが「0x03」と記述されているとすると、PIDの値が「0x03」のデータはすべて3DシーンのMPEG−4圧縮符号化を用いたビデオデータとなり、また、PID定義情報2102において、ストリームタイプが「MPEG−4圧縮符号化を用いたビデオデータ」、PIDが「0x04」と記述されているとすると、PIDの値が「0x04」のデータも、すべて3Dシーンのみで構成されるMPEG−4圧縮符号化を用いたビデオデータとなる。
【0137】
3D共通情報記述子2103と3D共通情報記述子2104には、3D識別子と画像多重方式情報等がそれぞれ含まれている。ここで、3D共通情報記述子2103と3D共通情報記述子2104に含まれる画像多重方式情報は、両方ともマルチストリーム方式を示すものとする。
【0138】
以上のように、画像多重方式情報がマルチストリーム方式を示す場合は、3D画像を復元するのに必要なストリームの数だけ、PMT内でPID定義情報が定義される。
【0139】
また、マルチストリーム方式のように3D画像を構成するビデオデータのPID定義情報が複数存在する場合、放送データ受信装置が3D画像を3D表示するためには、各PID定義情報と対応するビデオデータがどの視点を示しているかを区別できるように、各ビデオデータがどの視点の画像であるかを示す視点位置情報が必要となる。
【0140】
例えば、3D共通情報記述子2103にはマルチストリーム方式固有の情報である付加情報2105を、3D共通情報記述子2104には同じくマルチストリーム方式固有の情報である付加情報2106を、それぞれ含むような構成にし、さらに、付加情報2105には視点位置情報2107を、付加情報2106には視点位置情報2108をそれぞれ含むような構成にする。
【0141】
上記のようにすると、画像多重方式がマルチストリーム方式であっても、3Dビデオデータに対するPID定義情報を定義することができる。
【0142】
以上で述べたような本実施形態による放送データ送信装置が放送データを送信する際の送信方法について、図22のフローチャートを用いて説明する。
【0143】
まず、ステップS2200において、放送データ送信装置に放送の開始を示す情報が入力され、放送データ送信装置は、放送データの作成及び送信を開始する。次に、ステップS2201において、放送データの作成に必要な、ビデオデータ、オーディオデータ、データ放送用データ、制御情報などが放送データ送信装置に入力される。次に、ステップS2202において、放送するチャンネルに3Dビデオデータを含むかどうかを判定する。3Dビデオデータを含まない場合はステップS2204に、3Dビデオデータを含む場合はステップS2203に処理が進む。
【0144】
ステップS2204において、放送データ送信装置は、入力されたビデオデータ、オーディオデータ、データ放送用データ、制御情報などを用いて、2Dビデオデータを含む放送データを作成し、作成したデータを送信した後、ステップS2207に処理が進む。
【0145】
一方、ステップS2203において、制御情報に含まれる画像多重方式情報から、画像多重方式がマルチストリーム方式か否かを判定する。マルチストリーム方式である場合はステップS2205に、そうでない場合はステップS2206に処理が進む。
【0146】
ステップS2205において、入力されたビデオデータ、オーディオデータ、データ放送用データ、制御情報などを用いて、複数のストリームから構成される3Dビデオデータを含む放送データを作成し、作成したデータを送信した後、ステップS2207に処理が進む。
【0147】
一方、ステップS2206において、入力されたビデオデータ、オーディオデータ、データ放送用データ、制御情報などを用いて、3Dビデオデータを含む放送データを作成し、作成したデータを送信した後、判定S2207に処理が進む。
【0148】
ステップS2207は、放送を継続するか否かを外部の入力から判定する。例えば、放送を終了したい場合にその旨を外部から入力する。放送を継続する場合は、ステップS2201に戻って放送データの作成および送信を引き続き行い、そうでない場合はステップS2208に処理が進む。ステップS2208では、放送データ送信装置は、放送データの作成と送信を止め、放送を終了する。
【0149】
以上のようにして、本実施形態の放送データ送信装置は放送データを作成し、作成した放送データを送信する。
【0150】
次に、第2の実施形態における放送データ受信装置について説明する。図15を用いて説明したように、第1の実施形態における放送データ受信装置は、3D制御手段1504において、3Dシーン時間情報と現在の時刻とを比較することにより、受信したビデオデータの2D表示と3D表示を切り替える例を説明したが、第2の実施形態における放送データ受信装置は、分離手段1502が受信したビデオデータが2Dビデオデータであるか、3Dビデオデータであるかを判定し、3Dビデオデータである場合には、3Dビデオデータを受信したことを示す情報を3D制御手段1504へ送る。
【0151】
つまり、番組配列情報解析手段1503は受信したPMTを解析し、PMTに記載されている2DビデオデータのPIDと、3DビデオデータのPIDを分離手段1502に送り、分離手段1502はそれらのPIDをもとに、受信したビデオデータが2Dビデオデータであるか、3Dビデオデータであるかを判定し、3Dビデオデータである場合には、3Dビデオデータを受信したことを示す情報を3D制御手段1504へ送る処理を行う判定手段を備える。
【0152】
また、この判定手段を3D制御手段1504が備えるような構成にしてもよい。例えば、番組配列情報解析手段1503は受信したPMTを解析し、PMTに記載されている2DビデオデータのPIDと、3DビデオデータのPIDを3D制御手段1504に送り、また、分離手段1502は受信したビデオデータのPIDを3D制御手段1504に送り、3D制御手段1504は受け取ったPIDが2Dビデオデータであるか、3Dビデオデータであるかを判定する。
【0153】
また、この判定手段を別途設けて、分離手段1502、番組配列情報解析手段1503、3D制御手段1504にそれぞれ接続し、番組配列情報解析手段1503と分離手段1502からの情報から、ビデオデータが3Dビデオデータであると判定した場合に、3D制御手段1504に3Dビデオデータが入力されたこと示す情報を伝送するような構成にしても構わない。
【0154】
図23は、受信した放送データのビデオデータのPIDから、受信したビデオデータの種別を判定する方法のフローチャート図である。
ステップS2300で、放送データ受信装置は、受信した放送データを読み込む。このとき受信した放送データのPMTが、番組配列情報解析手段1503に送られる。番組配列情報解析手段1503では、2DビデオデータのPIDと3DビデオデータのPIDの情報が解析され、それらのPIDは分離手段1502に送られる。分離手段1502は、受信した放送データに含まれるビデオデータのPIDにより、受信したビデオデータの種別が2Dビデオデータなのか3DビデオデータなのかをステップS2301で判定する。3Dビデオデータであると判定された場合のみ、3D制御手段1504へ受信したビデオデータが3Dビデオデータであることを示す情報を送り、放送データ受信装置は、第1の実施形態による放送データ受信装置と同様にして3D表示を行う。
【0155】
以上のように、本実施形態の放送データ受信装置は、3Dシーン時間情報は使用せず、受信した放送データのビデオデータのPIDから、受信したビデオデータの種別を判定することが可能である。
【0156】
次に、上記で説明した本発明における第2の実施形態による放送データ送信装置と、放送データ受信装置を用いて、1つの番組内に2Dビデオデータと3Dビデオデータが混在する場合におけるそれぞれの装置の動作について説明する。
【0157】
図24は、1つの番組内に2Dビデオデータと3Dビデオデータが混在する場合の放送データ送信装置と、放送データ受信装置の動作について説明するための図である。例えば、図24のように、横軸を時間tとして、2Dビデオデータと3Dビデオデータが混在する1つの番組(プログラムAとする)が放送されているとする。
【0158】
表1に図24の時間tにおける放送データ送信装置の動作と放送データ受信装置の動作を示す。
【0159】
【表1】
【0160】
例えば図24のように、プログラムAが時間t0から放送開始され、時間t3に放送終了されるとする。このプログラムAでは、時間t0から時間t1までの間は2Dビデオデータ、時間t1から時間t2までの間は3Dビデオデータ、時間t2から時間t3までの間は2Dビデオデータが放送されるものとする。
【0161】
放送データ送信装置は、時間t0から時間t1までの間と、時間t2から時間t3までの間は、ビデオデータとして2Dビデオデータを送信し、時間t1から時間t2までの間は、ビデオデータとして3Dビデオデータを送信する。
【0162】
一方、放送データ受信装置は、放送データ送信装置で送信された放送データを、時間t0'から時間t3'まで受信する。ここで、時間t0と時間t0'、時間t1と時間t1'、時間t2と時間t2'、時間t3と時間t3'は、それぞれほぼ同じ時間であり、その違いは放送データ送信装置が放送データを送信して放送データ受信装置が受信するまでのわずかな時間の違いでしかないものとする。
【0163】
放送データ受信装置は受信したビデオデータのPIDが、2DビデオデータのPIDであれば2D表示を行い(時間t0'から時間t1'までの間、及び、時間t2'から時間t3'までの間)、3DビデオデータのPIDであれば3D表示を行う(時間t1'から時間t2'までの間)。
【0164】
以上のように、本発明における第2の実施形態による放送データ送信装置は、2DビデオデータのPID定義情報と、3DビデオデータのPID定義情報をPMT内で別々に定義し、それらのPID定義情報に基づいて2Dビデオデータと3Dビデオデータで別のPIDを持つTSパケットを作成することにより、1つの番組内において2Dビデオデータと3Dビデオデータが混在した番組を放送することが出来る。
【0165】
また 本発明における第2の実施形態による放送データ受信装置は、受信したPMT内で定義されたビデオデータのPIDから、2DビデオデータのPIDと3DビデオデータのPIDを取得し、受信したビデオデータのTSパケットのPIDからビデオデータの種別を判定することにより、1つの番組内において2Dビデオデータと3Dビデオデータが混在した番組放送を受信することが出来る。
【0166】
またこの場合、3Dシーン時間情報が放送データ内に含まれていなくとも、1つの番組内において2Dビデオデータと3Dビデオデータが混在した番組を視聴することが出来るため、それらの3Dシーン時間情報を省略することによって放送データ内における番組配列情報の割合の削減が可能となる。
【0167】
また上記の例では、PIDを用いて放送データ受信装置が受信しているビデオデータの種別が2Dビデオデータなのか、3Dビデオデータなのかを判定する方法について説明したが、この場合でも、3Dシーン時間情報が放送データ内に含まれていて構わない。
【0168】
さらに、この場合、3Dシーン時間情報は、PMT内の3D共通情報に含まれていても、EIT内の3D固有情報に含まれていても構わない。
【0169】
また、受信したビデオデータの種別を判定する際、受信したビデオデータのPIDから判定する結果と、3Dシーン時間情報から判定する結果が異なる場合は、どちらか一方の情報を優先して用いてもよい。どちらの情報を優先して使うかは、予め端末に設定しておいてもよいし、途中でユーザが端末を操作して変更してもよい。
【0170】
また、本実施形態の放送データ送信装置では、2Dビデオデータと3Dビデオデータで別々のPIDを定義しているが、それに加えて、2Dビデオデータから3Dビデオデータへ、もしくは、3Dビデオデータから2Dビデオデータへ切り替わる時刻を示すビデオ切り替え時刻情報を、TSパケットのヘッダ部、PESパケットのヘッダ部、ビデオデータのヘッダ部などに挿入してもよい。
【0171】
また、放送データ受信装置は、PIDにより受信したが2Dビデオデータであるか3Dビデオデータであるかを区別し、かつ、ビデオ切り替え時刻情報により、ビデオデータの種別が切り替わる時刻を知ることが出来、事前に切り替えの準備を行うことが出来る。例えば、放送データ受信装置が、2Dビデオデータを受信している際に、受信中の2DビデオデータのTSパケットにビデオ切り替え時刻情報があった場合、次にビデオデータの種別が3Dビデオデータに切り替わる時刻を予め知ることが出来るため、観察者にビデオデータの種別が切り替わるまでの時間を通知することが出来る。
【0172】
【発明の効果】
以上説明したように、本発明によれば、3D画像を表示するために使用される3D画像制御情報を繰り返し送信することで、コンテンツの途中から受信した場合でも、適切に立体表示を行うことができるという有利な効果が得られる。
また、本発明によれば、頻繁に更新されない3D画像制御情報である3D共通情報を、番組配列情報を構成する記述子のうち、頻繁に更新されない記述子に格納することで、画像制御処理の簡素化を行うことができるという有利な効果が得られる。
【0173】
また、本発明によれば、チャンネル毎に異なる番組配列情報毎に、3D画像制御情報を格納するので、チャンネル毎に異なる3D画像の設定ができるという有利な効果が得られる。
【0174】
また、本発明によれば、頻繁に更新される3D画像制御情報である3D固有情報を、番組配列情報を構成する記述子のうち、頻繁に更新される記述子に格納することで、コンテンツ毎に3D画像の制御パラメータを変更することができるという有利な効果が得られる。
【0175】
また、本発明によれば、3D固有情報に3Dシーン時間情報を格納することで、3Dコンテンツ中の任意のシーンだけを3D表示するように指定できるという有利な効果が得られる。
【0176】
また、本発明によれば、3D固有情報に3Dシーン時間情報を格納することで、番組表中に3Dビデオデータの時間帯を表示することが可能となるという有利な効果が得られる。
【0177】
また、本発明によれば、2DビデオデータのPIDと、3DビデオデータのPIDをそれぞれPMT内で定義し、そのPIDを用いて、受信したビデオデータの種別を判定することにより、1つの番組内において2Dビデオデータと3Dビデオデータが混在した番組を放送することができるという有利な効果が得られる。
【0178】
また 本発明によれば、受信したPMTから、2DビデオデータのPIDと3DビデオデータのPIDを取得し、受信したビデオデータのTSパケットのPIDから受信したビデオデータの種別を判定することにより、1つの番組内において2Dビデオデータと3Dビデオデータが混在した番組放送を受信することができるという有利な効果が得られる。
【0179】
また、本発明によれば、ビデオデータのTSパケットのPIDによりビデオデータの種別を判定するので、3Dシーン時間情報が放送データ内に含まれていなくとも、1つの番組内において2Dビデオデータと3Dビデオデータが混在した番組を視聴することができ、また、3Dシーン時間情報を省略することによって放送データ内における番組配列情報の割合の削減が可能となるという有利な効果が得られる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における放送データ送信装置を示すブロック図である。
【図2】番組配列情報作成手段を示すブロック図である。
【図3】PMT作成手段の動作を示すフローチャートである。
【図4】3D共通情報記述子の作成方法を示すフローチャートである。
【図5】PMTと3D共有情報記述子の構成を示す概念図である。
【図6】3Dシーン時間情報を示す概念図である。
【図7】EIT作成手段の動作を示すフローチャートである。
【図8】3D固有情報記述子の作成方法を示すフローチャートである。
【図9】EITと3D固有情報記述子の構成を示す概念図である。
【図10】DIIの構成の一例を示す図である。
【図11】本実施形態における放送データ送信方法を示す概念図である。
【図12】デジタル放送の放送データ送信方法を示す概念図である。
【図13】3D画像の一例を示す概念図である。
【図14】画像多重方式を示す概念図である。
【図15】本発明の第1の実施形態における放送データ受信装置を示すブロック図である。
【図16】飛び出し量調整の原理を説明するための図である。
【図17】飛び出し量調整時の画像形式の変化を説明するための図である。
【図18】飛び出し量調整時の表示方法を説明するための図である。
【図19】2DビデオデータのPID定義情報を含むPMTの構造の一例を示す図である。
【図20】画像多重方式情報がマルチストリーム方式でない場合の3DビデオデータのPID定義情報を含むPMTの構造の一例を示す図である。
【図21】画像多重方式情報がマルチストリーム方式である場合の3DビデオデータのPID定義情報を含むPMTの構造の一例を示す図である。
【図22】本発明の第2の実施形態の放送データ送信装置の送信動作のフローチャート図である。
【図23】受信した放送データのビデオデータのPIDから、受信したビデオデータの種別を判定する方法のフローチャート図である。
【図24】1つの番組内で2Dシーンと3Dシーンが混在する場合の放送データ送信装置と放送データ受信装置の動作について説明するための図である。
【図25】フィールドシーケンシャル方式の表示方式を説明するための図である。
【図26】パララクスバリア方式の表示方式を説明するための図である。
【符号の説明】
100 放送データ送信装置
101 番組配列情報作成手段
102 多重化手段
103 伝送路符号化手段
200 PMT作成手段
201 EIT作成手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a digital broadcasting technique, and more particularly, to a broadcast data transmitting apparatus that transmits broadcast data including three-dimensional image data that can be stereoscopically viewed, and a broadcast data receiving apparatus that receives broadcast data including three-dimensional image data. Etc.
[0002]
[Prior art]
Conventionally, various methods for displaying a three-dimensional image have been proposed. Among them, what is generally used is a so-called binocular system that uses binocular parallax. That is, a left-eye image and a right-eye image having binocular parallax are prepared, and stereoscopic vision is performed by projecting them to the left and right eyes independently. A field sequential method and a parallax barrier method have been proposed as representative methods of the binocular system.
[0003]
FIG. 25 is a conceptual diagram for explaining the field sequential method. In this field sequential method, as shown in FIG. 25, the left eye image and the right eye image are alternately arranged every other pixel in the vertical direction, and the display of the left eye image and the display of the right eye image are alternately switched. Is displayed. The left-eye image and the right-eye image have a vertical resolution that is ½ that of normal two-dimensional display. The observer wears shutter-type glasses that open and close in synchronization with the display switching cycle. The shutter used here opens the left eye side and closes the right eye side when the left eye image is displayed, and closes the left eye side and opens the right eye side when the right eye image is displayed. By doing so, the left eye image is observed only by the left eye, and the right eye image is observed only by the right eye, and stereoscopic viewing can be performed.
[0004]
FIG. 26 is a conceptual diagram for explaining the parallax barrier method. FIG. 26A is a diagram illustrating the principle of generating parallax. On the other hand, FIG. 26B is a diagram showing a screen displayed by the parallax barrier method.
[0005]
In FIG. 26A, an image in which the left eye image and the right eye image as shown in FIG. 26B are alternately arranged every other pixel in the horizontal direction is displayed on the
[0006]
Since the image formats suitable for the display method are different, it is necessary to create a three-dimensional image according to each display format, and there is a problem that the three-dimensional image is not versatile.
[0007]
In order to solve such a problem, in Japanese Patent Laid-Open No. 2003-111101 (published on April 11, 2003), information to be referred to in a series of processes for displaying a stereoscopic image such as the configuration of the image and the number of viewpoints A stereoscopic image processing method, apparatus, and system that can make a stereoscopic image versatile by adding to the three-dimensional image data are disclosed.
[0008]
[Patent Document 1]
JP 2003-111101 A
[0009]
[Problems to be solved by the invention]
However, in Japanese Patent Laid-Open No. 2003-111101, since the information is arranged in the header area of image data, it is intended for data distribution using a communication line or recording to a file, and considers the case of broadcasting image data. However, it cannot be applied to image data broadcasting as it is.
[0010]
The present invention has been made in order to solve the above-described problems, and an object of the present invention is to provide a broadcast data transmitting apparatus capable of transmitting and receiving broadcast data including a three-dimensional image having versatility. An object of the present invention is to provide a broadcast data transmission method and a broadcast data receiving apparatus.
[0011]
[Means for Solving the Problems]
To achieve the above objective,A broadcast data transmitting apparatus for transmitting content including image data as broadcast data, comprising: program sequence information creating means for creating program sequence information used for reproducing the content, wherein the program sequence information is the
[0013]
Further, the present invention is a broadcast data transmitting apparatus for transmitting content including image data as broadcast data, comprising program sequence information creating means for creating program sequence information used for reproducing the content, The program sequence information includes 3D control information for controlling the display of the 3D image data included in the content, and the program sequence information creating means is a viewpoint image selected when the 3D image data is displayed in 2D. Is stored in the three-dimensional control information.
[0014]
Further, the present invention is a broadcast data transmission method for transmitting content including image data as broadcast data, comprising a program sequence information creation step for creating program sequence information used for reproducing the content, The program arrangement information includes three-dimensional control information for controlling display of the three-dimensional image data included in the content, and the program arrangement information creating step includes information indicating a reproduction time zone of the three-dimensional image data. It is stored in information.
[0016]
Further, the present invention is a broadcast data transmission method for transmitting content including image data as broadcast data, comprising a program sequence information creation step for creating program sequence information used for reproducing the content, The program arrangement information includes three-dimensional control information for controlling display of the three-dimensional image data included in the content, and the program arrangement information creation step includes a viewpoint image selected when the three-dimensional image data is two-dimensionally displayed. Is stored in the three-dimensional control information.
[0017]
Further, the present invention is a broadcast data receiving apparatus for receiving broadcast data, wherein program sequence information analyzing means for analyzing control information for content included in the broadcast data, and whether input image data is displayed in two dimensions Or display means capable of switching between three-dimensional display by external input and display control means for controlling the display means, wherein the program arrangement information is a three-dimensional image included in
[0018]
The present invention is also a broadcast data receiving apparatus for receiving broadcast data, wherein the program arrangement information analyzing means for analyzing the control information for the content included in the broadcast data, and the display for displaying the input image data in two dimensions And display control means for controlling the display means, wherein the program arrangement information includes three-dimensional control information for controlling display of three-dimensional image data included in broadcast data, and the three-dimensional control information is The program sequence information analyzing means includes identifier information defining an identifier indicating that the received image data included in the received broadcast data is 2D image data and an identifier indicating that the received image data is 3D image data, respectively. The three-dimensional control information is sent to the display control means by analyzing the program arrangement information, and the display control means receives the inputted three-dimensional control. The display means is controlled according to the information, and it is determined from the identifier information and the identifier of the received image data whether the received image data is two-dimensional image data or three-dimensional image data. The display means controls the display so as to display, and if it is three-dimensional image data, it is a display control means for notifying the observer that it cannot be displayed or cannot be displayed correctly.
[0019]
The present invention is also a broadcast data receiving apparatus for receiving broadcast data, wherein the program arrangement information analyzing means for analyzing the control information for the content included in the broadcast data, and the display for displaying the input image data in two dimensions And display control means for controlling the display means, wherein the program arrangement information includes three-dimensional control information for controlling display of three-dimensional image data included in broadcast data, and the three-dimensional control information is ,
[0038]
DETAILED DESCRIPTION OF THE INVENTION
Before describing embodiments of the present invention, terms used in this specification are defined as follows.
[0039]
Broadcast data is a general term for data transmitted from a broadcasting station, and includes broadcasts transmitted via radio or wire, Internet streaming broadcasts, and the like.
Content generally has the same meaning as a broadcast program, but here is a collection of data including at least one of video data, audio data, and data broadcasting data. The broadcast data includes a plurality of contents.
[0040]
The program arrangement information is information for managing what kind of content is included in the broadcast data, and is information indicating the contents of a plurality of contents.
[0041]
Program sequence information includes PMT (Program Map Table) and EIT (Event Information Table).
[0042]
PMT is program arrangement information that includes stream information such as PID (Packet ID) for separating video data, audio data, and the like constituting a channel from broadcast data, and is common to contents in the same channel. Since the PMT is program arrangement information common to contents in the same channel, it is characterized in that it is not frequently updated.
[0043]
The EIT is program arrangement information including program information such as program time information indicating a broadcast time zone of each content included in a channel, and including one or more pieces of unique information different for each content. Since the EIT is unique information that is different for each content, the EIT is frequently updated.
[0044]
The program arrangement information is repeatedly multiplexed and transmitted in the broadcast data as shown in FIG. 12 so as to be able to cope with any channel switching in the receiver.
[0045]
A 3D image is an image configured by a set of a plurality of images having parallax. FIG. 13 shows an example of a 3D image. The 3D image in this example is a 3D image in which images corresponding to two viewpoints of a left eye image and a right eye image are arranged side by side.
The 3D image control information is information such as two viewpoints indicating the characteristics of the 3D image and side-by-side information and information used when controlling the display of the 3D image.
The 3D display is to display a viewpoint image in which the left eye and the right eye of the observer are different using a plurality of viewpoint images so that the image can be observed. On the other hand, 2D display is to display so that the left and right eyes of the observer can observe the same image.
[0046]
The 3D content is content including video data or data broadcasting data including 3D images in the content.
[0047]
The image multiplexing method is information indicating how the viewpoint images constituting the 3D image are arranged. In the present embodiment, three methods of an integration method, a time division method, and a multi-stream method are used as image multiplexing methods. Here, the image multiplexing method will be described with reference to FIG. FIG. 14 is a schematic diagram for explaining an image multiplexing method in the case of two viewpoints. As shown in FIG. 14A, the video data of each viewpoint used for image multiplexing of 3D images is composed of a plurality of frames, and is an independent series.
[0048]
As shown in FIG. 14B, the integration method is a method in which each viewpoint image is transmitted adjacent to each frame. As shown in FIG. 14C, the time division method is a method in which a left eye image and a right eye image are alternately switched and transmitted in a frame cycle. The frame of the right eye image transmitted here is the same time as the frame of the left eye image transmitted earlier. In this example, the left eye image is transmitted first, but the right eye image may be transmitted first. The multi-stream method is a method for transmitting the video data of the left eye image and the right eye image shown in FIG. 14A as separate data strings.
If the scanning method is interlaced, the above frame may be replaced with a field.
Each image multiplexing method can be applied even when the number of viewpoints is three or more.
[0049]
<First Embodiment>
A first embodiment of the present invention will be described. When transmitting 3D content, the transmission apparatus according to the first embodiment stores 3D image control information of a 3D image included in the 3D content in program arrangement information and transmits the 3D image control information. At that time, as shown in FIG. 11, among the 3D image control information, information that is common to 3D content included in the same channel and is not frequently updated (hereinafter referred to as 3D common information) is stored in the PMT, Information that is unique to each 3D content and frequently updated (hereinafter referred to as 3D unique information) is stored in the EIT, multiplexed with the 3D content, and repeatedly transmitted. The PMT and EIT may be transmitted at certain intervals, for example, at a rate of about once per second. For example, when transmitting a key frame of video data, the PMT or EIT may be transmitted. It may be transmitted in synchronization with the type of frame constituting the video data to be transmitted. Details of the 3D common information and the 3D unique information will be described later. In addition, the receiving apparatus according to the present embodiment performs stereoscopic display of a 3D image based on 3D common information and 3D unique information stored in the program arrangement information.
[0050]
First, details of the broadcast data transmitting apparatus according to the present embodiment will be described. FIG. 1 is a block diagram showing a configuration example of a broadcast data transmitting apparatus according to the present embodiment. As shown in FIG. 1, the broadcast
[0051]
The program sequence
[0052]
The
The transmission path encoding means 103 encodes the TS packet according to a predetermined modulation method and transmits it as broadcast data.
[0053]
Here, the details of the program arrangement
[0054]
First, the PMT creation means 200 will be described. Stream information including a PID for separating a stream such as video data and audio data constituting a channel from broadcast data is input to the PMT creation means 200. When the stream information includes 3D images or is stream information related to video data constituting the 3D images, 3D common information is input in addition to the stream information. The 3D common information is information common to 3D contents included in the same channel in the 3D image control information. Examples of information included in the 3D common information include viewpoint number information, image multiplexing method information, forced 2D flag information, and the like.
[0055]
The viewpoint number information is information indicating the number of viewpoints of the images constituting the 3D image.
The image multiplexing method information is information indicating the above-described image multiplexing method.
The forced 2D flag information is information for forcibly displaying
[0056]
Next, a configuration example of the PMT created by the PMT creation means 200 is shown in FIG.
The PMT in FIG. 5A includes a
[0057]
In FIG. 5A, when the
[0058]
FIG. 5B shows a configuration example of the 3D common information descriptor. The 3D common information descriptor includes a
[0059]
Next, the operation of the PMT creation means 200 when creating the PMT of FIG. 5 will be described using the flowchart of FIG.
First, a PMT identifier indicating that the program arrangement information to be created is a PMT is created (step S300), and then PMT control information including a PMT version number is created (step S301). Next, stream information including PID is created for each stream of video data, audio data, and the like constituting the content (step S302). Next, it is determined whether or not the stream is video data (step S303). If it is video data, a 3D common information descriptor for storing 3D common information is created (step S304). The above operation is repeated until all the stream information is completed. When all the stream information is completed, the creation of the PMT is ended (step S305). When the image multiplexing method is multi-stream, stream information and a 3D common information descriptor are created for each video data constituting the 3D image.
[0060]
Here, the method of creating the 3D common information descriptor in step S304 will be described with reference to the flowchart of FIG. First, a 3D identifier and a 3D common information identifier indicating that the descriptor to be created is a 3D common information descriptor are created (step S400). Next, essential common information is created (step S401). The essential common information refers to information that must be stored in the 3D common information descriptor. For example, the number of viewpoints described above, image multiplexing method information, forced 2D flag information, and the like can be given.
[0061]
Next, additional information of essential common information is created. The additional information of the essential common information is extended information of the essential common information, and is information that varies depending on the value of the essential common information. As an example of creating additional information of essential common information, an example of creating different additional information for each image multiplexing method information will be given.
[0062]
First, it is determined whether the image multiplexing method is an integrated method (step S402). If it is the integration method, additional information specific to the integration method is created (step S403). Examples of additional information specific to the integration method include image arrangement information indicating whether the arrangement of viewpoint images in a frame is horizontal or vertical, and image reduction information indicating the reduction ratio of each viewpoint image in the frame.
[0063]
If the image multiplexing method is not an integrated method, it is determined whether or not it is a time division method (step S404). If the time division method is used, additional information specific to the time division method is created (step S405). As an example of additional information specific to the time division method, for example, in the case of two viewpoints, viewpoint / frame correspondence information indicating which frame corresponds to the left-eye image or the right-eye image can be given.
[0064]
If the image multiplexing method is not the time division method, it is a multi-stream method, so additional information specific to the multi-stream method is created (step S406). As an example of the additional information specific to the multi-stream method, viewpoint position information indicating which viewpoint each video data associated with the 3D common information corresponds to is given. In this way, the 3D common information descriptor is created.
[0065]
The above example describes the case where the 3D common information descriptor is included in the PMT included in all the channels. However, in the channel not including the 3D content, the 3D common information descriptor is not included in the PMT. May be selected.
[0066]
In the above example, the 3D common information descriptor is added when the stream information includes the 3D image or is the stream information related to the video data constituting the 3D image. A 3D common information descriptor may be added even when the stream information is for data broadcasting data that includes or constitutes a 3D image.
[0067]
In addition, only 3D content whose image multiplexing method is an integrated method is transmitted to a certain channel, and only 3D content whose image multiplexing method is a time division method is transmitted to another channel. You may transmit 3D content of a different image multiplexing system.
[0068]
Next, the
[0069]
The 2D display image information is information indicating an image of a viewpoint to be selected when the 3D image is displayed in 2D by the receiving device.
Further, the parallax amount adjustment information is information indicating an adjustment value of the degree of popping out when a 3D image is stereoscopically displayed.
[0070]
The 3D scene time information is information for designating the time zone of the 3D scene when the video data is composed of a 3D scene and a 2D scene. As shown in FIG. 6, the 3D scene time information includes a 3D scene start time indicating the time when the 3D scene data starts, and a 3D scene duration time indicating the duration of the 3D scene from the 3D scene start time. Yes. When a plurality of 3D scenes are included in the video data, the 3D scene start time and 3D scene duration time are stored for the number of 3D scenes.
[0071]
Further, the number of 3D scenes included in the video data may be stored in the 3D scene time information. Further, instead of the 3D scene duration, a 3D scene end time indicating a time at which the 3D scene ends may be used. Further, when the video data does not include 2D video data and is composed of only 3D scenes, there is no need for 3D scene time information. In addition, a flag indicating whether or not 3D scene time information is included may be stored in the 3D unique information. Also, instead of the 3D scene time information, 2D scene time information including a 2D scene start time indicating the time when the 2D scene starts and a 2D scene duration time indicating the time that the 2D scene continues from the 2D scene start time is used. Also good.
[0072]
Next, a configuration example of the EIT created by the
[0073]
In FIG. 9A, assuming that the
[0074]
FIG. 9B shows the configuration of the 3D unique information descriptor. The 3D unique information descriptor includes a
[0075]
Next, the operation of the
First, it is specified which program information to create and store in the EIT (step S700). For example, creation of program information for all programs can be designated, or creation of program information for only one program can be designated. Next, an EIT identifier indicating that the program arrangement information to be created is EIT is created (step S701), and then EIT control information including the EIT version number is created (step S702).
[0076]
Next, program information including program time information is created for each program (step S703). Next, it is determined whether or not the program is 3D content (step S704). If the program is 3D content, a 3D unique information descriptor for storing 3D unique information is created (step S705). The above operation is repeated until the program information of the program specified in step S700 is completed. When the program information is completed, creation of the EIT is terminated (step S706).
[0077]
Here, the method of creating the 3D unique information descriptor in step S705 will be described with reference to the flowchart of FIG.
First, a 3D identifier indicating that the descriptor to be created is a 3D unique information descriptor, a 3D unique information identifier, and the like are created (step S800). Next, essential unique information is created (step S801). Here, the essential unique information refers to information that must be stored in the 3D unique information descriptor. For example, the 2D display image information and the parallax amount adjustment information described above can be used. Next, the aforementioned 3D scene time information is created. First, it is determined whether the 2D scene is included in the video data (step S802). If the 2D scene is included, the 3D scene time information described above is created for the number of 3D scenes (step S803). If not included, the video data is composed only of 3D scenes, so 3D scene time information is not created. In this way, the 3D unique information descriptor is created.
[0078]
Next, the storage location of 3D unique information corresponding to the 3D image included in the data broadcasting data will be described.
The 3D unique information corresponding to the 3D image included in the data broadcasting data is stored in a table in which data broadcasting data control information called DII (Download Information Indication) is defined. An example of the configuration of DII is shown in FIG. The DII in FIG. 10 includes a
[0079]
Here, if the module corresponding to the
[0080]
As described above, the PMT including the 3D common information created by the
[0081]
In the above embodiment, the 3D common information is stored in the PMT and the 3D unique information is stored in the EIT. However, the 3D common information and the 3D unique information may be stored together in the PMT or EIT. And program arrangement information other than EIT may be stored. At that time, the 3D common information and the 3D unique information may be stored together in the same descriptor.
[0082]
In the above embodiment, 3D common information and 3D unique information are stored and transmitted in program arrangement information such as PMT and EIT. However, the information is stored in information other than information including a table such as program arrangement information. May be transmitted. Moreover, you may transmit 3D common information and 3D specific information each independently.
[0083]
In the above embodiment, the 3D common information descriptor and the 3D unique information descriptor start with the 3D identifier, but the 3D identifier is omitted, and the 3D common information descriptor starts with the 3D common information identifier and 3D unique information. The head of the descriptor may be a 3D unique information identifier.
[0084]
Next, the broadcast data receiving apparatus in the embodiment of the present invention will be described. FIG. 15 is a block diagram showing a configuration example of a broadcast
[0085]
Although not shown in the figure, a tuner is connected to the end of the transmission path decoding means 1501, and broadcast data received from the tuner is input. Further, a display device for displaying screen data is connected to the end of the combining unit 1508. The display device at this time is a display device that can switch whether the input screen data is to be displayed in 2D or 3D by external input. Further, the display device may be connected to 3D control means 1504 for 2D / 3D switching. Further, a speaker or the like is connected to the end of the
[0086]
The operation of broadcast
Transmission path decoding means 1501 performs digital demodulation and error correction on the input broadcast data to obtain TS packet data.
[0087]
The
[0088]
The program sequence
[0089]
Similarly, the EIT input from the separating means 1502 is analyzed to obtain program information. When the 3D unique information descriptor is included in the EIT, 3D unique information obtained as a result of the analysis is output to the 3D control unit 1504.
[0090]
The 3D control unit 1504 controls the display screen based on the 3D image control information so that 3D display can be performed on the display device. Also, the display mode designation for the display device is determined based on the presence or absence of the 3D image control information. These operations will be described later.
[0091]
Since PMT and EIT are continuously transmitted at a constant cycle, 3D image control information is repeatedly input to the 3D control means 1504. The 3D control unit 1504 holds the
[0092]
Separation means 1502 searches for TS packet data including target video data, audio data, and data broadcasting data based on the PID input from program sequence information analysis means 1503. The data is output to the
The video decoding unit 1505 decodes the input video data. The decoded video data is output to the synthesizing means 1508.
[0093]
The
[0094]
The
The synthesizing unit 1508 has a plurality of display screens for displaying video data, still image data, and characters and graphics, and superimposes them as necessary to synthesize one screen. It is converted according to the display method and output to the display device.
[0095]
Here, the display format of the screen is a format related to the video structure defined by the display device. For example, when the display device is a field sequential method, what is assumed as an input is a format in which left-eye images and right-eye images are alternately arranged every other pixel in the vertical direction as shown in FIG. When the display device is a parallax barrier system, a format in which left-eye images and right-eye images are alternately arranged every other pixel in the horizontal direction as shown in FIG. 26B is assumed as input. Yes.
[0096]
Next, the operation of the 3D control unit 1504 will be described. The 3D control unit 1504 can know the format related to the structure of video data or still image data by referring to the 3D image control information input from the program sequence
[0097]
First, it is determined whether the received video data includes a 3D scene. When 3D common information is not input from the program sequence
[0098]
The 3D control means 1504 includes a timer for managing time inside. If the time indicated by the timer is the broadcast time zone of the 3D scene specified by the above-described 3D scene time information, it is determined to be a 3D scene, otherwise it is determined to be a 2D scene. At this time, the time zone of the 3D scene may be displayed in the program guide based on the 3D scene time information.
[0099]
In the case of a 2D scene, the 3D control unit 1504 controls the video data input to the synthesis unit 1508 to be synthesized and displayed in the same format. The display mode is 2D.
[0100]
On the other hand, in the case of a 3D scene, any of the integration method, the time division method, and the multi-stream method is designated by the image multiplexing method information as described above. For example, when the image multiplexing method information indicates an integration method, image arrangement information and image reduction information are further specified.
[0101]
In the case of a 3D scene, display control of video data of the 3D scene may be performed based on forced 2D flag information. When the forced 2D flag information is 1, the video data of the viewpoint specified by the 2D display image information is selected from the video data of the 3D scene, and the enlargement or reduction process is performed so that the pixel aspect ratio becomes 1: 1. Thus, the display control of the synthesizing unit 1508 is performed. Here, the viewpoint frame specified by the 2D display image information is selected. However, the viewpoint frame predetermined by the receiving apparatus may be selected, or the user may be able to select freely. . The same applies to the case where the 2D display image information is not designated. The 3D control unit 1504 sets the display mode to 2D.
[0102]
On the other hand, when the forced 2D flag information is 0, display control is performed on the combining unit 1508 so that 3D display is performed, and the display mode is set to 3D. For example, when the image multiplexing method information indicates the integration method and the image arrangement information indicates side by side, the image frame input as video data has the form shown in FIG. Therefore, if the display device is a parallax barrier system, the compositing unit 1508 is controlled so as to convert the image frame into the format shown in FIG.
[0103]
Note that the 3D control unit 1504 performs display control on the synthesis unit 1508 based on the 3D image control information held therein, but when 3D image control information is newly input, the 3D
[0104]
In the case of a 3D scene, the amount by which the 3D image appears to protrude from the display surface of the display device may be adjusted using the parallax amount adjustment information. The pop-out amount will be described with reference to FIG. In FIG. 16, the pixel L1 of the left eye image is displayed at the
[0105]
Here, when the display position of the pixel R1 of the right-eye image is moved to the left and changed from the
[0106]
Thus, in order to realize the pop-out amount specified by the parallax amount adjustment information, the 3D control unit 1504 instructs the synthesizing unit 1508 to shift either the left or right image by a predetermined number of pixels in the horizontal direction. Output control information.
[0107]
FIG. 17 is a diagram illustrating a case where the right eye image is shifted to the left. FIG. 17A shows a state before the shift, and the entire display screen is displayed in 3D. FIG. 17B shows a state after the shift, and as a result of shifting the right eye image, an area 1701 indicated by a dotted line in the right eye image appears outside the display screen, so that the entire image cannot be displayed.
[0108]
FIG. 18 is a diagram showing a display example at this time. FIG. 18A does not display the right-eye image (here, the region 1701 shown in FIG. 17) that has moved out of the display screen due to the shift, and the right-eye image of the left-eye image. This is a case where the region where the corresponding point disappears is displayed in 2D. FIG. 18B shows a case where the left eye image is not displayed while leaving the right eye image, and an area where the corresponding point with the left eye image is lost in the right eye image as in FIG. 18A. Is displayed in 2D. FIG. 18C shows a case where only a region with corresponding points is displayed in 3D.
[0109]
Note that the parallax amount adjustment information may be set in advance in the broadcast
With the operation as described above, the 3D control unit 1504 performs processing on the received video data.
[0110]
In the above example, the display device connected to the synthesizing unit 1508 can display the input screen data by switching between 2D display and 3D display according to an external instruction. Although the display device is described, this display device may be a display device capable of only 2D display. In this case, as described above, when the display device is connected to the 3D control means 1504 and the input screen data is data for 3D display, the previous screen data is used instead of the input screen data. The screen data for 3D display may not be displayed by holding the screen or displaying specific screen data.
[0111]
Further, the screen data for 3D display may be displayed in 2D as it is.
Further, conversion means for converting screen data for 2D display from screen data for 3D display is provided between the combining means 1508 and the display device to create screen data for 2D display, and the screen data is displayed in 2D. You may make it do.
[0112]
In addition, when displaying screen data for 3D display on a display device capable of only 2D display, a buzzer or light emission is used to inform the observer that the currently displayed screen data is screen data for 3D display. A light source such as a lamp and a transmission means such as a warning message may be provided. At that time, if the screen data is not displayed, it is notified that the screen data is inappropriate and cannot be displayed. If the screen data for 3D display is displayed in 2D as it is, the screen data for 3D display is displayed as it is. Notification means may be provided for notifying or notifying that the information is converted and displayed when it is converted and displayed by the conversion means.
The same operation is performed when data for 2D display is input to a display device capable of only 3D display.
[0113]
As described above, even when broadcast data composed of image data of an inappropriate display method is received by the display device, it is converted into appropriate screen data and displayed, or it is indicated that it is inappropriate. It can be displayed to the observer and the screen data itself can be hidden.
[0114]
In addition, when the image multiplex system information analyzed by the program sequence
[0115]
In addition, the type of non-compatible image multiplexing method may be displayed.
In the above example, the operation in the case of receiving video data including or constituting a 3D image has been described. However, when data broadcasting data including or constituting a 3D image is received. A similar operation is performed.
[0116]
In the above-described embodiment, 3D image control information is stored in the PMT and EIT in the broadcast data transmitting apparatus, and 2D video data and 3D video data are determined based on the presence and content of the 3D image control information in the broadcast data receiving apparatus. However, flag information indicating the type of 2D video data and 3D video data may be added to the video data.
[0117]
When converting video data into TS packets, a bit string obtained by encoding is divided into predetermined processing units and stored in PES (Packetized Elementary Stream) packets, and the packets are further divided into TS packets of a predetermined size. Therefore, the flag information may be recorded in the header part of the PES packet or the header part of the TS packet, or may be stored in a predetermined position of the encoded bit string. For example, in the case of MPEG-4, it is stored in user data in a VOL (Video Object Layer).
[0118]
<Second Embodiment>
Next, a broadcast data transmitting apparatus and broadcast data receiving apparatus according to a second embodiment of the present invention will be described.
[0119]
The broadcast data transmitting apparatus according to the second embodiment of the present invention separately defines the PID of video data composed only of 2D scenes and the PID of video data composed only of 3D scenes in one PMT. As described above, this is a broadcast data transmitting apparatus that creates and transmits broadcast data including a PMT in which PIDs of different types of video data are defined.
[0120]
A broadcast data receiving apparatus according to the second embodiment of the present invention is a broadcast data receiving apparatus that receives the broadcast data. When the broadcast data is configured as described above, it is possible to distinguish whether the received video data is video data composed only of 2D scenes or video data composed only of 3D scenes based on the difference in PID. .
[0121]
Hereinafter, the broadcast data transmitting apparatus and the broadcast data receiving apparatus of this embodiment will be described in detail.
First, the broadcast data transmitting apparatus according to the present embodiment will be described with reference to the drawings.
[0122]
The configuration of the broadcast data transmitting apparatus according to the present embodiment is the same as that of the broadcast data transmitting apparatus according to the first embodiment described with reference to FIGS. 1 and 2, and the difference is that the video data in the PMT creating means 200 of FIG. This is only the creation part of the stream information.
[0123]
In the broadcast data transmitting apparatus according to the first embodiment described above, an example in which 2D scenes and 3D scenes are mixed in one video data has been described. However, the broadcast data transmitting apparatus according to the present embodiment includes only 2D scenes. Video data composed only of 3D scenes and video data to be created, and a PID is defined for each type of the video data in the PMT. In the following description, it is assumed that video data composed only of 2D scenes is 2D video data, and video data composed only of 3D scenes is 3D video data.
[0124]
Further, when the video data, the audio data, and the data broadcasting data are multiplexed in the multiplexing means 102 of FIG. 1, the TS is associated with the definition of the PID in the PMT created by the program sequence
[0125]
Next, the PMT created by the PMT creation means 200 of FIG. 2 in the broadcast data receiving apparatus of this embodiment will be described in detail. In the present embodiment, PID definition information is a combination of the stream information described in FIG.
First, PID definition information of 2D video data will be described in detail with reference to the drawings.
[0126]
FIG. 19 is a diagram illustrating an example of a structure of a PMT including PID definition information of 2D video data.
The
[0127]
Here, for example, assuming that the stream type of the PID definition information 1901 is “video data using MPEG-4 compression encoding” and the PID is “0x01”, all data having a PID value of “0x01” are 2D scenes. Only video data using MPEG-4 compression encoding is configured.
[0128]
On the other hand, FIG. 20 is a diagram illustrating an example of a structure of a PMT including PID definition information of 3D video data when the above-described image multiplexing method is an integration method or a time division method.
[0129]
The PMT2000 includes
[0130]
Here, for example, if the stream type of the
[0131]
The PID definition information for 2D video data and the PID definition information for 3D video data described above can be stored in the same PMT. In this case, PID definition information for a plurality of video data exists in the PMT. Depending on the presence or absence of the 3D common information descriptor 2002, PID definition information for 3D video data and PID definition information for 2D video data can be distinguished. Is possible.
[0132]
That is, if the 3D common information descriptor 2002 exists in the PID definition information, the PID definition information is PID definition information corresponding to 3D video data, and the 3D common information descriptor 2002 exists in the PID definition information. If not, it can be determined that the PID definition information is PID definition information corresponding to 2D video data.
[0133]
Next, PID definition information when image multiplexing method information indicates a multi-stream method will be described.
[0134]
When the image multiplexing method information is a multi-stream method, there are a plurality of video data streams in the broadcast data. In this case, a plurality of video data streams are required to restore the 3D video data. Therefore, in the PMT, PID definition information for 3D video data is required for the number of streams of video data necessary for 3D display by the broadcast data receiving apparatus.
[0135]
FIG. 21 is a diagram illustrating an example of the structure of a PMT including PID definition information of 3D video data when image multiplexing method information indicates a multi-stream method.
The
[0136]
Here, for example, in the PID definition information 2101, if the stream type is described as “video data using MPEG-4 compression encoding” and the PID is described as “0x03”, the data with the PID value “0x03” is All of the video data uses MPEG-4 compression encoding of the 3D scene, and the PID definition information 2102 describes that the stream type is “video data using MPEG-4 compression encoding” and the PID is “0x04”. If this is the case, data with a PID value of “0x04” is also video data using MPEG-4 compression coding, which is composed entirely of 3D scenes.
[0137]
The 3D common information descriptor 2103 and the 3D
[0138]
As described above, when the image multiplexing method information indicates the multi-stream method, the PID definition information is defined in the PMT by the number of streams necessary to restore the 3D image.
[0139]
Further, when there are a plurality of PID definition information of video data constituting a 3D image as in the multi-stream method, in order for the broadcast data receiving apparatus to display a 3D image in 3D, the video data corresponding to each PID definition information is In order to distinguish which viewpoint is shown, viewpoint position information indicating which viewpoint each video data is is required.
[0140]
For example, the 3D common information descriptor 2103 includes
[0141]
As described above, PID definition information for 3D video data can be defined even if the image multiplexing method is a multi-stream method.
[0142]
A transmission method when the broadcast data transmitting apparatus according to the present embodiment as described above transmits broadcast data will be described with reference to the flowchart of FIG.
[0143]
First, in step S2200, information indicating the start of broadcasting is input to the broadcast data transmitting apparatus, and the broadcast data transmitting apparatus starts creating and transmitting broadcast data. Next, in step S2201, video data, audio data, data broadcast data, control information, and the like necessary for creating broadcast data are input to the broadcast data transmitting apparatus. Next, in step S2202, it is determined whether 3D video data is included in the broadcast channel. If 3D video data is not included, the process proceeds to step S2204. If 3D video data is included, the process proceeds to step S2203.
[0144]
In step S2204, the broadcast data transmitting apparatus creates broadcast data including 2D video data using the input video data, audio data, data broadcasting data, control information, etc., and transmits the created data. The process proceeds to step S2207.
[0145]
On the other hand, in step S2203, it is determined from the image multiplexing method information included in the control information whether the image multiplexing method is a multi-stream method. If so, the process proceeds to step S2205; otherwise, the process proceeds to step S2206.
[0146]
In step S2205, broadcast data including 3D video data composed of a plurality of streams is created using the input video data, audio data, data broadcasting data, control information, and the created data is transmitted. Then, the process proceeds to step S2207.
[0147]
On the other hand, in step S2206, broadcast data including 3D video data is created using the input video data, audio data, data broadcasting data, control information, etc., and the created data is transmitted. Advances.
[0148]
In step S2207, it is determined from an external input whether to continue broadcasting. For example, when it is desired to end broadcasting, the fact is input from the outside. If the broadcast is to be continued, the process returns to step S2201, and the creation and transmission of the broadcast data is continued. Otherwise, the process proceeds to step S2208. In step S2208, the broadcast data transmitting apparatus stops the creation and transmission of the broadcast data and ends the broadcast.
[0149]
As described above, the broadcast data transmitting apparatus according to the present embodiment creates broadcast data and transmits the created broadcast data.
[0150]
Next, a broadcast data receiving apparatus in the second embodiment will be described. As described with reference to FIG. 15, the broadcast data receiving apparatus according to the first embodiment performs 2D display of received video data by comparing the 3D scene time information with the current time in the 3D control unit 1504. However, the broadcast data receiving apparatus according to the second embodiment determines whether the video data received by the
[0151]
That is, the program sequence
[0152]
Further, the 3D control unit 1504 may include this determination unit. For example, the program sequence
[0153]
Further, this determination means is provided separately and connected to the separation means 1502, the program arrangement information analysis means 1503, and the 3D control means 1504, respectively, and the video data is converted into 3D video from the information from the program arrangement information analysis means 1503 and the separation means 1502. If it is determined that the data is data, the 3D control unit 1504 may be configured to transmit information indicating that 3D video data has been input.
[0154]
FIG. 23 is a flowchart of a method for determining the type of received video data from the PID of the video data of the received broadcast data.
In step S2300, the broadcast data receiving apparatus reads the received broadcast data. The PMT of the broadcast data received at this time is sent to the program arrangement information analysis means 1503. In the program arrangement
[0155]
As described above, the broadcast data receiving apparatus of the present embodiment can determine the type of received video data from the PID of the video data of the received broadcast data without using the 3D scene time information.
[0156]
Next, each apparatus in the case where 2D video data and 3D video data are mixed in one program using the broadcast data transmitting apparatus according to the second embodiment of the present invention and the broadcast data receiving apparatus described above. Will be described.
[0157]
FIG. 24 is a diagram for explaining the operation of the broadcast data transmitting apparatus and the broadcast data receiving apparatus when 2D video data and 3D video data are mixed in one program. For example, as shown in FIG. 24, it is assumed that one program (referred to as program A) in which 2D video data and 3D video data are mixed is broadcast with the horizontal axis as time t.
[0158]
Table 1 shows the operation of the broadcast data transmitting apparatus and the operation of the broadcast data receiving apparatus at time t in FIG.
[0159]
[Table 1]
[0160]
For example, as shown in FIG. 24, it is assumed that the program A starts broadcasting at time t0 and ends at time t3. In this program A, 2D video data is broadcast from time t0 to time t1, 3D video data is broadcast from time t1 to time t2, and 2D video data is broadcast from time t2 to time t3. .
[0161]
The broadcast data transmitting apparatus transmits 2D video data as video data from time t0 to time t1 and from time t2 to time t3, and 3D as video data from time t1 to time t2. Send video data.
[0162]
On the other hand, the broadcast data receiving device receives the broadcast data transmitted by the broadcast data transmitting device from time t0 ′ to time t3 ′. Here, the time t0 and the time t0 ′, the time t1 and the time t1 ′, the time t2 and the time t2 ′, and the time t3 and the time t3 ′ are almost the same time, and the difference is that the broadcast data transmitting apparatus transmits the broadcast data. It is assumed that there is only a slight time difference between transmission and reception by the broadcast data receiving apparatus.
[0163]
If the PID of the received video data is the PID of 2D video data, the broadcast data receiving apparatus performs 2D display (from time t0 ′ to time t1 ′ and from time t2 ′ to time t3 ′). If it is PID of 3D video data, 3D display is performed (between time t1 ′ and time t2 ′).
[0164]
As described above, the broadcast data transmitting apparatus according to the second embodiment of the present invention separately defines the PID definition information of 2D video data and the PID definition information of 3D video data in the PMT, and the PID definition information thereof. By creating TS packets having different PIDs for 2D video data and 3D video data based on the above, it is possible to broadcast a program in which 2D video data and 3D video data are mixed in one program.
[0165]
Also, the broadcast data receiving apparatus according to the second embodiment of the present invention acquires the PID of 2D video data and the PID of 3D video data from the PID of video data defined in the received PMT, and the received video data By determining the type of video data from the PID of the TS packet, it is possible to receive a program broadcast in which 2D video data and 3D video data are mixed in one program.
[0166]
In this case, even if the 3D scene time information is not included in the broadcast data, a program in which 2D video data and 3D video data are mixed can be viewed in one program. By omitting, it is possible to reduce the ratio of the program arrangement information in the broadcast data.
[0167]
In the above example, the method of determining whether the type of video data received by the broadcast data receiving apparatus using the PID is 2D video data or 3D video data has been described. Time information may be included in the broadcast data.
[0168]
Further, in this case, the 3D scene time information may be included in the 3D common information in the PMT or may be included in the 3D specific information in the EIT.
[0169]
When determining the type of received video data, if the result determined from the PID of the received video data is different from the result determined from the 3D scene time information, either one of the information may be used with priority. Good. Which information is used preferentially may be set in the terminal in advance, or may be changed by the user operating the terminal during the process.
[0170]
In the broadcast data transmitting apparatus of this embodiment, separate PIDs are defined for 2D video data and 3D video data. In addition, 2D video data is converted to 3D video data, or 3D video data is converted to 2D. Video switching time information indicating the time for switching to video data may be inserted into the header portion of the TS packet, the header portion of the PES packet, the header portion of the video data, or the like.
[0171]
In addition, the broadcast data receiving apparatus can distinguish whether it is 2D video data or 3D video data received by PID, and can know the time when the type of video data is switched by the video switching time information. It is possible to prepare for switching in advance. For example, when the broadcast data receiving apparatus is receiving 2D video data, if there is video switching time information in the TS packet of the 2D video data being received, the video data type is then switched to 3D video data. Since the time can be known in advance, the observer can be notified of the time until the video data type is switched.
[0172]
【The invention's effect】
As described above, according to the present invention, 3D image control information used for displaying a 3D image is repeatedly transmitted, so that even when received from the middle of the content, stereoscopic display can be performed appropriately. The advantageous effect that it can be obtained.
In addition, according to the present invention, the 3D common information, which is 3D image control information that is not frequently updated, is stored in a descriptor that is not frequently updated among the descriptors constituting the program sequence information. The advantageous effect that simplification can be performed is obtained.
[0173]
Further, according to the present invention, since 3D image control information is stored for each program arrangement information different for each channel, an advantageous effect that a different 3D image can be set for each channel can be obtained.
[0174]
Further, according to the present invention, 3D unique information, which is 3D image control information that is frequently updated, is stored in a descriptor that is frequently updated among the descriptors constituting the program arrangement information, so that each content is stored. In addition, the advantageous effect that the control parameters of the 3D image can be changed is obtained.
[0175]
Further, according to the present invention, by storing the 3D scene time information in the 3D unique information, it is possible to obtain an advantageous effect that only an arbitrary scene in the 3D content can be designated to be displayed in 3D.
[0176]
Further, according to the present invention, by storing the 3D scene time information in the 3D unique information, it is possible to obtain an advantageous effect that the time zone of the 3D video data can be displayed in the program guide.
[0177]
Further, according to the present invention, the PID of 2D video data and the PID of 3D video data are respectively defined in the PMT, and the type of received video data is determined using the PID, so that one program can be included in one program. Can advantageously broadcast a program in which 2D video data and 3D video data are mixed.
[0178]
According to the present invention, the PID of 2D video data and the PID of 3D video data are acquired from the received PMT, and the type of the received video data is determined from the PID of the TS packet of the received video data by An advantageous effect is obtained that it is possible to receive a program broadcast in which 2D video data and 3D video data are mixed in one program.
[0179]
Further, according to the present invention, since the type of video data is determined based on the PID of the TS packet of video data, 2D video data and 3D are included in one program even if 3D scene time information is not included in the broadcast data. It is possible to view a program in which video data is mixed, and it is possible to obtain an advantageous effect that the proportion of program arrangement information in broadcast data can be reduced by omitting 3D scene time information.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a broadcast data transmitting apparatus according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing program sequence information creating means.
FIG. 3 is a flowchart showing the operation of the PMT creation means.
FIG. 4 is a flowchart showing a method for creating a 3D common information descriptor.
FIG. 5 is a conceptual diagram illustrating a configuration of a PMT and a 3D shared information descriptor.
FIG. 6 is a conceptual diagram showing 3D scene time information.
FIG. 7 is a flowchart showing the operation of the EIT creation means.
FIG. 8 is a flowchart showing a method of creating a 3D unique information descriptor.
FIG. 9 is a conceptual diagram illustrating a configuration of an EIT and a 3D unique information descriptor.
FIG. 10 is a diagram illustrating an example of a configuration of DII.
FIG. 11 is a conceptual diagram showing a broadcast data transmission method in the present embodiment.
FIG. 12 is a conceptual diagram illustrating a broadcast data transmission method for digital broadcasting.
FIG. 13 is a conceptual diagram illustrating an example of a 3D image.
FIG. 14 is a conceptual diagram showing an image multiplexing method.
FIG. 15 is a block diagram showing a broadcast data receiving apparatus according to the first embodiment of the present invention.
FIG. 16 is a diagram for explaining the principle of adjusting the pop-out amount;
FIG. 17 is a diagram for explaining a change in image format when adjusting the pop-out amount;
FIG. 18 is a diagram for explaining a display method when adjusting the pop-out amount;
FIG. 19 is a diagram illustrating an example of a structure of a PMT including PID definition information of 2D video data.
FIG. 20 is a diagram illustrating an example of a structure of a PMT including PID definition information of 3D video data when image multiplexing method information is not a multi-stream method.
FIG. 21 is a diagram illustrating an example of the structure of a PMT including PID definition information of 3D video data when image multiplexing method information is a multi-stream method.
FIG. 22 is a flowchart of the transmission operation of the broadcast data transmitting apparatus according to the second embodiment of the present invention.
FIG. 23 is a flowchart of a method for determining the type of received video data from the PID of the video data of the received broadcast data.
FIG. 24 is a diagram for explaining operations of the broadcast data transmitting apparatus and the broadcast data receiving apparatus when 2D scenes and 3D scenes are mixed in one program.
FIG. 25 is a diagram for explaining a field sequential display method;
FIG. 26 is a diagram for explaining a parallax barrier display method;
[Explanation of symbols]
100 Broadcast data transmitter
101 Program sequence information creation means
102 Multiplexing means
103 Transmission path encoding means
200 PMT creation means
201 EIT creation means
Claims (7)
前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成手段を備え、
前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、
前記番組配列情報作成手段は、前記3次元画像データの再生時間帯を示す情報を前記3次元制御情報に格納することを特徴とする放送データ送信装置。A broadcast data transmitting apparatus for transmitting content including image data as broadcast data,
Comprising program sequence information creating means for creating program sequence information used for reproducing the content,
The program arrangement information includes 3D control information for controlling display of 3D image data included in the content,
The broadcast data transmitting apparatus, wherein the program sequence information creating means stores information indicating a reproduction time zone of the 3D image data in the 3D control information.
前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成手段を備え、
前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、
前記番組配列情報作成手段は、前記3次元画像データを2次元表示するときに選択される視点画像を示す2次元表示画像情報を前記3次元制御情報に格納することを特徴とする放送データ送信装置。A broadcast data transmitting apparatus for transmitting content including image data as broadcast data,
Comprising program sequence information creating means for creating program sequence information used for reproducing the content,
The program arrangement information includes 3D control information for controlling display of 3D image data included in the content,
The broadcast data transmitting apparatus characterized in that the program sequence information creating means stores in the 3D control information 2D display image information indicating a viewpoint image selected when the 3D image data is displayed in 2D. .
前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成ステップを持ち、
前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、
前記番組配列情報作成ステップは、前記3次元画像データの再生時間帯を示す情報を前記3次元制御情報に格納することを特徴とする放送データ送信方法。A broadcast data transmission method for transmitting content including image data as broadcast data,
Having a program sequence information creating step for creating program sequence information used for reproducing the content,
The program arrangement information includes 3D control information for controlling display of 3D image data included in the content,
The broadcast data transmission method characterized in that the program sequence information creating step stores information indicating a reproduction time zone of the 3D image data in the 3D control information.
前記コンテンツを再生するために使用される番組配列情報を作成する番組配列情報作成ステップを持ち、
前記番組配列情報は前記コンテンツに含まれる3次元画像データの表示を制御する3次元制御情報を含み、
前記番組配列情報作成ステップは、前記3次元画像データを2次元表示するときに選択される視点画像を示す2次元表示画像情報を前記3次元制御情報に格納することを特徴とする放送データ送信方法。A broadcast data transmission method for transmitting content including image data as broadcast data,
Having a program sequence information creating step for creating program sequence information used for reproducing the content,
The program arrangement information includes 3D control information for controlling display of 3D image data included in the content,
The broadcast data transmission method characterized in that the program sequence information creating step stores, in the 3D control information, 2D display image information indicating a viewpoint image selected when the 3D image data is displayed in 2D. .
前記放送データに含まれるコンテンツに対する制御情報を解析する番組配列情報解析手段と、
入力された画像データを2次元表示するか、もしくは3次元表示するかを外部の入力により切り替えて表示することのできる表示手段と、
前記表示手段を制御する表示制御手段と
を備え、
前記番組配列情報は、放送データに含まれる3次元画像データの表示を制御する3次元制御情報を含み、
更に前記3次元制御情報は、コンテンツ中に3次元画像データが存在する時間帯を示す3次元表示時間情報を含み、
前記番組配列情報解析手段は、前記番組配列情報を解析することにより前記3次元制御情報を表示制御手段に送り、
前記表示制御手段は、
内部にタイマーを備え、
入力された前記3次元制御情報に従って前記表示手段を2次元表示するか、もしくは3次元表示するかを切り替え、
前記3次元表示時間情報と前記タイマーの時刻から受信した放送データに含まれる画像データが2次元画像データであるか、もしくは3次元画像データであるかを判定し、2次元画像データであれば2次元表示を、3次元画像データであれば3次元表示を行うように前記表示手段を制御する表示制御手段である放送データ受信装置。A broadcast data receiving device for receiving broadcast data,
Program sequence information analyzing means for analyzing control information for content included in the broadcast data;
Display means capable of switching between two-dimensional display or three-dimensional display of input image data by external input;
Display control means for controlling the display means,
The program arrangement information includes 3D control information for controlling display of 3D image data included in broadcast data,
Further, the 3D control information includes 3D display time information indicating a time zone in which 3D image data exists in the content,
The program sequence information analyzing means sends the three-dimensional control information to the display control means by analyzing the program sequence information,
The display control means includes
It has a timer inside,
According to the input 3D control information, the display means is switched between 2D display and 3D display,
It is determined whether the image data included in the broadcast data received from the 3D display time information and the time of the timer is 2D image data or 3D image data. A broadcast data receiving apparatus which is a display control means for controlling the display means so as to perform a three-dimensional display for a three-dimensional image data.
前記放送データに含まれるコンテンツに対する制御情報を解析する番組配列情報解析手段と、
入力された画像データを2次元表示する表示手段と、
前記表示手段を制御する表示制御手段と、を備え、
前記番組配列情報は、放送データに含まれる3次元画像データの表示を制御する3次元制御情報を含み、
前記3次元制御情報は、受信した放送データに含まれる受信画像データが2次元画像データであることを示す識別子と、3次元画像データであることを示す識別子をそれぞれ定義する識別子情報を含み、
前記番組配列情報解析手段は、前記番組配列情報を解析することにより前記3次元制御情報を表示制御手段に送り、
前記表示制御手段は、
入力された前記3次元制御情報に従って前記表示手段を制御し、
前記識別子情報と前記受信画像データの識別子から、前記受信画像データが2次元画像データであるか、もしくは3次元画像データであるかを判定し、
2次元画像データである場合は表示を行うように前記表示手段を制御し、
3次元画像データである場合は表示できない、または正しく表示できない旨を観察者に通知する表示制御手段である放送データ受信装置。A broadcast data receiving device for receiving broadcast data,
Program sequence information analyzing means for analyzing control information for content included in the broadcast data;
Display means for two-dimensionally displaying the input image data;
Display control means for controlling the display means,
The program arrangement information includes 3D control information for controlling display of 3D image data included in broadcast data,
The three-dimensional control information includes identifier information that defines an identifier indicating that the received image data included in the received broadcast data is two-dimensional image data, and an identifier indicating that the received image data is three-dimensional image data,
The program sequence information analyzing means sends the three-dimensional control information to the display control means by analyzing the program sequence information,
The display control means includes
Controlling the display means according to the inputted three-dimensional control information;
Determining whether the received image data is two-dimensional image data or three-dimensional image data from the identifier information and the identifier of the received image data;
In the case of two-dimensional image data, the display means is controlled to display,
A broadcast data receiving apparatus which is display control means for notifying an observer that display cannot be performed correctly or cannot be displayed correctly in the case of 3D image data.
前記放送データに含まれるコンテンツに対する制御情報を解析する番組配列情報解析手段と、
入力された画像データを2次元表示する表示手段と、
前記表示手段を制御する表示制御手段と、を備え、
前記番組配列情報は、放送データに含まれる3次元画像データの表示を制御する3次元制御情報を含み、
更に前記3次元制御情報は、コンテンツ中に3次元画像データが存在する時間帯を示す3次元表示時間情報を含み、
前記番組配列情報解析手段は、前記番組配列情報を解析することにより前記3次元制御情報を表示制御手段に送り、
前記表示制御手段は、
内部にタイマーを備え、
入力された前記3次元制御情報に従って前記表示手段を制御し、
前記3次元表示時間情報と前記タイマーの時刻から、受信した放送データに含まれる受信画像データが2次元画像データであるか、もしくは3次元画像データであるかを判定し、2次元画像データである場合は表示を行うように前記表示手段を制御し、
3次元画像データである場合は表示できない、または正しく表示できない旨を観察者に通知する表示制御手段である放送データ受信装置。A broadcast data receiving device for receiving broadcast data,
Program sequence information analyzing means for analyzing control information for content included in the broadcast data;
Display means for two-dimensionally displaying the input image data;
Display control means for controlling the display means,
The program arrangement information includes 3D control information for controlling display of 3D image data included in broadcast data,
Further, the 3D control information includes 3D display time information indicating a time zone in which 3D image data exists in the content,
The program sequence information analyzing means sends the three-dimensional control information to the display control means by analyzing the program sequence information,
The display control means includes
It has a timer inside,
Controlling the display means according to the inputted three-dimensional control information;
From the 3D display time information and the time of the timer, it is determined whether the received image data included in the received broadcast data is 2D image data or 3D image data, and is 2D image data. Control the display means to display the case,
A broadcast data receiving apparatus which is display control means for notifying an observer that display cannot be performed correctly or cannot be displayed correctly in the case of 3D image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003168265A JP4190357B2 (en) | 2003-06-12 | 2003-06-12 | Broadcast data transmitting apparatus, broadcast data transmitting method, and broadcast data receiving apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003168265A JP4190357B2 (en) | 2003-06-12 | 2003-06-12 | Broadcast data transmitting apparatus, broadcast data transmitting method, and broadcast data receiving apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005006114A JP2005006114A (en) | 2005-01-06 |
JP4190357B2 true JP4190357B2 (en) | 2008-12-03 |
Family
ID=34093821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003168265A Expired - Lifetime JP4190357B2 (en) | 2003-06-12 | 2003-06-12 | Broadcast data transmitting apparatus, broadcast data transmitting method, and broadcast data receiving apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4190357B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102177724A (en) * | 2009-06-29 | 2011-09-07 | 索尼公司 | Stereoscopic image data transmitter, method for transmitting stereoscopic image data, stereoscopic image data receiver, and method for receiving stereoscopic image data |
CN102210154A (en) * | 2009-06-29 | 2011-10-05 | 索尼公司 | Stereoscopic image data transmitter and stereoscopic image data receiver |
CN102342113A (en) * | 2009-06-29 | 2012-02-01 | 索尼公司 | Stereoscopic image data transmitter and stereoscopic image data receiver |
Families Citing this family (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100813961B1 (en) * | 2005-06-14 | 2008-03-14 | 삼성전자주식회사 | Method and apparatus for transmitting and receiving of video, and transport stream structure thereof |
KR100828358B1 (en) * | 2005-06-14 | 2008-05-08 | 삼성전자주식회사 | Method and apparatus for converting display mode of video, and computer readable medium thereof |
KR100657322B1 (en) * | 2005-07-02 | 2006-12-14 | 삼성전자주식회사 | Method and apparatus for encoding/decoding to implement local 3d video |
KR100818933B1 (en) * | 2005-12-02 | 2008-04-04 | 한국전자통신연구원 | Method for 3D Contents Service based Digital Broadcasting |
KR101100212B1 (en) | 2006-04-21 | 2011-12-28 | 엘지전자 주식회사 | Method for transmitting and playing broadcast signal and apparatus there of |
JP5011842B2 (en) * | 2006-06-22 | 2012-08-29 | 株式会社ニコン | Image playback device |
KR100864826B1 (en) * | 2006-09-29 | 2008-10-23 | 한국전자통신연구원 | Method and Apparatus for 3D still image service over digital broadcasting |
JP4706638B2 (en) * | 2006-09-29 | 2011-06-22 | セイコーエプソン株式会社 | Display device, image processing method, and electronic apparatus |
KR101362941B1 (en) * | 2006-11-01 | 2014-02-17 | 한국전자통신연구원 | Method and Apparatus for decoding metadata used for playing stereoscopic contents |
JP5338166B2 (en) | 2008-07-16 | 2013-11-13 | ソニー株式会社 | Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method |
KR20100040640A (en) * | 2008-10-10 | 2010-04-20 | 엘지전자 주식회사 | Receiving system and method of processing data |
WO2010061689A1 (en) * | 2008-11-26 | 2010-06-03 | 日本電気株式会社 | Display device, terminal device, and display method |
KR101154051B1 (en) * | 2008-11-28 | 2012-06-08 | 한국전자통신연구원 | Apparatus and method for multi-view video transmission and reception |
EP2389767A4 (en) * | 2009-01-20 | 2013-09-25 | Lg Electronics Inc | Three-dimensional subtitle display method and three-dimensional display device for implementing the same |
JP5290842B2 (en) * | 2009-04-01 | 2013-09-18 | キヤノン株式会社 | Broadcast receiving apparatus and control method thereof |
JP5448558B2 (en) * | 2009-05-01 | 2014-03-19 | ソニー株式会社 | Transmission apparatus, stereoscopic image data transmission method, reception apparatus, stereoscopic image data reception method, relay apparatus, and stereoscopic image data relay method |
US8953017B2 (en) | 2009-05-14 | 2015-02-10 | Panasonic Intellectual Property Management Co., Ltd. | Source device, sink device, communication system and method for wirelessly transmitting three-dimensional video data using packets |
JP5463747B2 (en) * | 2009-06-15 | 2014-04-09 | ソニー株式会社 | Reception device, transmission device, communication system, display control method, program, and data structure |
JP2011030182A (en) * | 2009-06-29 | 2011-02-10 | Sony Corp | Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method |
JP5446913B2 (en) | 2009-06-29 | 2014-03-19 | ソニー株式会社 | Stereoscopic image data transmitting apparatus and stereoscopic image data transmitting method |
JP5521486B2 (en) | 2009-06-29 | 2014-06-11 | ソニー株式会社 | Stereoscopic image data transmitting apparatus and stereoscopic image data transmitting method |
JP5429034B2 (en) * | 2009-06-29 | 2014-02-26 | ソニー株式会社 | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method |
TW201116041A (en) | 2009-06-29 | 2011-05-01 | Sony Corp | Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception |
JP2011030179A (en) | 2009-06-29 | 2011-02-10 | Sony Corp | Image data transmission device, control method and program |
JP2011030180A (en) | 2009-06-29 | 2011-02-10 | Sony Corp | Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, and three-dimensional image data reception method |
KR101372376B1 (en) * | 2009-07-07 | 2014-03-14 | 경희대학교 산학협력단 | Method for receiving stereoscopic video in digital broadcasting system |
KR20110011000A (en) * | 2009-07-27 | 2011-02-08 | 삼성전자주식회사 | Method and appratus for generating three-dimensional image datastream including additional information for displaying three-dimensional image, method and apparatus for receiving the same |
JP2011066871A (en) | 2009-08-21 | 2011-03-31 | Sony Corp | Content transmission method and display device |
JP5604827B2 (en) | 2009-08-21 | 2014-10-15 | ソニー株式会社 | Transmitting apparatus, receiving apparatus, program, and communication system |
JP5428697B2 (en) * | 2009-09-16 | 2014-02-26 | ソニー株式会社 | Receiving device, receiving method, transmitting device, and computer program |
JP2011082666A (en) * | 2009-10-05 | 2011-04-21 | Sony Corp | Signal transmission method, signal transmitter apparatus, and signal receiver apparatus |
EP2489197A4 (en) * | 2009-10-13 | 2014-03-05 | Lg Electronics Inc | Broadcast receiver and 3d video data processing method thereof |
CA2777016C (en) * | 2009-10-13 | 2015-10-20 | Lg Electronics Inc. | Broadcast receiver and 3d video data processing method thereof |
US8953019B2 (en) * | 2009-10-20 | 2015-02-10 | Samsung Electronics Co., Ltd. | Method and apparatus for generating stream and method and apparatus for processing stream |
JP5540746B2 (en) * | 2009-11-20 | 2014-07-02 | ソニー株式会社 | RECEPTION DEVICE, TRANSMISSION DEVICE, COMMUNICATION SYSTEM, RECEPTION DEVICE CONTROL METHOD, AND PROGRAM |
JP5450118B2 (en) | 2010-01-14 | 2014-03-26 | ソニー株式会社 | Video transmission device, video display device, video display system, video transmission method, and computer program |
KR101694821B1 (en) * | 2010-01-28 | 2017-01-11 | 삼성전자주식회사 | Method and apparatus for transmitting digital broadcasting stream using linking information of multi-view video stream, and Method and apparatus for receiving the same |
KR20110088334A (en) * | 2010-01-28 | 2011-08-03 | 삼성전자주식회사 | Method and apparatus for generating datastream to provide 3-dimensional multimedia service, method and apparatus for receiving the same |
EP2534844A2 (en) | 2010-02-09 | 2012-12-19 | Koninklijke Philips Electronics N.V. | 3d video format detection |
WO2011121916A1 (en) * | 2010-03-29 | 2011-10-06 | パナソニック株式会社 | Video processing device |
CN104853176A (en) * | 2010-04-02 | 2015-08-19 | 三星电子株式会社 | Method for transmitting and receiving digital broadcast content for providing three-dimensional broadcast service |
JP5594002B2 (en) * | 2010-04-06 | 2014-09-24 | ソニー株式会社 | Image data transmitting apparatus, image data transmitting method, and image data receiving apparatus |
US9118896B2 (en) | 2010-04-21 | 2015-08-25 | Hitachi Maxell, Ltd. | Digital contents receiver, digital contents receiving method and digital contents transmitting and receiving method |
JP5501081B2 (en) * | 2010-04-21 | 2014-05-21 | 日立マクセル株式会社 | Display device and display method |
JP5559614B2 (en) * | 2010-04-21 | 2014-07-23 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP5577823B2 (en) | 2010-04-27 | 2014-08-27 | ソニー株式会社 | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
KR101838071B1 (en) | 2010-04-30 | 2018-03-13 | 엘지전자 주식회사 | An apparatus of processing an image and a method of processing thereof |
JP2011239169A (en) | 2010-05-10 | 2011-11-24 | Sony Corp | Stereo-image-data transmitting apparatus, stereo-image-data transmitting method, stereo-image-data receiving apparatus, and stereo-image-data receiving method |
JP2011244218A (en) | 2010-05-18 | 2011-12-01 | Sony Corp | Data transmission system |
JP2012010311A (en) | 2010-05-26 | 2012-01-12 | Sony Corp | Transmitter, transmission method, receiver, reception method and transmission/reception system |
JP2011250317A (en) * | 2010-05-28 | 2011-12-08 | Sharp Corp | Three-dimensional display device, display method, program, and recording medium |
US10917624B2 (en) * | 2010-06-02 | 2021-02-09 | Maxell, Ltd. | Reception device, display control method, transmission device, and transmission method for program content type |
JP5710895B2 (en) * | 2010-06-02 | 2015-04-30 | 日立マクセル株式会社 | Digital content receiving apparatus and digital content receiving method |
JP5050079B2 (en) * | 2010-06-02 | 2012-10-17 | 日立コンシューマエレクトロニクス株式会社 | Digital content receiving apparatus and digital content receiving method |
JP5156795B2 (en) * | 2010-06-02 | 2013-03-06 | 日立コンシューマエレクトロニクス株式会社 | Display device and display method |
JP5682149B2 (en) | 2010-06-10 | 2015-03-11 | ソニー株式会社 | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method |
JP5510097B2 (en) * | 2010-06-16 | 2014-06-04 | ソニー株式会社 | Signal transmission method, signal transmission device, and signal reception device |
JP5655393B2 (en) | 2010-06-23 | 2015-01-21 | ソニー株式会社 | Image data transmitting apparatus, image data transmitting apparatus control method, image data transmitting method, and image data receiving apparatus |
CN102948154B (en) * | 2010-06-23 | 2015-01-21 | 松下电器产业株式会社 | Content distribution system, playback device, distribution server, playback method, and distribution method |
CN102577406A (en) * | 2010-06-23 | 2012-07-11 | 松下电器产业株式会社 | Content distribution system, playback device, distribution server, playback method, and distribution method |
JP5609336B2 (en) | 2010-07-07 | 2014-10-22 | ソニー株式会社 | Image data transmitting apparatus, image data transmitting method, image data receiving apparatus, image data receiving method, and image data transmitting / receiving system |
WO2012004864A1 (en) * | 2010-07-07 | 2012-01-12 | 日本Bs放送株式会社 | Image delivery apparatus, image delivery method and image delivery program |
JP2012039340A (en) * | 2010-08-06 | 2012-02-23 | Hitachi Consumer Electronics Co Ltd | Receiving apparatus and receiving method |
JP2012044625A (en) | 2010-08-23 | 2012-03-01 | Sony Corp | Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device and stereoscopic image data reception method |
JP5633259B2 (en) | 2010-09-06 | 2014-12-03 | ソニー株式会社 | Stereo image data transmitting device, stereo image data transmitting method, and stereo image data receiving device |
EP2434760A1 (en) * | 2010-09-24 | 2012-03-28 | Kabushiki Kaisha Toshiba | Broadcast transmitter, broadcast receiver, and broadcast transmission method |
JP5454444B2 (en) | 2010-10-01 | 2014-03-26 | ソニー株式会社 | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method |
JP2013545344A (en) * | 2010-10-13 | 2013-12-19 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | Method and apparatus for transmitting stereoscopic video information |
JP2012099986A (en) | 2010-10-29 | 2012-05-24 | Sony Corp | Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device and stereoscopic image data reception method |
JP2012100102A (en) | 2010-11-02 | 2012-05-24 | Sony Corp | Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device, and stereoscopic image data reception method |
JP2012120142A (en) | 2010-11-08 | 2012-06-21 | Sony Corp | Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device |
JP2012120143A (en) * | 2010-11-10 | 2012-06-21 | Sony Corp | Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device, and stereoscopic image data reception method |
JP2012114575A (en) | 2010-11-22 | 2012-06-14 | Sony Corp | Image data transmission device, image data transmission method, image data reception device, and image data reception method |
EP2648407A4 (en) * | 2010-12-02 | 2014-07-30 | Korea Electronics Telecomm | Method and apparatus for transmitting stereoscopic video information |
JP5897792B2 (en) | 2010-12-10 | 2016-03-30 | ソニー株式会社 | Image processing apparatus, image reproduction apparatus, and image reproduction system |
JP2013545361A (en) * | 2010-12-13 | 2013-12-19 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | Signaling method for stereoscopic video service and apparatus using the method |
JP2012129827A (en) * | 2010-12-15 | 2012-07-05 | Sony Corp | Transmission device, transmission method, reception device, and reception method |
JP2012138856A (en) * | 2010-12-27 | 2012-07-19 | Toshiba Corp | Video transmitter and three-dimensional video transmission program |
JP2012147121A (en) * | 2011-01-07 | 2012-08-02 | Sony Corp | Image display system, display device, and shutter glasses |
EP2666296A4 (en) * | 2011-01-19 | 2013-12-25 | Ericsson Telefon Ab L M | Indicating bit stream subsets |
JP2012160813A (en) | 2011-01-31 | 2012-08-23 | Sony Corp | Image data transmission device, image data transmission method, image data reception device, and image data reception method |
JP5703794B2 (en) * | 2011-02-01 | 2015-04-22 | セイコーエプソン株式会社 | Stereoscopic image display apparatus and stereoscopic image display method |
JP2012178706A (en) * | 2011-02-25 | 2012-09-13 | Toshiba Corp | Video display method and video display device |
JP2012199897A (en) | 2011-03-04 | 2012-10-18 | Sony Corp | Image data transmission apparatus, image data transmission method, image data reception apparatus, and image data reception method |
CN103416070B (en) * | 2011-03-07 | 2016-10-12 | Lg电子株式会社 | The method and apparatus sending/receive digital broadcast signal |
JP2012186746A (en) | 2011-03-08 | 2012-09-27 | Sony Corp | Video transmitter, method for controlling video transmitter, video receiver and method for controlling video receiver |
JP5987267B2 (en) | 2011-03-28 | 2016-09-07 | ソニー株式会社 | Image processing apparatus and image processing method |
JP5161999B2 (en) * | 2011-04-19 | 2013-03-13 | 株式会社東芝 | Electronic device, display control method, and display control program |
JP2012244411A (en) | 2011-05-19 | 2012-12-10 | Sony Corp | Image data transmission apparatus, image data transmission method and image data reception apparatus |
CN107105212A (en) * | 2011-06-21 | 2017-08-29 | Lg电子株式会社 | For the method and apparatus for the broadcast singal for handling 3-dimensional broadcast service |
JP2013021415A (en) | 2011-07-07 | 2013-01-31 | Sony Corp | Transmitter, transmission method and receiver |
JP2013026696A (en) | 2011-07-15 | 2013-02-04 | Sony Corp | Transmitting device, transmission method and receiving device |
CN103404153A (en) | 2011-08-04 | 2013-11-20 | 索尼公司 | Transmission device, transmission method, and receiving device |
JP2013051660A (en) | 2011-08-04 | 2013-03-14 | Sony Corp | Transmission device, transmission method, and receiving device |
JP2013066075A (en) | 2011-09-01 | 2013-04-11 | Sony Corp | Transmission device, transmission method and reception device |
JP2013058956A (en) | 2011-09-09 | 2013-03-28 | Sony Corp | Information processor, information processing method, program, and information processing system |
JP2013110540A (en) | 2011-11-18 | 2013-06-06 | Sony Corp | Image data transmitting device, image data transmitting method, image data receiving device, and image data receiving method |
WO2013080555A1 (en) * | 2011-12-01 | 2013-06-06 | パナソニック株式会社 | Stereoscopic video data generating device and stereoscopic video playing apparatus |
EP2672713A4 (en) | 2012-01-13 | 2014-12-31 | Sony Corp | Transmission device, transmission method, receiving device, and receiving method |
JPWO2013108531A1 (en) | 2012-01-19 | 2015-05-11 | ソニー株式会社 | Receiving device, receiving method, and electronic device |
WO2013121823A1 (en) | 2012-02-16 | 2013-08-22 | ソニー株式会社 | Transmission device, transmission method and receiver device |
JP2012110050A (en) * | 2012-02-27 | 2012-06-07 | Toshiba Corp | Broadcast transmitter, broadcast receiver, and broadcast transmission method |
KR101998892B1 (en) | 2012-03-01 | 2019-07-10 | 소니 주식회사 | Transmitter, transmission method and receiver |
CN103621075A (en) * | 2012-04-24 | 2014-03-05 | 索尼公司 | Image data transmission device, image data transmission method, image data reception device, and image data reception method |
CN103379332A (en) * | 2012-04-25 | 2013-10-30 | 浙江大学 | Decoding method, coding method and coding device of three-dimensional video sequence auxiliary information |
JP5588489B2 (en) * | 2012-10-09 | 2014-09-10 | 日立マクセル株式会社 | Transmission / reception system and information processing method |
JP5433774B2 (en) * | 2012-12-05 | 2014-03-05 | 株式会社東芝 | Electronic device, display control method, and display control program |
JP2014082769A (en) * | 2013-11-27 | 2014-05-08 | Sony Corp | Receiving device, display control method, program, and data structure |
JP5684415B2 (en) * | 2014-01-27 | 2015-03-11 | 日立マクセル株式会社 | Digital broadcast signal receiving apparatus and digital broadcast signal receiving method |
JP5829709B2 (en) * | 2014-03-10 | 2015-12-09 | 日立マクセル株式会社 | Transmission / reception system and transmission / reception method |
JP5903461B2 (en) * | 2014-06-06 | 2016-04-13 | 日立マクセル株式会社 | Transmission / reception system and transmission / reception method |
JP6185891B2 (en) * | 2014-07-25 | 2017-08-23 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP5980858B2 (en) * | 2014-08-20 | 2016-08-31 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP5947866B2 (en) * | 2014-11-26 | 2016-07-06 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP5933063B2 (en) * | 2015-03-20 | 2016-06-08 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP5933062B2 (en) * | 2015-03-20 | 2016-06-08 | 日立マクセル株式会社 | Transmission / reception system and transmission / reception method |
JP6055504B2 (en) * | 2015-03-23 | 2016-12-27 | 日立マクセル株式会社 | Display device and display method |
JP5947942B2 (en) * | 2015-03-27 | 2016-07-06 | 日立マクセル株式会社 | Transmission / reception system and transmission / reception method |
JP5952454B2 (en) * | 2015-03-27 | 2016-07-13 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP5952453B2 (en) * | 2015-03-27 | 2016-07-13 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP2016140095A (en) * | 2016-03-11 | 2016-08-04 | 日立マクセル株式会社 | Receiver and receiving method |
JP6117410B2 (en) * | 2016-06-09 | 2017-04-19 | 日立マクセル株式会社 | Transmission / reception system and transmission / reception method |
JP6117976B2 (en) * | 2016-06-09 | 2017-04-19 | 日立マクセル株式会社 | Receiving apparatus and receiving method |
JP6159450B2 (en) * | 2016-07-07 | 2017-07-05 | 日立マクセル株式会社 | Transmission / reception system and transmission / reception method |
JP2016226008A (en) * | 2016-07-27 | 2016-12-28 | 日立マクセル株式会社 | Receiving device and receiving method |
JP6332364B2 (en) * | 2016-08-24 | 2018-05-30 | ソニー株式会社 | COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM |
JP2017143551A (en) * | 2017-03-22 | 2017-08-17 | 日立マクセル株式会社 | Reception apparatus and receiving method |
JP2017143552A (en) * | 2017-03-23 | 2017-08-17 | 日立マクセル株式会社 | Reception apparatus and receiving method |
JP2017195621A (en) * | 2017-06-09 | 2017-10-26 | 日立マクセル株式会社 | Reception device and reception method |
-
2003
- 2003-06-12 JP JP2003168265A patent/JP4190357B2/en not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102177724A (en) * | 2009-06-29 | 2011-09-07 | 索尼公司 | Stereoscopic image data transmitter, method for transmitting stereoscopic image data, stereoscopic image data receiver, and method for receiving stereoscopic image data |
CN102210154A (en) * | 2009-06-29 | 2011-10-05 | 索尼公司 | Stereoscopic image data transmitter and stereoscopic image data receiver |
CN102342113A (en) * | 2009-06-29 | 2012-02-01 | 索尼公司 | Stereoscopic image data transmitter and stereoscopic image data receiver |
CN102177724B (en) * | 2009-06-29 | 2014-07-16 | 索尼公司 | Stereoscopic image data transmitter, method for transmitting stereoscopic image data, stereoscopic image data receiver, and method for receiving stereoscopic image data |
CN102342113B (en) * | 2009-06-29 | 2014-09-17 | 索尼公司 | Stereoscopic image data transmitter and stereoscopic image data receiver |
Also Published As
Publication number | Publication date |
---|---|
JP2005006114A (en) | 2005-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4190357B2 (en) | Broadcast data transmitting apparatus, broadcast data transmitting method, and broadcast data receiving apparatus | |
US10341636B2 (en) | Broadcast receiver and video data processing method thereof | |
KR100970649B1 (en) | Receiving system and method of processing data | |
JP4417421B2 (en) | Binocular / multi-view 3D moving image processing system and method | |
JP6229962B2 (en) | Encoding apparatus and encoding method | |
KR101789636B1 (en) | An apparatus of processing an image and a method of processing thereof | |
CN102461183B (en) | Broadcast transmitter, broadcasting receiver and 3D method for processing video frequency thereof | |
KR101812612B1 (en) | Generating a 3d video signal | |
US20100208750A1 (en) | Method and appartus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream | |
JP2012039340A (en) | Receiving apparatus and receiving method | |
KR20130129212A (en) | Device and method for receiving digital broadcast signal | |
WO2011089982A1 (en) | Reception device, transmission device, communication system, method for controlling reception device, and program | |
WO2012070364A1 (en) | Image data transmission device, image data transmission method, image data reception device, and image data reception method | |
KR20140107182A (en) | Digital broadcasting reception method capable of displaying stereoscopic image, and digital broadcasting reception apparatus using same | |
JP2013110540A (en) | Image data transmitting device, image data transmitting method, image data receiving device, and image data receiving method | |
WO2012120854A1 (en) | Image data transmission apparatus, image data transmission method, image data receiving apparatus and image data receiving method | |
KR20130046404A (en) | Transmission apparatus for reproducing 2d mode in digital terminal, 2d mode reproducing apparatus in digital terminal, and methods of executing the transmission apparatus and the 2d mode reproducing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080916 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080916 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110926 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4190357 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120926 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130926 Year of fee payment: 5 |
|
EXPY | Cancellation because of completion of term |