JP5778673B2 - コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法 - Google Patents

コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法 Download PDF

Info

Publication number
JP5778673B2
JP5778673B2 JP2012521330A JP2012521330A JP5778673B2 JP 5778673 B2 JP5778673 B2 JP 5778673B2 JP 2012521330 A JP2012521330 A JP 2012521330A JP 2012521330 A JP2012521330 A JP 2012521330A JP 5778673 B2 JP5778673 B2 JP 5778673B2
Authority
JP
Japan
Prior art keywords
program
video
stream
content
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012521330A
Other languages
English (en)
Other versions
JPWO2011161957A1 (ja
Inventor
川口 透
透 川口
篠原 弘樹
弘樹 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012521330A priority Critical patent/JP5778673B2/ja
Publication of JPWO2011161957A1 publication Critical patent/JPWO2011161957A1/ja
Application granted granted Critical
Publication of JP5778673B2 publication Critical patent/JP5778673B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes

Description

本発明は、3D映像及び2D映像を表示する技術に関する。
デジタルテレビ等において立体視映像を再生、表示するための技術として、特許文献1に記載の技術等が知られている。
特許文献1には、逐次放送されるストリームを構成するフレーム毎に、当該フレームが2D映像のフレームであるか3D映像のフレームであるかを識別する識別情報を付すことが示されている。そして、映像を再生する再生装置は、再生するフレーム毎に、対応する識別情報を用いて当該フレームが2D映像のフレームであるか3D映像のフレームであるかを判別し、その結果に応じて2D映像を再生したり、3D映像を再生したりする。
特開2005−094168号公報
ここで、インターネット等のようなネットワークにより配信されるストリームが、2D映像のフレームが混じることなく、全て3D映像のフレームで構成されている場合を想定する。この場合に、特許文献1に記載された技術を用いて、3Dの映画のストリームを再生しようとすると、各フレームについて識別情報を参照することになり、このような参照は冗長な処理となる。
そこで、本発明は、ストリームの構成状況によっては冗長となる処理を抑止することのできるコンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法を提供することを目的とする。
上記目的を達成するために、本発明は、番組コンテンツに係る番組ストリームを配信する配信サーバと、前記番組ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムであって、前記配信サーバは、前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、前記再生装置は、前記番組ストリームと、前記番組状態フラグとを受信する受信手段と、受信した前記番組ストリームのデコードに先立って、受信した前記番組状態フラグが当該番組コンテンツの全編が3Dであることを示すか否かを判断する判断手段と、前記番組状態フラグが前記番組コンテンツの全編が3Dであること示すと判断する場合には、前記番組ストリームをデコードする際に前記番組ストリームに含まれる全てのフレームについて各フレームが3Dであるか否かを確認することなく、3D映像用の再生制御により再生する再生手段とを備えることを特徴とする。
上記の構成によると、コンテンツ配信システムの配信サーバはストリームと番組状態フラグとを再生装置に送信し、再生装置は、番組ストリームのデコード前に番組状態フラグを用いて当該番組ストリームを示す番組コンテンツの全編が3Dであると判断する場合には、各フレームが3Dであるか否かを確認することなく、番組ストリームをデコードして再生する。これにより、コンテンツを配信するサービスにおいて全編が3Dである番組コンテンツが1つの配信対象のコンテンツとして配信される場合には、当該コンテンツ配信システムを用いることで、各フレームについて3Dであるか否かを確認するという処理を抑止することができる。
デジタルテレビ(再生装置)100の利用形態を示す図である。 立体視画像の表示の一例を示す図である。 Side−by−Side方式による映像の表示の例を示す図である。 立体視のためのフレームの構成の一例を示す図である。 コンテンツ配信システム1の構成を示す図である。 配信サーバ300の構成を示す図である。 コンテンツ管理テーブル310のデータ構造の一例を示す図である。 再生制御ファイルのデータ構造の一例を示す図である。 デジタルテレビ100の構成を示す図である。 出力処理118の構成を示す図である。 コンテンツ配信システム1の動作の概要を示す流れ図である。 デジタルテレビ100がストリームを再生する際における動作を示す流れ図である。 2Dの出力形態による再生処理の動作を示す図である。 3Dの出力形態による再生処理の動作を示す図である。 2D及び3Dの混在用の再生処理の動作を示す図である。 SEIの識別情報を参照しながら再生処理を行う場合の動作を示す図である。 SEIの識別情報を参照することなく再生処理を行う場合の動作を示す図である。 再生制御ファイルのデータ構造の変形例を示す図である。 再生制御ファイルのデータ構造(コンテンツの冒頭フレームの指定)の変形例を示す図である。
1.第1の実施の形態
図面を参照しながら、本実施の形態に係るコンテンツ配信システムについて説明する。本実施の形態に係るコンテンツ配信システムは、コンテンツを配信する配信サーバと、配信されたコンテンツを再生する再生装置からなるものである。
1.1 立体視について
先ず始めに、立体視の原理について簡単に述べる。立体視の実現法としては、ホログラフィ技術等の光線再生方式を用いる方法と、視差画像を用いる方式とがある。
まず、1つ目のホログラフィ技術の特徴としては、人間が通常物体を認識するのと全く同じように物体を立体として再現することができるが、動画生成に関しては、技術的な理論は確立しているが、ホログラフィ用の動画をリアルタイムで生成する膨大な演算量を伴うコンピューター、及び1mmの間に数千本の線を引けるだけの解像度を持った表示装置が必要であるが、現在の技術での実現は非常に難しく、商用として実用化されている例はほとんどない。
次に、2つ目の視差画像を用いる方式について説明する。一般に右目と、左目は、その位置の差に起因して、右目から見える像と左目から見える像には見え方に若干の差がある。この差を利用して人間は目に見える像を立体として認識できるのである。視差画像を用いて立体表示をする場合には、人間の視差を利用し平面の画像があたかも立体に見えるようにしている。
この方式のメリットは、高々右目用と左目用の2つの視点の映像を準備するだけで立体視を実現できることにあり、技術的には、左右のそれぞれの目に対応した絵を、いかにして対応した目にだけ見せることができるかの観点から、継時分離方式を始めとするいくつかの技術が実用化されている。
継時分離方式とは、左目用映像及び右目用映像を時間軸方向で交互に表示させ、目の残像反応により左右のシーンを脳内で重ね合わさせて、立体映像として認識させる方法である。
本実施の形態における再生装置は、3D映像の視聴が可能なテレビであり、図1(a)は、当該再生装置の、使用行為についての形態を示す図である。本図に示すように、デジタルテレビ100と3D眼鏡200とから構成され、ユーザによる使用が可能となる。
デジタルテレビ100は、2D映像及び3D映像を表示することができるものであり、受信した放送波に含まれるストリームを再生することで映像を表示する。
本実施形態のデジタルテレビ100は、3D眼鏡200をユーザが着用することで立体視を実現するものである。3D眼鏡200は、液晶シャッターを備え、継時分離方式による視差画像をユーザに視聴させる。視差画像とは、右目に入る映像と、左目に入る映像とから構成される一組の映像であり、それぞれの目に対応したピクチャだけがユーザの目に入るようにして立体視を行わせる。図1(b)は、左目用映像の表示時を示す。画面上に左目用の映像が表示されている瞬間において、前述の3D眼鏡200は、左目に対応する液晶シャッターを透過にし、右目に対応する液晶シャッターは遮光する。同図(c)は、右目用映像の表示時を示す。画面上に右目用の映像が表示されている瞬間において、先ほどと逆に右目に対応する液晶シャッターを透光にし、左目に対応する液晶シャッターを遮光する。
以上が、再生装置の使用形態についての説明である。
ここでは、立体視に使う視差画像を表示する方法を説明する。
視差画像方式は、右目に入る映像と、左目に入る映像とを各々用意し、それぞれの目に対応したピクチャだけが入るようにして立体視を行う方法である。図2は、ユーザの顔を左側に描き、右側には、対象物たる恐竜の骨格を左目から見た場合の例と、対象物たる恐竜の骨格を、右目から見た場合の例とを示している。右目及び左目の透光、遮光から繰り返されば、ユーザの脳内では、目の残像反応により左右のシーンの重合せがなされ、顔の中央の延長線上に立体映像が存在すると認識することができる。
視差画像のうち、左目に入る画像を左目画像(L画像)といい、右目に入る画像を右目画像(R画像)という。そして、各々のピクチャが、L画像になっている動画像をレフトビュービデオといい、各々のピクチャがR画像になっている動画像をライトビュービデオという。
レフトビュービデオとライトビュービデオを合成して圧縮符号化する3D方式には、フレーム互換方式とサービス互換方式がある。
まず1つ目のフレーム互換方式は、レフトビュービデオとライトビュービデオの対応する各ピクチャをそれぞれ間引きまたは縮小した上で一つのピクチャに合成して、通常の動画像圧縮符号化を行う方式である。一例としては、図3に示すような、Side−by−Side方式がある。Side−by−Side方式では、レフトビュービデオとライトビュービデオの対応する各ピクチャをそれぞれ水平方向に1/2に圧縮した上で、左右に並べることで一つのピクチャに合成する。合成されたピクチャによる動画像は、通常の動画像圧縮符号化が行われてストリーム化される。一方再生時は、ストリームを通常の動画像圧縮符号化方式に基づいて動画像に復号化される。復号化された動画像の各ピクチャは、左右画像に分割されて、それぞれ水平方向に2倍に伸長されることによって、レフトビュービデオとライトビュービデオの対応する各ピクチャが得られる。得られたレフトビュービデオのピクチャ(L画像)とライトビュービデオのピクチャ(R画像)を交互に表示することによって、図2に示すような立体視画像を得ることができる。フレーム互換方式にはSide−by−Side方式の他に、左右画像を上下に並べるTop and Bottom方式や、ピクチャ内の1ライン毎に左右画像を交互に配置するLine Alternative方式などがある。
次に、2つ目のサービス互換方式について説明する。サービス互換方式では、レフトビュービデオ、ライトビュービデオをデジタル化し、圧縮符号化することにより得られるビデオストリームである、レフトビュービデオストリームとライトビュービデオストリームを用いる。
図4は、サービス互換方式による立体視のためのレフトビュービデオストリーム、ライトビュービデオストリームの内部構成の一例を示す図である。
本図の第2段目は、レフトビュービデオストリームの内部構成を示す。このストリームには、ピクチャデータI1、P2、Br3、Br4、P5、Br6、Br7、P9というピクチャデータが含まれている。これらのピクチャデータは、Decode Time Stamp(DTS)に従いデコードされる。第1段目は、左目画像を示す。そうしてデコードされたピクチャデータI1、P2、Br3、Br4、P5、Br6、Br7、P9をPresentation Time Stamp(PTS)に従い、I1、Br3、Br4、P2、Br6、Br7、P5の順序で再生することで、左目画像が再生されることになる。本図において、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。ピクチャとは、フレームおよびフィールドの両者を包含する1つの符号化の単位である。また、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャとそれぞれ呼ばれる。
第4段目は、ライトビュービデオストリームの内部構成を示す。このライトビュービデオストリームには、P1、P2、B3、B4、P5、B6、B7、P8というピクチャデータが含まれている。これらのピクチャデータは、DTSに従いデコードされる。第3段目は、右目画像を示す。そうしてデコードされたピクチャデータP1、P2、B3、B4、P5、B6、B7、P8をPTSに従い、P1、B3、B4、P2、B6、B7、P5の順序で再生することで、右目画像が再生されることになる。ただし、継時分離方式の立体視再生では、同じPTSが付された左目画像と右目画像とのペアうち一方の表示を、PTSの間隔の半分の時間(以下、「3D表示ディレイ」という)分だけ遅延して表示する。
第5段目は、3D眼鏡200の状態をどのように変化させるかを示す。この第5段目に示すように、左目画像の視聴時は、右目のシャッターを閉じ、右目画像の視聴時は、左目のシャッターを閉じていることがわかる。
これらのレフトビュービデオストリーム、ライトビュービデオストリームは、時間方向の相関特性を利用したピクチャ間予測符号化に加えて、視点間の相関特性を利用したピクチャ間予測符号化によって圧縮されている。ライトビュービデオストリームのピクチャは、レフトビュービデオストリームの同じ表示時刻のピクチャを参照して圧縮されている。
例えば、ライトビュービデオストリームの先頭Pピクチャは、レフトビュービデオストリームのIピクチャを参照し、ライトビュービデオストリームのBピクチャは、レフトビュービデオストリームのBrピクチャを参照し、ライトビュービデオストリームの二つ目のPピクチャは、レフトビュービデオストリームのPピクチャを参照している。
そして、圧縮符号化されたレフトビュービデオストリーム及びライトビュービデオストリームのうち、単体で復号化が可能になるものを“ベースビュービデオストリーム”という。また、レフトビュービデオストリーム及びライトビュービデオストリームのうち、ベースビュービデオストリームを構成する個々のピクチャデータとのフレーム間相関特性に基づき圧縮符号化されており、ベースビュービデオストリームが復号された上で復号可能になるビデオストリームを、“ディペンデントビューストリーム”という。なおベースビュービデオストリームとディペンデントビューストリームは、それぞれ別々のストリームとして格納や伝送されてもよいし、例えばMPEG2−TSなどの同一のストリームに多重化されてもよい。
1.2 コンテンツ配信システム1の概要
コンテンツ配信システム1は、図5に示すように、デジタルテレビ100と配信サーバ300とから構成されている。
ここで、デジタルテレビ100と配信サーバ300とは、インターネット等のようなネットワーク2を介して接続されており、ネットワーク2を介して、番組コンテンツ等のデータの送受信を行う。なお、以下において、番組コンテンツを、単にコンテンツという。
また、デジタルテレビ100は、例えばプラズマテレビであり、3D映像を含むコンテンツを視聴する場合には3D眼鏡200を用いて視聴する。
配信サーバ300は、H.264|MPEG4/AVC規格に基づいてストリーム化された複数のコンテンツ(以下、単に「ストリーム」という。)を記憶している。そして、配信サーバ300は、デジタルテレビ100からコンテンツの要求があると、要求されたコンテンツに対応する再生制御ファイルをデジタルテレビ100へ送信する。ここで、再生制御ファイルとは、対応するコンテンツの属性や、格納場所(URL)等の再生に必要な情報を記述したものである。さらに、再生制御ファイルは、対応するコンテンツが、2D映像のみからなるコンテンツ、3D映像のみからなるコンテンツ及び2D映像と3D映像とが混在するコンテンツの何れであるかを識別する情報をも含んでいる。
配信サーバ300は、再生制御ファイルの送信後、デジタルテレビ100からの要求により、要求されたコンテンツに対するストリームを、ネットワーク2を介してデジタルテレビ100へ配信する。
デジタルテレビ100は、視聴者の操作により当該視聴者が希望するコンテンツの要求をネットワーク2を介して配信サーバ300に対して行い、その後、要求したコンテンツに対するストリームを受信すると、当該ストリームの再生を行う。
H.264|MPEG4/AVCに基づくストリームは、公知のものであるが、簡単に説明する。
ストリームは、連続した複数のGOP(Group Of Pictures)から構成されている。GOPには、複数のフレーム(ピクチャー)が、参照関係に従った順序で符号化されている。なお、復号化(デコード)する際には、表示順序に並べ直して当該復号化が行われる。
また、各フレームには、“Frame packing arrangement SEI(Supplemental Enhance Information)”と呼ばれる付加的情報が付されており、このSEI内に、対応するフレームが3D映像であるか2D映像であるかを識別するための識別情報が設定されている。なお、このSEIは省略可能であり、省略されている場合は2D映像と解釈する。さらに、対応する再生制御ファイルに2D映像のみからなるコンテンツまたは3D映像のみからなるコンテンツであると記載されている場合には、コンテンツ全編に渡りこのSEIの記載を省略してもよい。
デジタルテレビ100は、再生制御ファイルに含まれる情報から2D映像と3D映像とが混在するコンテンツであると判別した場合において、2D映像のフレームと3D映像のフレームとが混在するストリームを受信すると、フレームをデコードする際には、対応するSEIの識別情報を参照して当該フレームが3D映像であるか2D映像であるかを判別して、その結果に応じて、デコード及び再生を行う。
デジタルテレビ100は、再生制御ファイルの記述内容により、視聴者から要求されたストリームが2D映像のみからなるもの及び3D映像のみからなるものであると判別する場合には、SEIの識別情報を参照することなく、デコード及び再生を行う。
以下、各装置(デジタルテレビ100及び配信サーバ300)について、詳細に説明する。
1.3 配信サーバ300の構成
配信サーバ300は、図6に示すように、コンテンツ記憶部301、配信制御部302及び入出力部303から構成されている。
(1)コンテンツ記憶部301
コンテンツ記憶部301は、図7に示すように、コンテンツ管理テーブル310を有している。
コンテンツ管理テーブル310は、再生制御ファイルURL311、再生制御ファイル312、コンテンツURL313及びコンテンツ314からなる組を複数記憶するための領域を有している。
コンテンツ314は、コンテンツURL313にて外部より特定されるコンテンツである。なお、ここでは、ストリーム化されて記憶されているものとする。
再生制御ファイル312は、対応するコンテンツの再生制御ファイルであり、再生制御ファイルURL311にて外部より特定される。
具体的には、コンテンツAについては、コンテンツURLは“http://aaa.com/bbb.tts”であり、対応する再生制御ファイルは“ファイルA”であって、再生制御ファイルURLは“http://aaa.com/bbb.cpc”である。
ここで、再生制御ファイルについて説明する。
再生制御ファイル320は、図8に示すようなデータ構造からなる。
ヘッダ部(<header>)には、当該ファイルの作成日(<date>)、作成時(<time>)及び対応するコンテンツが暗号されているか否かを示す情報(<encryption>)が格納される。
リソース情報部(<startup>)には、コンテンツのタイトル(<content_title>)、概要(<content_abstract>)、コンテンツの時間長(<duraction>)及び参照先(<start>)が格納される。参照先(<start>)は、コンテンツURLに対応する。
チャプタ情報部(<content_chapter_info>)には、チャプタ番号(<chapter>)、チャプタの開始点(<chapter_point>)及びチャプタのタイトル(<chapter_title>)が格納される。なお、チャプタ番号、チャプタの開始点及びチャプタのタイトルからなる組は複数あってもよい。
ES(Elementary Stream)情報部(<es_info>)には、映像ESの情報(<video_info>)、音声ESの情報(<audio_info>)、字幕ESの情報(<caption_info>)が格納される。
本実施の形態では、ES情報部の映像ESの情報に、新たな記述要素321を追加する。
記述要素321における記述“s3d_frame_compatible structure=”sbs“”は、対応するストリームがSide−by−Side方式で生成されたフレームを含む、つまり3D映像を含むことを示す。なお、Top and Bottom方式の場合には“sbs”の代わりに“tab”が記述される。なお、以下において、“structure=”sbs“”を3D構成状態フラグという。構成状態フラグがSide−by−Side方式を示すとはsbsが設定されていることを意味し、構成状態フラグがTop and Bottom方式を示すとはtabが設定されていることを意味するものとする。
また、“signaling=“xxxx”“は、フレーム毎に対応するSEIの識別情報を参照するか否かを指定するものである。ここでは、xxxxは、図8に示すように”true“及び”false“の何れかが設定される。trueが設定されている場合にはSEIの識別情報を参照することを示し、falseが設定されている場合には参照しないことを示す。つまり、falseが設定されている場合には、ストリームに含まれる全てのフレームは、3D映像であることを示す。なお、以下において、“signaling=“xxxx”“を番組状態フラグという。番組状態フラグがSEIの識別情報を参照することを示すとは“signaling=“true”“を意味し、番組状態フラグがSEIの識別情報を参照しないことを示すとは“signaling=“false”“を意味するものとする。
“beginnig=“yy”“は、ストリームの冒頭のフレームが2D映像であるか3D映像であるかを示すものである。ここでは、yyは、図8に示すように”2d“及び”3d“の何れかが設定される。2dが設定されている場合には冒頭のフレームは2D映像であることを示し、3dが設定されている場合には冒頭のフレームは3D映像であることを示す。なお、以下において、“beginning=“yy”“は、冒頭フレーム状態フラグという。冒頭フレーム状態フラグが3Dを示すとは“beginning=“3d”“を意味し、冒頭フレーム状態フラグが2Dを示すとは“beginning=“2d”“を意味するものとする。また、冒頭フレームとは、本実施の形態においては、一番組についてのストリームにおいて、当該一番組の先頭に対応するフレームをいう。
さらに、“true</s3d_frame_compatible>”で記載されているtrueは、ストリームには3D映像のフレームが含まれていることを示す。
また、記述要素321がES情報部内に存在しない場合、または上記” true”の代わりに”false”が記載されている場合には、ストリームに含まれる全てのフレームが2D映像であることを示す。
(2)配信制御部302
配信制御部302は、デジタルテレビ100の要求に応じた再生制御ファイルの送信、及びストリームの配信を行うものである。
配信制御部302は、デジタルテレビ100から配信対象となるコンテンツ(ストリーム)に対応する再生制御ファイルURLを含むファイル要求情報を受信すると、受信したファイル要求情報に含まれるURLで識別される再生制御ファイルをコンテンツ管理テーブル310から取得する。
配信制御部302は、取得した再生制御ファイルを、入出力部303を介してデジタルテレビ100へ送信する。
配信制御部302は、配信対象となるストリームを要求する旨の情報と、当該ストリームを識別するコンテンツURLとを含むストリーム要求情報を受信すると、受信したストリーム要求情報に含まれるコンテンツURLで識別されるストリームをコンテンツ管理テーブル310から取得し、入出力部303を介してデジタルテレビ100へ送信する。
(3)入出力部303
入出力部303は、ネットワーク2を介してデジタルテレビ100から受信した情報(ファイル要求情報、ストリーム要求情報)を配信制御部302へ出力する。
また、入出力部303は、配信制御部302から受け取った再生制御ファイル及びストリームを、ネットワーク2を介してデジタルテレビ100へ送信する。
1.4 デジタルテレビ100の構成
デジタルテレビ100は、具体的には、プラズマテレビであり、ネットワーク2を介して配信サーバ300からストリームを受信し、再生する。
デジタルテレビ100は、図9に示すように、コンテンツ出力装置101と表示装置102とから構成される。
コンテンツ出力装置101は、配信サーバ300から受信したストリームを復号化し、復号化したストリームを、当該ストリームが2D映像であるか3D映像であるかに応じて、2D映像の出力形態と3D映像の出力形態の何れかに切り替えて出力するものである。ここで、2D映像の出力形態とは出力周期を60Hzとして映像を出力することであり、3D映像の出力形態とは出力周期を120Hzとして映像を出力することである。ここで、3D映像用再生制御(3D用の出力形態)とは出力周期を120Hzとして映像を出力することであり、2D映像用再生制御(2D用の出力形態)とは出力周期を60Hzとして映像を出力することである。
表示装置102は、コンテンツ出力装置101から出力された映像を表示するものである。
以下、コンテンツ出力装置101の構成について説明する。
コンテンツ出力装置101は、TSバッファ110、符号化映像バッファ111、復号化映像バッファ112、入出力部113、多重化分離部114、映像デコード部115、音声デコード部116、再生制御部117、出力処理部118及び操作制御部119から構成される。
(1)操作制御部119
操作制御部119は、ユーザ(視聴者)の操作により、配信が要求されたコンテンツを識別する再生制御ファイルURLを特定する。
操作制御部119は、特定した再生制御ファイルURLを含むファイル要求情報を生成し、生成したファイル要求情報を、入出力部113を介して配信サーバ300へ送信する。
再生制御ファイルURLの特定は、例えば、以下のように行う。
操作制御部119は、配信サーバ300からコンテンツの配信を要求する際に、先ず配信サーバで管理されているコンテンツ(ストリーム)それぞれの再生制御ファイルURLと、コンテンツの名称を配信サーバ300から受け取ると、表示装置102でコンテンツの名称を一覧表示させる。操作制御部119は、一覧表示されたコンテンツの名称から一の名称がユーザの操作により選択されると、選択されたコンテンツの名称に対応する再生制御ファイルURLを特定する。
(2)入出力部113
入出力部113は、操作制御部119からファイル要求情報を受け取ると、ネットワーク2を介して配信サーバ300へ送信する。
入出力部113は、配信サーバ300から再生制御ファイルを受信すると、受信した再生制御ファイルを再生制御部117へ出力する。
入出力部113は、配信サーバ300からストリームを受信すると、TSバッファ110へ格納する。
(3)再生制御部117
再生制御部117は、図9に示すように、番組判定部125及び冒頭フレーム判定部126を有している。
(3−1)番組判定部125
番組判定部125は、図8で示す記述要素321が存在するか否を判断する。つまり番組判定部125は、再生制御ファイルを用いて配信される対象のストリームが2D映像のみからなるものであるか3D映像を含むものであるかを判断する。
2D映像のみからなるストリームであると判断する場合には、番組判定部125は、SEIの識別情報を参照しない旨の第1参照指示及び、出力形態を2D用の出力形態とする旨の2D出力指示を出力処理部118へ出力する。
再生制御ファイルに記述要素321は存在する、つまり、配信される対象のストリームが3D映像を含むものであると判断する場合には、番組判定部125は、番組状態フラグがSEIの識別情報を参照することを示すか参照しないことを示すかを特定する。
参照することを示すと特定した場合には、番組判定部125は、記述要素321の3D構成状態フラグで設定されている内容に基づいて、3D映像がSide−by−Side方式で生成されているかTop and bottom方式で生成されているかを示す構成情報と、SEIの識別情報を参照する旨の第2参照指示とを出力処理部118へ出力する。
参照しないことを示すと特定した場合には、番組判定部125は、第1参照指示、構成情報及び出力形態を3D用の出力形態とする旨の3D出力指示を出力処理部118へ出力する。
(3−2)冒頭フレーム判定部126
冒頭フレーム判定部126は、番組判定部125で再生制御ファイルに記述要素321は存在すると判定され、且つ番組状態フラグがSEIの識別情報を参照することを示していると特定された場合に、以下の動作を行う。
冒頭フレーム判定部126は、冒頭フレーム状態フラグが3Dを示しているのか2Dを示しているのかを特定する。
2Dを示していると特定する場合には、冒頭フレーム判定部126は、2D出力指示を出力処理部118へ出力する。3Dを示していると特定する場合には、冒頭フレーム判定部126は、3D出力指示を出力処理部118へ出力する。
(4)TSバッファ110
TSバッファ110は、配信サーバ300から配信されたストリームを格納する領域を有しているバッファである。
(5)多重化分離部114
多重化分離部114は、受信したストリームを、映像を構成する映像ストリームと、音声を構成する音声ストリームとに分離し、映像ストリームを符号化映像バッファ111へ、音声ストリームを音声デコード部116へ出力する。
(6)符号化映像バッファ111
符号化映像バッファ111は、映像ストリームを格納するための領域を有している。この時点では、映像ストリームは復号化される前のフレーム、つまり符号化されたフレームを含んでいる。
(7)映像デコード部115
映像デコード部115は、2D及び3Dを構成する映像ストリームを符号化映像バッファ111から読み出し、読み出した映像ストリームをデコードして映像フレームを得るとともに、当該映像フレームに付されているSEIを取得する。なお、3D映像のフレームがデコードされた時点では、左目用の映像と右目用の映像との切り分けはなされていない。
映像デコード部115は、デコードした映像フレームを復号化映像バッファ112へ格納し、取得したSEIを出力処理部118へ出力する。
(8)復号化映像バッファ112
復号化映像バッファ112は、デコードされた映像フレームを格納するための領域を有するバッファである。
(9)出力処理部118
出力処理部118は、デコードされた映像フレームを、当該映像フレームが2D映像であるか3D映像であるかに応じて、出力形態を切り替えて表示装置102へ出力するものである。
出力処理部118は、図9に示すように、フレームバッファ120、映像処理部121及び出力制御部122を有している。
(9−1)フレームバッファ120
フレームバッファ120は、図10に示すように、第1バッファ130と第2バッファ131とを有している。
第1バッファ130は、2D映像の映像フレーム(以下、「2D映像フレーム」という。)を格納するためのものである。
第2バッファ131は、L映像バッファ132とR映像バッファ133とを有し、3D映像のフレームを格納するためのものである。ここでは、L映像バッファ132には左目用の映像フレーム(以下、「L映像フレーム」という。)が、R映像バッファ133には右目用の映像フレーム(以下、「R映像フレーム」という。)が格納される。
(9−2)映像処理部121
映像処理部121は、再生制御部117からの指示に応じて、SEIの識別情報を参照して出力すべき映像フレームの処理、及び参照することなく出力すべき映像フレームの処理を行う。
(SEIの識別情報を参照する場合)
映像処理部121は、再生制御部117の番組判定部125から第2参照情報及び構成情報を受け取る。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、対応するSEIの識別情報が存在しない場合もしくは2Dを示す場合には読み出した映像フレームを第1バッファ130へ書き込むとともに、出力制御部122へ出力形態が2Dであることを示す2D出力指示を出力する。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、対応するSEIの識別情報が3Dを示す場合には当該SEI中の構成情報に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成し、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む。さらに、映像処理部121は、出力制御部122へ出力形態が3Dであることを示す3D出力指示を出力する。具体的には、映像フレームがSide−by−Side方式で生成されている場合には、映像処理部121は、左右に分割して、分割した各映像フレームを横方向に拡大して、L映像フレーム及びR映像フレームを得る。また、Top and bottom方式で生成されている場合には、上下に分割して、分割した各映像を縦方向に拡大して、L映像フレーム及びR映像フレームを得る。
(SEIの識別情報を参照しない場合)
映像処理部121は、第1参照指示のみを受け取ると、出力すべきストリームは全て2D映像であると特定する。映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、SEIの識別情報を参照することなく、読み出した映像フレームを第1バッファ130へ書き込む。
映像処理部121は、第1参照指示と構成情報とを受け取ると、出力すべきストリームは全て3D映像であると特定する。映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、SEIの識別情報を参照することなく、受け取った構成情報に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成する。映像処理部121は、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む。なお、構成情報に基づくL映像フレーム及びR映像フレームの生成は上記と同様であるので、ここでの説明は省略する。
(9−3)出力制御部122
出力制御部122は、図10に示すように、切替制御部140、出力部141及びスイッチ142を有している。
(スイッチ142)
スイッチ142は、出力部141との接続先として、第1バッファ130及び第2バッファ131の何れかへ切り替えるスイッチである。
(切替制御部140)
切替制御部140は、接続先となるバッファの切り替えを行うものである。具体的には、切替制御部140は、再生制御部117及び映像処理部121から2D出力指示を受け取ると、接続先が第1バッファ130となるようスイッチ142を制御する。また、切替制御部140は、再生制御部117及び映像処理部121から3D出力指示を受け取ると、接続先が第2バッファ131となるようスイッチ142を制御する。
(出力部141)
出力部141は、再生制御部117及び映像処理部121からの指示に基づいて、映像の出力周期を変更して、映像を表示装置102へ出力するものである。具体的には、出力部141は、再生制御部117及び映像処理部121からの指示が2D出力指示である場合には、出力周期を60Hzとして、スイッチ142の接続先である第1バッファ130から出力対象である2Dの映像を読み出して、表示装置102へ出力する。また、出力部141は、再生制御部117及び映像処理部121からの指示が3D出力指示である場合には、出力周期を120Hzとして、スイッチ142の接続先である第2バッファ131のL映像バッファ132及びR映像バッファ133から出力対象である映像を交互に読み出して、表示装置102へ出力する。なお、初期状態(再生制御ファイルを受信した時点)では、出力周期は60Hzであるとする。
ここで、出力部141は、再生制御部117及び映像処理部121から受け取った指示が示す出力形態と、受け取る直前の出力形態とが同一である場合には、切替は行わない。例えば、受け取った指示が示す2D出力指示であり、現状の出力形態、つまり出力周期が60Hzである場合には出力周期の切替は行わない。また、受け取った指示が示す3D出力指示であり、現状の出力形態、つまり出力周期が120Hzである場合についても出力周期の切替は行わない。
これによると、出力部141は、再生制御部117から3D出力指示を受け付けると、出力形態を3Dの出力形態(出力周期を120Hz)に変更している。この変更のタイミングでは、ストリームのデコードは行われていない。つまり、出力部141は、ストリームのデコードが開始される前に、冒頭フレームが3Dである場合には出力形態を3D用のものへと変更し、映像処理部で上記の処理が行われることを待っている状態、つまり出力の準備状態となっていることが分かる。従って、出力部141は、再生制御部117から受け取った指示に応じて、フレームの出力形態を2D用のもの、3D用のものに設定して、出力の準備を行っている。
(10)音声デコード部116
音声デコード部116は、多重化分離部114から音声ストリームを受け取ると、受け取った音声ストリームをデコードして、音声を生成し、出力する。
1.5 動作
(1)コンテンツ配信システム1の動作概要
ここでは、コンテンツ配信システム1の動作概要について、図11に示す流れ図を用いて説明する。
デジタルテレビ100は、ユーザの操作により配信を要求するコンテンツ(ストリーム)の選択がなされると(ステップS5)、選択されたコンテンツに対応する再生制御ファイルURLを含むファイル要求情報を配信サーバ300へ送信する(ステップS10)。
配信サーバ300は、デジタルテレビ100から受信した再生制御ファイルURLに対応する再生制御ファイルを特定し(ステップS15)、特定した再生制御ファイルをデジタルテレビ100へ送信する(ステップS20)。
デジタルテレビ100は、再生制御ファイルを受信すると、受信した再生制御ファイルの内容を解釈し(ステップS25)、その後、ストリーム要求情報を配信サーバ300へ送信する(ステップS30)。
配信サーバ300は、ストリーム要求情報を受信すると、配信要求のあったコンテンツ(ストリーム;TS)をデジタルテレビ100へ配信する(ステップS35、S40)。
デジタルテレビ100は、受信したストリームをデコードし、2D映像及び3D映像に応じた出力形態で、映像を再生する(ステップS45)。
(2)デジタルテレビ100の再生動作
ここでは、デジタルテレビ100がストリームを再生する際における動作、特に図11で示すステップS25及びS45の詳細な動作について、図12に示す流れ図を用いて説明する。
番組判定部125は、図8で示す記述要素321が存在するか否を判断、つまり配信されるストリームが3D映像を含むものであるか否かを判断する(ステップS100)。
番組判定部125で、配信されるストリームが3D映像を含まない、つまり2D映像のみからなるものであると判断する場合(ステップS100における「No」)、出力処理部118は、2Dの出力形態で、ストリームに含まれるフレーム毎にSEIの識別情報を参照することなく、ストリームに含まれる全ての映像フレームを再生する(ステップS105)。
配信されるストリームが3D映像を含むものであると判断する場合(ステップS100における「Yes」)、番組判定部125は、番組状態フラグがSEIの識別情報を参照することを示しているか参照しないことを示しているかを判断する(ステップS110)。
番組判定部125で、SEIの識別情報を参照しない、つまりsignalingで指定されている内容が“false”であると判断する場合(ステップS110における「No」)、出力処理部118は、3Dの出力形態で、ストリームに含まれるフレーム毎にSEIの識別情報を参照することなく、ストリームに含まれる全ての映像フレームを再生する(ステップS115)。
番組判定部125で、SEIの識別情報を参照する、つまりsignalingで指定されている内容が“true”であると判断する場合(ステップS110における「Yes」)、冒頭フレーム判定部126は、冒頭フレーム状態フラグが2Dを示しているか3Dを示しているかを判断する(ステップS120)。
冒頭フレーム判定部126で冒頭フレーム状態フラグが3Dを示している、つまりbeginningで設定されている内容が“3d”であると判断する場合(ステップS120における「Yes」)、出力処理部118は、映像の出力形態を3Dの出力形態へと変更する(ステップS125)。具体的には、切替制御部140はスイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替え、出力部141は出力周期を120Hzに変更する。
ステップS125の実行後、及び冒頭フレーム判定部126で冒頭フレーム状態フラグが2Dを示している(つまり、beginningで設定されている内容が“2d”である)と判断する場合(ステップS120における「No」)、出力処理部118は、2D及び3Dの混在用の再生処理を行う(ステップS130)。
(3)2D用出力形態による再生の動作
ここでは、図12に示すステップS105で行われる2D用出力形態による再生処理の動作について、図13に示す流れ図を用いて説明する。
なお、当該処理の開始時点において、図12で示すステップS100の判断結果により、映像処理部121は、再生制御部117から第1参照指示のみを受け取っているものとする。つまり、映像処理部121は、出力すべきストリームは全て2D映像であると特定しているものとする。また、図11で示すステップS100の判断結果により、出力制御部122は、再生制御部117から2D出力指示を受け取っているものとする。
映像デコード部115は、符号化映像バッファ111に格納されている映像ストリームをデコードし、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS200)。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレーム、つまり2D映像フレームを読み出すと、SEIの識別情報を参照することなく、読み出した2D映像フレームを第1バッファ130へ書き込む(ステップS205)。
出力部141は、出力周期を60Hzとして、スイッチ142の接続先である第1バッファ130から出力対象である2Dの映像を読み出して、表示装置102へ出力する(ステップS210)。
映像デコード部115は、次にデコードすべき映像があるか否かを判断する(ステップS215)。次にデコードすべき映像があると判断する場合には(ステップS215における「Yes」)、映像デコード部115は、ステップS200を実行する。次にデコードすべき映像はないと判断する場合には(ステップS215における「No」)、処理は終了する。
(4)3D用出力形態による再生の動作
ここでは、図12に示すステップS115で行われる3D用出力形態による再生処理の動作について、図14に示す流れ図を用いて説明する。
なお、当該処理の開始時点において、図11で示すステップS100及びS110の判断結果により、映像処理部121は、再生制御部117から第1参照指示及び構成情報の双方を受け取っているものとする。つまり、映像処理部121は、出力すべきストリームは全て3D映像であると特定しているものとする。
切替制御部140は、再生制御部117から3D出力指示を受け取ると、スイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替える(ステップS300)。また、出力部141は、出力周期を120Hzへ変更する。
映像デコード部115は、符号化映像バッファ111に格納されている映像ストリームをデコードし、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS305)。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、SEIの識別情報を参照することなく、受け取った構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成する(ステップS310)。映像処理部121は、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む(ステップS315)。
出力部141は、出力周期を120Hzとして、スイッチ142の接続先である第2バッファ131のL映像バッファ132及びR映像バッファ133から出力対象である映像を交互に読み出して、表示装置102へ出力する(ステップS320)。
映像デコード部115は、次にデコードすべき映像があるか否かを判断する(ステップS325)。次にデコードすべき映像があると判断する場合には(ステップS325における「Yes」)、映像デコード部115は、ステップS305を実行する。次にデコードすべき映像はないと判断する場合には(ステップS325における「No」)、処理は終了する。
(5)2D及び3D映像の混在用再生の動作
ここでは、図12に示すステップS130で行われる2D及び3D映像の混在用再生処理の動作について、図15に示す流れ図を用いて説明する。
なお、当該処理の開始時点において、図11で示すステップS100及びS110の判断結果により、映像処理部121は、再生制御部117から第2参照指示及び構成情報の双方を受け取っているものとする。つまり、映像処理部121は、出力すべきストリームには2D映像及び3D映像が混在していると特定しているものとする。
映像デコード部115は、符号化映像バッファ111に格納されている映像ストリームをデコードし、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS400)。
映像処理部121は、処理対象の映像フレームに対応するSEIの識別情報が3Dを示すか否かを判断する(ステップS405)。
映像処理部121でSEIの識別情報が3Dであることを示すと判断する場合には(ステップS405における「Yes」)、出力制御部122の出力部141は、現時点での出力形態、つまり出力周期が3D用のものであるか否かを判断する(ステップS410)。具体的には、映像処理部121は、SEIの識別情報が3Dであることを示すと判断する場合には、3D出力指示を出力制御部122へ出力する。出力制御部122は、映像処理部121から3D出力指示を受け取ると、前回のフレームに対する指示が3D出力指示であるか2D出力指示であるかを判断する。前回の指示が3D出力指示であれば現時点での出力形態(出力周期)は3D用のものと特定し、前回の指示が2D出力指示であれば現時点での出力形態(出力周期)は2D用のものと特定することができる。
出力形態が3D用でないと判断する場合には(ステップS410における「No」)、出力部141は、出力形態を3D用に変更、つまり出力周期を120Hzへ変更し(ステップS415)、処理はステップS420へ移行する。出力形態が3D用であると判断する場合には(ステップS410における「Yes」)、処理は、出力形態を変更することなくステップS420へ移行する。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、当該SEI中の構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成する(ステップS420)。映像処理部121は、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む(ステップS425)。
出力部141は、出力周期を120Hzとして、スイッチ142の接続先である第2バッファ131のL映像バッファ132及びR映像バッファ133から出力対象である映像を交互に読み出して、表示装置102へ出力する(ステップS430)。
映像処理部121でSEIの識別情報が3Dでない、つまり2Dであることを示すと判断する場合には(ステップS405における「No」)、出力部141は、現時点での出力形態、つまり出力周期が2D用のものであるか否かを判断する(ステップS435)。具体的には、映像処理部121は、SEIの識別情報が2Dであることを示すと判断する場合には、2D出力指示を出力制御部122へ出力する。出力制御部122は、上述したように、映像処理部121から2D出力指示を受け取ると、前回のフレームに対する指示が3D出力指示であるか2D出力指示であるかを判断する。
出力形態が2D用でないと判断する場合には(ステップS435における「No」)、出力部141は、出力形態を2D用に変更、つまり出力周期を60Hzへ変更し(ステップS440)、処理はステップS445へ移行する。出力形態が2D用であると判断する場合には(ステップS435における「Yes」)、出力形態を変更することなくステップS445へ移行する。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレーム、つまり2D映像フレームを読み出すと、読み出した2D映像フレームを第1バッファ130へ書き込む(ステップS445)。
出力部141は、出力周期を60Hzとして、スイッチ142の接続先である第1バッファ130から出力対象である2Dの映像を読み出して、表示装置102へ出力する(ステップS450)。
映像デコード部115は、次にデコードすべき映像があるか否かを判断する(ステップS455)。次にデコードすべき映像があると判断する場合には(ステップS455における「Yes」)、映像デコード部115は、ステップS200を実行する。次にデコードすべき映像はないと判断する場合には(ステップS455における「No」)、処理は終了する。
(6)動作の具体例
ここでは、各構成要素間における処理の受け渡しを明示した流れ図を用いて、再生処理に係る動作を説明する。
(6−1)SEIの識別情報を参照する場合
ここでは、SEIの識別情報を参照しながらの再生処理について、図16に示す流れ図を用いて説明する。なお、ここでは、再生制御ファイルにおいて、要素記述321の存在が存在し、当該要素記述321にて3D構成状態フラグはSide−by−Side方式を、番組状態フラグはSEIの識別情報を参照することを、冒頭フレーム状態フラグが2Dを、それぞれ示しているものとする。
配信サーバ300は、再生制御ファイルをデジタルテレビ100へ送信する(ステップS500)。
再生制御部117は、受信した再生制御ファイルにおいて、要素記述321の存在の有無、及び存在する場合にはその要素記述321に含まれる各状態フラグの内容を解釈する(ステップS505)。ここでは、再生制御部117は、配信されるストリームは2D映像及び3D映像が混在し、3D映像はSide−by−Side方式で生成され、且つ冒頭フレームは2D映像であると解釈する。
再生制御部117は、再生制御ファイルの3D構成状態フラグの解釈結果に応じた構成情報(ここでは、構成情報は、Side−by−Side方式で生成されていることを示す。)を映像処理部121へ出力する(ステップS508)。
再生制御部117は、ストリーム要求情報を配信サーバ300へ送信する(ステップS510)。
配信サーバ300は、要求のあったストリームをデジタルテレビ100へ送信する(ステップS515)。
入出力部113は、受信したストリームをTSバッファ110へバッファリングする(ステップS520)。多重化分離部114は、TSバッファ110に書き込まれたストリームを多重化分離、ここでは、映像ストリームと音声ストリームに分離する(ステップS525)。このとき、分離された映像ストリームは、符号化映像バッファ111に書き込まれる。
映像デコード部115は、符号化映像バッファ111に書き込まれた映像ストリームをデコードして、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS530)。
映像処理部121は、処理対象の映像フレームに対応するSEIの識別情報を参照して、当該映像フレームが2D映像であるか3D映像であるかを判断する(ステップS535)。映像処理部121は、判断結果に応じた指示を出力制御部122へ出力する(ステップS540)。具体的には、映像処理部121は、処理対象のフレームが2Dであると判断する場合には2D出力指示を、処理対象のフレームが3Dであると判断する場合には3D出力指示を、それぞれ出力する。
映像処理部121は、映像フレームに対して、ステップS535の判断結果に応じたバッファリングを行う(ステップS545)。具体的には、映像処理部121は、処理対象のフレームが2Dであると判断する場合には、復号化映像バッファ112から処理対象の映像フレームを読み出すと、当該映像フレームを第1バッファ130へ格納する。映像処理部121は、処理対象のフレームが3Dであると判断する場合には、復号化映像バッファ112から処理対象の映像フレームを読み出すと、当該SEI中の構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成し、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む。
出力制御部122は、映像処理部121から受け取った指示に応じて、出力形態の切替を行い(ステップS550)、フレームバッファ120に格納された映像を出力する(ステップS555)。
(6−2)SEIの識別情報を参照し、冒頭フレーム状態フラグが3Dの場合
ここでは、SEIの識別情報を参照しながら再生処理を行う場合の再生であって、冒頭フレーム状態フラグが3Dの場合について、図16と異なる点を中心に説明する。
配信サーバ300及びコンテンツ出力装置101の再生制御部117により、図16に示すステップS500からステップS508が行われる。このとき、ステップS505では、再生制御部117は、配信されるストリームは2D映像及び3D映像が混在し、3D映像はSide−by−Side方式で生成され、且つ冒頭フレームは3D映像であると解釈する。
そして、再生制御部117によりステップS510が実行される前に、再生制御部117及び出力制御部122により、以下の処理が実行される。
再生制御部117は、冒頭フレーム状態フラグの解釈結果に基づいて、3D出力指示を出力制御部122へ出力する。
出力制御部122は、出力形態を3D用に設定する。具体的には、切替制御部140は、スイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替え、出力部141は、出力周期を120Hzへ変更する。
これら処理(3D出力指示の出力及び出力形態を3D用に設定)が行われた後、図16に示すステップS510以降の処理が実行される。
なお、ステップS510以降の処理の動作については、既に説明しているので、ここでの説明は省略する。
この動作によると、映像処理部121において冒頭フレームが3Dであると判別されても、出力制御部122は、再生制御部117からの3D出力指示により出力形態を3D用に既に設定しているので、ステップS550による切り替えを行う必要がない。
(6−3)SEIの識別情報を参照しない場合
ここでは、SEIの識別情報を参照することなく再生処理を行う場合の再生について、図17に示す流れ図を用いて説明する。なお、ここでは、再生制御ファイルにおいて、要素記述321の存在が存在し、当該要素記述321にて3D構成状態フラグはSide−by−Side方式を、番組状態フラグはSEIの識別情報を参照しないことを、冒頭フレーム状態フラグが3Dを、それぞれ示しているものとする。
配信サーバ300は、再生制御ファイルをデジタルテレビ100へ送信する(ステップS600)。
再生制御部117は、受信した再生制御ファイルにおいて、要素記述321の存在の有無、及び存在する場合にはその要素記述321に含まれる各状態フラグの内容を解釈する(ステップS605)。ここでは、再生制御部117は、配信されるストリームは3D映像のみからなり、3D映像はSide−by−Side方式で生成され、且つ冒頭フレームは3D映像であると解釈する。
再生制御部117は、再生制御ファイルの3D構成状態フラグの解釈結果に応じた構成情報(ここでは、構成情報は、Side−by−Side方式で生成されていることを示す。)を映像処理部121へ出力し(ステップS610)、さらに、冒頭フレーム状態フラグの解釈結果に基づいて、3D出力指示を出力制御部122へ出力する(ステップS615)。
出力制御部122は、出力形態を3D用に設定する(ステップS620)。具体的には、切替制御部140は、スイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替える、出力部141は、出力周期を120Hzへ変更する。
再生制御部117は、ストリーム要求情報を配信サーバ300へ送信する(ステップS625)。
配信サーバ300は、要求のあったストリームをデジタルテレビ100へ送信する(ステップS630)。
入出力部113は、受信したストリームをTSバッファ110へバッファリングする(ステップS635)。多重化分離部114は、TSバッファ110に書き込まれたストリームを多重化分離、ここでは、映像ストリームと音声ストリームに分離する(ステップS640)。このとき、分離された映像ストリームは、符号化映像バッファ111に書き込まれる。
映像デコード部115は、符号化映像バッファ111に書き込まれた映像ストリームをデコードして、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS645)。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、処理対象の映像フレームに対応するSEIの識別情報を参照することなく、構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成し、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む(ステップS650)。
出力制御部122は、3D用の出力形態で、フレームバッファ120に格納された映像を出力する(ステップS655)。
1.6 変形例
以上、第1の実施の形態に基づいて説明したが、本発明は上記の第1の実施の形態に限られない。例えば、以下のような変形例が考えられる。
(1)上記実施の形態の再生制御ファイルにおいて、新たな記述要素321を記述する際に、番組状態フラグ及び冒頭フレーム状態フラグの双方とも設定するものとしたが、これに限定されない。
何れか一方のみ設定してもよい。
この場合の記述内容について、図18(a)、(b)に示す。
図18(a)に示す記述要素321aは、3D映像のフレームの生成方式、及びSEIの識別情報の参照の有無について指定がなされている場合の記述内容である。
この場合の動作は、図12のステップS120及びステップS125を削除することで実現できる。
図18(b)に示す記述要素321bは、3D映像のフレームの生成方式、及び冒頭フレームの映像の種別について指定がなされている場合の記述内容である。
この場合の動作は、図12のステップS110及びステップS115を削除することで実現できる。
また、上記実施の形態では、番組状態フラグ及び冒頭フレーム状態フラグの双方とも一番組についてのストリームに応じたものであるとしたが、これに限定されない。
ストリームに応じたコンテンツが複数のチャプタからなる場合には、チャプタ単位に番組状態フラグ及び冒頭フレーム状態フラグを設定してもよい。
この場合における再生制御ファイルの記述要素322の一例を図18(c)に示す。例えば、チャプタ単位に冒頭フレーム状態フラグを設定する場合には、チャプタの開始点(<chapter_point>)を指定する記述において、冒頭フレーム状態フラグを追加すればよい。
この場合、デジタルテレビ100は、ユーザから視聴したいチャプタについての情報、例えばチャプタの番号を受け付けると、図12に示す処理を行う。なお、ステップS120では、図8で示す“es_info”内の冒頭フレーム状態フラグではなく、図18(c)で示す“content_chapter_info”内のうち受け付けたチャプタに対応する冒頭フレーム状態フラグが2dであるか3dであるかを判断する。
また、ストリーム再生を一時停止後に再開する場合など、任意の位置からの再生に対して、番組状態フラグ及び冒頭フレーム状態フラグを動的に生成してもよい。
さらには、図19に示す記述であってもよい。
(1−1)図19について
図19は、一の番組について、当該番組全編が3D映像であること、及び冒頭フレームが3Dであるか2Dであるかを示すファイル記述330aを表している。
破線で囲んだ記述331aには、ファイル記述330aで示される番組が3D番組であり、その詳細を示す内容が記載されている。具体的には、フレームがSide−bi−Side方式であること、番組全編が3Dであるか、一部のみが3Dあるか、及び番組の先頭が3D映像であるか2D映像であるかを示すものとなっている。
記述332aでは、フレームがSide−bi−Side方式であることが記載されている。
記載333aでは、番組全編が3Dであるか、一部のみが3Dあるか、及び番組の先頭が3D映像であるか2D映像であるかを示すものとなっている。例えば、entire3dが記載されている場合には番組全編が3D映像であることを示している。この場合、デジタルテレビ100は、かくフレームの識別情報を参照することなく3D出力形態による再生処理(図14参照)を行うことができる。
また、partial3d_start3dが記載されている場合には、番組は、一部3D映像であり、番組の先頭が3D映像であることを示している。この場合、予め出力形態を3D用に変更した上で、2D及び3D混在用の再生処理を行うことができる。
さらに、partial3d_start2dが記載されている場合には、番組は、一部3D映像であり、番組の先頭が2D映像であることを示している。この場合、再生開始時には出力形態を初期状態(2D用)のままとして、2D及び3D混在用の再生処理を行うことができる。
(2)上記実施の形態において、3D構成状態フラグ、番組状態フラグ及び冒頭フレーム状態フラグは、再生制御ファイル内の<video_info>において設定したが、これに限定されない。
再生制御ファイルにおいて、これら状態フラグが解釈できる位置でどこでもよい。または、別ファイルとしてもよし、配信するストリームのヘッダにこれら内容と同様の内容を設定してもよい。
(3)上記実施の形態において、配信されるストリームのフォーマットは、H.264|MPEG4/AVC規格に基づいたものとしたが、これに限定されない。
ストリームのフォーマットは、MPEG2規格や他の映像圧縮符号化方式に基づくものであってもよい。
(4)上記実施の形態において、ストリームを受信し、再生する再生装置としてデジタルテレビを用いて説明したが、当該装置は、デジタルテレビに限定されない。
ストリームを受信し、再生する再生装置を、レコーダやセットトップボックスとしてもよい。
(5)上記実施の形態において、デジタルテレビ100と配信サーバ300はインターネットで接続されているものとしたが、これに限定されない。
専用線を用いて接続されているものとして、デジタルテレビ100と配信サーバ300とを1つの装置として扱ってもよい。例えば、配信サーバ300は、コンテンツをストリーム化して格納している可搬型の記録媒体(SDカード、DVD Disc、Blu−ray Disc等)の着脱可能な装置としてもよい。
(6)上記実施の形態において、コンテンツは、インターネットを介して、ストリーム配信されるものとしたが、これに限定されない。
コンテンツは、ストリーム形式で記録されたパッケージメディアであってもよい。または、放送波により放送されたコンテンツであって、録画装置で録画された後のものであってもよい。または、インターネットを介して、ダウンロード形式で配信されてもよい。または、ビデオカメラ等で撮影された動画像であってもよい。つまりは、コンテンツ(ストリーム)と、上記にて示す記述要素321に相当する内容を記述したファイルとが対応付けられて記憶されていればよい。
(7)上記実施の形態において、プラズマテレビを用いて、2D映像と3D映像の出力周期の切り替えについて説明したが、これに限定されない。
プラズマテレビに限らず、2D映像の表示時と3D映像の表示時で異なるパネル駆動方式が用いられることで、切り替えの時間がかかる(1映像フレーム期間内に完了しない)表示デバイスを有する装置に、上述した切り替えの技術を適用してもよい。
(8)上記実施の形態において、フレームバッファは、第1バッファと、第2バッファ(L映像バッファ、R映像バッファ)とは、物理的に異なるものとしたが、これに限定されない。
第1バッファ、L映像バッファ、R映像バッファが物理的には共通で、時分割で切り替えて用いられる形態でもよい。
(9)上記実施の形態では、2D映像の出力周期は、1/60秒としたが、これに限定されない。
2D映像は他の出力周期(例えば、1/50秒)であってもよい。この場合、3Dの出力周期は、2D映像の出力周期の半分(例えば、1/100秒)となる。
(10)上記実施の形態では、Side−by−Side等のフレーム互換方式を用いて説明したが、これに限定されない。
例えば、H.264/MVC等の符号化方式を用いたサービス互換方式に適用しても良い。
この場合、2Dと3Dが混在するコンテンツの各フレームの2D/3Dの識別は、Subset sequence parameter set等を用いたdependent viewの有無の検出、dependent viewを格納したElementary Stream自体の有無の検出、あるいはPMTにおいてdependent viewの有無を記述したMVC_extension_descriptorもしくはhierarchy_descriptorを解釈することによって行うことができる。
(11)上記実施の形態ではコンテンツの情報を再生制御ファイルに記述する形態にて説明したが、これに限定されない。
例えば、同等の情報を、HTMLやBML文書のobject要素やvideo要素の属性として記述しても良い。
(12)上記の実施の形態で説明した手法の手順を記述したプログラムをメモリに記憶しておき、CPU(Central Processing Unit)などがメモリからプログラムを読み出して、読み出したプログラムを実行することによって、上記の手法が実現されるようにしてもよい。
また、当該手法の手順を記述したプログラムを記録媒体に格納して、頒布するようにしてもよい。
(13)上記の各実施の形態にかかる各構成は、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらの構成は、1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIと表現したが、回路の集積度の違いによっては、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと称呼されることもある。また、集積回路化の手法は、LSIに限られるものではなく、専用回路または汎用プロセッサで集積回路化を行ってもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー(ReConfigurable Processor)を用いてもよい。あるいは、これらの機能ブロックの演算は、例えば、DSP(Digital Signal Processor)やCPU(Central Processing Unit)などを用いて演算することもできる。さらに、これらの処理ステップはプログラムとして記録媒体に記録して実行することで処理することもできる。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適応などが可能性としてあり得る。
(14)上記実施の形態及び変形例を組み合わせるとしてもよい。
1.7 補足
(1)本発明の一実施態様である、コンテンツ配信システムは、番組コンテンツに係る番組ストリームを配信する配信サーバと、前記番組ストリームをデコードして再生する再生装置とからなり、前記配信サーバは、前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、前記再生装置は、前記番組ストリームと、前記番組状態フラグとを受信する受信手段と、受信した前記番組ストリームのデコードに先立って、受信した前記番組状態フラグが当該番組コンテンツの全編が3Dであることを示すか否かを判断する判断手段と、前記番組状態フラグが前記番組コンテンツの全編が3Dであること示すと判断する場合には、前記番組ストリームをデコードする際に前記番組ストリームに含まれる全てのフレームについて各フレームが3Dであるか否かを確認することなく、3D映像用の再生制御により再生する再生手段とを備えることを特徴とする。
上記の構成によると、コンテンツ配信システムの配信サーバはストリームと番組状態フラグとを再生装置に送信し、再生装置は、番組ストリームのデコード前に番組状態フラグを用いて当該番組ストリームを示す番組コンテンツの全編が3Dであると判断する場合には、各フレームが3Dであるか否かを確認することなく、番組ストリームをデコードして再生する。これにより、コンテンツを配信するサービスにおいて全編が3Dである番組コンテンツが1つの配信対象のコンテンツとして配信される場合には、当該コンテンツ配信システムを用いることで、各フレームについて3Dであるか否かを確認するという処理を抑止することができる。
(2)また、本発明の一実施態様である、再生装置は、番組コンテンツに係る番組ストリームを配信サーバから受信し、当該番組ストリームをデコードして再生する再生装置であって、前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、ネットワークを介して前記配信サーバから受信する受信手段と、受信した前記番組ストリームのデコードに先立って、受信した前記番組状態フラグが当該番組コンテンツの全編が3Dであることを示すか否かを判断する判断手段と、前記番組状態フラグが前記番組コンテンツの全編が3Dであること示すと判断する場合には、前記番組ストリームをデコードする際に前記番組ストリームに含まれる全てのフレームについて各フレームが3Dであるか否かを確認することなく、3D映像用の再生制御により再生する再生手段とを備えることを特徴とする。
この構成によると、再生装置は、番組ストリームのデコード前に番組状態フラグを用いて当該番組ストリームを示す番組コンテンツの全編が3Dであると判断する場合には、各フレームが3Dであるか否かを確認することなく、番組ストリームをデコードして再生する。これにより、番組コンテンツの全編が3Dである場合には、各フレームについて3Dであるか否かを確認するという処理を抑止することができる。
(3)ここで、前記番組ストリームに含まれる各フレームには、当該フレームが2D映像であるか3D映像であるかを識別する識別情報が対応付けられており、前記再生手段は、前記番組状態フラグが、当該番組コンテンツの全編が3Dでないことを示す場合には、前記番組ストリームをデコードする際に当該番組ストリームに含まれる各フレームについて対応する識別情報を参照し、当該フレームが2D映像であるときには当該フレームを2D映像用の再生制御により再生し、当該フレームが3D映像であるときには当該フレームを3D映像用の再生制御により再生するとしてもよい。
この構成によると、再生装置は、番組ストリームのデコード前に全編が3Dでないと判断する場合には、フレーム毎に対応付けられた識別情報を用いて当該フレームが2D映像のフレームであるか3D映像のフレームであるかに応じた再生制御で、当該フレームを再生することができる。
(4)また、本発明の一実施態様である、配信サーバは、番組コンテンツに係る番組ストリームを、当該番組ストリームをデコードして再生する再生装置へ配信する配信サーバであって、前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備えることを特徴とする。
この構成によると、配信サーバは、番組コンテンツの全編が3Dであるか否かを示す番組状態フラグを送信するので、再生装置側では、当該番組状態フラグを参照することで、番組コンテンツの全編が3Dであると判断することができる。そして、再生装置は、全編が3Dであると判断する場合には、各フレームが3Dであるか否かを確認することなく、番組ストリームをデコードして再生することができる。これにより、番組コンテンツの全編が3Dである場合には、各フレームについて3Dであるか否かを確認するという処理を抑止することができる。
上記にて説明したコンテンツ配信システムは、3D映像及び2D映像のうち片方のみからなるコンテンツや、双方を含むコンテンツを配信し、再生する場合において有用である。
1 コンテンツ配信システム
2 ネットワーク
100 デジタルテレビ
101 コンテンツ出力装置
102 表示装置
110 TSバッファ
111 符号化映像バッファ
112 復号化映像バッファ
113 入出力部
114 多重化分離部
115 映像デコード部
116 音声デコード部
117 再生制御部
118 出力処理部
119 操作制御部
120 フレームバッファ
121 映像処理部
122 出力制御部
125 番組判定部
126 冒頭フレーム判定部
130 第1バッファ
131 第2バッファ
132 L映像バッファ
133 R映像バッファ
140 切替制御部
141 出力部
142 スイッチ
200 3D眼鏡
300 配信サーバ
301 コンテンツ記憶部
302 配信制御部
303 入出力部

Claims (6)

  1. 番組コンテンツに係る番組ストリームを配信する配信サーバと、前記番組ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムであって、
    前記配信サーバは、
    前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、
    前記再生装置は、
    前記番組ストリームと、前記番組状態フラグとを受信する受信手段と、
    受信した前記番組ストリームのデコードに先立って、受信した前記番組状態フラグが当該番組コンテンツの全編が3Dであることを示すか否かを判断する判断手段と、
    前記番組状態フラグが前記番組コンテンツの全編が3Dであること示すと判断する場合には、前記番組ストリームをデコードする際に前記番組ストリームに含まれる全てのフレームについて各フレームが3Dであるか否かを確認することなく、3D映像用の再生制御により再生する再生手段とを備え、
    前記番組状態フラグは、前記番組ストリームとは別ファイルである再生制御ファイルに含まれており、
    前記配信手段は、前記番組ストリームの配信に先立って、前記再生制御ファイルの配信により前記番組状態フラグを配信し、
    前記受信手段は、前記番組ストリームの受信に先立って、前記再生制御ファイルの受信により前記番組状態フラグを受信する
    ことを特徴とするコンテンツ配信システム。
  2. 番組コンテンツに係る番組ストリームを配信サーバから受信し、当該番組ストリームをデコードして再生する再生装置であって、
    前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、ネットワークを介して前記配信サーバから受信する受信手段と、
    受信した前記番組ストリームのデコードに先立って、受信した前記番組状態フラグが当該番組コンテンツの全編が3Dであることを示すか否かを判断する判断手段と、
    前記番組状態フラグが前記番組コンテンツの全編が3Dであること示すと判断する場合には、前記番組ストリームをデコードする際に前記番組ストリームに含まれる全てのフレームについて各フレームが3Dであるか否かを確認することなく、3D映像用の再生制御により再生する再生手段とを備え、
    前記番組状態フラグは、前記番組ストリームとは別ファイルである再生制御ファイルに含まれており、
    前記受信手段は、前記番組ストリームの受信に先立って、前記再生制御ファイルの受信により前記番組状態フラグを受信する
    ことを特徴とする再生装置。
  3. 前記番組ストリームに含まれる各フレームには、当該フレームが2D映像であるか3D映像であるかを識別する識別情報が対応付けられており、
    前記再生手段は、
    前記番組状態フラグが、当該番組コンテンツの全編が3Dでないことを示す場合には、前記番組ストリームをデコードする際に当該番組ストリームに含まれる各フレームについて対応する識別情報を参照し、当該フレームが2D映像であるときには当該フレームを2D映像用の再生制御により再生し、当該フレームが3D映像であるときには当該フレームを3D映像用の再生制御により再生する
    ことを特徴とする請求項2に記載の再生装置。
  4. 番組コンテンツに係る番組ストリームを、当該番組ストリームをデコードして再生する再生装置へ配信する配信サーバであって、
    前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、
    前記番組状態フラグは、前記番組ストリームとは別ファイルである再生制御ファイルに含まれている
    ことを特徴とする配信サーバ。
  5. 番組コンテンツに係る番組ストリームを配信サーバから受信し、当該番組ストリームをデコードして再生する再生装置で用いられる再生方法であって、
    前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、ネットワークを介して前記配信サーバから受信する受信ステップと、
    受信した前記番組ストリームのデコードに先立って、受信した前記番組状態フラグが当該番組コンテンツの全編が3Dであることを示すか否かを判断する判断ステップと、
    前記番組状態フラグが前記番組コンテンツの全編が3Dであること示すと判断する場合には、前記番組ストリームをデコードする際に前記番組ストリームに含まれる全てのフレームについて各フレームが3Dであるか否かを確認することなく、3D映像用の再生制御により再生する再生ステップとを含み、
    前記番組状態フラグは、前記番組ストリームとは別ファイルである再生制御ファイルに含まれており、
    前記受信ステップは、前記番組ストリームの受信に先立って、前記再生制御ファイルの受信により前記番組状態フラグを受信する
    ことを特徴とする再生方法。
  6. 番組コンテンツに係る番組ストリームを、当該番組ストリームをデコードして再生する再生装置へ配信する配信サーバで用いられる配信方法であって、
    前記番組ストリームと、当該番組コンテンツに対応付けられ、且つ当該番組コンテンツの全編が3Dであるか否かを示す番組状態フラグとを、前記再生装置へネットワークを介して配信する配信ステップを含み、
    前記番組状態フラグは、前記番組ストリームとは別ファイルである再生制御ファイルに含まれている
    ことを特徴とする配信方法。
JP2012521330A 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法 Expired - Fee Related JP5778673B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012521330A JP5778673B2 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010142718 2010-06-23
JP2010142718 2010-06-23
JP2012521330A JP5778673B2 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法
PCT/JP2011/003555 WO2011161957A1 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法

Publications (2)

Publication Number Publication Date
JPWO2011161957A1 JPWO2011161957A1 (ja) 2013-08-19
JP5778673B2 true JP5778673B2 (ja) 2015-09-16

Family

ID=45371162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012521330A Expired - Fee Related JP5778673B2 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法

Country Status (5)

Country Link
US (1) US8934757B2 (ja)
EP (1) EP2587810A4 (ja)
JP (1) JP5778673B2 (ja)
CN (1) CN102948154B (ja)
WO (1) WO2011161957A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2014001917A (es) * 2011-08-26 2014-04-14 Panasonic Corp Sistema de procesamiento de imagenes, dispositivo de transmision, dispositivo de recepcion, metodo de transmision, metodo de recepcion y programa de computadora.
TWI483229B (zh) * 2012-12-22 2015-05-01 Chunghwa Picture Tubes Ltd 顯示裝置及其畫面處理方法
WO2015016913A1 (en) * 2013-07-31 2015-02-05 Empire Technology Development Llc Encoding scheme

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11191895A (ja) * 1996-12-04 1999-07-13 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置
JP2005006114A (ja) * 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1693844A3 (en) * 1996-02-28 2006-10-11 Matsushita Electric Industrial Co., Ltd. High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
CN1223187C (zh) 1997-08-29 2005-10-12 松下电器产业株式会社 记录高质量图像或标准图像的光盘及其记录和再生装置
JP4197427B2 (ja) 2002-09-27 2008-12-17 シャープ株式会社 画像データ生成装置、画像データ再生装置、画像データ生成方法、画像データ再生方法、画像データ又は画像処理プログラムを記録した記録媒体および画像データ記録方法
JP4251864B2 (ja) 2002-12-13 2009-04-08 シャープ株式会社 画像データ作成装置およびそのデータを再生する画像データ再生装置
JP4183499B2 (ja) 2002-12-16 2008-11-19 三洋電機株式会社 映像ファイル処理方法及び映像処理方法
JP2005094168A (ja) 2003-09-12 2005-04-07 Sharp Corp ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
RU2506708C2 (ru) * 2007-12-14 2014-02-10 Конинклейке Филипс Электроникс Н.В. Механизм выбора режима 3d для воспроизведения видео
JPWO2010038409A1 (ja) * 2008-09-30 2012-03-01 パナソニック株式会社 再生装置、記録媒体、及び集積回路
KR20100040640A (ko) * 2008-10-10 2010-04-20 엘지전자 주식회사 수신 시스템 및 데이터 처리 방법
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US8290338B2 (en) * 2009-05-27 2012-10-16 Panasonic Corporation Recording medium, playback device, encoding device, integrated circuit, and playback output device
EP2489198A4 (en) * 2009-10-16 2013-09-25 Lg Electronics Inc METHOD FOR DISPLAYING 3D CONTENTS AND DEVICE FOR PROCESSING A SIGNAL
JP5510097B2 (ja) 2010-06-16 2014-06-04 ソニー株式会社 信号伝送方法、信号送信装置および信号受信装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11191895A (ja) * 1996-12-04 1999-07-13 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置
JP2005006114A (ja) * 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Also Published As

Publication number Publication date
JPWO2011161957A1 (ja) 2013-08-19
CN102948154A (zh) 2013-02-27
US20120294587A1 (en) 2012-11-22
CN102948154B (zh) 2015-01-21
EP2587810A1 (en) 2013-05-01
EP2587810A4 (en) 2015-09-30
WO2011161957A1 (ja) 2011-12-29
US8934757B2 (en) 2015-01-13

Similar Documents

Publication Publication Date Title
JP5336666B2 (ja) 符号化方法、表示装置、復号方法
US8503869B2 (en) Stereoscopic video playback device and stereoscopic video display device
JP5236130B2 (ja) 記録媒体および情報処理方法
JP5870272B2 (ja) 映像処理装置
WO2012017643A1 (ja) 符号化方法、表示装置、及び復号方法
JPWO2009090868A1 (ja) 3d映像が記録された記録媒体、3d映像を記録する記録装置、並びに3d映像を再生する再生装置及び再生方法
JP5469125B2 (ja) 記録媒体、再生装置、再生方法、プログラム
US20140089962A1 (en) Image playback device, image playback method, image playback program, image transmission device, image transmission method and image transmission program
JP5957769B2 (ja) 映像処理装置及び映像処理方法
WO2013099289A1 (ja) 再生装置、送信装置、再生方法及び送信方法
WO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
JP5778673B2 (ja) コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法
JP5882896B2 (ja) コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法
WO2012011525A1 (ja) 三次元ビデオストリームへの映像変換方法
JP2010028456A (ja) データ構造、再生装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140304

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150709

R151 Written notification of patent or utility model registration

Ref document number: 5778673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees