JP5882896B2 - コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法 - Google Patents

コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法 Download PDF

Info

Publication number
JP5882896B2
JP5882896B2 JP2012521329A JP2012521329A JP5882896B2 JP 5882896 B2 JP5882896 B2 JP 5882896B2 JP 2012521329 A JP2012521329 A JP 2012521329A JP 2012521329 A JP2012521329 A JP 2012521329A JP 5882896 B2 JP5882896 B2 JP 5882896B2
Authority
JP
Japan
Prior art keywords
video
frame
stream
content
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012521329A
Other languages
English (en)
Other versions
JPWO2011161956A1 (ja
Inventor
川口 透
透 川口
篠原 弘樹
弘樹 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2012521329A priority Critical patent/JP5882896B2/ja
Publication of JPWO2011161956A1 publication Critical patent/JPWO2011161956A1/ja
Application granted granted Critical
Publication of JP5882896B2 publication Critical patent/JP5882896B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes

Description

本発明は、3D映像及び2D映像を表示する技術に関する。
デジタルテレビ等において立体視映像を再生、表示するための技術として、特許文献1に記載の技術等が知られている。
特許文献1には、逐次放送されるストリームを構成するフレーム毎に、当該フレームが2D映像のフレームであるか3D映像のフレームであるかを識別する識別情報を付すことが示されている。そして、映像を再生する再生装置は、再生するフレーム毎に、対応する識別情報を用いて当該フレームが2D映像のフレームであるか3D映像のフレームであるかを判別し、その結果に応じて2D映像を再生したり、3D映像を再生したりする。
特開2005−094168号公報
ここで、インターネット等のようなネットワークにより配信されるストリームを再生する場合を想定する。通常、2D映像と3D映像とを切り替える場合には、その出力形態を変更するための処理を行う必要がある。なぜなら、通常、2D映像と3D映像とは、表示するための周期が異なるからである。そこで、配信されたストリームを再生する場合には、特許文献1に記載された技術では各フレームについて、対応する識別情報に基づいて出力形態を特定するので、再生開始前後で出力形態を切り替える必要がある場合には、再生が最初に行われるフレーム(冒頭フレーム)については、出力形態を変更するための処理により出力がなされないという問題が生じる。
そこで、本発明は、ストリームの冒頭フレームを欠くことなく再生することができるコンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法を提供することを目的とする。
上記目的を達成するために、本発明は、映像コンテンツに係る映像ストリームを配信する配信サーバと、前記映像ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムであって、前記配信サーバは、一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、前記再生装置は、前記映像ストリームと、前記冒頭フレーム状態フラグを受け取る受信手段と、前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備えることを特徴とする。
上記の構成によると、コンテンツ配信システムの配信サーバは冒頭フレーム状態フラグを送信し、再生装置は、冒頭フレーム状態フラグを用いて、一の番組についての冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生するので、一の番組について冒頭フレームを欠くことなく再生することができる。
デジタルテレビ(再生装置)100の利用形態を示す図である。 立体視画像の表示の一例を示す図である。 Side−by−Side方式による映像の表示の例を示す図である。 立体視のためのフレームの構成の一例を示す図である。 コンテンツ配信システム1の構成を示す図である。 配信サーバ300の構成を示す図である。 コンテンツ管理テーブル310のデータ構造の一例を示す図である。 再生制御ファイルのデータ構造の一例を示す図である。 デジタルテレビ100の構成を示す図である。 出力処理118の構成を示す図である。 コンテンツ配信システム1の動作の概要を示す流れ図である。 デジタルテレビ100がストリームを再生する際における動作を示す流れ図である。 2Dの出力形態による再生処理の動作を示す図である。 3Dの出力形態による再生処理の動作を示す図である。 2D及び3Dの混在用の再生処理の動作を示す図である。 SEIの識別情報を参照しながら再生処理を行う場合の動作を示す図である。 SEIの識別情報を参照することなく再生処理を行う場合の動作を示す図である。 再生制御ファイルのデータ構造の変形例を示す図である。 再生制御ファイルのデータ構造(コンテンツの冒頭フレームの指定)の変形例を示す図である。 再生制御ファイルのデータ構造(チャプタ毎の冒頭フレームの指定)の変形例を示す図である。 配信サーバ400の構成を示すブロック図である。 コンテンツ状態管理テーブル500のデータ構造の一例を示す図である。 再生用UIの一例を示す図である。 受信機600の構成を示す図である。 中断時の状態をサーバに通知するためのコマンドの一例を示す図である。 コンテンツ再生中断処理の動作を示す流れ図である。 コンテンツ中断再開準備処理の動作を示す流れ図である。 前回途中まで視聴したところから映像再生を実行する処理の動作を示す流れ図である。 冒頭フレームの判定処理の動作を示す流れ図である。 再生用UI、及び中断時の状態を配信サーバに通知するためのコマンドの変形例を示す図である。
1.第1の実施の形態
図面を参照しながら、本実施の形態に係るコンテンツ配信システムについて説明する。本実施の形態に係るコンテンツ配信システムは、コンテンツを配信する配信サーバと、配信されたコンテンツを再生する再生装置からなるものである。
1.1 立体視について
先ず始めに、立体視の原理について簡単に述べる。立体視の実現法としては、ホログラフィ技術等の光線再生方式を用いる方法と、視差画像を用いる方式とがある。
まず、1つ目のホログラフィ技術の特徴としては、人間が通常物体を認識するのと全く同じように物体を立体として再現することができるが、動画生成に関しては、技術的な理論は確立しているが、ホログラフィ用の動画をリアルタイムで生成する膨大な演算量を伴うコンピューター、及び1mmの間に数千本の線を引けるだけの解像度を持った表示装置が必要であるが、現在の技術での実現は非常に難しく、商用として実用化されている例はほとんどない。
次に、2つ目の視差画像を用いる方式について説明する。一般に右目と、左目は、その位置の差に起因して、右目から見える像と左目から見える像には見え方に若干の差がある。この差を利用して人間は目に見える像を立体として認識できるのである。視差画像を用いて立体表示をする場合には、人間の視差を利用し平面の画像があたかも立体に見えるようにしている。
この方式のメリットは、高々右目用と左目用の2つの視点の映像を準備するだけで立体視を実現できることにあり、技術的には、左右のそれぞれの目に対応した絵を、いかにして対応した目にだけ見せることができるかの観点から、継時分離方式を始めとするいくつかの技術が実用化されている。
継時分離方式とは、左目用映像及び右目用映像を時間軸方向で交互に表示させ、目の残像反応により左右のシーンを脳内で重ね合わさせて、立体映像として認識させる方法である。
本実施の形態における再生装置は、3D映像の視聴が可能なテレビであり、図1(a)は、当該再生装置の、使用行為についての形態を示す図である。本図に示すように、デジタルテレビ100と3D眼鏡200とから構成され、ユーザによる使用が可能となる。
デジタルテレビ100は、2D映像及び3D映像を表示することができるものであり、受信した放送波に含まれるストリームを再生することで映像を表示する。
本実施形態のデジタルテレビ100は、3D眼鏡200をユーザが着用することで立体視を実現するものである。3D眼鏡200は、液晶シャッターを備え、継時分離方式による視差画像をユーザに視聴させる。視差画像とは、右目に入る映像と、左目に入る映像とから構成される一組の映像であり、それぞれの目に対応したピクチャだけがユーザの目に入るようにして立体視を行わせる。図1(b)は、左目用映像の表示時を示す。画面上に左目用の映像が表示されている瞬間において、前述の3D眼鏡200は、左目に対応する液晶シャッターを透過にし、右目に対応する液晶シャッターは遮光する。同図(c)は、右目用映像の表示時を示す。画面上に右目用の映像が表示されている瞬間において、先ほどと逆に右目に対応する液晶シャッターを透光にし、左目に対応する液晶シャッターを遮光する。
以上が、再生装置の使用形態についての説明である。
ここでは、立体視に使う視差画像を表示する方法を説明する。
視差画像方式は、右目に入る映像と、左目に入る映像とを各々用意し、それぞれの目に対応したピクチャだけが入るようにして立体視を行う方法である。図2は、ユーザの顔を左側に描き、右側には、対象物たる恐竜の骨格を左目から見た場合の例と、対象物たる恐竜の骨格を、右目から見た場合の例とを示している。右目及び左目の透光、遮光から繰り返されば、ユーザの脳内では、目の残像反応により左右のシーンの重合せがなされ、顔の中央の延長線上に立体映像が存在すると認識することができる。
視差画像のうち、左目に入る画像を左目画像(L画像)といい、右目に入る画像を右目画像(R画像)という。そして、各々のピクチャが、L画像になっている動画像をレフトビュービデオといい、各々のピクチャがR画像になっている動画像をライトビュービデオという。
レフトビュービデオとライトビュービデオを合成して圧縮符号化する3D方式には、フレーム互換方式とサービス互換方式がある。
まず1つ目のフレーム互換方式は、レフトビュービデオとライトビュービデオの対応する各ピクチャをそれぞれ間引きまたは縮小した上で一つのピクチャに合成して、通常の動画像圧縮符号化を行う方式である。一例としては、図3に示すような、Side−by−Side方式がある。Side−by−Side方式では、レフトビュービデオとライトビュービデオの対応する各ピクチャをそれぞれ水平方向に1/2に圧縮した上で、左右に並べることで一つのピクチャに合成する。合成されたピクチャによる動画像は、通常の動画像圧縮符号化が行われてストリーム化される。一方再生時は、ストリームを通常の動画像圧縮符号化方式に基づいて動画像に復号化される。復号化された動画像の各ピクチャは、左右画像に分割されて、それぞれ水平方向に2倍に伸長されることによって、レフトビュービデオとライトビュービデオの対応する各ピクチャが得られる。得られたレフトビュービデオのピクチャ(L画像)とライトビュービデオのピクチャ(R画像)を交互に表示することによって、図2に示すような立体視画像を得ることができる。フレーム互換方式にはSide−by−Side方式の他に、左右画像を上下に並べるTop and Bottom方式や、ピクチャ内の1ライン毎に左右画像を交互に配置するLine Alternative方式などがある。
次に、2つ目のサービス互換方式について説明する。サービス互換方式では、レフトビュービデオ、ライトビュービデオをデジタル化し、圧縮符号化することにより得られるビデオストリームである、レフトビュービデオストリームとライトビュービデオストリームを用いる。
図4は、サービス互換方式による立体視のためのレフトビュービデオストリーム、ライトビュービデオストリームの内部構成の一例を示す図である。
本図の第2段目は、レフトビュービデオストリームの内部構成を示す。このストリームには、ピクチャデータI1、P2、Br3、Br4、P5、Br6、Br7、P9というピクチャデータが含まれている。これらのピクチャデータは、Decode Time Stamp(DTS)に従いデコードされる。第1段目は、左目画像を示す。そうしてデコードされたピクチャデータI1、P2、Br3、Br4、P5、Br6、Br7、P9をPresentation Time Stamp(PTS)に従い、I1、Br3、Br4、P2、Br6、Br7、P5の順序で再生することで、左目画像が再生されることになる。本図において、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。ピクチャとは、フレームおよびフィールドの両者を包含する1つの符号化の単位である。また、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャとそれぞれ呼ばれる。
第4段目は、ライトビュービデオストリームの内部構成を示す。このライトビュービデオストリームには、P1、P2、B3、B4、P5、B6、B7、P8というピクチャデータが含まれている。これらのピクチャデータは、DTSに従いデコードされる。第3段目は、右目画像を示す。そうしてデコードされたピクチャデータP1、P2、B3、B4、P5、B6、B7、P8をPTSに従い、P1、B3、B4、P2、B6、B7、P5の順序で再生することで、右目画像が再生されることになる。ただし、継時分離方式の立体視再生では、同じPTSが付された左目画像と右目画像とのペアうち一方の表示を、PTSの間隔の半分の時間(以下、「3D表示ディレイ」という)分だけ遅延して表示する。
第5段目は、3D眼鏡200の状態をどのように変化させるかを示す。この第5段目に示すように、左目画像の視聴時は、右目のシャッターを閉じ、右目画像の視聴時は、左目のシャッターを閉じていることがわかる。
これらのレフトビュービデオストリーム、ライトビュービデオストリームは、時間方向の相関特性を利用したピクチャ間予測符号化に加えて、視点間の相関特性を利用したピクチャ間予測符号化によって圧縮されている。ライトビュービデオストリームのピクチャは、レフトビュービデオストリームの同じ表示時刻のピクチャを参照して圧縮されている。
例えば、ライトビュービデオストリームの先頭Pピクチャは、レフトビュービデオストリームのIピクチャを参照し、ライトビュービデオストリームのBピクチャは、レフトビュービデオストリームのBrピクチャを参照し、ライトビュービデオストリームの二つ目のPピクチャは、レフトビュービデオストリームのPピクチャを参照している。
そして、圧縮符号化されたレフトビュービデオストリーム及びライトビュービデオストリームのうち、単体で復号化が可能になるものを“ベースビュービデオストリーム”という。また、レフトビュービデオストリーム及びライトビュービデオストリームのうち、ベースビュービデオストリームを構成する個々のピクチャデータとのフレーム間相関特性に基づき圧縮符号化されており、ベースビュービデオストリームが復号された上で復号可能になるビデオストリームを、“ディペンデントビューストリーム”という。なおベースビュービデオストリームとディペンデントビューストリームは、それぞれ別々のストリームとして格納や伝送されてもよいし、例えばMPEG2−TSなどの同一のストリームに多重化されてもよい。
1.2 コンテンツ配信システム1の概要
コンテンツ配信システム1は、図5に示すように、デジタルテレビ100と配信サーバ300とから構成されている。
ここで、デジタルテレビ100と配信サーバ300とは、インターネット等のようなネットワーク2を介して接続されており、ネットワーク2を介して、番組コンテンツ等のデータの送受信を行う。なお、以下において、番組コンテンツを、単にコンテンツという。
また、デジタルテレビ100は、例えばプラズマテレビであり、3D映像を含むコンテンツを視聴する場合には3D眼鏡200を用いて視聴する。
配信サーバ300は、H.264|MPEG4/AVC規格に基づいてストリーム化された複数のコンテンツ(以下、単に「ストリーム」という。)を記憶している。そして、配信サーバ300は、デジタルテレビ100からコンテンツの要求があると、要求されたコンテンツに対応する再生制御ファイルをデジタルテレビ100へ送信する。ここで、再生制御ファイルとは、対応するコンテンツの属性や、格納場所(URL)等の再生に必要な情報を記述したものである。さらに、再生制御ファイルは、対応するコンテンツが、2D映像のみからなるコンテンツ、3D映像のみからなるコンテンツ及び2D映像と3D映像とが混在するコンテンツの何れであるかを識別する情報をも含んでいる。
配信サーバ300は、再生制御ファイルの送信後、デジタルテレビ100からの要求により、要求されたコンテンツに対するストリームを、ネットワーク2を介してデジタルテレビ100へ配信する。
デジタルテレビ100は、視聴者の操作により当該視聴者が希望するコンテンツの要求をネットワーク2を介して配信サーバ300に対して行い、その後、要求したコンテンツに対するストリームを受信すると、当該ストリームの再生を行う。
H.264|MPEG4/AVCに基づくストリームは、公知のものであるが、簡単に説明する。
ストリームは、連続した複数のGOP(Group Of Pictures)から構成されている。GOPには、複数のフレーム(ピクチャー)が、参照関係に従った順序で符号化されている。なお、復号化(デコード)する際には、表示順序に並べ直して当該復号化が行われる。
また、各フレームには、“Frame packing arrangement SEI(Supplemental Enhance Information)”と呼ばれる付加的情報が付されており、このSEI内に、対応するフレームが3D映像であるか2D映像であるかを識別するための識別情報が設定されている。なお、このSEIは省略可能であり、省略されている場合は2D映像と解釈する。さらに、対応する再生制御ファイルに2D映像のみからなるコンテンツまたは3D映像のみからなるコンテンツであると記載されている場合には、コンテンツ全編に渡りこのSEIの記載を省略してもよい。
デジタルテレビ100は、再生制御ファイルに含まれる情報から2D映像と3D映像とが混在するコンテンツであると判別した場合において、2D映像のフレームと3D映像のフレームとが混在するストリームを受信すると、フレームをデコードする際には、対応するSEIの識別情報を参照して当該フレームが3D映像であるか2D映像であるかを判別して、その結果に応じて、デコード及び再生を行う。
デジタルテレビ100は、再生制御ファイルの記述内容により、視聴者から要求されたストリームが2D映像のみからなるもの及び3D映像のみからなるものであると判別する場合には、SEIの識別情報を参照することなく、デコード及び再生を行う。
以下、各装置(デジタルテレビ100及び配信サーバ300)について、詳細に説明する。
1.3 配信サーバ300の構成
配信サーバ300は、図6に示すように、コンテンツ記憶部301、配信制御部302及び入出力部303から構成されている。
(1)コンテンツ記憶部301
コンテンツ記憶部301は、図7に示すように、コンテンツ管理テーブル310を有している。
コンテンツ管理テーブル310は、再生制御ファイルURL311、再生制御ファイル312、コンテンツURL313及びコンテンツ314からなる組を複数記憶するための領域を有している。
コンテンツ314は、コンテンツURL313にて外部より特定されるコンテンツである。なお、ここでは、ストリーム化されて記憶されているものとする。
再生制御ファイル312は、対応するコンテンツの再生制御ファイルであり、再生制御ファイルURL311にて外部より特定される。
具体的には、コンテンツAについては、コンテンツURLは“http://aaa.com/bbb.tts”であり、対応する再生制御ファイルは“ファイルA”であって、再生制御ファイルURLは“http://aaa.com/bbb.cpc”である。
ここで、再生制御ファイルについて説明する。
再生制御ファイル320は、図8に示すようなデータ構造からなる。
ヘッダ部(<header>)には、当該ファイルの作成日(<date>)、作成時(<time>)及び対応するコンテンツが暗号されているか否かを示す情報(<encryption>)が格納される。
リソース情報部(<startup>)には、コンテンツのタイトル(<content_title>)、概要(<content_abstract>)、コンテンツの時間長(<duraction>)及び参照先(<start>)が格納される。参照先(<start>)は、コンテンツURLに対応する。
チャプタ情報部(<content_chapter_info>)には、チャプタ番号(<chapter>)、チャプタの開始点(<chapter_point>)及びチャプタのタイトル(<chapter_title>)が格納される。なお、チャプタ番号、チャプタの開始点及びチャプタのタイトルからなる組は複数あってもよい。
ES(Elementary Stream)情報部(<es_info>)には、映像ESの情報(<video_info>)、音声ESの情報(<audio_info>)、字幕ESの情報(<caption_info>)が格納される。
本実施の形態では、ES情報部の映像ESの情報に、新たな記述要素321を追加する。
記述要素321における記述“s3d_frame_compatible structure=”sbs“”は、対応するストリームがSide−by−Side方式で生成されたフレームを含む、つまり3D映像を含むことを示す。なお、Top and Bottom方式の場合には“sbs”の代わりに“tab”が記述される。なお、以下において、“structure=”sbs“”を3D構成状態フラグという。構成状態フラグがSide−by−Side方式を示すとはsbsが設定されていることを意味し、構成状態フラグがTop and Bottom方式を示すとはtabが設定されていることを意味するものとする。
また、“signaling=“xxxx”“は、フレーム毎に対応するSEIの識別情報を参照するか否かを指定するものである。ここでは、xxxxは、図8に示すように”true“及び”false“の何れかが設定される。trueが設定されている場合にはSEIの識別情報を参照することを示し、falseが設定されている場合には参照しないことを示す。つまり、falseが設定されている場合には、ストリームに含まれる全てのフレームは、3D映像であることを示す。なお、以下において、“signaling=“xxxx”“を番組状態フラグという。番組状態フラグがSEIの識別情報を参照することを示すとは“signaling=“true”“を意味し、番組状態フラグがSEIの識別情報を参照しないことを示すとは“signaling=“false”“を意味するものとする。
“beginnig=“yy”“は、ストリームの冒頭のフレームが2D映像であるか3D映像であるかを示すものである。ここでは、yyは、図8に示すように”2d“及び”3d“の何れかが設定される。2dが設定されている場合には冒頭のフレームは2D映像であることを示し、3dが設定されている場合には冒頭のフレームは3D映像であることを示す。なお、以下において、“beginning=“yy”“は、冒頭フレーム状態フラグという。冒頭フレーム状態フラグが3Dを示すとは“beginning=“3d”“を意味し、冒頭フレーム状態フラグが2Dを示すとは“beginning=“2d”“を意味するものとする。また、冒頭フレームとは、本実施の形態においては、一番組についてのストリームにおいて、当該一番組の先頭に対応するフレームをいう。
さらに、“true</s3d_frame_compatible>”で記載されているtrueは、ストリームには3D映像のフレームが含まれていることを示す。
また、記述要素321がES情報部内に存在しない場合、または上記” true”の代わりに”false”が記載されている場合には、ストリームに含まれる全てのフレームが2D映像であることを示す。
(2)配信制御部302
配信制御部302は、デジタルテレビ100の要求に応じた再生制御ファイルの送信、及びストリームの配信を行うものである。
配信制御部302は、デジタルテレビ100から配信対象となるコンテンツ(ストリーム)に対応する再生制御ファイルURLを含むファイル要求情報を受信すると、受信したファイル要求情報に含まれるURLで識別される再生制御ファイルをコンテンツ管理テーブル310から取得する。
配信制御部302は、取得した再生制御ファイルを、入出力部303を介してデジタルテレビ100へ送信する。
配信制御部302は、配信対象となるストリームを要求する旨の情報と、当該ストリームを識別するコンテンツURLとを含むストリーム要求情報を受信すると、受信したストリーム要求情報に含まれるコンテンツURLで識別されるストリームをコンテンツ管理テーブル310から取得し、入出力部303を介してデジタルテレビ100へ送信する。
(3)入出力部303
入出力部303は、ネットワーク2を介してデジタルテレビ100から受信した情報(ファイル要求情報、ストリーム要求情報)を配信制御部302へ出力する。
また、入出力部303は、配信制御部302から受け取った再生制御ファイル及びストリームを、ネットワーク2を介してデジタルテレビ100へ送信する。
1.4 デジタルテレビ100の構成
デジタルテレビ100は、具体的には、プラズマテレビであり、ネットワーク2を介して配信サーバ300からストリームを受信し、再生する。
デジタルテレビ100は、図9に示すように、コンテンツ出力装置101と表示装置102とから構成される。
コンテンツ出力装置101は、配信サーバ300から受信したストリームを復号化し、復号化したストリームを、当該ストリームが2D映像であるか3D映像であるかに応じて、2D映像の出力形態と3D映像の出力形態の何れかに切り替えて出力するものである。ここで、2D映像の出力形態とは出力周期を60Hzとして映像を出力することであり、3D映像の出力形態とは出力周期を120Hzとして映像を出力することである。ここで、3D映像用再生制御(3D用の出力形態)とは出力周期を120Hzとして映像を出力することであり、2D映像用再生制御(2D用の出力形態)とは出力周期を60Hzとして映像を出力することである。
表示装置102は、コンテンツ出力装置101から出力された映像を表示するものである。
以下、コンテンツ出力装置101の構成について説明する。
コンテンツ出力装置101は、TSバッファ110、符号化映像バッファ111、復号化映像バッファ112、入出力部113、多重化分離部114、映像デコード部115、音声デコード部116、再生制御部117、出力処理部118及び操作制御部119から構成される。
(1)操作制御部119
操作制御部119は、ユーザ(視聴者)の操作により、配信が要求されたコンテンツを識別する再生制御ファイルURLを特定する。
操作制御部119は、特定した再生制御ファイルURLを含むファイル要求情報を生成し、生成したファイル要求情報を、入出力部113を介して配信サーバ300へ送信する。
再生制御ファイルURLの特定は、例えば、以下のように行う。
操作制御部119は、配信サーバ300からコンテンツの配信を要求する際に、先ず配信サーバで管理されているコンテンツ(ストリーム)それぞれの再生制御ファイルURLと、コンテンツの名称を配信サーバ300から受け取ると、表示装置102でコンテンツの名称を一覧表示させる。操作制御部119は、一覧表示されたコンテンツの名称から一の名称がユーザの操作により選択されると、選択されたコンテンツの名称に対応する再生制御ファイルURLを特定する。
(2)入出力部113
入出力部113は、操作制御部119からファイル要求情報を受け取ると、ネットワーク2を介して配信サーバ300へ送信する。
入出力部113は、配信サーバ300から再生制御ファイルを受信すると、受信した再生制御ファイルを再生制御部117へ出力する。
入出力部113は、配信サーバ300からストリームを受信すると、TSバッファ110へ格納する。
(3)再生制御部117
再生制御部117は、図9に示すように、番組判定部125及び冒頭フレーム判定部126を有している。
(3−1)番組判定部125
番組判定部125は、図8で示す記述要素321が存在するか否を判断する。つまり番組判定部125は、再生制御ファイルを用いて配信される対象のストリームが2D映像のみからなるものであるか3D映像を含むものであるかを判断する。
2D映像のみからなるストリームであると判断する場合には、番組判定部125は、SEIの識別情報を参照しない旨の第1参照指示及び、出力形態を2D用の出力形態とする旨の2D出力指示を出力処理部118へ出力する。
再生制御ファイルに記述要素321は存在する、つまり、配信される対象のストリームが3D映像を含むものであると判断する場合には、番組判定部125は、番組状態フラグがSEIの識別情報を参照することを示すか参照しないことを示すかを特定する。
参照することを示すと特定した場合には、番組判定部125は、記述要素321の3D構成状態フラグで設定されている内容に基づいて、3D映像がSide−by−Side方式で生成されているかTop and bottom方式で生成されているかを示す構成情報と、SEIの識別情報を参照する旨の第2参照指示とを出力処理部118へ出力する。
参照しないことを示すと特定した場合には、番組判定部125は、第1参照指示、構成情報及び出力形態を3D用の出力形態とする旨の3D出力指示を出力処理部118へ出力する。
(3−2)冒頭フレーム判定部126
冒頭フレーム判定部126は、番組判定部125で再生制御ファイルに記述要素321は存在すると判定され、且つ番組状態フラグがSEIの識別情報を参照することを示していると特定された場合に、以下の動作を行う。
冒頭フレーム判定部126は、冒頭フレーム状態フラグが3Dを示しているのか2Dを示しているのかを特定する。
2Dを示していると特定する場合には、冒頭フレーム判定部126は、2D出力指示を出力処理部118へ出力する。3Dを示していると特定する場合には、冒頭フレーム判定部126は、3D出力指示を出力処理部118へ出力する。
(4)TSバッファ110
TSバッファ110は、配信サーバ300から配信されたストリームを格納する領域を有しているバッファである。
(5)多重化分離部114
多重化分離部114は、受信したストリームを、映像を構成する映像ストリームと、音声を構成する音声ストリームとに分離し、映像ストリームを符号化映像バッファ111へ、音声ストリームを音声デコード部116へ出力する。
(6)符号化映像バッファ111
符号化映像バッファ111は、映像ストリームを格納するための領域を有している。この時点では、映像ストリームは復号化される前のフレーム、つまり符号化されたフレームを含んでいる。
(7)映像デコード部115
映像デコード部115は、2D及び3Dを構成する映像ストリームを符号化映像バッファ111から読み出し、読み出した映像ストリームをデコードして映像フレームを得るとともに、当該映像フレームに付されているSEIを取得する。なお、3D映像のフレームがデコードされた時点では、左目用の映像と右目用の映像との切り分けはなされていない。
映像デコード部115は、デコードした映像フレームを復号化映像バッファ112へ格納し、取得したSEIを出力処理部118へ出力する。
(8)復号化映像バッファ112
復号化映像バッファ112は、デコードされた映像フレームを格納するための領域を有するバッファである。
(9)出力処理部118
出力処理部118は、デコードされた映像フレームを、当該映像フレームが2D映像であるか3D映像であるかに応じて、出力形態を切り替えて表示装置102へ出力するものである。
出力処理部118は、図9に示すように、フレームバッファ120、映像処理部121及び出力制御部122を有している。
(9−1)フレームバッファ120
フレームバッファ120は、図10に示すように、第1バッファ130と第2バッファ131とを有している。
第1バッファ130は、2D映像の映像フレーム(以下、「2D映像フレーム」という。)を格納するためのものである。
第2バッファ131は、L映像バッファ132とR映像バッファ133とを有し、3D映像のフレームを格納するためのものである。ここでは、L映像バッファ132には左目用の映像フレーム(以下、「L映像フレーム」という。)が、R映像バッファ133には右目用の映像フレーム(以下、「R映像フレーム」という。)が格納される。
(9−2)映像処理部121
映像処理部121は、再生制御部117からの指示に応じて、SEIの識別情報を参照して出力すべき映像フレームの処理、及び参照することなく出力すべき映像フレームの処理を行う。
(SEIの識別情報を参照する場合)
映像処理部121は、再生制御部117の番組判定部125から第2参照情報及び構成情報を受け取る。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、対応するSEIの識別情報が存在しない場合もしくは2Dを示す場合には読み出した映像フレームを第1バッファ130へ書き込むとともに、出力制御部122へ出力形態が2Dであることを示す2D出力指示を出力する。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、対応するSEIの識別情報が3Dを示す場合には当該SEI中の構成情報に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成し、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む。さらに、映像処理部121は、出力制御部122へ出力形態が3Dであることを示す3D出力指示を出力する。具体的には、映像フレームがSide−by−Side方式で生成されている場合には、映像処理部121は、左右に分割して、分割した各映像フレームを横方向に拡大して、L映像フレーム及びR映像フレームを得る。また、Top and bottom方式で生成されている場合には、上下に分割して、分割した各映像を縦方向に拡大して、L映像フレーム及びR映像フレームを得る。
(SEIの識別情報を参照しない場合)
映像処理部121は、第1参照指示のみを受け取ると、出力すべきストリームは全て2D映像であると特定する。映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、SEIの識別情報を参照することなく、読み出した映像フレームを第1バッファ130へ書き込む。
映像処理部121は、第1参照指示と構成情報とを受け取ると、出力すべきストリームは全て3D映像であると特定する。映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、SEIの識別情報を参照することなく、受け取った構成情報に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成する。映像処理部121は、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む。なお、構成情報に基づくL映像フレーム及びR映像フレームの生成は上記と同様であるので、ここでの説明は省略する。
(9−3)出力制御部122
出力制御部122は、図10に示すように、切替制御部140、出力部141及びスイッチ142を有している。
(スイッチ142)
スイッチ142は、出力部141との接続先として、第1バッファ130及び第2バッファ131の何れかへ切り替えるスイッチである。
(切替制御部140)
切替制御部140は、接続先となるバッファの切り替えを行うものである。具体的には、切替制御部140は、再生制御部117及び映像処理部121から2D出力指示を受け取ると、接続先が第1バッファ130となるようスイッチ142を制御する。また、切替制御部140は、再生制御部117及び映像処理部121から3D出力指示を受け取ると、接続先が第2バッファ131となるようスイッチ142を制御する。
(出力部141)
出力部141は、再生制御部117及び映像処理部121からの指示に基づいて、映像の出力周期を変更して、映像を表示装置102へ出力するものである。具体的には、出力部141は、再生制御部117及び映像処理部121からの指示が2D出力指示である場合には、出力周期を60Hzとして、スイッチ142の接続先である第1バッファ130から出力対象である2Dの映像を読み出して、表示装置102へ出力する。また、出力部141は、再生制御部117及び映像処理部121からの指示が3D出力指示である場合には、出力周期を120Hzとして、スイッチ142の接続先である第2バッファ131のL映像バッファ132及びR映像バッファ133から出力対象である映像を交互に読み出して、表示装置102へ出力する。なお、初期状態(再生制御ファイルを受信した時点)では、出力周期は60Hzであるとする。
ここで、出力部141は、再生制御部117及び映像処理部121から受け取った指示が示す出力形態と、受け取る直前の出力形態とが同一である場合には、切替は行わない。例えば、受け取った指示が示す2D出力指示であり、現状の出力形態、つまり出力周期が60Hzである場合には出力周期の切替は行わない。また、受け取った指示が示す3D出力指示であり、現状の出力形態、つまり出力周期が120Hzである場合についても出力周期の切替は行わない。
これによると、出力部141は、再生制御部117から3D出力指示を受け付けると、出力形態を3Dの出力形態(出力周期を120Hz)に変更している。この変更のタイミングでは、ストリームのデコードは行われていない。つまり、出力部141は、ストリームのデコードが開始される前に、冒頭フレームが3Dである場合には出力形態を3D用のものへと変更し、映像処理部で上記の処理が行われることを待っている状態、つまり出力の準備状態となっていることが分かる。従って、出力部141は、再生制御部117から受け取った指示に応じて、フレームの出力形態を2D用のもの、3D用のものに設定して、出力の準備を行っている。
(10)音声デコード部116
音声デコード部116は、多重化分離部114から音声ストリームを受け取ると、受け取った音声ストリームをデコードして、音声を生成し、出力する。
1.5 動作
(1)コンテンツ配信システム1の動作概要
ここでは、コンテンツ配信システム1の動作概要について、図11に示す流れ図を用いて説明する。
デジタルテレビ100は、ユーザの操作により配信を要求するコンテンツ(ストリーム)の選択がなされると(ステップS5)、選択されたコンテンツに対応する再生制御ファイルURLを含むファイル要求情報を配信サーバ300へ送信する(ステップS10)。
配信サーバ300は、デジタルテレビ100から受信した再生制御ファイルURLに対応する再生制御ファイルを特定し(ステップS15)、特定した再生制御ファイルをデジタルテレビ100へ送信する(ステップS20)。
デジタルテレビ100は、再生制御ファイルを受信すると、受信した再生制御ファイルの内容を解釈し(ステップS25)、その後、ストリーム要求情報を配信サーバ300へ送信する(ステップS30)。
配信サーバ300は、ストリーム要求情報を受信すると、配信要求のあったコンテンツ(ストリーム;TS)をデジタルテレビ100へ配信する(ステップS35、S40)。
デジタルテレビ100は、受信したストリームをデコードし、2D映像及び3D映像に応じた出力形態で、映像を再生する(ステップS45)。
(2)デジタルテレビ100の再生動作
ここでは、デジタルテレビ100がストリームを再生する際における動作、特に図11で示すステップS25及びS45の詳細な動作について、図12に示す流れ図を用いて説明する。
番組判定部125は、図8で示す記述要素321が存在するか否を判断、つまり配信されるストリームが3D映像を含むものであるか否かを判断する(ステップS100)。
番組判定部125で、配信されるストリームが3D映像を含まない、つまり2D映像のみからなるものであると判断する場合(ステップS100における「No」)、出力処理部118は、2Dの出力形態で、ストリームに含まれるフレーム毎にSEIの識別情報を参照することなく、ストリームに含まれる全ての映像フレームを再生する(ステップS105)。
配信されるストリームが3D映像を含むものであると判断する場合(ステップS100における「Yes」)、番組判定部125は、番組状態フラグがSEIの識別情報を参照することを示しているか参照しないことを示しているかを判断する(ステップS110)。
番組判定部125で、SEIの識別情報を参照しない、つまりsignalingで指定されている内容が“false”であると判断する場合(ステップS110における「No」)、出力処理部118は、3Dの出力形態で、ストリームに含まれるフレーム毎にSEIの識別情報を参照することなく、ストリームに含まれる全ての映像フレームを再生する(ステップS115)。
番組判定部125で、SEIの識別情報を参照する、つまりsignalingで指定されている内容が“true”であると判断する場合(ステップS110における「Yes」)、冒頭フレーム判定部126は、冒頭フレーム状態フラグが2Dを示しているか3Dを示しているかを判断する(ステップS120)。
冒頭フレーム判定部126で冒頭フレーム状態フラグが3Dを示している、つまりbeginningで設定されている内容が“3d”であると判断する場合(ステップS120における「Yes」)、出力処理部118は、映像の出力形態を3Dの出力形態へと変更する(ステップS125)。具体的には、切替制御部140はスイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替え、出力部141は出力周期を120Hzに変更する。
ステップS125の実行後、及び冒頭フレーム判定部126で冒頭フレーム状態フラグが2Dを示している(つまり、beginningで設定されている内容が“2d”である)と判断する場合(ステップS120における「No」)、出力処理部118は、2D及び3Dの混在用の再生処理を行う(ステップS130)。
(3)2D用出力形態による再生の動作
ここでは、図12に示すステップS105で行われる2D用出力形態による再生処理の動作について、図13に示す流れ図を用いて説明する。
なお、当該処理の開始時点において、図12で示すステップS100の判断結果により、映像処理部121は、再生制御部117から第1参照指示のみを受け取っているものとする。つまり、映像処理部121は、出力すべきストリームは全て2D映像であると特定しているものとする。また、図11で示すステップS100の判断結果により、出力制御部122は、再生制御部117から2D出力指示を受け取っているものとする。
映像デコード部115は、符号化映像バッファ111に格納されている映像ストリームをデコードし、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS200)。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレーム、つまり2D映像フレームを読み出すと、SEIの識別情報を参照することなく、読み出した2D映像フレームを第1バッファ130へ書き込む(ステップS205)。
出力部141は、出力周期を60Hzとして、スイッチ142の接続先である第1バッファ130から出力対象である2Dの映像を読み出して、表示装置102へ出力する(ステップS210)。
映像デコード部115は、次にデコードすべき映像があるか否かを判断する(ステップS215)。次にデコードすべき映像があると判断する場合には(ステップS215における「Yes」)、映像デコード部115は、ステップS200を実行する。次にデコードすべき映像はないと判断する場合には(ステップS215における「No」)、処理は終了する。
(4)3D用出力形態による再生の動作
ここでは、図12に示すステップS115で行われる3D用出力形態による再生処理の動作について、図14に示す流れ図を用いて説明する。
なお、当該処理の開始時点において、図11で示すステップS100及びS110の判断結果により、映像処理部121は、再生制御部117から第1参照指示及び構成情報の双方を受け取っているものとする。つまり、映像処理部121は、出力すべきストリームは全て3D映像であると特定しているものとする。
切替制御部140は、再生制御部117から3D出力指示を受け取ると、スイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替える(ステップS300)。また、出力部141は、出力周期を120Hzへ変更する。
映像デコード部115は、符号化映像バッファ111に格納されている映像ストリームをデコードし、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS305)。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、SEIの識別情報を参照することなく、受け取った構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成する(ステップS310)。映像処理部121は、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む(ステップS315)。
出力部141は、出力周期を120Hzとして、スイッチ142の接続先である第2バッファ131のL映像バッファ132及びR映像バッファ133から出力対象である映像を交互に読み出して、表示装置102へ出力する(ステップS320)。
映像デコード部115は、次にデコードすべき映像があるか否かを判断する(ステップS325)。次にデコードすべき映像があると判断する場合には(ステップS325における「Yes」)、映像デコード部115は、ステップS305を実行する。次にデコードすべき映像はないと判断する場合には(ステップS325における「No」)、処理は終了する。
(5)2D及び3D映像の混在用再生の動作
ここでは、図12に示すステップS130で行われる2D及び3D映像の混在用再生処理の動作について、図15に示す流れ図を用いて説明する。
なお、当該処理の開始時点において、図11で示すステップS100及びS110の判断結果により、映像処理部121は、再生制御部117から第2参照指示及び構成情報の双方を受け取っているものとする。つまり、映像処理部121は、出力すべきストリームには2D映像及び3D映像が混在していると特定しているものとする。
映像デコード部115は、符号化映像バッファ111に格納されている映像ストリームをデコードし、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS400)。
映像処理部121は、処理対象の映像フレームに対応するSEIの識別情報が3Dを示すか否かを判断する(ステップS405)。
映像処理部121でSEIの識別情報が3Dであることを示すと判断する場合には(ステップS405における「Yes」)、出力制御部122の出力部141は、現時点での出力形態、つまり出力周期が3D用のものであるか否かを判断する(ステップS410)。具体的には、映像処理部121は、SEIの識別情報が3Dであることを示すと判断する場合には、3D出力指示を出力制御部122へ出力する。出力制御部122は、映像処理部121から3D出力指示を受け取ると、前回のフレームに対する指示が3D出力指示であるか2D出力指示であるかを判断する。前回の指示が3D出力指示であれば現時点での出力形態(出力周期)は3D用のものと特定し、前回の指示が2D出力指示であれば現時点での出力形態(出力周期)は2D用のものと特定することができる。
出力形態が3D用でないと判断する場合には(ステップS410における「No」)、出力部141は、出力形態を3D用に変更、つまり出力周期を120Hzへ変更し(ステップS415)、処理はステップS420へ移行する。出力形態が3D用であると判断する場合には(ステップS410における「Yes」)、処理は、出力形態を変更することなくステップS420へ移行する。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、当該SEI中の構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成する(ステップS420)。映像処理部121は、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む(ステップS425)。
出力部141は、出力周期を120Hzとして、スイッチ142の接続先である第2バッファ131のL映像バッファ132及びR映像バッファ133から出力対象である映像を交互に読み出して、表示装置102へ出力する(ステップS430)。
映像処理部121でSEIの識別情報が3Dでない、つまり2Dであることを示すと判断する場合には(ステップS405における「No」)、出力部141は、現時点での出力形態、つまり出力周期が2D用のものであるか否かを判断する(ステップS435)。具体的には、映像処理部121は、SEIの識別情報が2Dであることを示すと判断する場合には、2D出力指示を出力制御部122へ出力する。出力制御部122は、上述したように、映像処理部121から2D出力指示を受け取ると、前回のフレームに対する指示が3D出力指示であるか2D出力指示であるかを判断する。
出力形態が2D用でないと判断する場合には(ステップS435における「No」)、出力部141は、出力形態を2D用に変更、つまり出力周期を60Hzへ変更し(ステップS440)、処理はステップS445へ移行する。出力形態が2D用であると判断する場合には(ステップS435における「Yes」)、出力形態を変更することなくステップS445へ移行する。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレーム、つまり2D映像フレームを読み出すと、読み出した2D映像フレームを第1バッファ130へ書き込む(ステップS445)。
出力部141は、出力周期を60Hzとして、スイッチ142の接続先である第1バッファ130から出力対象である2Dの映像を読み出して、表示装置102へ出力する(ステップS450)。
映像デコード部115は、次にデコードすべき映像があるか否かを判断する(ステップS455)。次にデコードすべき映像があると判断する場合には(ステップS455における「Yes」)、映像デコード部115は、ステップS200を実行する。次にデコードすべき映像はないと判断する場合には(ステップS455における「No」)、処理は終了する。
(6)動作の具体例
ここでは、各構成要素間における処理の受け渡しを明示した流れ図を用いて、再生処理に係る動作を説明する。
(6−1)SEIの識別情報を参照する場合
ここでは、SEIの識別情報を参照しながらの再生処理について、図16に示す流れ図を用いて説明する。なお、ここでは、再生制御ファイルにおいて、要素記述321の存在が存在し、当該要素記述321にて3D構成状態フラグはSide−by−Side方式を、番組状態フラグはSEIの識別情報を参照することを、冒頭フレーム状態フラグが2Dを、それぞれ示しているものとする。
配信サーバ300は、再生制御ファイルをデジタルテレビ100へ送信する(ステップS500)。
再生制御部117は、受信した再生制御ファイルにおいて、要素記述321の存在の有無、及び存在する場合にはその要素記述321に含まれる各状態フラグの内容を解釈する(ステップS505)。ここでは、再生制御部117は、配信されるストリームは2D映像及び3D映像が混在し、3D映像はSide−by−Side方式で生成され、且つ冒頭フレームは2D映像であると解釈する。
再生制御部117は、再生制御ファイルの3D構成状態フラグの解釈結果に応じた構成情報(ここでは、構成情報は、Side−by−Side方式で生成されていることを示す。)を映像処理部121へ出力する(ステップS508)。
再生制御部117は、ストリーム要求情報を配信サーバ300へ送信する(ステップS510)。
配信サーバ300は、要求のあったストリームをデジタルテレビ100へ送信する(ステップS515)。
入出力部113は、受信したストリームをTSバッファ110へバッファリングする(ステップS520)。多重化分離部114は、TSバッファ110に書き込まれたストリームを多重化分離、ここでは、映像ストリームと音声ストリームに分離する(ステップS525)。このとき、分離された映像ストリームは、符号化映像バッファ111に書き込まれる。
映像デコード部115は、符号化映像バッファ111に書き込まれた映像ストリームをデコードして、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS530)。
映像処理部121は、処理対象の映像フレームに対応するSEIの識別情報を参照して、当該映像フレームが2D映像であるか3D映像であるかを判断する(ステップS535)。映像処理部121は、判断結果に応じた指示を出力制御部122へ出力する(ステップS540)。具体的には、映像処理部121は、処理対象のフレームが2Dであると判断する場合には2D出力指示を、処理対象のフレームが3Dであると判断する場合には3D出力指示を、それぞれ出力する。
映像処理部121は、映像フレームに対して、ステップS535の判断結果に応じたバッファリングを行う(ステップS545)。具体的には、映像処理部121は、処理対象のフレームが2Dであると判断する場合には、復号化映像バッファ112から処理対象の映像フレームを読み出すと、当該映像フレームを第1バッファ130へ格納する。映像処理部121は、処理対象のフレームが3Dであると判断する場合には、復号化映像バッファ112から処理対象の映像フレームを読み出すと、当該SEI中の構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成し、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む。
出力制御部122は、映像処理部121から受け取った指示に応じて、出力形態の切替を行い(ステップS550)、フレームバッファ120に格納された映像を出力する(ステップS555)。
(6−2)SEIの識別情報を参照し、冒頭フレーム状態フラグが3Dの場合
ここでは、SEIの識別情報を参照しながら再生処理を行う場合の再生であって、冒頭フレーム状態フラグが3Dの場合について、図16と異なる点を中心に説明する。
配信サーバ300及びコンテンツ出力装置101の再生制御部117により、図16に示すステップS500からステップS508が行われる。このとき、ステップS505では、再生制御部117は、配信されるストリームは2D映像及び3D映像が混在し、3D映像はSide−by−Side方式で生成され、且つ冒頭フレームは3D映像であると解釈する。
そして、再生制御部117によりステップS510が実行される前に、再生制御部117及び出力制御部122により、以下の処理が実行される。
再生制御部117は、冒頭フレーム状態フラグの解釈結果に基づいて、3D出力指示を出力制御部122へ出力する。
出力制御部122は、出力形態を3D用に設定する。具体的には、切替制御部140は、スイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替え、出力部141は、出力周期を120Hzへ変更する。
これら処理(3D出力指示の出力及び出力形態を3D用に設定)が行われた後、図16に示すステップS510以降の処理が実行される。
なお、ステップS510以降の処理の動作については、既に説明しているので、ここでの説明は省略する。
この動作によると、映像処理部121において冒頭フレームが3Dであると判別されても、出力制御部122は、再生制御部117からの3D出力指示により出力形態を3D用に既に設定しているので、ステップS550による切り替えを行う必要がない。
(6−3)SEIの識別情報を参照しない場合
ここでは、SEIの識別情報を参照することなく再生処理を行う場合の再生について、図17に示す流れ図を用いて説明する。なお、ここでは、再生制御ファイルにおいて、要素記述321の存在が存在し、当該要素記述321にて3D構成状態フラグはSide−by−Side方式を、番組状態フラグはSEIの識別情報を参照しないことを、冒頭フレーム状態フラグが3Dを、それぞれ示しているものとする。
配信サーバ300は、再生制御ファイルをデジタルテレビ100へ送信する(ステップS600)。
再生制御部117は、受信した再生制御ファイルにおいて、要素記述321の存在の有無、及び存在する場合にはその要素記述321に含まれる各状態フラグの内容を解釈する(ステップS605)。ここでは、再生制御部117は、配信されるストリームは3D映像のみからなり、3D映像はSide−by−Side方式で生成され、且つ冒頭フレームは3D映像であると解釈する。
再生制御部117は、再生制御ファイルの3D構成状態フラグの解釈結果に応じた構成情報(ここでは、構成情報は、Side−by−Side方式で生成されていることを示す。)を映像処理部121へ出力し(ステップS610)、さらに、冒頭フレーム状態フラグの解釈結果に基づいて、3D出力指示を出力制御部122へ出力する(ステップS615)。
出力制御部122は、出力形態を3D用に設定する(ステップS620)。具体的には、切替制御部140は、スイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替える、出力部141は、出力周期を120Hzへ変更する。
再生制御部117は、ストリーム要求情報を配信サーバ300へ送信する(ステップS625)。
配信サーバ300は、要求のあったストリームをデジタルテレビ100へ送信する(ステップS630)。
入出力部113は、受信したストリームをTSバッファ110へバッファリングする(ステップS635)。多重化分離部114は、TSバッファ110に書き込まれたストリームを多重化分離、ここでは、映像ストリームと音声ストリームに分離する(ステップS640)。このとき、分離された映像ストリームは、符号化映像バッファ111に書き込まれる。
映像デコード部115は、符号化映像バッファ111に書き込まれた映像ストリームをデコードして、得られた映像フレームを復号化映像バッファ112へ書き込む(ステップS645)。
映像処理部121は、復号化映像バッファ112から処理対象の映像フレームを読み出すと、処理対象の映像フレームに対応するSEIの識別情報を参照することなく、構成情報の内容に基づいて、読み出した映像フレームからL映像フレーム及びR映像フレームを生成し、生成したL映像フレームをL映像バッファ132へ、R映像フレームをR映像バッファ133へそれぞれ書き込む(ステップS650)。
出力制御部122は、3D用の出力形態で、フレームバッファ120に格納された映像を出力する(ステップS655)。
1.6 変形例
以上、第1の実施の形態に基づいて説明したが、本発明は上記の第1の実施の形態に限られない。例えば、以下のような変形例が考えられる。
(1)上記実施の形態の再生制御ファイルにおいて、新たな記述要素321を記述する際に、番組状態フラグ及び冒頭フレーム状態フラグの双方とも設定するものとしたが、これに限定されない。
何れか一方のみ設定してもよい。
この場合の記述内容について、図18(a)、(b)に示す。
図18(a)に示す記述要素321aは、3D映像のフレームの生成方式、及びSEIの識別情報の参照の有無について指定がなされている場合の記述内容である。
この場合の動作は、図12のステップS120及びステップS125を削除することで実現できる。
図18(b)に示す記述要素321bは、3D映像のフレームの生成方式、及び冒頭フレームの映像の種別について指定がなされている場合の記述内容である。
この場合の動作は、図12のステップS110及びステップS115を削除することで実現できる。
また、上記実施の形態では、番組状態フラグ及び冒頭フレーム状態フラグの双方とも一番組についてのストリームに応じたものであるとしたが、これに限定されない。
ストリームに応じたコンテンツが複数のチャプタからなる場合には、チャプタ単位に番組状態フラグ及び冒頭フレーム状態フラグを設定してもよい。
この場合における再生制御ファイルの記述要素322の一例を図18(c)に示す。例えば、チャプタ単位に冒頭フレーム状態フラグを設定する場合には、チャプタの開始点(<chapter_point>)を指定する記述において、冒頭フレーム状態フラグを追加すればよい。
この場合、デジタルテレビ100は、ユーザから視聴したいチャプタについての情報、例えばチャプタの番号を受け付けると、図12に示す処理を行う。なお、ステップS120では、図8で示す“es_info”内の冒頭フレーム状態フラグではなく、図18(c)で示す“content_chapter_info”内のうち受け付けたチャプタに対応する冒頭フレーム状態フラグが2dであるか3dであるかを判断する。
また、ストリーム再生を一時停止後に再開する場合など、任意の位置からの再生に対して、番組状態フラグ及び冒頭フレーム状態フラグを動的に生成してもよい。
さらには、図19、図20に示す記述であってもよい。
(1−1)図19について
図19は、一の番組について、当該番組全編が3D映像であること、及び冒頭フレームが3Dであるか2Dであるかを示すファイル記述330aを表している。
破線で囲んだ記述331aには、ファイル記述330aで示される番組が3D番組であり、その詳細を示す内容が記載されている。具体的には、フレームがSide−bi−Side方式であること、番組全編が3Dであるか、一部のみが3Dあるか、及び番組の先頭が3D映像であるか2D映像であるかを示すものとなっている。
記述332aでは、フレームがSide−bi−Side方式であることが記載されている。
記載333aでは、番組全編が3Dであるか、一部のみが3Dあるか、及び番組の先頭が3D映像であるか2D映像であるかを示すものとなっている。例えば、entire3dが記載されている場合には番組全編が3D映像であることを示している。この場合、デジタルテレビ100は、かくフレームの識別情報を参照することなく3D出力形態による再生処理(図14参照)を行うことができる。
また、partial3d_start3dが記載されている場合には、番組は、一部3D映像であり、番組の先頭が3D映像であることを示している。この場合、予め出力形態を3D用に変更した上で、2D及び3D混在用の再生処理を行うことができる。
さらに、partial3d_start2dが記載されている場合には、番組は、一部3D映像であり、番組の先頭が2D映像であることを示している。この場合、再生開始時には出力形態を初期状態(2D用)のままとして、2D及び3D混在用の再生処理を行うことができる。
(1−2)図20について
図20はチャプタ単位による記述例である。
図20は、一の番組における各チャプタの開始位置、チャプタ名及びチャプタの開始が2D映像であるか3D映像であるかを示すファイル記述330bを表している。
破線で囲んだ記述331bには、ファイル記述330bで示される番組における各チャプタについての内容が記載されている。例えば、記述3332bは、1番目チャプタの開始位置(chapter_point)、チャプタ名(chapter_title)、及びチャプタの開始映像の種別が記載されている。
記述333bが、チャプタの開始映像の種別を示している。具体的には、その記載が2dである場合にはチャプタの開始映像は2D映像であることを、その記載が3dである場合にはチャプタの開始映像は3D映像であることを、それぞれ示している。
また、チャプタに関する記述内容は、別ファイルとして、配信サーバ300によって配信されてもよい。これにより、チャプタのみの追加配信を行う場合に、別ファイルとして記述されたチャプタに関する記述内容のみを配信することで、ネットワークの負荷の軽減等が期待されるので、有効である。
(2)上記実施の形態において、3D構成状態フラグ、番組状態フラグ及び冒頭フレーム状態フラグは、再生制御ファイル内の<video_info>において設定したが、これに限定されない。
再生制御ファイルにおいて、これら状態フラグが解釈できる位置でどこでもよい。または、別ファイルとしてもよし、配信するストリームのヘッダにこれら内容と同様の内容を設定してもよい。
(3)上記実施の形態において、配信されるストリームのフォーマットは、H.264|MPEG4/AVC規格に基づいたものとしたが、これに限定されない。
ストリームのフォーマットは、MPEG2規格や他の映像圧縮符号化方式に基づくものであってもよい。
(4)上記実施の形態において、ストリームを受信し、再生する再生装置としてデジタルテレビを用いて説明したが、当該装置は、デジタルテレビに限定されない。
ストリームを受信し、再生する再生装置を、レコーダやセットトップボックスとしてもよい。
(5)上記実施の形態において、デジタルテレビ100と配信サーバ300はインターネットで接続されているものとしたが、これに限定されない。
専用線を用いて接続されているものとして、デジタルテレビ100と配信サーバ300とを1つの装置として扱ってもよい。例えば、配信サーバ300は、コンテンツをストリーム化して格納している可搬型の記録媒体(SDカード、DVD Disc、Blu−ray Disc等)の着脱可能な装置としてもよい。
(6)上記実施の形態において、コンテンツは、インターネットを介して、ストリーム配信されるものとしたが、これに限定されない。
コンテンツは、ストリーム形式で記録されたパッケージメディアであってもよい。または、放送波により放送されたコンテンツであって、録画装置で録画された後のものであってもよい。または、インターネットを介して、ダウンロード形式で配信されてもよい。または、ビデオカメラ等で撮影された動画像であってもよい。つまりは、コンテンツ(ストリーム)と、上記にて示す記述要素321に相当する内容を記述したファイルとが対応付けられて記憶されていればよい。
(7)上記実施の形態において、プラズマテレビを用いて、2D映像と3D映像の出力周期の切り替えについて説明したが、これに限定されない。
プラズマテレビに限らず、2D映像の表示時と3D映像の表示時で異なるパネル駆動方式が用いられることで、切り替えの時間がかかる(1映像フレーム期間内に完了しない)表示デバイスを有する装置に、上述した切り替えの技術を適用してもよい。
(8)上記実施の形態において、フレームバッファは、第1バッファと、第2バッファ(L映像バッファ、R映像バッファ)とは、物理的に異なるものとしたが、これに限定されない。
第1バッファ、L映像バッファ、R映像バッファが物理的には共通で、時分割で切り替えて用いられる形態でもよい。
(9)上記実施の形態では、2D映像の出力周期は、1/60秒としたが、これに限定されない。
2D映像は他の出力周期(例えば、1/50秒)であってもよい。この場合、3Dの出力周期は、2D映像の出力周期の半分(例えば、1/100秒)となる。
(10)上記実施の形態では、Side−by−Side等のフレーム互換方式を用いて説明したが、これに限定されない。
例えば、H.264/MVC等の符号化方式を用いたサービス互換方式に適用しても良い。
この場合、2Dと3Dが混在するコンテンツの各フレームの2D/3Dの識別は、Subset sequence parameter set等を用いたdependent viewの有無の検出、dependent viewを格納したElementary Stream自体の有無の検出、あるいはPMTにおいてdependent viewの有無を記述したMVC_extension_descriptorもしくはhierarchy_descriptorを解釈することによって行うことができる。
(11)上記実施の形態ではコンテンツの情報を再生制御ファイルに記述する形態にて説明したが、これに限定されない。
例えば、同等の情報を、HTMLやBML文書のobject要素やvideo要素の属性として記述しても良い。
(12)上記の実施の形態で説明した手法の手順を記述したプログラムをメモリに記憶しておき、CPU(Central Processing Unit)などがメモリからプログラムを読み出して、読み出したプログラムを実行することによって、上記の手法が実現されるようにしてもよい。
また、当該手法の手順を記述したプログラムを記録媒体に格納して、頒布するようにしてもよい。
(13)上記の各実施の形態にかかる各構成は、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらの構成は、1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIと表現したが、回路の集積度の違いによっては、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと称呼されることもある。また、集積回路化の手法は、LSIに限られるものではなく、専用回路または汎用プロセッサで集積回路化を行ってもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー(ReConfigurable Processor)を用いてもよい。あるいは、これらの機能ブロックの演算は、例えば、DSP(Digital Signal Processor)やCPU(Central Processing Unit)などを用いて演算することもできる。さらに、これらの処理ステップはプログラムとして記録媒体に記録して実行することで処理することもできる。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適応などが可能性としてあり得る。
(14)上記実施の形態及び変形例を組み合わせるとしてもよい。
2.第2の実施の形態
また、上記第1の実施の形態では、映像ストリームを先頭から再生する場合に冒頭フレーム状態フラグを利用したが、ここでは、映像ストリーム再生を中断後、再開する場合に冒頭フレーム状態フラグを利用する場合について説明する。
本実施の形態に係るコンテンツ配信システムは、番組コンテンツに係る番組ストリームを配信する配信サーバ400と、前記番組ストリームをデコードして再生する受信機600(例えば、デジタルテレビなどの再生装置)とからなる上記第1の実施の形態のコンテンツ配信システムである。配信サーバ400は、第1の実施の形態で示す配信サーバ300の構成要素に加えて、前記番組ストリームの中断位置を記憶するコンテンツ状態管理部と、中断再開のための受信機600のユーザインタフェースを生成する再生UI生成部を備える。受信機600は、第1の実施の形態で示すコンテンツ出力装置101の構成要素に加えて、前記番組ストリームの再生中断状態を前記配信サーバに伝えるコマンド生成部と、前記配信サーバが生成する前記ユーザインタフェースを提示するユーザインタフェース提示部を備えている。これにより、受信機600が、配信サーバ400に前記番組ストリーム中断時の冒頭フレームが3D映像のフレームおよび2D映像のフレームの何れであるかを伝えるコマンドを生成して、配信サーバ400へ通知し、配信サーバ400は前記番組ストリーム再生中断時の前記冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを記憶し、受信機600から前記番組ストリームの再生再開通知を受けると、受信機600に中断再開の操作方法とともに中断再開時の前記冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを伝え、受信機600は、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する。
2.1.配信サーバ400の構成
配信サーバ400は、図21に示すように、第1の実施の形態で説明した構成に加え、コンテンツ状態管理部401、再生用UI(User Interface)生成部402から構成されている。
以下、コンテンツ状態管理部401、再生用UI生成部402について説明する。
(1)コンテンツ状態管理部401
コンテンツ状態管理部401は、図22に示すように、コンテンツ状態管理テーブル500を有している。 コンテンツ状態管理テーブル500は、装置ID501、再生制御ファイルURL502、中断位置503、中断時映像種別504からなる組を複数記憶するための領域を有している。
コンテンツ状態管理テーブル500はユーザごとの再生中断状態を管理するものであり前述の再生制御ファイルURL502、中断位置503、中断時映像種別504からなる組は装置ID501(ユーザ)ごとに管理されている。
再生制御ファイルURL502は、第1の実施の形態で説明したコンテンツ記憶部301が有するコンテンツ管理テーブル301の再生制御ファイルURL311と同一の情報であり、当該ユーザが視聴中のコンテンツに対応する。
中断位置503は、受信機がコンテンツの再生を中断した位置を表す。具体的にはコンテンツの先頭からの相対時間(先頭から10秒など)などである。
中断時映像種別504は受信機がコンテンツの再生を中断したときの映像の種別を表す。この例では3D映像の場合には”3d”、2D映像の場合には”2d”と記載される。
(2)再生用UI生成部402
再生用UI生成部402では、受信機が中断したコンテンツの再生再開を行う際のUIを生成する。具体的には、HTMLなどの宣言型マークアップ言語やJava(登録商標)などの手続き型言語などのプログラミング言語で生成する。図23に再生用UIの例を示す。ここではHTMLを例に記載しているが、他のプログラミング言語でも生成可能である。
図23の“http://xx.yy.zz/meta.cpc”は第1の実施の形態で説明した再生再開を行うコンテンツの再生制御ファイルのURLである。図23の“Pos=10.1”は受信機がコンテンツの再生を中断した位置を表す。具体的にはコンテンツの先頭からの相対時間(例:先頭から10.1秒)である。図23の“Picture=3d”は受信機がコンテンツの再生を中断時点での映像の種別を表す。この例では3D映像の場合には3d、2D映像の場合には2dを記載している。再生用UI生成部402はコンテンツ状態管理部401が管理するコンテンツ状態管理テーブル500の情報を用いて、再生用UIを生成する。
なお、本実施の形態の説明においては、受信機に中断位置(Pos=10.1)、映像の種別(Picture=3d)を通知する手段として、再生用UI生成部402を前記サーバ側に配置し、受信機のユーザインタフェースを生成する方法を示しているが、これはユーザインタフェースに限定したものではなく、中断位置(Pos=10.1)、映像の種別(Picture=3d)を通知するメタデータを生成し通知してもよい。
2.2.受信機600の構成
受信機600は、図24に示すように、第1の実施の形態で説明したコンテンツ出力装置101の構成とほぼ同一であるが、操作制御部119にコマンド生成部601とUI提示部602との構成が追加されている。
以下、コマンド生成部601とUI提示部602について説明する。他の構成要素については、第1の実施の形態で示しているので、ここでの説明は省略する。
(1)コマンド生成部601
コマンド生成部601は、中断時の状態をサーバに通知するためのコマンドを生成する。コマンド生成部601は、ユーザ操作により再生中断の指示があると、その時点でのコンテンツの再生位置を取得し、配信サーバ300宛てのコマンドを生成する。図25に生成するコマンドの例を示す。ここでは転送プロトコルをhttpとしたが、他の転送プロトコルによるコマンドを生成してもよい。“http://xxx.yyy.zzz/cgi−bin/server.cgi“はコマンドを送るあて先のサーバを示す。”pos=10.1“はコンテンツの再生を中断した位置を示す。具体的にはコンテンツの先頭からの相対時間などである。“Picture”はコンテンツの再生を中断したときの映像の種別を表す。この例では3D映像の場合には3d、2D映像の場合には2dと記載している。これらの情報は中断処理時に映像処理部121より取得する。
また、コマンドには、図示していないが、受信機600を識別するための情報が含まれている。この情報は、装置ID、又はサーバ上で装置IDと対応付け可能な識別情報であり、例えばcookieなどで記述されて、コマンドを転送するhttpのヘッダ部等に格納される。
配信サーバ400では、上述したように、受信したコマンドに含まれる情報に従って、装置ID毎に再生中断状態を管理する。
(2)UI提示部602
UI提示部602は、配信サーバ400から送信された再生用UI生成部402で生成されたUIを提示する。UIの表示例を図23に示す。この例ではコンテンツを再生するためのボタンを配置したUIをテレビ画面などに提示する。ここではHTMLでの記述を例に説明する。
ボタン1001「最初から見る」には、配信サーバ400に対し、先頭から(0秒後)に再生するように指示する文書が記述されている。このボタンが押下された場合の動作は、第1の実施の形態と同様に、再生制御ファイルを用いてコンテンツの冒頭フレームが3Dあるか2Dであるかを判断する。
ボタン1002「続きから見る」には、配信サーバ400に対し、続きから(この例では10.1秒後)に再生するように指示する文書が記述されている。また、ここでは"Picture=3d”と記載されているので受信機600は、中断再生時の先頭が3Dであることが再生前にわかる。本例ではテレビ画面に提示するUIを例に説明したがリモコンのボタンと「最初から見る」、「続きから見る」などの操作を対応付ける方法なども考えられる。
2.3.コンテンツ再生中断処理
コンテンツ再生中断処理について図26を用いて説明する。コンテンツ再生中断処理とは、映像コンテンツをユーザが最後まで視聴せず、リモコンなどを用いたユーザの操作により、途中で再生を中断する操作を行った際の処理のことを指す。
ユーザはリモコンなどで受信機600に再生中の映像の中断処理を指示する。操作制御部119は、入出力部113に再生中断要求を行う(ステップS701)。
入出力部113は、配信サーバ400の入出力部303に再生中断要求を通知する(ステップS702)。
入出力部303は、配信制御部302と再生中断のための処理を行い、映像送出を中断する(ステップS703)。
再生中断処理完了後、入出力部303は、受信機600の入出力部113に再生中断完了を通知する(ステップS704)。
入出力部113は、再生中断完了を操作制御部119に伝える(ステップS705)。
操作制御部119は、中断時の状態(コンテンツの再生を中断した位置と映像の種別)を映像処理部121より取得する(ステップS706)。
操作制御部119のコマンド生成部601は、ステップS706で取得した中断時の状態の情報を用いて、配信サーバ400に中断位置と映像種別を通知するコマンドを生成する(ステップS707)。
操作制御部119は、コマンド生成部601が生成したコマンドを入出力部113に渡す(ステップS708)。
入出力部113は、コマンドを配信サーバ400の入出力部303に通知する(ステップS709)。
入出力部303は、受信したコマンドをコンテンツ状態管理部401に渡す。コンテンツ状態管理部401は、装置IDと、中断コンテンツと、コマンドにより通知された中断コンテンツの中断位置、映像種別を組として、コンテンツ状態管理テーブル500に記憶する。処理が完了したことを入出力部303に伝える(ステップS710)。
入出力部303は、コマンド処理が完了したことを受信機600の入出力部113に通知する(ステップS711)。
入出力部113は、コマンド処理が完了したことを操作制御部119に伝える(ステップS712)。
なお、本例では、映像中断処理を先に行った後、映像中断状態を通知するコマンドを発行しているが、映像中断処理の前に、映像中断状態を通知するコマンドを発行する形態でもよい。
2.4.コンテンツ中断再開準備処理
コンテンツ中断再開準備処理について図27を用いて説明する。コンテンツ中断再開準備処理とは、ユーザがリモコンなどを用いた操作で前回途中まで視聴したところから映像再生を再開する操作を行うためのUIを提示する処理をいう。
ユーザはリモコンなどで受信機600に中断したコンテンツを再生するための再生用UIの提示を要求する。操作制御部119は、入出力部113に再生用UI要求を行う(ステップS801)。
入出力部113は、サーバ400の入出力部303に再生用UI要求を通知する(ステップS802)。なお、再生用UI要求には、受信機600の装置IDが含まれている。
入出力部303は再生用UI要求を再生用UI生成部402に伝える。再生用UI生成部402は、UIを生成するために必要な情報である、受信機600がコンテンツの再生を中断した位置と映像の種別などをコンテンツ状態管理部401から取得する(ステップS803)。
再生用UI生成部402は、取得した情報を用いて、中断位置からの再生が可能なUIを生成し、データとして入出力部303に渡す(ステップS804)。以下に、HTMLの場合のUIの例を以下に示す。
<html>
<head>・・・・</head>
<body>
・・・・・
<p>
コンテンツA
<a href=”http://xx.yy.zz/meta.cpc? Pos=10.1&Picture=3d”>続きから見る</a>
</p>
・・・・・
</body>
</html>

入出力部303は、生成したUIのデータを受信機600の入出力部113に通知する(ステップS805)。
入出力部113は、UIデータを操作制御部119のUI提示部602に渡す(ステップS806)。
UI提示部部602は、受け取ったUIデータを用いて視聴者に中断再開のためのUIを提示する(ステップS807)。
2.5.ストリーム再生処理
UI提示部602により提示されたUIにより、前回途中まで視聴したところから映像再生を実行する処理について図28を用いて説明する。
受信機600は、ユーザの操作によりコンテンツの中断再開実行が要求されると(ステップS1101)、選択されたコンテンツに対応する再生制御ファイルURLを含むファイル要求情報を配信サーバ400へ送信する(ステップS1102)。
配信サーバ400は、受信機600から受信した再生制御ファイルURLに対応する再生制御ファイルを特定し、特定した再生制御ファイルを受信機600へ送信する(ステップS1103)。
受信機600の再生制御部117は、再生制御ファイルを受信すると、再生すべきコンテンツが2Dであるか3Dであるか、もしくは2D及び3Dが混在したものであるかを判断し、混在していると判断する場合には、再生用UIのデータに記述され、且つステップS1101で選択されたコンテンツに対応する中断再開時の映像の種別(2Dか3Dか)を用いて、中断再開時の冒頭フレームが2Dか3Dかを判定し(ステップS1104)、再生出力動作を実行する(ステップS1105)。これらの処理について図29を用いて説明する。
(1)冒頭フレームの判定処理(ステップS1104)
ここでは、受信機600がコンテンツの再生を再開する場合、特に図28で示すステップS1104の詳細な動作について、図29に示す流れ図を用いて説明する。
番組判定部125は、図8で示す記述要素321が存在するか否を判断、つまり配信されるストリームが3D映像を含むものであるか否かを判断する(ステップS1200)。
番組判定部125で、配信されるストリームが3D映像を含まない、つまり2D映像のみからなるものであると判断する場合(ステップS1200における「No」)、出力処理部118は、2Dの出力形態で、ストリームに含まれるフレーム毎にSEIの識別情報を参照することなく、ストリームに含まれる全ての映像フレームを再生する(ステップS1205)。なお、ステップS1205の詳細な処理動作は、図13で示す処理を同様であるので、ここでの説明は省略する。
配信されるストリームが3D映像を含むものであると判断する場合(ステップS1200における「Yes」)、番組判定部125は、番組状態フラグがSEIの識別情報を参照することを示しているか参照しないことを示しているかを判断する(ステップS1210)。
番組判定部125で、SEIの識別情報を参照しない、つまりsignalingで指定されている内容が“false”であると判断する場合(ステップS1210における「No」)、出力処理部118は、3Dの出力形態で、ストリームに含まれるフレーム毎にSEIの識別情報を参照することなく、ストリームに含まれる全ての映像フレームを再生する(ステップS1215)。なお、ステップS1215の詳細な処理動作は、図14で示す処理を同様であるので、ここでの説明は省略する。
操作制御部119は、UIのデータに選択されたコンテンツに対応する中断再開時の映像の種別(2Dか3Dか)が記述されているかどうかを確認する(ステップ920)。
記述されていると判断する場合は(ステップS1220における「Yes」)、操作制御部119は、映像種別を再生制御部117の冒頭フレーム判定部126に渡す(ステップ925)。
冒頭フレーム判定部126は、操作制御部119より渡された映像種別に従い、再開時の先頭フレームが2Dか3Dかを判定する(ステップ935)。具体的には、冒頭フレーム判定部126は、映像種別“Picture”に“3d”が設定されているか否かを判断する。
冒頭フレーム判定部126で映像種別が3Dを示している、つまりPictureで設定されている内容が“3d”であると判断する場合(ステップS1235における「Yes」)、出力処理部118は、映像の出力形態を3Dの出力形態へと変更する(ステップS1240)。具体的には、切替制御部140はスイッチ142の接続先を第2バッファ131となるようスイッチ142を切り替え、出力部141は出力周期を120Hzに変更する。
記述されていないと判断する場合は(ステップS1220における「No」)、冒頭フレーム判定部126は、第1の実施の形態と同様に、再生制御ファイルのbeginningの値を用いて、beginningに設定された内容が“3d”であるか否かを判断する(ステップS1230)。
冒頭フレーム判定部126でbeginningに設定された内容が“3d”であると判断する場合(ステップS1230における「Yes」)、処理はステップS1240へ移行する。
ステップS1240の実行後、冒頭フレーム判定部126でbeginningで設定されている内容が“2d”であると判断する場合(ステップS1230における「No」)、及び冒頭フレーム判定部126で映像種別が2Dを示している、つまりPictureで設定されている内容が“2d”であると判断する場合(ステップS1235における「No」)、出力処理部118は、2D及び3Dの混在用の再生処理を行う(ステップS1245)。なお、ステップS1245の詳細な処理動作は、図15で示す処理を同様であるので、ここでの説明は省略する。
(2)再生出力動作(ステップS1105)
受信機600の再生出力動作は第1の実施の形態で示すデジタルテレビ100と同様である。配信サーバ400の出力動作において、映像の先頭から出力するのではなく、中断位置から出力する部分のみが異なる。配信サーバ400は、どの位置から再生するか、つまりどの位置から配信を行うかを、受信機600の再生用UIから送られるコマンドに含まれるPosの情報を用いて判断してもよいし、配信サーバ400が保有するコンテンツ状態管理テーブル500の中断位置の情報から判断してもよい。
これ以降の映像ストリーム再生処理は、第1の実施の形態と同様であるので省略する。
2.6 変形例
以上、第2の実施の形態に基づいて説明したが、本発明は上記の第2の実施の形態に限られない。例えば、以下のような変形例が考えられる。
(1)上記第2の実施の形態のコンテンツ状態管理部401はサーバ上に配置されているが、受信機600上に配置してもよい。
(2)上記第2の実施の形態において、再生用UI生成部402は、配信サーバ400に配置されているが、受信機600に配置してもよい。
(3)コンテンツ状態管理部401を受信機600に配置する場合、受信機600にてあらかじめコンテンツの内容を確認して、すべての再開可能位置における映像種別を記載したコンテンツ状態管理テーブル500を作成してもよい。この場合のコンテンツ状態管理テーブル500は、各々の再生制御ファイルURL502毎に、複数の中断位置503と中断時映像種別504の組を記載した構成となる。さらに、このようなコンテンツ状態管理テーブル500を配信サーバ400で作成し、コンテンツの再生に先立って受信機600にネットワークを介して送信してもよい。
(4)コンテンツ状態管理部401を配信サーバ400に配置する場合、配信サーバ400にてあらかじめコンテンツの内容を確認して、すべての再開可能位置におけるコンテンツ映像種別を記載したコンテンツ状態管理テーブル500を作成してもよい。この場合のコンテンツ状態管理テーブル500は、各々の再生制御ファイルURL502毎に、複数の中断位置503と中断時映像種別504の組を記載した構成となる。
(5)上記第2の実施の形態において、受信機600の映像処理部121から映像種別情報を取得し、受信機600のコマンド生成部601で中断時の位置・映像種別情報をサーバに伝える構成となっているが、配信サーバ400の配信制御部302から、中断位置・映像種別情報を取得するようにしてもよい。
この場合、配信サーバ400は、受信機600から再生中断要求を受け取った時点までに配信したコンテンツの先頭からの相対時間を中断位置とする。または、受信機600から再生中断要求を受け取った時点までに配信したコンテンツの先頭からの相対時間から、ある一定時間遡った時間(例えば、2秒前など)を中断位置としてもよい。そして、配信サーバ400は、特定した中断位置のフレームが2Dの映像であるか3Dの映像であるかを判断し、その結果を映像種別情報とする。
(6)上記第2の実施の形態で示す再生UIの記述例及びコマンドの記述例は、一例であり、図30(a)、(b)で示す記述であってもよい。
(6−1)図30(a)について
図30(a)は、再生UIの記述のうち、中断位置から開始するための情報を通知する記述例である。
この記述のうち、記述1301は中断位置、つまり再開位置を示すものであり、例えば中断位置が10.1秒(コンテンツの先頭からの相対時間)の位置であれば、&PlayPos=10.1と記述される。
また、記述1302は中断位置での映像が3D映像であるか2D映像であるかを示している。中断位置での映像が3D映像である場合には、&Start3d2d=3dと記述され、2D映像である場合には、&Start3d2d=2dと記述される。
なお、MetaFileURLは、再生再開を行うコンテンツの再生制御ファイルのURLである。LicenseIDは、暗号化コンテンツの再生を行う場合において指定したコンテンツのライセンスIDを示す。Return=ReturnURLは、コンテンツの再生が完了した場合に表示すべき画像のURLである。
(6−2)図30(b)について
図30(b)は、コンテンツの再生を中断した場合において、配信サーバ400へ通知する際のコマンドの記述例である。
この記述のうち、記述1351は、再生を中断した位置を示すものであり、例えば中断位置が10.1秒(コンテンツの先頭からの相対時間)の位置であれば、&StopPos=10.1と記述される。
また、記述1352は中断位置での映像が3D映像であるか2D映像であるかを示している。中断位置での映像が3D映像である場合には、&Stop3d2d=3dと記述され、2D映像である場合には、&Stop3d2d=2dと記述される。
なお、ReturnURLは、上述したように、コンテンツの再生が完了した場合に表示すべき画像のURLである。&Status=StatusCodeは、終了状態を示し、再生が正常終了した場合には&Status=0と記述され、異状終了した場合には−2以下の数が設定、例えば、&Status=−2が記述される。
例えば、中断位置が10.1秒であり、その映像が3D映像である場合に、配信サーバ400へ通知する際のコマンドの記述は、“ReturnURL&Status=0[&StopPos=10.1][&Stop3d2d=3d]”となる。
(7)上記第2の実施の形態において、図23で示す表示例は、一例であり、表示画面は、ユーザによりカスタマイズされたものであってもよい。例えば、どこまで視聴済みであるかを表示するようにしてもよい。
(8)上記の実施の形態で説明した手法の手順を記述したプログラムをメモリに記憶しておき、CPU(Central Processing Unit)などがメモリからプログラムを読み出して、読み出したプログラムを実行することによって、上記の手法が実現されるようにしてもよい。
また、当該手法の手順を記述したプログラムを記録媒体に格納して、頒布するようにしてもよい。
(9)上記の各実施の形態にかかる各構成は、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらの構成は、1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIと表現したが、回路の集積度の違いによっては、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと称呼されることもある。また、集積回路化の手法は、LSIに限られるものではなく、専用回路または汎用プロセッサで集積回路化を行ってもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー(ReConfigurable Processor)を用いてもよい。あるいは、これらの機能ブロックの演算は、例えば、DSP(Digital Signal Processor)やCPU(Central Processing Unit)などを用いて演算することもできる。さらに、これらの処理ステップはプログラムとして記録媒体に記録して実行することで処理することもできる。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路の技術が登場すれば、当然、その技術を用いて機能ブロックを集積化してもよい。バイオ技術の適応などが可能性としてあり得る。
(10)上記実施の形態及び変形例を組み合わせるとしてもよい。
3.補足
(1)本発明の一実施態様である、コンテンツ配信システムは、映像コンテンツに係る映像ストリームを配信する配信サーバと、前記映像ストリームをデコードして再生する再生装置とからなり、前記配信サーバは、一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、前記再生装置は、前記映像ストリームと、前記冒頭フレーム状態フラグを受け取る受信手段と、前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備えることを特徴とする。
この構成によると、コンテンツ配信システムの配信サーバは冒頭フレーム状態フラグを送信し、再生装置は、冒頭フレーム状態フラグを用いて、一の番組についての冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生するので、一の番組について冒頭フレームを欠くことなく再生することができる。
(2)また、本発明の一実施態様である、映像コンテンツに係る映像ストリームを配信サーバから受信し、当該映像ストリームをデコードして再生する再生装置は、一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグをネットワークを介して受け取る受信手段と、前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備えることを特徴とする。
この構成によると、再生装置は、冒頭フレーム状態フラグを用いて、一の番組についての冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生するので、一の番組について冒頭フレームを欠くことなく再生することができる。
(3)ここで、前記映像ストリームは、複数の部分ストリームから構成され、前記複数の部分ストリームそれぞれは、当該部分ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示すチャプタ状態フラグが対応付けられており、前記再生装置は、さらに、ユーザから、一の部分ストリームにおける冒頭フレームへの移動指示を受け付ける指示受付手段を備え、前記判断手段は、さらに、前記移動指示が受け付けられると、前記一の部分ストリームのデコードに先立って、移動先の部分ストリームに対応するチャプチャ状態フラグを用いて、当該部分ストリームの冒頭フレームが3D映像のフレームであるか2D映像のフレームであるかを判断し、前記再生手段は、さらに、前記部分ストリームの冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合にはフレームの出力形態を2D映像出力用に、前記部分ストリームのデコード前にそれぞれ準備して、当該部分ストリームをデコードして再生するとしてもよい。
この構成によると、再生装置は、チャプタ状態フラグを用いて、移動指示のあった前記一の部分ストリームの冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記部分ストリームのデコード前にそれぞれ準備して、前記部分ストリームのデコードをして再生するので、部分ストリームの冒頭フレームを欠くことなく再生することができる。
(4)また、本発明の一実施態様である、映像コンテンツに係る映像ストリームを、当該映像ストリームをデコードして再生する再生装置へ配信する配信サーバは、一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備えることを特徴とする。
この構成によると、配信サーバは、一の番組を表す映像ストリームに対応付けられ、且つ当該一の番組の冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグを再生装置へ送信するので、再生装置側では、冒頭フレーム状態フラグを参照することで、映像ストリームのデコード前に、映像ストリームの冒頭フレームが3D映像であるか2D映像であるかを判断することができる。そして、再生装置は、冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生することで、一の番組について冒頭フレームを欠くことなく再生することができる。
(5)本発明の一実施態様である、映像コンテンツに係る映像ストリームを配信する配信サーバと、前記映像ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムにおいて、前記配信サーバが、複数のチャプタから構成される前記映像コンテンツにおいて、ユーザにより指定されたチャプタについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該チャプタの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、前記再生装置が、前記映像ストリームと、前記冒頭フレーム状態フラグを受け取る受信手段と、前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備えることを特徴とする。
この構成によると、コンテンツ配信システムの配信サーバは冒頭フレーム状態フラグを送信し、再生装置は、冒頭フレーム状態フラグを用いて、ユーザにより指定されたチャプタについての冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生するので、ユーザにより指定されたチャプタについて冒頭フレームを欠くことなく再生することができる。
(6)また、本発明の一実施態様である、映像コンテンツに係る映像ストリームを配信サーバから受信し、当該映像ストリームをデコードして再生する再生装置は、複数のチャプタから構成される前記映像コンテンツにおいて、ユーザにより指定されたチャプタについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該チャプタの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグをネットワークを介して受け取る受信手段と、前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備えることを特徴とする。
この構成によると、再生装置は、冒頭フレーム状態フラグを用いて、ユーザにより指定されたチャプタについての冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生するので、ユーザにより指定されたチャプタについての冒頭フレームを欠くことなく再生することができる。
(7)また、本発明の一実施態様である、映像コンテンツに係る映像ストリームを、当該映像ストリームをデコードして再生する再生装置へ配信する配信サーバは、複数のチャプタから構成される前記映像コンテンツにおいて、ユーザにより指定されたチャプタについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該チャプタの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備えることを特徴とする。
この構成によると、配信サーバは、ユーザにより指定されたチャプタを表す映像ストリームに対応付けられ、且つ当該チャプタの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグを再生装置へ送信するので、再生装置側では、冒頭フレーム状態フラグを参照することで、映像ストリームのデコード前に、映像ストリームの冒頭フレームが3D映像であるか2D映像であるかを判断することができる。そして、再生装置は、冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生することで、ユーザにより指定されたチャプタについて冒頭フレームを欠くことなく再生することができる。
(8)本発明の一実施態様である、映像コンテンツに係る映像ストリームを配信する配信サーバと、前記映像ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムにおいて、前記配信サーバが、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記映像コンテンツのうち中断された以降の部分映像コンテンツについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該部分映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、前記再生装置が、前記映像ストリームと、前記冒頭フレーム状態フラグを受け取る受信手段と、前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備えることを特徴とする。
この構成によると、コンテンツ配信システムの配信サーバは冒頭フレーム状態フラグを送信し、再生装置は、冒頭フレーム状態フラグを用いて、視聴が中断された以降の部分映像コンテンツについての冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記部分映像ストリームのデコードをして再生するので、視聴が中断された以降の部分映像コンテンツの視聴を再開する際に部分映像コンテンツの冒頭フレームを欠くことなく再生することができる。
(9)また、本発明の一実施態様である、映像コンテンツに係る映像ストリームを配信サーバから受信し、当該映像ストリームをデコードして再生する再生装置は、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記映像コンテンツのうち中断された以降の部分映像コンテンツについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該部分映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグをネットワークを介して受け取る受信手段と、前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備えることを特徴とする。
この構成によると、再生装置は、冒頭フレーム状態フラグを用いて、視聴が中断された以降の部分映像コンテンツについての冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記部分映像ストリームのデコードをして再生するので、視聴が中断された以降の部分映像コンテンツの視聴を再開する際に部分映像コンテンツの冒頭フレームを欠くことなく再生することができる。
(10)ここで、前記再生装置は、さらに、前記ユーザが前記映像コンテンツについて再生の中断を指示した場合に、前記映像コンテンツの中断時のフレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示すフレーム状態フラグを、前記配信サーバへ送信する送信手段を備えるとしてもよい。
この構成によると、再生装置は、視聴が中断された場合に、中断時フレーム状態フラグを配信サーバへ通知するので、配信サーバでは、中断時点での映像の種別を容易に知ることができる。
(11)また、本発明の一実施態様である、映像コンテンツに係る映像ストリームを、当該映像ストリームをデコードして再生する再生装置へ配信する配信サーバは、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記映像コンテンツのうち中断された以降の部分映像コンテンツについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該部分映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備えることを特徴とする。
この構成によると、配信サーバは、視聴が中断された以降の部分映像コンテンツを表す映像ストリームに対応付けられ、且つ当該部分映像コンテンツの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れかであることを示す冒頭フレーム状態フラグを再生装置へ送信するので、再生装置側では、冒頭フレーム状態フラグを参照することで、映像ストリームのデコード前に、映像ストリームの冒頭フレームが3D映像であるか2D映像であるかを判断することができる。そして、再生装置は、冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記部分ストリームのデコード前にそれぞれ準備して、前記部分映像ストリームのデコードをして再生することで、視聴が中断された以降の部分映像コンテンツの再開時に当該部分映像コンテンツについて冒頭フレームを欠くことなく再生することができる。
(12)ここで、前記配信サーバは、さらに、前記ユーザが前記映像コンテンツについて再生の中断を要求があった場合に、前記映像コンテンツの中断時のフレームが3D映像のフレームか2D映像のフレームの何れかであることを示す中断時フレーム状態フラグを前記再生装置より受信する受信手段と、受信した前記冒頭フレーム状態フラグを対応付けて記憶する記憶手段を備え、前記配信手段は、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記記憶手段で記憶している中断時フレーム状態フラグを前記冒頭フレーム状態フラグとして前記再生装置へ送信するとしてもよい。
この構成によると、配信サーバは、視聴が中断された場合に、中断時フレーム状態フラグを再生装置から受け取り、記憶するので、開始時におけるフレームの種別を容易に特定することができる。
(13)ここで、前記配信サーバは、さらに、前記映像ストリームの中断時のフレームが3D映像のフレームか2D映像のフレームの何れかであることを検出する検出手段と、検出結果に応じた冒頭フレーム状態フラグを記憶する記憶手段を備え、前記配信手段は、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記記憶手段で記憶している冒頭フレーム状態フラグを前記再生装置へ送信するとしてもよい。
この構成によると、配信サーバは、視聴が中断された場合に、中断時におけるフレームが3D映像であるか2D映像であるかを検出し、その結果を記憶するので、開始時におけるフレームの種別を容易に特定することができる。
上記にて説明したコンテンツ配信システムは、3D映像及び2D映像のうち片方のみからなるコンテンツや、双方を含むコンテンツを配信し、再生する場合において有用である。
1 コンテンツ配信システム
2 ネットワーク
100 デジタルテレビ
101 コンテンツ出力装置
102 表示装置
110 TSバッファ
111 符号化映像バッファ
112 復号化映像バッファ
113 入出力部
114 多重化分離部
115 映像デコード部
116 音声デコード部
117 再生制御部
118 出力処理部
119 操作制御部
120 フレームバッファ
121 映像処理部
122 出力制御部
125 番組判定部
126 冒頭フレーム判定部
130 第1バッファ
131 第2バッファ
132 L映像バッファ
133 R映像バッファ
140 切替制御部
141 出力部
142 スイッチ
200 3D眼鏡
300 配信サーバ
301 コンテンツ記憶部
302 配信制御部
303 入出力部

Claims (15)

  1. 映像コンテンツに係る映像ストリームを配信する配信サーバと、前記映像ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムであって、
    前記配信サーバは、
    一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、
    前記再生装置は、
    前記映像ストリームと、前記冒頭フレーム状態フラグを受け取る受信手段と、
    前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、
    前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備える
    ことを特徴とするコンテンツ配信システム。
  2. 映像コンテンツに係る映像ストリームを配信サーバから受信し、当該映像ストリームをデコードして再生する再生装置であって、
    一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグをネットワークを介して受け取る受信手段と、
    前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、
    前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備える
    ことを特徴とする再生装置。
  3. 前記映像ストリームは、複数の部分ストリームから構成され、
    前記複数の部分ストリームそれぞれは、当該部分ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示すチャプタ状態フラグが対応付けられており、
    前記再生装置は、さらに、
    ユーザから、一の部分ストリームにおける冒頭フレームへの移動指示を受け付ける指示受付手段を備え、
    前記判断手段は、さらに、
    前記移動指示が受け付けられると、前記一の部分ストリームのデコードに先立って、移動先の部分ストリームに対応するチャプチャ状態フラグを用いて、当該部分ストリームの冒頭フレームが3D映像のフレームであるか2D映像のフレームであるかを判断し、
    前記再生手段は、さらに、
    前記部分ストリームの冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合にはフレームの出力形態を2D映像出力用に、前記部分ストリームのデコード前にそれぞれ準備して、当該部分ストリームをデコードして再生する
    ことを特徴とする請求項2に記載の再生装置。
  4. 映像コンテンツに係る映像ストリームを、当該映像ストリームをデコードして再生する再生装置へ配信する配信サーバであって、
    一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備える
    ことを特徴とする配信サーバ。
  5. 映像コンテンツに係る映像ストリームを配信サーバから受信し、当該映像ストリームをデコードして再生する再生装置で用いられる再生方法であって、
    一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグをネットワークを介して受け取る受信ステップと、
    前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断ステップと、
    前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生ステップとを含む
    ことを特徴とする再生方法。
  6. 映像コンテンツに係る映像ストリームを、当該映像ストリームをデコードして再生する再生装置へ配信する配信サーバで用いられる配信方法であって、
    一の番組全体を表す前記映像コンテンツについての映像ストリームと、当該映像ストリームに対応付けられ、且つ前記映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信ステップを含む
    ことを特徴とする配信方法。
  7. 映像コンテンツに係る映像ストリームを配信する配信サーバと、前記映像ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムであって、
    前記配信サーバは、
    複数のチャプタから構成される前記映像コンテンツにおいて、ユーザにより指定されたチャプタについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該チャプタの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、
    前記再生装置は、
    前記映像ストリームと、前記冒頭フレーム状態フラグを受け取る受信手段と、
    前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、
    前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備える
    ことを特徴とするコンテンツ配信システム。
  8. 映像コンテンツに係る映像ストリームを配信サーバから受信し、当該映像ストリームをデコードして再生する再生装置であって、
    複数のチャプタから構成される前記映像コンテンツにおいて、ユーザにより指定されたチャプタについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該チャプタの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグをネットワークを介して受け取る受信手段と、
    前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、
    前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備える
    ことを特徴とする再生装置。
  9. 映像コンテンツに係る映像ストリームを、当該映像ストリームをデコードして再生する再生装置へ配信する配信サーバであって、
    複数のチャプタから構成される前記映像コンテンツにおいて、ユーザにより指定されたチャプタについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該チャプタの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備える
    ことを特徴とする配信サーバ。
  10. 映像コンテンツに係る映像ストリームを配信する配信サーバと、前記映像ストリームをデコードして再生する再生装置とからなるコンテンツ配信システムであって、
    前記配信サーバは、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記映像コンテンツのうち中断された以降の部分映像コンテンツについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該部分映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備え、
    前記再生装置は、
    前記映像ストリームと、前記冒頭フレーム状態フラグを受け取る受信手段と、
    前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、
    前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備える
    ことを特徴とするコンテンツ配信システム。
  11. 映像コンテンツに係る映像ストリームを配信サーバから受信し、当該映像ストリームをデコードして再生する再生装置であって、
    ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記映像コンテンツのうち中断された以降の部分映像コンテンツについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該部分映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグをネットワークを介して受け取る受信手段と、
    前記映像ストリームのデコードに先立って、受信した前記冒頭フレーム状態フラグを用いて、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを判断する判断手段と、
    前記冒頭フレームが3D映像のフレームであると判断する場合にはフレームの出力形態を3D映像出力用に、2D映像のフレームであると判断する場合には当該出力形態を2D映像出力用に、前記映像ストリームのデコード前にそれぞれ準備して、前記映像ストリームのデコードをして再生する再生手段とを備える
    ことを特徴とする再生装置。
  12. 前記再生装置は、さらに、
    前記ユーザが前記映像コンテンツについて再生の中断を指示した場合に、前記映像コンテンツの中断時のフレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示すフレーム状態フラグを、前記配信サーバへ送信する送信手段を備える
    ことを特徴とする請求項11に記載の再生装置。
  13. 映像コンテンツに係る映像ストリームを、当該映像ストリームをデコードして再生する再生装置へ配信する配信サーバであって、
    ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記映像コンテンツのうち中断された以降の部分映像コンテンツについての映像ストリームと、前記映像コンテンツに対応付けられ、且つ当該部分映像コンテンツの先頭に対応する、当該映像ストリームの冒頭フレームが3D映像のフレーム及び2D映像のフレームの何れであるかを示す冒頭フレーム状態フラグとを、前記再生装置へネットワークを介して配信する配信手段を備える
    ことを特徴とする配信サーバ。
  14. 前記配信サーバは、さらに、
    前記ユーザが前記映像コンテンツについて再生の中断を要求した場合に、前記映像コンテンツの中断時のフレームが3D映像のフレームか2D映像のフレームの何れであるかを示す中断時フレーム状態フラグを前記再生装置より受信する受信手段と、
    受信した前記中断時フレーム状態フラグを対応付けて記憶する記憶手段を備え、
    前記配信手段は、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記記憶手段で記憶している中断時フレーム状態フラグを前記冒頭フレーム状態フラグとして前記再生装置へ送信する
    ことを特徴とする請求項13に記載の配信サーバ。
  15. 前記配信サーバは、さらに、
    前記映像コンテンツの再生が中断した際、映像ストリームの中断時のフレームが3D映像のフレーム2D映像のフレームの何れであるかを検出して、検出結果である中断フレームにおける3D映像、2D映像の区別を、冒頭フレームにおける3D映像、2D映像の区別として示す冒頭フレーム状態フラグを生成する検出手段と、
    生成された冒頭フレーム状態フラグを記憶する記憶手段とを備え、
    前記配信手段は、ユーザが視聴を中断している前記映像コンテンツについて当該ユーザが視聴の再開を要求した場合に、前記記憶手段で記憶している冒頭フレーム状態フラグを前記再生装置へ送信する
    ことを特徴とする請求項13に記載の配信サーバ。
JP2012521329A 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法 Expired - Fee Related JP5882896B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012521329A JP5882896B2 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2010142719 2010-06-23
JP2010142719 2010-06-23
JP2010215898 2010-09-27
JP2010215898 2010-09-27
JP2012521329A JP5882896B2 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法
PCT/JP2011/003551 WO2011161956A1 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法

Publications (2)

Publication Number Publication Date
JPWO2011161956A1 JPWO2011161956A1 (ja) 2013-08-19
JP5882896B2 true JP5882896B2 (ja) 2016-03-09

Family

ID=45371161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012521329A Expired - Fee Related JP5882896B2 (ja) 2010-06-23 2011-06-22 コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法

Country Status (5)

Country Link
US (1) US20120188340A1 (ja)
EP (1) EP2587809A4 (ja)
JP (1) JP5882896B2 (ja)
CN (1) CN102577406A (ja)
WO (1) WO2011161956A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104284191B (zh) * 2013-07-03 2018-12-18 乐金电子(中国)研究开发中心有限公司 视频编解码方法及视频编解码器
CN105959798B (zh) * 2016-06-30 2019-05-31 北京小米移动软件有限公司 视频流的帧定位方法、装置和设备
US10880272B2 (en) * 2017-04-20 2020-12-29 Wyse Technology L.L.C. Secure software client

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006114A (ja) * 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP2006352876A (ja) * 2005-06-14 2006-12-28 Samsung Electronics Co Ltd 映像送信及び受信方法と装置、及びその伝送ストリーム構造
WO2008153260A1 (en) * 2007-06-11 2008-12-18 Samsung Electronics Co., Ltd. Method of generating two-dimensional/three-dimensional convertible stereoscopic image bitstream and method and apparatus for displaying the same
WO2011043213A1 (ja) * 2009-10-05 2011-04-14 ソニー株式会社 信号伝送方法、信号送信装置及び信号受信装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5721829A (en) * 1995-05-05 1998-02-24 Microsoft Corporation System for automatic pause/resume of content delivered on a channel in response to switching to and from that channel and resuming so that a portion of the content is repeated
EP0888018B1 (en) * 1996-02-28 2006-06-07 Matsushita Electric Industrial Co., Ltd. Optical disk having plural streams of digital video data recorded thereon in interleaved manner, and apparatuses and methods for recording on, and reproducing from, the optical disk
US7302697B1 (en) * 2000-01-26 2007-11-27 Intel Corporation Broadcast pause and resume for enhanced television
JP2003061066A (ja) * 2001-08-15 2003-02-28 Sony Corp コンテンツ提供装置、コンテンツ提供方法、ストリームコンテンツの再生プログラム及びストリームコンテンツの再生プログラムを記録した記録媒体
US8122466B2 (en) * 2001-11-20 2012-02-21 Portulim Foundation Llc System and method for updating digital media content
JP2005094168A (ja) * 2003-09-12 2005-04-07 Sharp Corp ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
KR100585966B1 (ko) * 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
KR100657322B1 (ko) * 2005-07-02 2006-12-14 삼성전자주식회사 로컬 3차원 비디오를 구현하기 위한 인코딩/디코딩 방법 및장치
WO2009048216A1 (en) * 2007-10-10 2009-04-16 Electronics And Telecommunications Research Institute Metadata structure for storing and playing stereoscopic data, and method for storing stereoscopic content file using this metadata
US8660402B2 (en) * 2007-12-14 2014-02-25 Koninklijke Philips N.V. 3D mode selection mechanism for video playback
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US9124874B2 (en) * 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP2011066871A (ja) * 2009-08-21 2011-03-31 Sony Corp コンテンツ伝送方法及び表示装置
WO2011136621A2 (en) * 2010-04-30 2011-11-03 Lg Electronics Inc. An apparatus of processing an image and a method of processing thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006114A (ja) * 2003-06-12 2005-01-06 Sharp Corp 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP2006352876A (ja) * 2005-06-14 2006-12-28 Samsung Electronics Co Ltd 映像送信及び受信方法と装置、及びその伝送ストリーム構造
WO2008153260A1 (en) * 2007-06-11 2008-12-18 Samsung Electronics Co., Ltd. Method of generating two-dimensional/three-dimensional convertible stereoscopic image bitstream and method and apparatus for displaying the same
WO2011043213A1 (ja) * 2009-10-05 2011-04-14 ソニー株式会社 信号伝送方法、信号送信装置及び信号受信装置

Also Published As

Publication number Publication date
EP2587809A1 (en) 2013-05-01
US20120188340A1 (en) 2012-07-26
WO2011161956A1 (ja) 2011-12-29
CN102577406A (zh) 2012-07-11
JPWO2011161956A1 (ja) 2013-08-19
EP2587809A4 (en) 2015-04-29

Similar Documents

Publication Publication Date Title
US8503869B2 (en) Stereoscopic video playback device and stereoscopic video display device
JP4527808B2 (ja) 3d映像が記録された記録媒体、3d映像を記録する記録装置、並びに3d映像を再生する再生装置及び再生方法
JP5336666B2 (ja) 符号化方法、表示装置、復号方法
JP5236130B2 (ja) 記録媒体および情報処理方法
WO2012017643A1 (ja) 符号化方法、表示装置、及び復号方法
JP5870272B2 (ja) 映像処理装置
TW201032577A (en) Reproduction device, reproduction method, and program for stereoscopic reproduction
JP5510097B2 (ja) 信号伝送方法、信号送信装置および信号受信装置
JP5957769B2 (ja) 映像処理装置及び映像処理方法
KR20140107107A (ko) 영상재생장치, 영상재생방법, 영상재생 프로그램, 영상송신장치, 영상송신방법 및 영상송신 프로그램
WO2013099289A1 (ja) 再生装置、送信装置、再生方法及び送信方法
JPWO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
JP5882896B2 (ja) コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法
JPWO2012029293A1 (ja) 映像処理装置、映像処理方法、コンピュータプログラム及び配信方法
JP5778673B2 (ja) コンテンツ配信システム、再生装置、配信サーバ、再生方法及び配信方法
WO2011148587A1 (ja) 立体視映像の再生装置、集積回路、プログラム
WO2012011525A1 (ja) 三次元ビデオストリームへの映像変換方法
JP5568404B2 (ja) 映像表示システム及び再生装置
JP5527730B2 (ja) 再生装置
JP2010028456A (ja) データ構造、再生装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140304

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160204

R151 Written notification of patent or utility model registration

Ref document number: 5882896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees