JP5979499B2 - 再生装置、再生方法、集積回路、放送システム、及び放送方法 - Google Patents

再生装置、再生方法、集積回路、放送システム、及び放送方法 Download PDF

Info

Publication number
JP5979499B2
JP5979499B2 JP2013505237A JP2013505237A JP5979499B2 JP 5979499 B2 JP5979499 B2 JP 5979499B2 JP 2013505237 A JP2013505237 A JP 2013505237A JP 2013505237 A JP2013505237 A JP 2013505237A JP 5979499 B2 JP5979499 B2 JP 5979499B2
Authority
JP
Japan
Prior art keywords
video
image
broadcast
stream
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013505237A
Other languages
English (en)
Other versions
JPWO2013021656A1 (ja
Inventor
泰治 佐々木
泰治 佐々木
洋 矢羽田
洋 矢羽田
智輝 小川
智輝 小川
上坂 靖
靖 上坂
和寛 持永
和寛 持永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2013021656A1 publication Critical patent/JPWO2013021656A1/ja
Application granted granted Critical
Publication of JP5979499B2 publication Critical patent/JP5979499B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/06Systems for the simultaneous transmission of one television signal, i.e. both picture and sound, by more than one carrier
    • H04N7/063Simultaneous transmission of separate parts of one picture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Description

本発明は、放送波により受信する映像と、ネットワークを用いて受信する映像とを結合し、1つの映像として表示する技術に関する。
近年、放送事業者などにより、放送サービスを中心にしながら、通信を活用して放送サービスを強化するという観点に基づいた、放送と通信のハイブリッドサービスが検討されている。このハイブリッドサービスを提供するための技術の一例として、非特許文献1には、放送波により送られてくる放送番組と、ネットワーク経由で送られてくるコンテンツとを受信機で受信し、同期させ、合成して提示する技術(「Hybridcast(登録商標)」)が開示されている。
この技術を用いれば、例えば、受信機が、放送により送信される放送映像と、ネットワーク経由で送信される追加映像とを受信し、放送映像を右に、追加映像を左に並べて1枚の結合映像として表示することで、放送波により送信される映像をよりワイドにした映像を表示することができる。また、上述の技術に対応していない受信機(以下、「レガシー受信機」という。)では、放送波により送信される映像のみ受信して表示できることから、レガシー受信機に対する互換性も確保できる。
松村欣司、金次保明、「HybridcastTM の概要と技術」、NHK技研R&D No.124 2010年
ところで、放送映像は、レガシー受信機においても再生されるものであり、被写体として重要度の高いものが映っている重要度の高い映像である場合が多い。例えば、サッカー中継の例であれば、放送映像は、おおよそサッカーボール周辺が映された映像となる。
一方で、追加映像は、例えば放送映像の左側に並べる映像というような、放送映像との固定の相対位置から内容が定まり、重要度が低い映像になってしまう場合がある。例えば、サッカー中継の例であれば、放送映像が、視聴者から見て左側のゴール周囲の映像となった場合に、追加映像が、視聴者から見て左側のゴールのさらに左側の観客席ばかりを映すこととなるような場合である。
この場合、放送映像と追加映像とを結合した結合映像においても、重要度の低い領域の割合が多くなってしまう。
本発明は、係る問題に鑑みてなされたものであり、追加映像として放送映像との固定の相対位置から定まる映像ではない任意の映像が用いられた場合にも、放送映像と追加映像とを結合して1個の結合映像を生成し表示することができる再生装置を提供することを目的とする。
上記課題を解決するために、本発明に係る再生装置は、原映像を再生する再生装置であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備え、前記フレーム画像のそれぞれは、前記放送画像と、複数の部分画像とに分割されており、前記残画像は、前記複数の部分画像が結合されて成り、前記配置情報は、前記残画像における、前記複数の部分画像それぞれの配置位置を示す情報を含み、前記再生手段は、前記配置情報を参照して、前記残画像を前記複数の部分画像に分割し、前記放送画像と結合することにより前記フレーム画像を生成する。
上述の構成により、本発明に係る再生装置は、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生することができる。
本発明の一実施形態に係る放送システムの構成を示すブロック図 本発明の一実施形態に係る再生システムの構成を示すブロック図 映像を分離する処理について説明するための図 映像配置設定データの一例を示す図 映像配置設定データのトランスポートストリームへの格納について説明するための図 放送システムによる映像送信処理の手順を示すフローチャート 再生装置における映像の合成について説明するための図 再生装置による映像再生処理の手順を示すフローチャート 本発明の変形例に係る画像の分割と合成及び、映像配置設定データについて示す図 本発明の変形例に係る画像の分割と合成及び、映像配置設定データについて示す図 本発明の変形例に係る画像の分割と合成及び、映像配置設定データについて示す図 本発明の変形例に係る、マクロブロックが画像の境界を跨ぐ場合について説明するための図 MPEG−4 MVCによる符号化方式を説明するための図 本発明の変形例に係る、放送映像を基本ビュービデオストリームとして符号化し、超ワイド映像を拡張ビュービデオストリームとして符号化する場合について説明するための図 本発明の変形例に係る、放送映像を拡大した拡大映像をビュー間参照して、超ワイド映像を圧縮符号化する場合について説明するための図 本発明の変形例に係るシステムの構成を示すブロック図 本発明の変形例に係る(a)マルチアングルサービスの一例を示す図、(b)別視点映像情報の一例を示す図 本発明の変形例に係る別視点映像情報を示す図 (a)本発明の変形例に係るインデックス映像を用いた別視点映像の選択について説明するための図、(b)別視点映像情報の一例を示す図 本発明の変形例に係る追加ストリームデコード部の構成を示す図、(a)構成1を示す図、(b)構成2を示す図、(c)構成3を示す図 本発明の変形例に係る再生装置の構成を示すブロック図 放送映像と追加映像の受信、再生を複数の装置で分担する場合について説明するための図 MPEG−2トランスポートストリーム形式のデジタルストリームの構成を示す図 PESパケット列にビデオストリームがどのように格納されるかを示す図 ビデオストリームのピクチャの参照関係を示す図 ビデオストリームの階層構造を示す図 ビデオアクセスユニットの構成を示す図 クロッピング領域について説明するための図 クロッピング領域について説明するための図 TSパケットのデータ構造を示す図 PMTのデータ構造を示す図 放送映像と追加映像とを単純に結合する場合について説明するための図 本発明の変形例に係る放送システムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図 本発明の変形例に係るシステムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図 本発明の変形例に係る放送システムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図 本発明の変形例に係るシステムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図
<1.概要>
以下、本発明の一実施の形態に係るコンテンツ放送受信システムについて説明する。
コンテンツ放送受信システムは、放送システムと、再生装置とを含んで構成される。
放送システムは、コンテンツを放送により送信し(以下、放送により送信されるコンテンツを「放送コンテンツ」という。)、放送コンテンツに関連するコンテンツ(以下、「追加コンテンツ」という。)をネットワーク通信により送信する。本実施形態では、コンテンツの一例として、映像を用いる。すなわち、放送コンテンツは、放送映像であり、追加コンテンツは、追加映像である。
再生装置は、放送映像及び追加映像を受信し、結合して再生する。
コンテンツ放送受信システムは、追加映像を受信し再生する機能のない再生装置(レガシー装置)との互換性を考慮したものとなっている。すなわち、放送システムは、放送映像を、レガシー装置により受信、再生できるフォーマットで送信している。
ここで、図32を用いて、放送映像と追加映像とを単純に結合する場合について説明する。
なお、図32の被写体は、サッカーの試合が行われているサッカー場である。本実施形態では、サッカー場を撮影して放送する場合に、被写体としての重要度は、「サッカーボール」が最も高く、次いで、スポンサー等の関係などから「広告」が2番目に高いこととするが、あくまで一例であり、これに限るものではない。
図32(a)は、放送映像3201の左側に、追加映像3202を単純に結合して、映像3211を生成する場合について模式的に示している。
放送映像3201は、最も重要度の高いサッカーボール周辺の風景を映したものとなっている。また、映像3211には、最も重要度の高いサッカーボール周辺の風景、2番目に重要度の高い被写体である広告3206の全体が映っている。
ここで、サッカーボールが、図32(b)に示すようにコートの左側のゴール付近に移動したとする。
この場合、放送映像3203として、最も重要度の高いサッカーボール周辺の風景が映される。また、追加映像3204として、放送映像3203の左側の風景が映されることになる。そして、再生装置において、放送映像3203と追加映像3204とを結合し、映像3212のような映像を再生することになる。
そうすると、映像3212には、2番目に重要度の高い被写体である広告2306の一部しか映らなくなってしまう。すなわち、重要度の低い映像の割合が多くなるのを避けられない。
本発明は、追加映像として、放送映像との固定の相対位置から定まる映像しか用いることができないことから生じる不都合(例えば、2番目に重要度の高い被写体が表示できなくなるなど)を解消するものである。
本実施形態では、一例として図3に示すように、原映像として超ワイド映像310を撮影し、超ワイド映像310のうち任意の範囲の映像を放送映像311として選択し、放送ストリームとして送信する。ここで、本実施形態において、超ワイド映像とは、放送波を用いて放送される映像よりもワイドかつ高解像度の映像を撮影したものである。
また、超ワイド映像310のうち、放送映像311が抽出された残りの部分の映像312、及び映像313を結合して生成した追加映像320を、追加ストリームとしてネットワークを介して送信する。これにより、追加映像として、放送映像との固定の相対位置から定まる映像以外のものを使用できることとなる。
再生装置側では、放送映像311と、追加映像320とから、超ワイド映像310を生成し、表示できることとしている。
以下、本実施形態について、詳細に説明する。
<2.放送システム100>
<2−1.構成>
図1は、放送システム100の構成を示すブロック図である。
放送システム100は、図1に示すように、ワイド映像撮影部101、映像分離部102、映像配置部103、放送ストリーム作成部104、及び追加ストリーム作成部105を含んで構成される。
また、放送システム100は、プロセッサ及びメモリを含んで構成されており、ワイド映像撮影部101、映像分離部102、映像配置部103、放送ストリーム作成部104、及び追加ストリーム作成部105の機能は、メモリに記憶されているプログラムをプロセッサが実行することにより実現される。
<ワイド映像撮影部101>
ワイド映像撮影部101は、放送波を用いて放送される映像よりもワイドかつ高解像度の超ワイド映像を撮影するビデオカメラで構成され、撮影した超ワイド映像に係る映像データを映像分離部102に出力する。
本実施の形態では、一例として、放送波の映像が、横1920画素×縦1080画素の画素数を有するフルHDの映像であり、超ワイド映像が、横3820画素×縦1080画素の画素数を有する映像であるとする。
<映像分離部102>
映像分離部102は、ワイド映像撮影部101から超ワイド映像に係る映像データを受け取り、超ワイド映像を、放送波で伝送する映像(以下、「放送映像」という。)と他の映像とに分離する機能(以下、「映像分離機能」という。)を有する。
(映像分離機能)
映像分離機能は、映像を構成するフレーム画像それぞれについて、フレーム画像を複数の画像に分離することにより実現する。
映像分離機能は、選択範囲取得機能と、画像分離機能とから成る。
(1)選択範囲取得機能
以下、選択範囲取得機能について、図3を用いて説明する。
図3の超ワイド映像310は、幅がc画素、高さがd画素の映像である。
映像分離部102は、超ワイド映像310において、放送映像として送信すべき範囲(以下、「選択範囲」という。)の指定を取得する。選択範囲は、一例として、ユーザがリモコン等の入力デバイス(図示せず)を操作することにより指定する。
図3の例で、超ワイド映像310における、波線で囲まれた矩形部分内が選択範囲を示している。選択範囲は、具体的には、左上隅の点の座標が(a,0)であり、幅が(b−a)、高さがdの矩形で囲まれた範囲である。
なお、以下では、映像、画像などについて、(x,y)などの座標を示す場合があるが、この座標は映像、画像の左上隅を原点(0,0)とした画素の位置を示している。
(2)画像分離機能
以下、画像分離機能について、図3を用いて説明する。
映像分離部102は、超ワイド映像310から、選択範囲内の映像311を抽出する。映像311は、幅がb−a、高さがdの矩形映像である。
映像分離部102は、超ワイド映像310から映像311を抽出した結果として、残余の映像312と、映像313とを得る。
また、映像分離部102は、選択範囲を示す選択範囲情報を映像配置部103に出力する。
選択範囲情報は、選択範囲の左上隅の点の、ワイド映像における座標と、選択範囲の幅と、選択範囲の高さとを含む。
<映像配置部103>
映像配置部103は、映像配置機能を有する。
映像配置機能は、追加映像生成機能と、映像配置設定データ生成機能とから成る。
(1)追加映像生成機能
追加映像生成機能は、映像分離部102により超ワイド映像から放送映像を分離した後の残余の映像から、追加映像として通信により送信するための映像を生成する機能である。
残余の映像は、1個の場合もあるが、複数となる場合もある。
例えば、映像分離部102は、放送波では送信しない、映像312と、映像313とを結合して映像320を生成する。
ここで、映像312は、左上隅の点の座標が(0,0)であり、幅がa、高さがdの矩形映像である。映像313は、左上隅の点の座標が(b,0)であり、幅がc−b、高さがdの矩形映像である。
また、追加映像320は、映像312と映像313とを結合したものであり、幅がa+(c−b)であり、高さがdの矩形映像である。
なお、追加映像を構成する各フレーム画像を矩形にするのは、通常、映像は矩形のフレーム画像から構成されるものであり、追加映像に関し送信、圧縮符号化、復号等を行う場合に、通常のフレーム画像と同様に扱えるようにするためである。
(2)映像配置設定データ生成機能
映像配置設定データ生成機能は、映像配置設定データを生成する機能である。
映像配置設定データは、超ワイド映像を生成するために、放送映像と、残余の映像とをどのように配置すべきかを示す情報である。
以下、映像配置設定データ生成機能について、具体例に基づき説明する。
映像分離部102は、選択範囲情報を参照し、映像配置設定データを生成する。
映像配置設定データは、一例として、超ワイド映像310を生成するために、放送映像311、残余の映像312及び映像313をどのように配置すべきかを示す。
図4は、映像配置設定データの一例を示す図である。
映像配置設定データ400は、映像分離部102が映像を分離することにより生成した放送映像及び残余の各映像についての、矩形ID、ストリーム領域情報、及び合成位置情報から成る。
矩形IDは、映像分離部102が映像を分離することにより生成した各映像を識別するためのIDである。
矩形IDは、図4の例では、放送映像311に対し、値「0」が付され、映像312に対し、値「1」が付され、映像313に対し、値「2」が付されている。
ストリーム領域情報は、ストリーム特定情報、x位置、y位置、幅、及び高さから成る。
ストリーム特定情報は、矩形IDで特定される映像が、放送波、通信のいずれで送信されるかを示す。ストリーム特定情報の値は、放送波で送信される場合には「0」であり、通信で送信される場合には「1」である。
x位置及びy位置は、矩形IDで特定される映像の、放送映像又は追加映像におけるx座標及びy座標を示す。矩形IDで特定される映像が、放送映像又は追加映像のいずれに含まれるかは、ストリーム特定情報により区別できる。すなわち、ストリーム特定情報が放送波を示す場合、放送映像に含まれることになり、ストリーム特定情報が通信を示す場合、追加映像に含まれることになる。
幅及び高さは、矩形IDで特定される映像の幅及び高さを示す。
合成位置情報は、X位置及びY位置から成る。
X位置及びY位置は、矩形IDで特定される映像の、ワイド映像におけるx座標及びy座標を示す。
映像分離部102は、例えば、放送映像311については、矩形IDに「0」を設定し、ストリーム特定情報に放送波を示す「0」を設定し、x位置に「0」を設定し、y位置に「0」を設定し、幅に「b−a」を設定し、高さに「d」を設定し、X位置に超ワイド画像におけるx座標である「a」を設定し、Y位置に超ワイド画像におけるy座標である「0」を設定する。
また、映像分離部102は、放送映像313については、矩形IDに「2」を設定し、ストリーム特定情報に通信を示す「1」を設定し、x位置には、追加映像におけるx座標である「a」を設定し、y位置には、追加映像におけるy座標である「0」を設定し、幅に「c−b」を設定し、高さに「d」を設定し、X位置に超ワイド映像におけるx座標である「b」を設定し、Y位置に超ワイド映像におけるy座標である「0」を設定する。
なお、上記の説明では、映像配置設定データは、超ワイド映像毎に生成されるように記載しているが、実際には、超ワイド映像を構成する1又は複数のフレーム画像毎に生成し、フレーム画像毎の分離、結合の制御を可能としている。
<放送ストリーム作成部104>
放送ストリーム作成部104は、放送映像を、放送波で放送できるフォーマットに変換し、出力する機能(以下、「放送ストリーム作成機能」という。)を有する。
放送ストリーム作成機能として、放送ストリーム作成部104は、放送映像を、MPEG−2(Moving Picture Experts Group − 2)、MPEG−4 AVCなど所定のビデオコーデックにより圧縮符号化することでビデオストリームを生成する。
また、放送ストリーム作成部104は、音声についても、AC3(Audio Code number 3)、AAC(Advanced Audio Coding)などの所定のオーディオコーデックで圧縮符号化することでオーディオストリームを生成する。
そして、放送ストリーム作成部104は、ビデオストリーム、オーディオストリーム、字幕ストリーム、データ放送用データなどを多重化することにより、1本のMPEG−2 TSなどのシステムストリームを生成する。
以上のように生成されたシステムストリームであって、放送されるものを、以下では「放送ストリーム」(121)という。
なお、音声に関しては、本発明との関連が薄いので、必要な場合以外は特に説明を行わない。
<追加ストリーム作成部105>
追加ストリーム作成部105は、追加映像を、通信により送信するためのフォーマットに変換し、出力する機能(以下、「追加ストリーム作成機能」という。)を有する。
追加ストリーム作成機能として、追加ストリーム作成部105は、映像配置部103により生成された追加映像をMPEG−2、MPEG−4 AVCなど所定のビデオコーデックにより圧縮符号化することでビデオストリームを生成する。そして、ビデオストリーム、オーディオストリーム、字幕ストリーム、データ放送用データなどを多重化することにより、1本のMPEG−2 TSなどのシステムストリームを生成する。
以上のように生成されたシステムストリームであって、通信により送信されるものを、以下では「追加ストリーム」という。
また、追加ストリーム作成機能の1つとして、追加ストリーム作成部105は、映像配置部103によって生成された映像配置設定データ123を追加ストリーム122に格納する。例えば、追加ストリーム作成部105は、図5に示すように、映像配置設定データ123を、ビデオストリームに補足データの一部として、又はPMT(Program Map Table)などのディスクリプタの一部として格納する。
<その他の構成>
図1には、図示していないが、放送システム100は、一般的なデジタル放送の送出システムが備えているのと同様の、放送波を用いて放送ストリームを送信するための構成である、OFDM変調部、周波数変換部、及びRF送出部などから成る送出部を備えている。
この送出部が、放送ストリーム作成部104で生成された放送ストリームを、放送波により再生装置200などに送信する。
また、図1には、図示していないが、放送システム100は、ネットワークを用いてデータを送受信するためのネットワークインターフェイスを備えている。
このネットワークインターフェイスが、追加ストリーム作成部105で生成された追加ストリームを、ネットワークを介して再生装置200に送信する。
<2−2.動作>
図6は、放送システム100による映像送信処理の手順を示すフローチャートである。
放送システム100において、まず、ワイド映像撮影部101が、原映像として超ワイド映像(一例として、超ワイド映像310)を撮影する(S601)。
次に、映像分離部102が、選択範囲取得機能により、撮影された超ワイド映像における、選択範囲を取得する(S602)。
次に、映像分離部102が、映像分離機能により、原映像を構成する各フレーム画像から選択範囲を抽出し、抽出した画像群から成る放送映像を生成する(S603)。
次に、放送ストリーム作成部104が、放送ストリーム作成機能により、放送映像が多重化された放送ストリームを生成する(S604)。
次に、映像配置部103が、追加映像作成機能により、超ワイド映像を構成する各フレーム画像から選択範囲が抽出された残余の画像から追加画像を作成し、生成した追加画像群から成る追加映像を生成する(S605)。
また、映像配置部103は、映像配置設定データ生成機能により、映像配置設定データを生成する(S606)。
次に、追加ストリーム作成部105は、追加ストリーム作成機能により、追加映像、及び映像配置設定データを多重化した追加ストリームを作成する(S607)。
そして、放送ストリーム作成部104は、放送波により放送ストリームを放送する(S608)。
また、追加ストリーム作成部105は、通信により追加ストリームを再生装置200へと送信する(S609)。
<3.再生装置200>
<3−1.構成>
図2は、再生装置200の構成を示すブロック図である。
再生装置200は、図2に示すように、チューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC(ネットワーク・インターフェイス・カード)211、追加ストリームデコード部212、第2映像プレーン213、映像合成方法設定部214、映像合成部221、合成映像プレーン222を含んで構成される。
また、再生装置200は、プロセッサ及びメモリを含んで構成されており、チューナ201、放送ストリームデコード部202、NIC211、追加ストリームデコード部212、映像合成方法設定部214、及び映像合成部221の機能は、メモリに記憶されているプログラムをプロセッサが実行することにより実現される。
<チューナ201>
チューナ201は、デジタルチューナ、OFDM(Orthogonal Frequency Division Multiplexing)復調部、誤り訂正部、及び多重分離部などを含むチューナLSIで実現されている。
チューナ201は、放送波を受信し、ユーザがリモコン(図示せず)等を用いて指示した所定のチャンネル(サービスID)についての信号を抜き出し、抜き出した信号から映像、音声、字幕などに関するTSパケットを抽出して、出力する機能を有する。
放送波の受信から、映像、音声、データ放送などに関するTSパケットの抽出までの処理については、周知のため、説明は省略する。
<放送ストリームデコード部202>
放送ストリームデコード部202は、AV信号処理LSIで実現されており、映像に関するTSパケットを受信し、復号することによりビデオフレームを生成し、PTS(Presentation Time Stamp)で示されるタイミングで出力する機能を有する。
本実施形態では、放送ストリームデコード部202は、チューナ201からTSパケットを受信し、生成したビデオフレーム(以下、「放送ビデオフレーム」という。)を第1映像プレーン203に書き込む。
<第1映像プレーン203>
第1映像プレーン203は、フレームメモリで構成される。第1映像プレーン203は、放送ストリームデコード部202により生成された放送ビデオフレームを格納する。
なお、第1映像プレーン203には、プレーンID=1が割り当てられているものとする。
<NIC211>
NIC211は、通信用のLSIで構成されており、ネットワークを介してデータを送受信する機能を有する。
NIC211は、ネットワークを介して追加ストリームを受信した場合、受信した追加ストリームを、追加ストリームデコード部212に出力する。
<追加ストリームデコード部212>
追加ストリームデコード部212は、AV信号処理LSIで実現されており、追加ストリームに含まれるビデオストリームのデコード機能を有する。
ビデオストリームのデコード機能として、追加ストリームデコード部212は、具体的には、NIC211から追加ストリームを受信し、追加ストリームに含まれるビデオストリームをデコードすることによりビデオフレーム(以下、「追加ビデオフレーム」という。)を生成して第2映像プレーン213に書き込む。また、追加ストリームデコード部212は、追加ストリームに格納される映像配置設定データ241を抽出する。
<第2映像プレーン213>
第2映像プレーン213は、フレームメモリで構成される。第2映像プレーン213は、追加ストリームデコード部212により生成された追加ビデオフレームを格納する。
なお、第2映像プレーン213には、プレーンID=2が割り当てられているものとする。
<映像合成方法設定部214>
映像合成方法設定部214は、映像配置設定データ241を参照し、第1映像プレーン203に格納されている放送ビデオフレームと、第2映像プレーン213に格納されている追加ビデオフレームとを合成し、超ワイド映像を構成するフレーム画像を生成するための合成情報をパラメータとした合成指示を出力する合成指示機能を有する。
(合成指示機能)
映像合成方法設定部214による合成指示機能について、具体例を用いて説明する。
映像合成方法設定部214は、第1映像プレーン203に格納されている放送ビデオフレーム、及び第2映像プレーン213に格納されている追加ビデオフレームのPTSに対応する映像配置設定データ241を取得する。
一例として、映像配置設定データ241が、図4の映像配置設定データ400に示す内容であるとする。
まず、映像合成方法設定部214は、映像配置設定データ400中の矩形IDの数(画像数)を計数し、映像合成部221に出力する。
映像合成方法設定部214は、映像配置設定データ400の1行目(矩形ID=0)を読み出す。
映像合成方法設定部214は、ストリーム特定情報が0(=放送波)であるため、矩形ID=0である画像は、第1映像プレーン203から読み出すと判断する。
そして、映像配置設定データ400の1行目の記載に基づき、映像合成部221に対し、プレーンID(=1)、x位置(=0)、y位置(=0)、幅(=b−a)、高さ(=d)、X位置(=a)、及びY位置(=0)をパラメータとした合成指示(便宜上、「合成指示1」という。)を出力する。
次に、映像合成方法設定部214は、映像配置設定データ400の2行目(矩形ID=1)を読み出す。
映像合成方法設定部214は、ストリーム特定情報が1(=通信)であるため、矩形ID=1である画像は、第2映像プレーン213から読み出すと判断する。
そして、映像配置設定データ400の2行目の記載に基づき、映像合成部221に対し、プレーンID(=2)、x位置(=0)、y位置(=0)、幅(=a)、高さ(=d)、X位置(=0)、及びY位置(=0)をパラメータとした合成指示(便宜上、「合成指示2」という。)を出力する。
次に、映像合成方法設定部214は、映像配置設定データ400の3行目(矩形ID=2)を読み出す。
映像合成方法設定部214は、ストリーム特定情報が1(=通信)であるため、矩形ID=2である画像は、第2映像プレーン213から読み出すと判断する。
そして、映像配置設定データ400の3行目の記載に基づき、映像合成部221に対し、プレーンID(=2)、x位置(=a)、y位置(=0)、幅(=c−b)、高さ(=d)、X位置(=b)、及びY位置(=0)をパラメータとした合成指示(便宜上、「合成指示3」という。)を出力する。
以下、映像合成方法設定部214は、映像配置設定データ400のN行目(Nは4以上の自然数)がある場合には、これらも読み出す。
そして、映像配置設定データ400のN行目について、映像合成方法設定部214は、ストリーム特定情報が0か1のいずれであるかを判定し、0の場合、第1映像プレーン203から読み出す(プレーンID=1)と判断し、1の場合、第2映像プレーン213から読み出す(プレーンID=2)と判断する。
そして、映像配置設定データ400のN行目の記載に基づき、映像合成部221に対し、プレーンID、x位置、y位置、幅、高さ、X位置、及びY位置をパラメータとした合成指示(便宜上、「合成指示N」という。)を出力する。
<映像合成部221>
映像合成部221は、AV信号処理LSIで実現されている。
映像合成部221は、映像合成方法設定部214から通知される合成指示1〜Nに従って各映像を合成し、超ワイド映像を生成する映像合成機能を有する。超ワイド映像の生成は、超ワイド映像を構成するフレーム画像のそれぞれを生成することで行う。
一例として、合成指示1〜3に従い、図7に模式的に示すように、第1映像プレーン203に格納されている放送映像のフレーム画像(ID=0)と、第2映像プレーン213に格納されている追加映像のフレーム画像(ID=1及び2)とを合成して、超ワイド映像のフレーム画像を生成し、合成映像プレーン222に出力する。
映像合成部221は、合成映像プレーン222に格納されている超ワイド映像を構成するフレーム画像を、PTSのタイミングでディスプレイ(図示せず)に出力する。これにより、超ワイド映像が再生されることになる。
(映像合成機能)
映像合成機能について、具体例により説明する。
映像合成部221は、映像合成方法設定部214から画像数を取得する。画像数は、超ワイド映像を生成するために結合する映像の数に一致する。
そして、映像合成部221は、合成映像プレーン222を初期化する。
そして、映像合成部221は、映像合成方法設定部214から合成指示を取得する。そして、合成指示にパラメータとして含まれる、プレーンIDで識別される映像プレーン(第1映像プレーン203又は第2映像プレーン213)において、左上隅の座標が(x位置,y位置)である幅×高さの画像を、合成映像プレーン222の(X位置,Y位置)を左上隅の座標とする位置に書き込む。
具体的には、映像合成部221は、上述の合成指示1を受信した場合、第1映像プレーン203の(0,0)の位置から、幅がb−aであり、高さがdである画像を読み出し、読み出した画像を、合成映像プレーン222の(a,0)の位置に書き込む。
また、映像合成部221は、上述の合成指示2を受信した場合、第2映像プレーン213の(0,0)の位置から、幅がaであり、高さdである画像を読み出し、読み出した画像を、合成映像プレーン222の(0,0)の位置に書き込む。
また、映像合成部221は、上述の合成指示3を受信した場合、第2映像プレーン213の(a,0)の位置から、幅がc−bであり、高さがdである画像を読み出し、読み出した画像を、合成映像プレーン222の(b,0)の位置に書き込む。
以上の処理により、合成映像プレーン222において、超ワイド画像(例えば、図3の超ワイド画像310)が復元されることになる。
<合成映像プレーン222>
合成映像プレーン222は、フレームメモリで構成される。合成映像プレーン222は、映像合成部221から出力されるワイドビデオフレームを格納する。
<3−2.動作>
図8は、再生装置200による映像再生処理の手順を示すフローチャートである。
再生装置200は、まず、チューナ201により、放送ストリームを受信する(S801)。そして、NIC211が、追加ストリームを受信する(S802)。
次に、放送ストリームデコード部202が、放送ストリームを復号することにより、放送映像を構成する放送画像を生成する(S803)。また、追加ストリームデコード部212が、追加ストリームを復号することにより、追加映像を構成する追加画像を生成する(S804)。また、追加ストリームデコード部212が、追加ストリームから映像配置設定データを抽出する(S805)。
次に、映像合成方法設定部214が、合成指示機能により、映像配置設定データに基づき、映像合成部221に対し、合成指示を出力する。
映像合成部221は、合成指示に基づき、追加画像から複数の小画像(以下、「部分画像」という。)を抽出する(S806)。
そして、映像合成部221は、放送画像と、複数の部分画像を合成指示に基づいて合成することにより、原映像としての超ワイド映像を構成するフレーム画像を生成し、合成映像プレーン222に格納する(S807)。
映像合成部221は、合成映像プレーン222に格納された各フレーム画像をPTSに従い表示させることにより、原映像を再生する(S808)。
<4.変形例>
以上、本発明に係るコンテンツ放送受信システムの実施形態を説明したが、例示したコンテンツ放送受信システムを以下のように変形することも可能であり、本発明が上述の実施形態で示した通りのコンテンツ放送受信システムに限られないことは勿論である。
(1)上述の実施形態では、追加ストリーム作成部105は、映像配置設定データ(123)をPMTなどのディスクリプタ中に格納することとしたが、再生装置200に送信できれば足りる。
例えば、映像配置設定データをSIT(Service Information Table)に格納してもよい。
また、ビデオストリームにおける各フレームの補足データなどに映像配置設定データを格納することとしてもよい。
また、GOP(Group of Pictures)先頭のアクセスユニットのみに映像配置設定データを格納し、GOP内で有効であるとしても良い。
また、映像配置設定データをディスクリプタに格納する場合に、ビデオストリームにおける映像配置設定データを有効とする区間を設け、有効とする区間の開始時刻のPTS、終了時刻のPTSなどの時刻情報とともに格納することとしてもよい。
また、映像配置設定データにPIDを割り当てて、ストリームに多重化するよう構成してもよい。
また、映像配置設定データは、追加ストリーム中ではなく、放送ストリームに格納することとしてもよい。
また、選択範囲が不変であるフレーム群について、フレーム毎ではなくフレーム群に1つの映像配置設定データを生成してもよい。
(2)上述の実施形態では、選択範囲取得処理において、超ワイド映像310についての選択範囲の指定を、ユーザがリモコン等の入力デバイスを操作することにより指定するとしたが、選択範囲を特定できれば足りる。
例えば、ユーザが、超ワイド映像310が表示されているタッチパネルに、領域を区切るよう(例えば矩形を描くよう)に接触することとし、映像分離部102が、その接触された範囲を示す情報を取得して、その領域内を選択範囲と決定するとしてもよい。
また、画像認識処理などにより、超ワイド映像310における重要な被写体などを検知し、その被写体を中心とした所定範囲内の領域を、選択範囲としてもよい。一例として、サッカーの試合が行われているサッカー場を表示する超ワイド映像310について画像処理を施してサッカーボールの位置を認識し、サッカーボールが中心に来る領域を自動で選択範囲として選択するなどしてもよい。
(3)上述の実施形態では、放送ストリームと追加ストリームとを用いて送信する映像は超ワイド映像であるとしたが、これに限らず、放送映像を高品位化した他の映像を送信することとしてもよい。
例えば、放送映像を、高品位化の一例として高解像度化した映像を送信することとしてもよい。
図9は、高解像度化した原映像を、放送ストリームと追加ストリームとを用いて送信する例について説明するための図である。
図9の画像901は、原映像を構成するフレーム画像群のうちの1つのフレーム画像を表す。
本変形例では、放送システム100の映像分離部102が、画像901を、画像902〜画像904の3つの画像に分割する。画像902が、放送画像である。
原映像を構成する他のフレーム画像についても、画像901の場合と同様に分割する。
そして、放送ストリーム作成部104が、放送画像(画像902他)を放送ストリームの一部として多重化し、この放送ストリームを放送波により送信する。
また、画像901から画像902を抽出した残余の画像である画像903及び画像904については、映像配置部103が、これらを上下に結合することにより、追加映像を構成する追加画像として画像911を生成する。
そして、映像配置部103は、画像902〜画像904についての画像901における配置を示す映像配置設定データを生成する。
そして、追加ストリーム作成部105が、追加画像(画像911他)を追加ストリームの一部として多重化する。また、追加ストリーム作成部105は、映像配置設定データを、追加ストリームの一部として多重化する。
そして、追加ストリーム作成部105は、追加ストリームをネットワーク通信により送信する。
ここで、本変形例に係る映像配置設定データの一例について説明する。
図9(b)は、画像901に係る映像配置設定データ900を示す図である。
映像配置設定データ900の詳細については、構成が上述の映像配置設定データ400と同様であって、値が異なるのみなので説明を省略する。
受信側である再生装置200は、放送ストリーム、追加ストリームを受信し、追加ストリームに含まれる映像配置設定データに基づき、画像902、画像903及び画像904を結合して、高解像度な画像901を復元する。また、再生装置200は、画像901の他のフレーム画像についても同様に復元することによって、フレーム画像群を復元し、原映像を再生する。
(4)上述の変形例(3)に示すほか、放送ストリームと追加ストリームとを用いて、放送映像を高解像度化及びワイド化した映像を原映像として送信することとしてもよい。
図10は、原映像を、放送ストリームと追加ストリームとを用いて送信する例について説明するための図である。
図10の画像1001は、原映像を構成する構成するフレーム画像群のうちの1つのフレーム画像を表す。
本変形例では、放送システム100の映像分離部102は、原映像を構成するフレーム画像である画像1001を、画像1002〜画像1004の3つの画像に分割する。画像1002が、放送画像である。
原映像を構成する他のフレーム画像についても、画像1001の場合と同様に分割する。
そして、放送ストリーム作成部104は、放送画像(画像1002他)を放送ストリームの一部として多重化し、この放送ストリームを放送波により送信する。
ここで、画像1001から画像1002を抽出した残余の画像である画像1003及び画像1004をそのままの形態で結合しても、画像1004が縦長であることから、結合結果は、上述の変形例(3)のように矩形の画像(一例として画像911)にはならない。
よって、画像1004については、時計回りに270度回転させた画像1014を、画像1003の下端に結合させて画像1015を生成する。但し、画像1003の幅と画像1014の幅とが異なるので、画像1014の右側に、画像1015を矩形にするための空画像1006(例えば、黒一色の画像など)が付されている。
また、映像配置部103は、画像1002〜画像1004についての画像1001における配置を示す映像配置設定データを生成する。
そして、追加ストリーム作成部105が、画像1015を追加ストリームの一部として多重化する。また、追加ストリーム作成部105は、映像配置設定データを、追加ストリームの一部として多重化する。
そして、追加ストリーム作成部105は、追加ストリームをネットワーク通信により送信する。
ここで、本変形例に係る映像配置設定データの一例について説明する。
図10(b)は、画像1001に係る映像配置設定データ1000を示す図である。
映像配置設定データ1000の詳細については、構成は上述の映像配置設定データ400と同様であるが、各画像について回転角度を指定するための「回転角」の項目が追加されている。
具体的には、画像1014(矩形ID=2)について、時計回りに90度回転する旨の指定を行う。
受信側である再生装置200は、放送ストリーム、追加ストリームを受信し、追加ストリームに含まれる映像配置設定データに基づき、画像1002、画像1003及び画像1014を結合して、画像1001を復元するのであるが、画像1014については、「回転角」として指定された90度だけ時計回りに回転させることにより姿勢を変更してから用いる。なお、画像1014の姿勢変更後の画像は、画像1004である
また、映像配置設定データについて、各画像を拡大縮小するための水平方向の倍率、垂直方向の倍率を指定できるよう拡張してもよい。
図11は、複数の画像を結合して追加画像を生成する際に、拡大縮小を行う場合について説明するための図である。
図11の画像1101は、原映像を構成するフレーム画像群のうちの1つのフレーム画像を表す。
本変形例では、放送システム100の映像分離部102は、画像1101を、画像1102〜画像1104の3つの画像に分割する。画像1102が、放送画像である。
原映像を構成する他のフレーム画像についても、画像1101の場合と同様に分割する。
そして、放送ストリーム作成部104が、放送画像(画像1102他)を放送ストリームの一部として多重化し、この放送ストリームを放送波により送信する。
画像1101から画像1102を抽出した残余の画像である画像1103及び画像1104をそのままの形態で結合しても、画像1103及び画像1104の水平方向及び垂直方向の長さの違いから、結合結果が上述の変形例(3)のように矩形の画像にならない。
そこで、画像1103と画像1104に関しては、画像1103を水平方向に1/2倍し(画像1113)、画像1104を垂直方向に1/2倍し(画像1114)、その後、合成することで追加画像1115を生成する。
また、映像配置部103は、画像1102〜画像1104についての画像1101における配置を示す映像配置設定データを生成する。
そして、追加ストリーム作成部105が、画像1115を追加ストリームの一部として多重化する。また、追加ストリーム作成部105は、映像配置設定データを、追加ストリームの一部として多重化する。
そして、追加ストリーム作成部105は、追加ストリームをネットワーク通信により送信する。
ここで、本変形例に係る映像配置設定データの一例について説明する。
図11(b)は、画像1101に係る映像配置設定データ1100を示す図である。
映像配置設定データ1100の詳細については、構成は上述の映像配置設定データ400と同様であるが、各画像について水平方向及び垂直方向の倍率を指定するための項目が追加されている。
具体的には、画像1113(矩形ID=1)については、水平方向に2倍する旨の指定を行っている。また、画像1114(矩形ID=2)については、垂直方向に2倍する旨の指定を行っている。
受信側である再生装置200は、放送ストリーム、追加ストリームを受信し、追加ストリームに含まれる映像配置設定データに基づき、画像1102、画像1113及び画像1114を結合して、画像1101を復元するのであるが、画像1113については、水平方向に2倍(画像903)に拡大し、画像1114については垂直方向に2倍(画像904)に拡大した上で用いる。
(5)上述の実施形態では、放送ストリームと追加ストリームを利用して、ワイド映像を放送する例について説明したが、常に放送ストリームと追加ストリームの双方を送信する必要はない。例えば、全期間でワイド映像を送信するのではなく、放送ストリームのみ、即ち放送映像のみを送信する期間があってもよい。
この場合、放送映像のみを送信している期間については、映像配置設定データにおいて、放送画像についてのみ記載することとなる。
また、再生装置200側でも、この期間中は、放送波のみを受信して、放送映像のみ再生することになる。また、ワイド映像を表示可能なディスプレイに、ワイド映像より小さな放送映像を表示することになるため、ディスプレイにおける放送映像を表示している領域以外の領域については、黒色などの単色画像を表示したり、所定の背景画像を表示するなどしてもよい。また、放送映像をディスプレイに拡大表示することとしてもよい。
(6)上述の実施形態では、画像を分割する際の境界が、マクロブロックを跨ぐ場合については説明していない。例えば、図12に示すように、画像1201を複数の画像1202及び1203に分割して追加画像を生成する際に、マクロブロックが複数の画像の境界1210を跨ぐような場合である。
このようにマクロブロックが境界(1210)を跨いでしまうと、マクロブロック内部の画素間の相関が下がり、圧縮率が下がってしまう。
これを回避するために、図12の画像1221として示すように、画像1222の左端部及び/又は画像1223の右端部にマージン画像1232、及び/又は1233を設けて、マクロブロックが境界(1231)を跨がないように調整してもよい。
(7)上述の実施形態では、放送ストリームと追加ストリームとを独立したストリームとして生成し別経路で送信することとしたが、放送映像と追加映像とを送信できれば足りる。
例えば、放送ストリームと追加ストリームとを独立したストリームとして生成せずに、従属関係のあるストリームとして生成し、1つの経路で送信してもよい。一例としては、ワイド映像について、ビュー間参照を使った圧縮符号化を行って、1つの経路で送信することが考えられる。ビュー間参照を使った圧縮符号化としては、MPEG−4 AVC/H.264の修正規格であるMPEG−4 MVC(Multiview Video Coding)を用いる手法がある。
図13は、MPEG−4 MVCによる符号化方式を説明するための図である。
MPEG−4 MVC規格に従ったストリームは、従来の機器との再生互換性のある「基本ビュービデオストリーム」と、基本ビューと同時に処理することで別視点の映像の再生を実現する「拡張ビュービデオストリーム」から構成される。
本変形例では、放送ストリームから基本ビュービデオストリームを生成し、追加ストリームから拡張ビュービデオストリームを生成することになる。
基本ビュービデオストリームは、図13に示すように、映像を構成するフレーム(ピクチャ)群を、時間方向の冗長性のみを利用してピクチャ間予測符号化を用いて圧縮したものである。
一方、拡張ビュービデオストリームは、映像を構成するフレーム群を、時間方向の冗長性を利用したピクチャ間予測符号化に加えて、視点間の冗長性を利用したビュー間予測符号化を用いて圧縮したものである。
基本ビュービデオストリームのピクチャは、拡張ビュービデオストリームの同じ表示時刻(PTS)のピクチャを参照して圧縮されている。
ここで、図13の矢印は参照関係を示している。
例えば、拡張ビュービデオストリームの先頭Pピクチャ(P0)は、基本ビュービデオストリームのIピクチャ(I0)を参照している。また、拡張ビュービデオストリームのBピクチャ(B1)は、基本ビュービデオストリームのBrピクチャ(Br1)を参照している。また、拡張ビュービデオストリームの二つ目のPピクチャ(P3)は、基本ビュービデオストリームのPピクチャ(P3)を参照している。
ここで、基本ビュービデオストリームは、拡張ビュービデオストリームを参照しないため、単体で再生することができる。
一方、拡張ビュービデオストリームは、基本ビュービデオストリームを参照しているため、単体で再生することはできない。
ただし、3D映像については、左右の視点から同じ被写体を見ているため、左目映像と右目映像の相関が大きい。よって、基本ビュービデオストリームに左目映像が多重化し、拡張ビュービデオストリームに右目映像が多重化するような場合、視点間のピクチャ間予測符号化を行うことで、拡張ビュービデオストリームのデータ量を、基本ビュービデオストリームのデータ量よりも大幅に削減できる。
ここで、ビュー間参照を使って圧縮する映像(画像)対は、通常、解像度が同じものであるが、本変形例では、図14に示すように、放送映像1402を基本ビュービデオストリームとして符号化し、超ワイド映像1401を拡張ビュービデオストリームとして符号化することにより、MPEG−4 MVCのストリーム(以下、「MPEG−4 MVC放送ストリーム」という。)を生成する。
この場合、超ワイド映像が拡張ビュービデオストリームとして圧縮符号化される場合に、超ワイド映像1401における放送映像1402相当部分(部分1403)については、全て基本ビュービデオストリーム1402を参照する。よって、この部分1403を圧縮符号化したデータの量は、非常に小さいものとなる。
放送システム100は、MPEG−4 MVC放送ストリームを放送により再生装置200に送信する。
再生装置200では、MPEG−4 MVC放送ストリームを放送により受信する。そして、再生装置200は、MPEG−4 MVC放送ストリームにおける基本ビュービデオストリームを参照しながら、拡張ビュービデオストリームを復号することにより、超ワイド映像1401を生成し、表示する。
また、図15に示すように、放送映像1501を含む放送映像を基本ビュービデオストリームとして圧縮符号化する場合に、放送映像1501を、例えば2倍の面積に拡大して拡大映像1502を生成し、これをビュー間参照して、超ワイド映像1503を圧縮符号化することにより拡張ビュービデオストリームを生成することとしてもよい。
これにより、拡張ビュービデオストリームにより送信する映像の解像度として、放送画像の解像度以外の解像度を選択することができることとなる。
(8)コンテンツ放送受信システムにおいて、放送ストリームと追加ストリームとを用い、複数の別視点映像から、ユーザが望む映像を選択して再生できる(以下、「マルチアングル」という。)サービスを実現することとしてもよい。
図16は、本変形例に係るシステムの構成を示すブロック図である。
本変形例に係るシステムは、放送システム1601と、再生装置1602とから成る。放送ストリームは、放送システム1601から再生装置1602に放送により送信され、追加ストリームは、放送システム1601から再生装置1602にネットワーク通信により送信される。
(放送システム1601)
放送システム1601は、図16に示すように、放送映像撮影部1611、放送ストリーム作成部104、別視点映像撮影部1612、追加ストリーム作成部105、別視点映像撮影部1613、追加ストリーム作成部1614、送出追加ストリーム選択部1615、及びスイッチ1616を含んで構成される。
放送映像撮影部1611は、ビデオカメラで構成されており、撮影した映像(放送波映像)を放送ストリーム作成部104に出力する。
放送ストリーム作成部104は、図1を用いて既に説明したものと同様である。
別視点映像撮影部1612は、ビデオカメラで構成されており、撮影した映像(別視点映像1)を放送ストリーム作成部104に出力する。
追加ストリーム作成部105は、図1を用いて既に説明したものと原則、同様の構成を有し、別視点映像1を圧縮符号化することにより追加ストリーム122を生成する。追加ストリーム作成部105は、また、映像配置設定データ123に代えて、別視点映像情報1631を追加ストリームに格納する。
別視点映像撮影部1613は、ビデオカメラで構成されており、撮影した映像(別視点映像2)を放送ストリーム作成部1614に出力する。
追加ストリーム作成部1614は、上述の追加ストリーム作成部105と同様の構成を有し、別視点映像2を圧縮符号化することにより追加ストリーム124を生成する。追加ストリーム作成部105は、また、別視点映像情報1631を追加ストリームに格納する。
送出追加ストリーム選択部1615は、追加ストリーム122及び追加ストリーム124のうち、再生装置1602から要求されたものを再生装置1602に送信する。
この再生装置1602からの要求は、例えば、URLの形式を用いて行われる。追加ストリーム122及び追加ストリーム124のそれぞれに、別個のURLが予め割り当てられており、再生装置1602は、送信を要望する追加ストリームに対応するURLにアクセス要求する。
送出追加ストリーム選択部1615は、このアクセス要求を受け付けて、再生装置1602によりアクセス要求されたURLに応じた追加ストリームを出力するようスイッチ1616を切り替える。そして、送出追加ストリーム選択部1615は、再生装置1602によりアクセス要求されたURLに応じた追加ストリームを、再生装置1602に送信する。
また、送出追加ストリーム選択部1615は、別視点映像情報を作成する。
図17(b)は、別視点映像情報の一例(別視点映像情報1631、1651)を示す図である。
別視点映像情報は、視点(アングル)を特定するためのユニークなIDである「アングルID」、ストリームの種別を特定してアクセスするための方法が記載される「ストリーム種別」、アングル映像の内容を記した「内容」をペアとするテーブル情報である。
スイッチ1616は、送出追加ストリーム選択部1615による制御に基づいて、追加ストリーム122及び追加ストリーム124のいずれの追加ストリームを送信するかを切り替えるスイッチである。
(再生装置1602)
再生装置1602は、図16に示すように、チューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC211、追加ストリームデコード部212、第2映像プレーン213、映像合成部221、合成映像プレーン222、及び受信追加ストリーム選択部1652を含んで構成される。
チューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC211、第2映像プレーン213、映像合成部221、及び合成映像プレーン222は、図2を用いて既に説明したものと同様である。
追加ストリームデコード部212は、図2を用いて既に説明したものと基本的には同様であるが、追加ストリームに含まれる別視点映像情報1651を抽出し、受信追加ストリーム選択部1652に送信する点が異なる。なお、この別視点映像情報1651は、別視点映像情報1631と同様のものである。
受信追加ストリーム選択部1652は、追加ストリームデコード部212から別視点映像情報を受け取り、メニュー表示を行うなどにより、ユーザに対し、複数の別視点映像から1つを選択することを促す。そして、ユーザがリモコン入力するなどにより選択した別視点映像が格納された追加ストリームの伝送を、ネットワーク経由で放送システム1601に要求する。この要求に対する応答として、NIC211が、選択された別視点映像が格納された追加ストリームを放送システム1601から受信する。
上述のメニュー表示の一例として、受信追加ストリーム選択部1652は、図17(a)のメニュー1701を表示する。メニュー1701では、別視点映像情報1651における「内容」項目を端的に表示する。
ユーザは、リモコン等を用いて、メニュー表示された「内容」のうちの1つを選択する。
受信追加ストリーム選択部1652は、別視点映像情報1651を参照し、選択された「内容」に対応する「アングルID」、そのアングルIDに対応する「ストリーム種別」を読み出す。そして、受信追加ストリーム選択部1652は、その読み出したストリーム種別に係るストリームを伝送するよう、ストリーム種別に記載されたURLを用いて放送システム1601に要求する。
以上により、複数ある別視点映像の追加ストリームの中からユーザの好みの映像を選択して再生することができる。
なお、別視点映像情報1631(1651)は、追加ストリームではなく、放送ストリームに格納してもよいし、メタデータファイルとして、ストリームとは独立して構成するようにしてもよい。
なお、別視点映像情報1631(1651)は、一例として図18に示すように、ビデオとオーディオを取得するために用いる情報(一例として、PID)を個別に設定できるようにしてもよい。
図18の例では、アングルID=1のストリームについては、ビデオが、通信で提供される追加ストリームにPID=Aのパケットとして格納されていることを示す。また、オーディオは、放送波で提供される放送ストリームにPID=Zのパケットとして格納されていることを示す。
アングルID=2のストリームについては、ビデオが、通信で提供される追加ストリームにPID=Bのパケットとして格納されていることを示す。また、オーディオは、通信で提供される追加ストリームにPID=Yのパケットとして格納されていることを示す。
以上のように、この変形例によれば、様々な態様で追加ストリームを構成しても、その取得のための情報を記載ができるので、追加ストリームを作成する際の自由度を増すことができる。
なお、上記の例では、PIDを用いてストリームの特定を行っているが、ストリームが特定できれば足りる。
例えば、階層伝送記述子の参照先PIDなどのタグを使って特定することとしてもよい。
(9)上述の変形例(8)における複数の別視点映像から1つを選択させる際のUI(ユーザインターフェース)として、複数の別視点映像の縮小映像(以下、「別視点縮小映像」という。)を1画面内に表示するインデックス映像を表示し、それらの別視点映像からユーザに好みの別視点映像を選択させるような構成としてもよい。
ここで、別視点映像のそれぞれは、アングルIDで識別される。
この構成を実現するために、一例として、図19(a)の映像1901として示すような「インデックス映像」と、「表示領域とアングルIDとの対応関係情報」を格納する追加ストリームを用いる。
「表示領域とアングルIDとの対応関係情報」は、インデックス映像(一例として映像1901)における、各別視点縮小映像が表示されている表示領域と、表示されている別視点縮小映像のアングルIDとの対応関係を示す情報である。
図19の画像1902は、対応関係情報が示す内容、すなわち、映像1901中に表示されている4つの別視点縮小映像と、アングルID(1902)との対応を視覚的に表した図である。具体的には、図19の画像1902は、縦横に2分割された領域について、左上の領域の別視点縮小映像のアングルIDは0であり、右上の領域の別視点縮小映像のアングルIDは1であり、左下の領域の別視点縮小映像のアングルIDは2であり、右下の領域の別視点縮小映像のアングルIDは3であることを表現している。
そして、図19(b)に示すように、別視点映像情報には、インデックス映像(アングルID=4)についての情報を追加している。
再生装置1602は、まず、インデックス映像を含む追加ストリームを受信し、復号して、ディスプレイに表示する。そして、インデックス映像に含まれる別視点縮小映像(一例として、図19の映像1911〜1914)の1つを、ユーザに選択させる。
再生装置1602は、ユーザにより選択された別視点縮小映像に対応付けられている別視点映像を表示する。
例えば、映像1901のうち、ユーザにより映像1912(アングルID=1)が選択された場合には、アングルID=1の映像である映像1921をディスプレイに表示する。
なお、ユーザに4つの別視点縮小映像から1つを選択させるためのUIとしては、一例として、画像1902における文字表示部分以外の部分を半透明化するなどしたメニュー画像を、映像1901に重畳して表示し、リモコンなどによりアングルID=0〜3を選択可能としてもよい。
また、再生装置1602がタブレット端末などタッチパネルを有する装置である場合には、アングル選択用のインデックス映像をタッチパネルに表示し、ユーザに、表示されている複数の別視点縮小映像のいずれかをタッチにより選択させてもよい。この場合、タブレット端末は、別視点映像情報における、別視点縮小映像を識別するアングルIDに対応づけられているストリーム種別を参照し、放送システムから通信により、ストリーム種別により表される追加ストリームを受信して再生する。また、タブレット端末は、別個の再生装置が、追加ストリームを受信し復号し、タブレット端末が表示できるフォーマットに変換して、無線LANなどを用いて転送してきたものを、表示するような構成にしてもよい。
(10)上述の変形例において、別視点映像への切り替え時には、映像が途切れることなくシームレスに切り替えできることが好ましい。以下、シームレスに切り替えるための3つの構成例について図20を用いて説明する。
図20は、追加ストリームデコード部の詳細な構成の一例を示している。
(構成例1:図20(a))
図20(a)は、MPEG−2システムにおけるビデオストリームのデコーダモデルと同様の構成を示す。
PIDフィルタは、TSパケットのPIDを参照して、TSパケットをフィルタリングして、TB(トランスポートバッファ)2004に出力する。
TB2004に入力されたTSパケットは、TSヘッダが取り除かれて、所定レートでMB(メインバッファ)2005に転送される。ここで、所定レートは、TB2004から単位時間あたりに取り出さなければならないデータ量を示す。
TB2004からMB2005へのデータの転送により、MB2005には、パケッタイズドビデオESデータ(ビデオPESデータ)が蓄積される。
MB2005からは、EB(エレメンタリバッファ)2006に空きがあれば、ビデオPESデータが、所定タイミングでEB2006に転送される。
ここで、データがTB2004から、MB2005、EB2006へと移動するにつれて、TSパケットヘッダ、PESヘッダなどのシステムストリームのヘッダ情報が取り除かれ、EB2006においては、ビデオのエレメンタリストリームのみが格納された状態となる。
Dec(デコーダ)2007は、ビデオのエレメンタリストリームをデコードする機能を有し、EB2006からDec2007へはDTS(Decoding Time Stamp)のタイミングでデータが伝送される。
Dec2007の出力は、DPB(復号化ピクチャバッファ)2008に保存され、PTSのタイミングでPlane(表示プレーン)2009に出力される。
ここで、図20(a)のように、ビデオストリームのデコーダが1つの場合には、追加ストリーム#1(以降、TS1)と、追加ストリーム#2(以降、TS2)の入力切り替えを、PID filter2003への入力を切り替えることで行う必要がある。
ここで、アングル切り替えをシームレスに行うには、TS1における、アングル切り替えタイミング時のTSパケットの位置(一例として、PTSなどの時間情報で表す。)を記憶しておく必要がある。そして、TS2については、位置(PTS)が上述のTS1について記憶しておいたTSパケットの位置と同じTSパケットをビデオデコーダに入力できる状態になったときに、ビデオデコーダへ入力するパケットのPIDを、TS1からTS2のものに切り替える。
(構成例2:図20(b))
図20(b)は、ビデオストリームのデコーダモデルを複数有する構成を示す図である。
この構成において、復号後の画像をPlane2009に格納するストリームを、TS1からTS2に切り替える場合、切り替えることを決定してからTS1の復号と並行して、TS2の復号を開始する。そして、TS2についての表示準備(表示すべきピクチャの復号)が完了した後、直近のPTSのタイミングで、Plane2009の入力を、DPB2008からDPB2026へ切り替える。これにより、Plane2009に格納されるピクチャが、TS1から生成されるピクチャから、TS2から生成するピクチャへとシームレスに切り替えられる。
(構成例3:図20(c))
図20(c)は、ビデオストリームのデコーダモデルにおいて、バッファは複数あり、コア部分(Dec2042以降の構成)が1個である構成を示す図である。
この構成において、TS1からTS2に切り替える場合には、TS2のGOP先頭を検出したタイミングでTS2のデコードを開始する。そして、EB2024にデータが十分たまった段階で、GOP先頭のピクチャのDTSのタイミングで、Dec2024への入力をTS1のEB2006から、TS2のEB2024に切り替える。
ここで、DTSとPTSのタイミングは一致しないため、TS2のDTSで切り替えた後、PTSのタイミングが到来するまでは、TS1のDPBのピクチャを表示するよう構成する。すなわち、SW1(2041)は、DTSのタイミングで切り替え、SW2(2043)はPTSのタイミングで切り替える。これにより、シームレスな切り替えが実現できる。
なお、SW1(2041)で、Dec2042の入力を、TS2のEB2024に切り替えたタイミングで、つぎのPTSに対応するピクチャがTS1のDPB2008に格納されていなければ、TS1のDPB2008に、1つ前のPTSのタイミングで格納されていたピクチャを表示するよう構成してもよい。
(11)上述の実施形態では、ワイド映像をワイドテレビに表示する構成で説明したが、ワイド映像を表示できれば足りる。
例えば、ワイド映像を2分割し、右半分の映像を1つのテレビに表示し、左半分の映像を他のテレビに表示することとしてもよい。
この場合、例えば、再生装置200において、図21に示すように、合成映像プレーン222の後段に映像出力部2101を備えることとする。
この映像出力部2101が、ワイド映像を上述の2つのテレビを用いて表示できるよう分割し、出力1から右半分の映像を出力し、出力2から左半分の映像を出力する。
映像出力部2101は、ワイド映像を2つのテレビに分けて表示するためのテレビに関する情報については、予め取得しているものとする。
また、放送システム100の映像配置部103が、ワイド映像を分割し、再生装置200側で複数台のディスプレイに表示させるための表示指示情報を、映像配置設定データ123に含めて、再生装置200に送信することとしてもよい。
表示指示情報は、例えば、再生装置200において復元したワイド映像の右半分を、ユーザから見て左のディスプレイに表示させ、またワイド映像の右半分を、ユーザから見て右のディスプレイに表示させる旨を示す。
再生装置200は、ワイド映像を復元した場合に、映像配置設定データを参照し、ワイド映像の右半分を、出力1として出力することで、ユーザから見て左のディスプレイに表示させ、またワイド映像の右半分を、出力2として出力することで、ユーザから見て右のディスプレイに表示させる。
(12)上述の実施形態では、放送ストリームと追加ストリームの双方を再生装置200において受信し、再生することとしたが、受信及び再生の処理を複数の装置で分担して行ってもよい。
例えば、図22に示すように、放送ストリームについては、テレビ1(再生装置200に相当)が放送波により受信して、放送映像を再生する。また、追加ストリームについては、携帯端末がネットワークにより受信して、追加映像を再生する。このとき、携帯端末は、追加映像を無線LAN(Local Area Network)によりテレビ2へと送信し、テレビ2が追加映像を表示する。
この場合に、追加映像をいずれのテレビに表示させるかは、映像配置設定データに記載され追加ストリームに含められ、放送システム100から携帯端末に送信されるものとする。
以上のように構成することで、テレビ1及びテレビ2が、放送システム100とネットワークを介した通信機能を有しない場合、又は、放送システム100とネットワークを介した通信ができない場合であっても、放送映像と追加映像とをテレビ1及びテレビ2に表示させることができる。
上述のように、複数台のテレビに放送ストリームと追加ストリームの映像を表示する場合の、映像相互の同期をとるために、例えば、(a)テレビ1と、携帯端末とが、タイムサーバにアクセスして現在時刻を取得し時刻同期をとる方法、(b)リモコン(図示せず)の信号に同期のための情報を付して、テレビ1と、携帯端末とに受信させることにより時刻同期を取る方法、(c)テレビ1と、携帯端末とで、同じチャンネルの放送波を復号し、PCRを用いて同期を合わせる方法、(d)同じチャンネルではなくとも、サイマル放送(通常の放送波、及びワンセグ放送波)に関し、例えば、テレビ1において放送波を受信して復号し、携帯端末でワンセグ放送を受信して復号して、PCRを得て、PCRを用いて同期を合わせる方法、(e)携帯端末がカメラ機能を有する場合に、テレビ1で表示されている映像を撮影しながら、携帯端末においてワンセグ放送を復号し、撮影された映像と、ワンセグ放送を復号した映像とを比較して時間のずれを検出し、補償することにより同期を取る、などの方法を用いてもよい。
(13)上述の実施形態では、追加ストリームは、放送システム100から再生装置200に対しネットワークを介して送信することとしていたが、送信できれば足りる。
例えば、追加ストリームについても、放送波により放送システム100から再生装置200へと送信することとしてもよい。
図33は、本変形例に係る放送システム100の構成を示すブロック図である。
図33の放送システム100は、図1を用いて既に説明した放送システム100とは、以下の点で異なる。
すなわち、図33の放送システムでは、追加ストリーム作成部105が、追加ストリーム122として、追加映像を、通信ではなく、放送波で放送できるフォーマットに変換することにより作成している。そして、図示しない送出部は、放送ストリーム作成部104が生成した放送ストリーム121と、追加ストリーム作成部105が生成した追加ストリーム122とが多重化されたストリームを放送波により送信している。
図34は、本変形例に係る再生装置200の構成を示すブロック図である。
図34の再生装置200は、図2を用いて既に説明した再生装置200とは、以下の点で異なる。
すなわち、図34の再生装置200は、NIC211を有さず、チューナ201が、受信した放送波から、放送ストリーム121に係るTSパケットと、追加ストリーム122に係るTSパケットとを抽出する。そして、チューナ201は、放送ストリーム121に係るTSパケットを放送ストリームデコード部202に出力し、追加ストリーム122に係るTSパケットを追加ストリームデコード部212に出力する。
以上により、追加ストリームについても、放送波により放送システム100から再生装置200へと送信する構成とすることができる。
(14)上述の変形例(8)にて説明したシステムについても、上述の変形例(13)の場合と同様に、追加ストリームについても、放送波により放送システムから再生装置へと送信することとしてもよい。
図35は、本変形例に係るシステムの構成を示すブロック図である。
図35のシステムは、図16を用いて既に説明したシステムとは、以下の点で異なる。
図35の放送システム1601では、追加ストリーム作成部105及び追加ストリーム作成部1614が、追加ストリーム(122、124)として、別視点映像を、通信ではなく、放送波で放送できるフォーマットに変換することにより作成している。そして、図示しない送出部は、放送ストリーム121、追加ストリーム122及び追加ストリーム124が多重化されたストリームを放送波により送信している。
一方、図35の再生装置1602は、NIC211を有さず、チューナ201が、受信した放送波から、放送ストリーム121に係るTSパケットを放送ストリームデコード部202に出力する。
また、受信追加ストリーム選択部1652は、チューナ201に対し、ユーザがリモコン入力するなどにより選択した別視点映像が格納された追加ストリームの抽出を要求する。
そして、チューナ201は、要求された追加ストリーム(122又は124)に係るTSパケットを抽出する。そして、チューナ201は、追加ストリームに係るTSパケットを追加ストリームデコード部212に出力する。
以上により、追加ストリームについても、放送波により放送システム100から再生装置200へと送信する構成とすることができる。
(15)上述の変形例(11)にて説明した再生装置200についても、上述の変形例(13)の場合と同様に、追加ストリームについても、放送波により放送システム100から再生装置200へと送信することとしてもよい。
図36は、本変形例に係る再生装置200の構成を示すブロック図である。
この場合、図36の再生装置200は、上述の変形例(13)の場合と同様に、NIC211を有さず、チューナ201が、受信した放送波から、放送ストリーム121に係るTSパケットと、追加ストリーム122に係るTSパケットとを抽出する。そして、チューナ201は、放送ストリーム121に係るTSパケットを放送ストリームデコード部202に出力し、追加ストリーム122に係るTSパケットを追加ストリームデコード部212に出力する。
以上により、追加ストリームについても、放送波により放送システム100から再生装置200へと送信する構成とすることができる。
(16)上述の変形例(13)〜(15)では、放送ストリームと、追加ストリームとを1つの放送波により、放送システムから再生装置へと送信する構成としていたが、複数の放送波により送信する構成としてもよい。
例えば、放送ストリームと、追加ストリームとを別の放送波で送信することとしてもよい。
図37は、本変形例に係る放送システム100の構成を示す図である。
図37の放送システム100は、図33を用いて既に説明した放送システム100とは、追加ストリームを放送波で送信する点が異なる。
図38は、本変形例に係る再生装置200の構成を示す図である。
図38の再生装置200は、図34を用いて説明した再生装置200とは、以下の点で異なる。
すなわち、図38の再生装置200は、チューナ3801を備えており、チューナ3801を用いて、放送波により、追加ストリームを受信する。
以上により、追加ストリームについても、放送波により放送システムから再生装置へと送信する構成とすることができる。
(17)上述の変形例(14)にて説明したシステムについても、上述の変形例(16)の場合と同様に、放送ストリームと、追加ストリームとを、複数の放送波により送信する構成としてもよい。
図39は、本変形例に係るシステムの構成を示すブロック図である。
図39のシステムは、図35を用いて既に説明したシステムとは、以下の点で異なる。
すなわち、図39の放送システム1601では、追加ストリーム122及び追加ストリーム124が多重化されたストリームを放送波により送信している。
また、図39の再生装置1602は、チューナ3901を有しており、追加ストリームが多重化された放送波を受信する。
受信追加ストリーム選択部1652は、チューナ3901に対し、ユーザがリモコン入力するなどにより選択した別視点映像が格納された追加ストリームの抽出を要求する。
そして、チューナ3901は、要求された追加ストリーム(122又は124)に係るTSパケットを抽出する。そして、チューナ3901は、追加ストリームに係るTSパケットを追加ストリームデコード部212に出力する。
以上により、放送ストリームと、追加ストリームとを、複数の放送波により送信する構成とすることができる。
(18)上述の変形例(15)にて説明した再生装置200についても、上述の変形例(16)の場合と同様に、放送ストリームと、追加ストリームとを、複数の放送波により受信する構成としてもよい。
図40は、本変形例に係る再生装置200の構成を示すブロック図である。
この場合、図40の再生装置200は、上述の変形例(16)の場合と同様に、チューナ3801を備え、チューナ3801を用いて、放送波により、追加ストリームを受信する。
以上により、放送ストリームと、追加ストリームとを、複数の放送波により受信する構成とすることができる。
(19)上述の実施形態で示した、放送システム100の映像分離処理、選択範囲取得処理など、再生装置200の合成指示処理、映像合成処理などを、放送システム100及び再生装置200のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるための機械語或いは高級言語のプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路等を介して流通させ頒布することもできる。このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM、フラッシュメモリ等がある。流通、頒布された制御プログラムはプロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより各実施形態で示したような各機能が実現されるようになる。なお、プロセッサは、制御プログラムを直接実行する他、コンパイルして実行或いはインタプリタにより実行してもよい。
(20)上述の実施形態で示した各機能構成要素(放送システム100のワイド映像撮影部101、映像分離部102、映像配置部103、放送ストリーム作成部104、及び追加ストリーム作成部105、再生装置200のチューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC211、追加ストリームデコード部212、第2映像プレーン213、映像合成方法設定部214、映像合成部221、合成映像プレーン222など)は、その機能を実行する回路として実現されてもよいし、1又は複数のプロセッサによりプログラムを実行することで実現されてもよい。
なお、上述の各機能構成要素は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
(21)上述の実施形態及び各変形例を、部分的に組み合せてもよい。
<5.補足1>
上述の実施形態についての補足説明を行う。
<ストリームの多重化>
次に、デジタルテレビ放送波などで伝送されるストリームである、MPEG−2トランスポートストリーム形式のデジタルストリームについて説明する。
MPEG−2トランスポートストリームは、ISO/IEC13818−1およびITU−T勧告H222.0において標準化された規格に準拠したストリームである。
図23は、MPEG−2トランスポートストリーム形式のデジタルストリームの構成を示す図である。
図23に示すように、トランスポートストリームは、ビデオフレーム列から成るビデオストリーム、オーディオフレーム列から成るオーディオストリーム、字幕ストリームなどを多重化することで得られる。
ビデオストリームは、番組の主映像が、MPEG−2、MPEG−4 AVCなどの方式を用いて圧縮符号化されたものである。
オーディオストリームは、番組の主音声や副音声が、ドルビーAC−3、MPEG−2 AAC、MPEG−4 AAC、HE−AACなどの方式を用いて圧縮符号化されたものである。
字幕ストリームは、番組の字幕情報を格納するストリームである。
多重化の手順としては、ビデオについては、複数のビデオフレームからなるビデオストリーム2301を、PESパケット列2302に変換し、更に、TSパケット2303に変換する。
オーディオについては、複数のオーディオフレームからなるオーディオストリーム2304を、PESパケット列2305に変換し、更に、TSパケット2306に変換する。
字幕については、字幕ストリーム2307のデータを、それぞれPESパケット列2308に変換し、更に、TSパケット2309に変換する。
そして、TSパケット2303、TSパケット2306、及びTSパケット2309を、1本のストリームとして多重化することにより、MPEG−2トランスポートストリーム2313を得る。
トランスポートストリームに含まれる各ストリームは、PIDと呼ばれるストリーム識別のためのIDによって識別できる。このPIDのパケットを抽出することで再生装置は、対象のストリームを抽出する。PIDとストリームの対応は、後述のPMTパケットのディスクリプタに格納される。
図24は、PESパケット列にビデオストリームがどのように格納されるかを示す図である。
ストリーム2401は、ビデオストリームにおけるビデオフレーム列を示している。
PESパケット列2402は、PESパケット列を示す。
図24に矢印yy1、yy2、 yy3、 yy4として示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。
各PESパケットはPESヘッダを有しており、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time−Stamp)やピクチャの復号時刻であるDTS(Decoding Time−Stamp)が格納される。
<ビデオストリームの圧縮符号化>
ここでは、ビデオストリームの圧縮符号化について説明する。
MPEG−2、MPEG−4 AVC、SMPTE VC−1(Society of Motion Picture Television Engineers VC−1)などの動画圧縮符号化では、動画像の空間方向および時間方向の冗長性を利用している。
時間方向の冗長性を利用する手法としては、ピクチャ間予測符号化が用いられる。
ここで、ピクチャとは、画像の冗長度が削減されたフレーム又はフィールドのことである。
ピクチャ間予測符号化では、符号化対象のピクチャの圧縮符号化として、表示時間順で前方または後方にあるピクチャを参照ピクチャとすることで、時間方向の冗長度を削減する。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対象のピクチャとの差分値を圧縮符号化することで、空間方向の冗長度を削減する。
図25は、一般的なビデオストリームのピクチャの参照関係を示す図である。
図25中の矢印は、参照ピクチャを示す。
ピクチャは、符号化方法によりIピクチャ、PIピクチャ、Bピクチャに分けられる。
Iピクチャ(図中のI0など)は、参照ピクチャを用いることなく、符号化対象ピクチャのみを用いて、ピクチャ内予測符号化を行うことで生成するピクチャである。
Pピクチャ(図中のP3、P6など)は、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャである。
Bピクチャ(図中のB1、B2、B4、B5など)は、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャである。また、Bピクチャの中で、他のピクチャから参照されるピクチャをBrピクチャという。
また、ビデオストリームがフレームで構成されている(フレーム構造である)場合のフレーム、またフィールドで構成されている(フィールド構造である)場合のフィールドを「ビデオアクセスユニット」という。
<ビデオストリームの階層構造>
図26は、ビデオストリームの階層構造について説明するための図である。
ビデオストリームは、複数の、符号化処理の基本単位であるGOPから構成されている。動画像の編集やランダムアクセスは、このGOPを単位として行われる。
GOPは、上述のビデオアクセスユニットを1以上含めて構成されている。
ビデオアクセスユニットは、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードなどから構成される。これらのデータは、MPEG−4 AVCの場合であれば、NALユニット単位で格納される。
AU識別コードは、アクセスユニットの先頭を示す開始符号である。
シーケンスヘッダは、複数ビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納するヘッダである。シーケンスヘッダには、具体的には、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。
ピクチャヘッダは、ピクチャ全体の符号化の方式などの情報を格納するヘッダである。
補足データは、圧縮データの復号に必須ではない付加情報である。例えば、映像と同期してTVに表示するクローズドキャプションの文字情報やGOP構造情報などが格納される。
圧縮ピクチャデータには、圧縮符号化されたピクチャのデータが格納される。パディングデータは、形式を整えるための意味のないデータが格納される。例えば、決められたビットレートを保つためのスタッフィングデータとして用いる。シーケンス終端コードは、再生シーケンスの終端を示すデータである。ストリーム終端コードは、ビットストリームの終端を示すデータである。
AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードの内容は、ビデオの符号化方式によって異なる。
例えば、ビデオの符号化方式がMPEG−4 AVCの場合、AU識別コードは、AUデリミタ(Access Unit Delimiter)であり、シーケンスヘッダは、SPS(Sequence Paramter Set)に、ピクチャヘッダは、PPS(Picture Parameter Set)であり、補足データはSEI(Supplemental Enhancement Information)であり、圧縮ピクチャデータは、複数個のスライスであり、パディングデータは、Filler Dataであり、シーケンス終端コードは、End of Sequenceであり、ストリーム終端コードは、End of Streamである。
また、ビデオの符号化方式がMPEG−2の場合、シーケンスヘッダは、sequence_Header、sequence_extension、group_of_picture_headerであり、ピクチャヘッダは、picture_header、picture_coding_extensionであり、補足データは、user_dataであり、圧縮ピクチャデータは、複数個のスライスであり、シーケンス終端コードは、sequence_end_codeである。また、AU識別コードは存在しないが、アクセスユニットの切れ目は、それぞれのヘッダのスタートコードを用いて検出することができる。
ここで、上述したデータのいくつかは省略可能な場合がある。例えば、シーケンスヘッダは、GOP先頭のビデオアクセスユニットにのみ記載しておき、それ以外のビデオアクセスユニットには記載しないこととしてもよい。
また、符号化方式によっては、ビデオアクセスユニットとして、自ビデオアクセスユニット内にピクチャヘッダの記載がなく、符号順が前のビデオアクセスユニットのピクチャヘッダを参照するものが存在してもよい場合もある。
例えば、一例として図27に示すGOP先頭のビデオアクセスユニット(2701)には、圧縮ピクチャデータとしてIピクチャのデータが格納され、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、圧縮ピクチャデータが必ず記載される。補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードについては、必要に応じ記載される。
一方、GOP先頭以外のビデオアクセスユニット(2702)には、AU識別コード、圧縮ピクチャデータが必ず記載され、補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードは、必要に応じ記載される。
<クロッピング及びスケーリング>
クロッピングは、符号化されたフレーム領域から、一部の領域を抜き出すことである。スケーリングは、その抜き出した領域を拡大、縮小することである。
クロッピング及びスケーリングを行うことで、符号化されたフレーム領域から、実際に表示に用いる領域を生成することができる。
例えば、図28に示すように、符号化されたフレーム領域2801の中から実際に表示する領域を「クロッピング領域」(一例としてクロッピング領域2802)として指定する。そして、クロッピング領域2802を、実際にテレビなどに表示する際のスケーリング方法を示すスケーリング情報に従ってアップコンバート等することで実際に表示に用いる領域(画像)2803を生成する。
クロッピング領域の指定は、MPEG−4 AVCの場合であれば、SPSに格納されるframe_cropping情報を用いて行うことができる。
frame_cropping情報は、図29の説明用画像2901として示すように、クロッピンング領域の上線/下線/左線/右線と、符号化されたフレーム領域の上線/下線/左線/右線との差分を、上下左右のクロップ量として指定する。
より具体的には、クロッピング領域を指定する場合には、frame_cropping_flagを1に設定し、frame_crop_top_offset / frame_crop_bottom_offset / frame_crop_left_offset / frame_crop_right_offsetに上/下/左/右のクロップ量を指定する。
また、MPEG−2の場合には、図29の説明用画像2902として示すように、クロッピング領域の縦横のサイズ(sequence_display_extensionのdisplay_horizontal_size, display_vertical_size)と、符号化されたフレーム領域の中心とクロッピング領域の中心との差分情報(picture_display_extensionのframe_centre_horizontal_offset, frame_centre_vertical_offset)を使ってクロッピング領域を指定できる。
また、スケーリング情報は、例えばアスペクト比として設定される。再生装置は、そのアスペクト比の情報を使って、クロッピング領域をアップコンバートして表示する。
例えば、MPEG−4 AVCの場合には、スケーリング情報として、SPSにアスペクト比の情報(aspect_ratio_idc)が格納される。
例えば、MPEG−4 AVCの場合、1440×1080のクロッピング領域を1920×1080に拡大して表示するためには、アスペクト比として4:3を指定する。この場合、水平方向に4/3倍にアップコンバート(1440×4/3=1920)され、1920×1080に拡大されて表示されることになる。
MPEG−2の場合にも同様に、sequence_headerにアスペクト比の情報(aspect_ratio_information)が格納される。
<TSパケット>
図30は、TSパケットのデータ構造を示す図である。
TSパケットは、4バイトのTSヘッダ、アダプテーションフィールド、及びTSペイロードから構成される188バイト固定長のパケットである。
TSヘッダは、transport_priority、PID、adaptaion_field_controlなどから構成される。
PIDは前述の通りトランスポートストリームに多重化されているストリームを識別するためのIDである。transport_priorityは、同一PIDのTSパケットの中のパケットの種別を識別するための情報である。adaptation_field_controlは、アダプテーションフィールドとTSペイロードの構成を制御するための情報である。アダプテーションフィールドとTSペイロードは、いずれかのみが存在する場合と、両方が存在する場合とがあり、adaptation_field_controlが、その有無を示す。
adaptation_field_controlが1の場合は、TSペイロードのみが存在し、adaptation_field_controlが2の場合は、アダプテーションフィールドのみが存在し、adaptation_field_controlが3の場合は、TSペイロードとアダプテーションフィールドの両方が存在することを示す。
アダプテーションフィールドは、PCRなどの情報の格納や、TSパケットを188バイト固定長にするためのスタッフィングするデータの格納領域である。TSペイロードにはPESパケットが分割されて格納される。
トランスポートストリームに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT(Program Map Table)、PCR(Program Clock Reference)などがある。これらのパケットはPSI(Program Specific Information)と呼ばれる。
PATは、トランスポートストリーム中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0である。
PMTは、トランスポートストリーム中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を有し、またトランスポートストリームに関する各種ディスクリプタを有する。
ディスクリプタには、AVストリームのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、TSパケットのデコーダへの到着時刻とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるタイミングに対応するSTC時間の情報を持つ。
図31は、PMTのデータ構造を示す図である。
PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、トランスポートストリームに関するディスクリプタが複数配置される。前述したコピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、トランスポートストリームに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。
<6.補足2>
以下、更に本発明の一実施形態としてのコンテンツ放送受信システムの構成及びその変形例と効果について説明する。
(1)本発明の一実施形態に係る再生装置は、原映像を再生する再生装置であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える。
この構成により、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生することができる。
(2)また、前記フレーム画像のそれぞれは、前記放送画像と、複数の部分画像とに分割されており、前記残画像は、前記複数の部分画像が結合されて成り、前記配置情報は、前記残画像における、前記複数の部分画像それぞれの配置位置を示す情報を含み、前記再生手段は、前記配置情報を参照して、前記残画像を前記複数の部分画像に分割し、前記放送画像と結合することにより前記フレーム画像を生成することとしてもよい。
この構成により、フレーム画像を、放送画像と、連続しない複数の部分画像とに分けられた場合であっても、これらの放送画像及び複数の部分画像からフレーム画像を生成することができる。よって、放送システムでフレーム画像を分割する場合における、フレーム画像の区切り方の自由度を増すことができる。
(3)また、前記フレーム画像のそれぞれは、水平方向に、前記複数の部分画像の1つとしての左部分画像、前記放送画像、及び前記複数の部分画像の1つとしての右部分画像の3つに分割され、前記再生手段は、前記配置情報を参照して、前記残画像を前記左部分画像及び前記右部分画像に分割し、前記左部分画像を前記放送画像の左端に結合し、前記右部分画像を前記放送画像の右端に結合することにより前記フレーム画像を生成することとしてもよい。
この構成により、原映像として、放送画像を水平方向によりワイド化した映像を用いることができる。
(4)また、前記フレーム画像のそれぞれは、垂直方向に、前記複数の部分画像の1つとしての上部分画像、前記放送画像、及び前記複数の部分画像の1つとしての下部分画像の3つに分割され、前記再生手段は、前記配置情報を参照して、前記残画像を前記上部分画像及び前記下部分画像に分割し、前記上部分画像を前記放送画像の上端に結合し、前記下部分画像を前記放送画像の下端に結合することにより前記フレーム画像を生成することとしてもよい。
この構成により、原映像として、放送画像よりも解像度を増した映像を用いることができる。
(5)また、前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に拡大又は縮小されており、前記配置情報には、前記拡大又は縮小された部分画像について、元の大きさに戻すための倍率が記載されており、前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記拡大又は縮小された部分画像については、前記配置情報に基づき元の大きさに戻す処理を行ってから結合することとしてもよい。
また、前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に回転されており、前記配置情報には、前記回転された部分画像について、回転前の姿勢に戻すための回転角が記載されており、前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記回転された部分画像については、前記配置情報に記載された回転角の分だけ回転させてから結合することとしてもよい。
この構成により、放送システムでフレーム画像を分割する場合における、フレーム画像の区切り方の自由度を一層増すことができる。
(6)また、前記放送システムは、ネットワークを介して前記追加映像を送信し、前記第2受信手段は、前記ネットワークを介して前記追加映像を受信することとしてもよい。
この構成により、原映像を、放送波及び通信に分けて受信することができる。
(7)また、前記配置情報は、前記抽出される部分が同じであるフレーム画像から成る所定のグループ毎に、1つずつ生成されており、前記再生手段は、前記フレーム画像群を生成する場合に、前記グループそれぞれについて、当該グループについて生成された配置情報を参照し、当該グループを構成するフレーム画像を生成することとしてもよい。
この構成により、フレーム画像個々に配置情報を生成する場合よりも、受信する配置情報の量を減らすことができる。よって、通信回線の混雑度合を低減することができる。
(8)本発明の一実施形態に係る再生方法は、原映像を再生する再生装置が実行する再生方法であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信ステップと、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信ステップと、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得ステップと、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生ステップとを含む。
本発明の一実施形態に係る集積回路は、原映像を再生する再生装置に用いられる集積回路であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える。
この構成により、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生することができる。
(9)本発明の一実施形態に係る放送システムは、原映像を送信する放送システムであって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信手段とを備える。
本発明の一実施形態に係る放送方法は、原映像を送信する放送システムが実行する放送方法であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信ステップと、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信ステップと、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信ステップとを含む。
本発明の一実施形態に係る集積回路は、原映像を送信する放送システムに用いられる集積回路であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信手段とを備える。
この構成により、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生装置へと送信することができる。
本発明の一実施形態に係る再生装置は、放送映像と追加映像とを結合して1個の結合映像を生成し表示する場合に、追加映像として放送映像との固定の相対位置から定まる映像ではない任意の映像を用いることができるものであり、放送及び通信の双方から映像を受信し結合し再生する装置等に有用である。
100 放送システム
101 ワイド映像撮影部
102 映像分離部
103 映像配置部
104 放送ストリーム作成部
105 追加ストリーム作成部
106 追加ストリーム作成部
200 再生装置
201 チューナ
202 放送ストリームデコード部
203 映像プレーン
211 NIC
212 追加ストリームデコード部
213 映像プレーン
214 映像合成方法設定部
215 映像合成方法設定部
221 映像合成部
222 合成映像プレーン

Claims (8)

  1. 原映像を再生する再生装置であって、
    前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、
    前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、
    前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、
    前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備え、
    前記フレーム画像のそれぞれは、前記放送画像と、複数の部分画像とに分割されており、
    前記残画像は、前記複数の部分画像が結合されて成り、
    前記配置情報は、前記残画像における、前記複数の部分画像それぞれの配置位置を示す情報を含み、
    前記再生手段は、前記配置情報を参照して、前記残画像を前記複数の部分画像に分割し、前記放送画像と結合することにより前記フレーム画像を生成する
    ことを特徴とする再生装置。
  2. 前記フレーム画像のそれぞれは、水平方向に、前記複数の部分画像の1つとしての左部分画像、前記放送画像、及び前記複数の部分画像の1つとしての右部分画像の3つに分割され、
    前記再生手段は、前記配置情報を参照して、前記残画像を前記左部分画像及び前記右部分画像に分割し、前記左部分画像を前記放送画像の左端に結合し、前記右部分画像を前記放送画像の右端に結合することにより前記フレーム画像を生成する
    ことを特徴とする請求項1記載の再生装置。
  3. 前記フレーム画像のそれぞれは、垂直方向に、前記複数の部分画像の1つとしての上部分画像、前記放送画像、及び前記複数の部分画像の1つとしての下部分画像の3つに分割され、
    前記再生手段は、前記配置情報を参照して、前記残画像を前記上部分画像及び前記下部分画像に分割し、前記上部分画像を前記放送画像の上端に結合し、前記下部分画像を前記放送画像の下端に結合することにより前記フレーム画像を生成する
    ことを特徴とする請求項1記載の再生装置。
  4. 前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に拡大又は縮小されており、
    前記配置情報には、前記拡大又は縮小された部分画像について、元の大きさに戻すための倍率が記載されており、
    前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記拡大又は縮小された部分画像については、前記配置情報に基づき元の大きさに戻す処理を行ってから結合する
    ことを特徴とする請求項1記載の再生装置。
  5. 前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に回転されており、
    前記配置情報には、前記回転された部分画像について、回転前の姿勢に戻すための回転角が記載されており、
    前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記回転された部分画像については、前記配置情報に記載された回転角の分だけ回転させてから結合する
    ことを特徴とする請求項1記載の再生装置。
  6. 送システムは、ネットワークを介して前記追加映像を送信し、
    前記第2受信手段は、前記ネットワークを介して前記追加映像を受信する
    ことを特徴とする請求項1記載の再生装置。
  7. 原映像を再生する再生装置が実行する再生方法であって、
    前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信ステップと、
    前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信ステップと、
    前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得ステップと、
    前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生ステップとを含み、
    前記フレーム画像のそれぞれは、前記放送画像と、複数の部分画像とに分割されており、
    前記残画像は、前記複数の部分画像が結合されて成り、
    前記配置情報は、前記残画像における、前記複数の部分画像それぞれの配置位置を示す情報を含み、
    前記再生ステップは、前記配置情報を参照して、前記残画像を前記複数の部分画像に分割し、前記放送画像と結合することにより前記フレーム画像を生成する
    ことを特徴とする再生方法。
  8. 原映像を再生する再生装置に用いられる集積回路であって、
    前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得受信する第1受信手段と、
    前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、
    前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、
    前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備え
    前記フレーム画像のそれぞれは、前記放送画像と、複数の部分画像とに分割されており、
    前記残画像は、前記複数の部分画像が結合されて成り、
    前記配置情報は、前記残画像における、前記複数の部分画像それぞれの配置位置を示す情報を含み、
    前記再生手段は、前記配置情報を参照して、前記残画像を前記複数の部分画像に分割し、前記放送画像と結合することにより前記フレーム画像を生成する
    ことを特徴とする集積回路。
JP2013505237A 2011-08-11 2012-08-09 再生装置、再生方法、集積回路、放送システム、及び放送方法 Active JP5979499B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161522393P 2011-08-11 2011-08-11
US61/522,393 2011-08-11
PCT/JP2012/005088 WO2013021656A1 (ja) 2011-08-11 2012-08-09 再生装置、再生方法、集積回路、放送システム、及び放送方法

Publications (2)

Publication Number Publication Date
JPWO2013021656A1 JPWO2013021656A1 (ja) 2015-03-05
JP5979499B2 true JP5979499B2 (ja) 2016-08-24

Family

ID=47668190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013505237A Active JP5979499B2 (ja) 2011-08-11 2012-08-09 再生装置、再生方法、集積回路、放送システム、及び放送方法

Country Status (5)

Country Link
US (1) US8773584B2 (ja)
EP (1) EP2744197A4 (ja)
JP (1) JP5979499B2 (ja)
CN (1) CN103125123B (ja)
WO (1) WO2013021656A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
JP6313704B2 (ja) * 2012-06-22 2018-04-18 サターン ライセンシング エルエルシーSaturn Licensing LLC 受信装置およびその同期処理方法
JP5641090B2 (ja) * 2013-03-14 2014-12-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
EP3018910B1 (en) * 2013-07-05 2019-11-13 Saturn Licensing LLC Transmission device, transmission method, reception device, and reception method
WO2015014773A1 (en) * 2013-07-29 2015-02-05 Koninklijke Kpn N.V. Providing tile video streams to a client
TWI520610B (zh) * 2013-08-01 2016-02-01 晨星半導體股份有限公司 電視控制裝置與相關方法
US20160255412A1 (en) * 2013-10-22 2016-09-01 Sharp Kabushiki Kaisha Display control device, distribution device, display control method, and display control system
US9348495B2 (en) 2014-03-07 2016-05-24 Sony Corporation Control of large screen display using wireless portable computer and facilitating selection of audio on a headphone
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
KR101953679B1 (ko) 2014-06-27 2019-03-04 코닌클리즈케 케이피엔 엔.브이. Hevc-타일드 비디오 스트림을 기초로 한 관심영역 결정
EP3162075B1 (en) 2014-06-27 2020-04-08 Koninklijke KPN N.V. Hevc-tiled video streaming
JP6239472B2 (ja) 2014-09-19 2017-11-29 株式会社東芝 エンコード装置、デコード装置、ストリーミングシステム、および、ストリーミング方法
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US10110946B2 (en) 2014-12-25 2018-10-23 Echostar Uraine, L.L.C. Simultaneously viewing multiple camera angles
US10715843B2 (en) 2015-08-20 2020-07-14 Koninklijke Kpn N.V. Forming one or more tile streams on the basis of one or more video streams
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
CN107924690B (zh) * 2015-09-02 2021-06-25 交互数字Ce专利控股公司 用于促进扩展场景中的导航的方法、装置和系统
WO2017060423A1 (en) 2015-10-08 2017-04-13 Koninklijke Kpn N.V. Enhancing a region of interest in video frames of a video stream
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US20180070048A1 (en) * 2016-09-05 2018-03-08 International Business Machines Corporation Management of media content on a storage medium
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US20200296316A1 (en) 2019-03-11 2020-09-17 Quibi Holdings, LLC Media content presentation
US20200296462A1 (en) 2019-03-11 2020-09-17 Wci One, Llc Media content presentation
US11523185B2 (en) 2019-06-19 2022-12-06 Koninklijke Kpn N.V. Rendering video stream in sub-area of visible display area
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US12096081B2 (en) 2020-02-18 2024-09-17 JBF Interlude 2009 LTD Dynamic adaptation of interactive video players using behavioral analytics
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
CN111479162B (zh) * 2020-04-07 2022-05-13 成都酷狗创业孵化器管理有限公司 直播数据传输方法、装置以及计算机可读存储介质
US12047637B2 (en) 2020-07-07 2024-07-23 JBF Interlude 2009 LTD Systems and methods for seamless audio and video endpoint transitions
EP4258645A4 (en) * 2020-12-04 2024-08-28 Nippon Telegraph & Telephone CONTROL DEVICE, CONTROL METHOD AND PROGRAM
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR8807633A (pt) * 1987-07-27 1990-06-05 David M Geshwind Processo para codificar um sinal,dispositivo e processo para exibir visualmente um sinal e informacoes,suporte,sistema de camera e processo para decodificar um sinal codificado
GB8721565D0 (en) * 1987-09-14 1987-10-21 Rca Corp Video signal processing system
US5068728A (en) * 1990-06-22 1991-11-26 Albert Macovski Compatible increased aspect ratio television system
JP3241368B2 (ja) * 1990-09-27 2001-12-25 日本電気株式会社 テレビジョン信号伝送方式
JPH05191803A (ja) * 1992-01-13 1993-07-30 Hitachi Ltd 動画像の合成装置および多地点間会議装置
US5430486A (en) * 1993-08-17 1995-07-04 Rgb Technology High resolution video image transmission and storage
WO1995028795A2 (en) * 1994-04-15 1995-10-26 Philips Electronics N.V. Arrangement for decoding digital video signals
JPH07298258A (ja) * 1994-04-28 1995-11-10 Nippon Telegr & Teleph Corp <Ntt> 画像符号化復号化方法
US5768539A (en) * 1994-05-27 1998-06-16 Bell Atlantic Network Services, Inc. Downloading applications software through a broadcast channel
GB9526304D0 (en) * 1995-05-22 1996-02-21 British Sky Broadcasting Ltd Interactive services interface
US6020931A (en) * 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
JPH11122610A (ja) * 1997-10-17 1999-04-30 Toshiba Corp 画像符号化方法及び画像復号化方法並びにこれらの装置
US20030163832A1 (en) * 2000-06-26 2003-08-28 Yossi Tsuria Time shifted interactive television
EP1233614B1 (fr) * 2001-02-16 2012-08-08 C.H.I. Development Mgmt. Ltd. XXIX, LLC Système de transmission et de traitement vidéo pour générer une mosaique utilisateur
US7206352B2 (en) * 2001-04-02 2007-04-17 Koninklijke Philips Electronics N.V. ATSC digital television system
JP4646446B2 (ja) * 2001-06-28 2011-03-09 パナソニック株式会社 映像信号処理装置
US7050113B2 (en) * 2002-03-26 2006-05-23 International Business Machines Corporation Digital video data scaler and method
FR2848372B1 (fr) * 2002-12-09 2005-04-01 Medialive Synchronisation de flux audiovisuels securises
CN1509081A (zh) * 2002-12-20 2004-06-30 �ʼҷ����ֵ��ӹɷ����޹�˾ 通过广播和网络流传送双层hdtv信号的方法和系统
US7911536B2 (en) * 2004-09-23 2011-03-22 Intel Corporation Screen filled display of digital video content
US7489833B2 (en) * 2004-10-06 2009-02-10 Panasonic Corporation Transmitting device, reconstruction device, transmitting method and reconstruction method for broadcasts with hidden subtitles
JP2006115001A (ja) * 2004-10-12 2006-04-27 Fujitsu Ltd 映像送信装置および映像受信装置
JP2007104540A (ja) * 2005-10-07 2007-04-19 Open Interface Inc 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法
JP4760288B2 (ja) * 2005-10-13 2011-08-31 ソニー株式会社 画像表示システム、表示装置、画像再合成装置、画像再合成方法及びプログラム
JP5191493B2 (ja) * 2006-11-20 2013-05-08 エスケー プラネット カンパニー、リミテッド 放送コンテンツに関連した付加情報サービス提供システム、付加情報サービス提供サーバー及び付加情報サービス提供方法
JP4645638B2 (ja) * 2007-11-22 2011-03-09 ソニー株式会社 信号送信装置、信号送信方法、信号受信装置及び信号受信方法
CN101783873A (zh) * 2009-01-19 2010-07-21 北京视典无限传媒技术有限公司 数字化多媒体信息传输平台
JP2010258707A (ja) * 2009-04-23 2010-11-11 Sharp Corp 映像表示装置、映像表示方法、プログラムおよび記録媒体
JP2011091578A (ja) * 2009-10-21 2011-05-06 Canon Inc 映像判定装置、映像表示装置及びそれらの制御方法、プログラム
JP2011199389A (ja) * 2010-03-17 2011-10-06 Sony Corp 画像処理装置、画像変換方法、およびプログラム
JP5132808B1 (ja) * 2011-10-11 2013-01-30 株式会社東芝 デジタル放送録画再生装置およびデジタル放送録画再生方法

Also Published As

Publication number Publication date
WO2013021656A1 (ja) 2013-02-14
US8773584B2 (en) 2014-07-08
US20130235270A1 (en) 2013-09-12
CN103125123A (zh) 2013-05-29
EP2744197A4 (en) 2015-02-18
JPWO2013021656A1 (ja) 2015-03-05
EP2744197A1 (en) 2014-06-18
CN103125123B (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
JP5979499B2 (ja) 再生装置、再生方法、集積回路、放送システム、及び放送方法
JP6229962B2 (ja) 符号化装置及び符号化方法
WO2012017643A1 (ja) 符号化方法、表示装置、及び復号方法
WO2013021643A1 (ja) 放送通信連携システム、データ生成装置及び受信装置
US20110181693A1 (en) Method and apparatus for generating data stream for providing 3-dimensional multimedia service, and method and apparatus for receiving the data stream
WO2013061526A1 (ja) 放送受信装置、放送受信方法およびプログラム
US20120293619A1 (en) Generating a 3d video signal
KR20130135244A (ko) 부호화방법, 표시장치, 복호방법
US20120050476A1 (en) Video processing device
WO2012111320A1 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
WO2013099290A1 (ja) 映像再生装置、映像再生方法、映像再生プログラム、映像送信装置、映像送信方法及び映像送信プログラム
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
US9357200B2 (en) Video processing device and video processing method
WO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
JPWO2013099289A1 (ja) 再生装置、送信装置、再生方法及び送信方法
WO2013018490A1 (ja) 送信装置、送信方法および受信装置
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP6008292B2 (ja) ビデオストリームの映像のデータ作成装置及び再生装置
JP2013026696A (ja) 送信装置、送信方法および受信装置
WO2013018489A1 (ja) 送信装置、送信方法および受信装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160714

R151 Written notification of patent or utility model registration

Ref document number: 5979499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151