JPWO2013136754A1 - 表示装置、及び送信装置 - Google Patents

表示装置、及び送信装置 Download PDF

Info

Publication number
JPWO2013136754A1
JPWO2013136754A1 JP2014504687A JP2014504687A JPWO2013136754A1 JP WO2013136754 A1 JPWO2013136754 A1 JP WO2013136754A1 JP 2014504687 A JP2014504687 A JP 2014504687A JP 2014504687 A JP2014504687 A JP 2014504687A JP WO2013136754 A1 JPWO2013136754 A1 JP WO2013136754A1
Authority
JP
Japan
Prior art keywords
stream
unit
video
display
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014504687A
Other languages
English (en)
Inventor
泰治 佐々木
泰治 佐々木
宗續 敏彦
敏彦 宗續
由巳 西井
由巳 西井
由佳 小澤
由佳 小澤
琢士 平本
琢士 平本
良浩 氏家
良浩 氏家
智輝 小川
智輝 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2013136754A1 publication Critical patent/JPWO2013136754A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • H04N5/073Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations
    • H04N5/0736Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations using digital storage buffer techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4331Caching operations, e.g. of an advertisement for later insertion during playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet

Abstract

複数の映像フレームと、映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、複数の映像フレームのそれぞれを、第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、画像と、画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、第2表示タイミング情報によって定められる表示タイミングを補正することで、記憶部に記憶される画像を、表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、表示部は、さらに、第2表示タイミング情報によって定められる表示タイミングを補正情報によって定められる補正量分補正した補正タイミングで、記憶部に記憶される画像を表示することを特徴とする表示装置。

Description

本発明は、放送コンテンツとそれに付随するコンテンツとを同期して再生する技術に関する。
放送波によって伝送される映像(以下、「放送映像」と呼ぶ。)と、インターネット回線等の通信網によって伝送される映像(以下、「通信映像」と呼ぶ。)とを受信し、これらの映像を互いに同期させて表示する表示装置が知られている。
例えば、非特許文献1記載のHybridcast(登録商標)システムにおいて、放送映像を送信する放送局は、放送映像が映像製作者の意図した通りのタイミングで通信映像と同期して表示されるように、放送映像を構成する映像フレームのそれぞれに、表示されるべきタイミングを示す表示タイミング情報(例えば、PTS(Presentation Time Stamp))を付与して放送映像を送信し、通信映像を送信する通信サービス提供局は、通信映像が映像製作者の意図した通りのタイミングで放送映像と同期して表示されるように、通信映像を構成する映像フレームのそれぞれに表示タイミング情報を付与して通信映像を送信する。そして、表示装置は、受信した放送映像を構成する映像フレームのそれぞれと、受信した通信映像を構成する映像フレームのそれぞれとを、付与された表示タイミング情報で示されるタイミングで表示する。
このことによって、この表示装置は、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示する。
NHK技研 R&D No.124 "Hybridcast TMの概要と技術"
ところで、放送局が放送する番組の放送時刻が、急遽変更されてしまう場合がある。これは、例えば、急遽、緊急ニュース放送が放送されることになり、後続番組の放送時刻が変更される場合等が該当する。
このような場合に、放送時刻が変更された番組の放送映像は、当初映像製作者が意図していた表示タイミングと異なる表示タイミングで表示されなければならなくなるため、この放送映像を構成する映像フレームのそれぞれには、当初付与しようとしていた表示タイミング情報とは異なる表示タイミング情報が付与されることとなる。
番組の放送時刻が変更された場合において、表示装置が、通信サービス提供局から送信された、その番組に対応する通信映像を既に受信して記憶しているときには、その番組の放送映像を構成する映像フレームのそれぞれと、その通信映像を構成する映像フレームのそれぞれとを、付与された表示タイミング情報で示されるタイミングで表示したとしても、これらの映像は、映像製作者の意図した通りのタイミングで同期して表示されない。
そこで、本発明は係る問題に鑑みてなされたものであり、番組の放送時刻が変更された場合において、その番組に対応する通信映像を既に受信して記憶しているときであっても、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示することを可能とする表示装置を提供することを目的とする。
上記課題を解決するために本発明に係る表示装置は、受信した、複数の映像フレームを含むストリームに、別途取得して記憶している画像を同期させて表示する表示装置であって、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、前記受信部によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、画像と、当該画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、前記記憶部に記憶される画像を、前記表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、前記表示部は、さらに、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを前記取得部によって取得された補正情報によって定められる補正量分補正した補正タイミングで、前記記憶部に記憶される画像を表示することを特徴とする。
上述の構成を備える本発明に係る表示装置は、番組の放送時刻が変更された場合において、その番組に対応する通信映像を既に受信して記憶しているときであっても、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示することを可能とすることができる。
放送システム100の概念図 放送局120と通信サービス提供局130との概略構成を示す模式図 放送局120と通信サービス提供局130とで取り扱われる映像の一例を示す模式図 (a)表示装置110の外観図、(b)放送映像を画面上に表示しているシーンを示す模式図、(c)放送映像と通信映像とを画面上に同期させて重畳して表示しているシーンを示す模式図 表示装置110の構成図 主要ビデオデコード部の構成図 (a)ストリームがバッファリングされている様子を示す模式図、(b)第1GOP情報テーブルと第2GOP情報テーブルとの構成図 タイミング図 出力開始処理のフローチャート 第1変形主要ビデオデコード部の構成図 第2変形主要ビデオデコード部の構成図 第3変形主要ビデオデコード部の構成図 (a)倍速前のTSパケット列のタイミング図、(b)倍速後のTSパケット列のタイミング図、(c)合成ストリームのTSパケット列のタイミング図 第4変形主要ビデオデコード部の構成図 タイミング図 第5変形主要ビデオデコード部の構成図 (a)CG画像データのデータ構成図、(b)タイミング図 第6変形主要ビデオデコード部の構成図 変形第1GOP情報テーブルと変形第2GOP情報テーブルとの構成図 タイミング図 変換器2100の構成図 タイミング図 主要ビデオデコード部の構成図 タイミング図 タイミング図 タイミング図 同期再生制御モジュールのAPI一覧 HTML5コンテンツ拡張例 HTML5コンテンツ拡張例 HTML5コンテンツ拡張例 主要ビデオデコード部の構成図 MPEG−2 TS形式のデジタルストリームの構成図 ビデオストリームの階層構造図 アクセスユニットの構成図 ESパケット列にビデオストリームがどのように格納されるかを示す模式図 TSパケットのデータ構造図 PMTのデータ構造図 ピクチャの参照構造図 TTSストリームの構造図 表示装置4000の構成図
<実施の形態>
<概要>
以下、本発明に係る表示装置の一実施形態として、放送局から、放送波を介して送信される放送映像を受信し、通信サービス提供局から、インターネット回線を介して送信される通信映像を受信し、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する表示装置について説明する。
この表示装置は、通信サービス提供局から、通信映像と、通信映像を構成する映像フレームそれぞれの表示タイミングを示すPTS(以下、「通信映像PTS」と呼ぶ。)とを含む通信ストリームを受信する。また、放送局から、放送映像と、放送映像を構成する映像フレームそれぞれの表示タイミングを示すPTS(以下、「放送映像PTS」と呼ぶ。)と、通信映像PTSによって示される表示タイミングを補正する補正量を示すSTC_offset(System Time Counter offset)とを含む放送ストリームを受信する。そして、受信した放送映像を構成する映像フレームのそれぞれを、放送映像PTSによって示される表示タイミングで表示し、受信した通信映像を構成する映像フレームのそれぞれを、通信映像PTSによって示される表示タイミングに対して、STC_offsetによって示される補正量だけ補正した表示タイミングで表示する。
このことによって、この表示装置は、放送映像PTSによって示される、放送映像を構成する映像フレームの表示タイミングが、なんらかの事情によって、映像製作者の意図した通りの表示タイミングからずれてしまう場合であっても、そのずれを補正する補正量を示すSTC_offsetを受信することで、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示することができる。
以下、この表示装置の構成について図面を参照しながら説明する。
<構成>
図1は、放送局120と通信サービス提供局130と表示装置110とを含む放送システム100の概念図である。
同図において、放送局120は、放送映像と、放送映像PTSと、通信映像PTSによって示される表示タイミングを補正する補正量を示すSTC_offsetとを含む、MPEG(Moving Picture Experts Group)−2 TS(Transport Stream)形式の放送ストリームを生成し、生成した放送ストリームを、放送アンテナ121から放送波を介して送信する。
ここで、STC_offsetは、例えば、PMT(Program Map Table)、EIT(Event Information Table)といった、PSI/SI(Program Specific Information / Service Information)に格納される。
通信サービス提供局130は、放送映像と同期して表示されるべき通信映像と、通信映像PTSとを含む、MPEG−2 TS形式の通信ストリームを生成し、生成した通信ストリームを、インターネット通信網140を介して表示装置110に送信する。
表示装置110は、放送局120から送信される放送ストリームを、受信アンテナ111から受信して放送映像を復元し、通信サービス提供局130から送信される通信ストリームをインターネット通信網140から受信して放送映像を復元する。そして、放送映像を構成する映像フレームのそれぞれを、放送映像PTSによって示される表示タイミングで表示し、通信映像を構成する映像フレームのそれぞれを、通信映像PTSによって示される表示タイミングに対して、STC_offsetによって示される補正量だけ補正した表示タイミングで表示する。
図2は、放送局120と通信サービス提供局130との概略構成を示す模式図である。
同図に示されるように、放送局120は、放送映像撮影手段210と放送映像編集手段211と放送ストリーム生成手段212とPTSタイミング決定手段213と放送ストリーム記憶手段214と出力手段215とから構成される。出力手段215は、さらに、STCオフセット付与手段216を含む。
そして、通信サービス提供局130は、通信映像撮影手段220と通信映像編集手段221と通信ストリーム生成手段222と通信ストリーム記憶手段224と出力手段225とから構成される。
放送映像撮影手段210は、ビデオカメラ等といった撮影機器を含み、映像、音声を撮影する機能を有する。この放送映像撮影手段210は、必ずしも、放送局120内部に固定されているものではなく、必要に応じて、放送局120外部においても、映像、音声の撮影を行うことが可能なものである。
放送映像編集手段211は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、放送映像撮影手段210によって撮影された、映像、音声を編集する機能を有する。
通信映像撮影手段220は、ビデオカメラ等といった撮影機器を含み、映像、音声を撮影する機能を有する。この通信映像撮影手段220は、必ずしも、通信サービス提供局130内部に固定されているものではなく、必要に応じて、通信サービス提供局130外部においても、映像、音声の撮影を行うことが可能なものである。
通信映像編集手段221は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、通信映像撮影手段220によって撮影された、映像、音声を編集する機能を有する。
以下では、放送映像編集手段211と通信映像編集手段221とによってなされる編集の具体例について、図面を参照しながら説明する。
図3は、放送局120と通信サービス提供局130とで取り扱われる映像の一例示す模式図である。
以下では、サッカーの試合において、放送映像撮影手段210が比較的視野の広い映像を撮影し、通信映像撮影手段220が、放送映像撮影手段210による撮影とは別視点からの映像(例えば、特定選手がズームアップされた映像)を撮影する場合であって、放送映像撮影手段210によって撮影された映像と、通信映像撮影手段220によって撮影された映像とが、同時刻に撮影された映像フレームが、同時刻に表示されることを想定して、これらの映像が編集される場合を例として説明する。また、以下では、説明が必要以上に煩雑になってしまわないように、音声についての説明を省略して、映像についての説明を中心に行う。
図3に示されるように、放送映像撮影手段210は、比較的視野の広い映像である撮影映像301を撮影する。
放送映像編集手段211は、放送映像撮影手段210によって撮影された撮影映像301から、放送するシーンを切り出して、切り出した映像に対して、例えば、スコア情報303といったグラフィックスを重ね合わせる。
通信映像撮影手段220は、放送映像撮影手段210による撮影とは別視点からの映像を撮影する。
通信映像編集手段221は、放送映像編集手段211によって切り出されたシーンと同時刻帯のシーンを、通信映像撮影手段220によって撮影された撮影映像311から切り出して、切り出した映像に対して、例えば、選手情報313といったグラフィックスを重ね合わせる。
再び図2に戻って、放送局120と通信サービス提供局130との説明を続ける。
PTSタイミング決定手段213は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、放送映像編集手段211によって編集された映像を構成する映像フレームのそれぞれについて、付与するPTSの値を決定する機能を有する。
放送ストリーム生成手段212は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、放送映像編集手段211によって編集された映像、音声と、PTSタイミング決定手段213によって決定されたPTSの値とから、ビデオストリームとオーディオストリームと字幕ストリームとシステムパケットとが多重化された、MPEG−2 TS形式の放送ストリームを生成する機能を有する。
ここで、放送ストリーム生成手段212は、例えば、映像であれば、MPEG−2、MPEG−4 AVC等のビデオコーデックで符号化してビデオストリームと生成し、例えば、音声であれば、AC3(Audio Code number 3)、AAC(Advanced Audio Coding)等のオーディオコーデックで符号化する。
放送ストリーム記憶手段214は、ハードディスクドライブ等の記憶装置を含み、放送ストリーム生成手段212によって生成された放送ストリームを記憶する機能を有する。
通信ストリーム生成手段222は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、通信映像編集手段221によって編集された映像と、PTSタイミング決定手段213によって決定されたPTSとから、ビデオストリームとオーディオストリームとが多重化された、MPEG−2 TS形式の通信ストリームを生成する機能を有する。ここで、通信ストリーム生成手段222は、通信映像編集手段221によって編集された映像を構成する映像フレームのそれぞれについて、放送映像編集手段211によって編集された映像を構成する映像フレームのうちの同時刻に撮影された映像フレームに付与されるPTSの値と同じ値のPTSが付与されるように、通信ストリームの生成を行う。
ここで、通信ストリーム生成手段222は、放送ストリーム生成手段212と同様に、例えば、映像であれば、MPEG−2、MPEG−4 AVC等のビデオコーデックで符号化してビデオストリームと生成し、例えば、音声であれば、AC3、AAC等のオーディオコーデックで符号化する。
通信ストリーム記憶手段224は、ハードディスクドライブ等の記憶装置を含み、通信ストリーム生成手段222によって生成された通信ストリームを記憶する機能を有する。
STCオフセット付与手段216は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、以下のSTCオフセット付与機能を有する。
STCオフセット付与機能:(1)放送ストリーム記憶手段214に記憶される映像ストリームに対応する番組の放送時刻が変更になった場合に、放送時刻が変更になる前における各映像フレームについての放送映像PTSの値と、放送時刻が変更になった後における各映像フレームについての放送映像PTSの値との差分量を算出し、算出した差分量を、STC_offsetとして、新たな放送ストリームに含まれる、PSI/SIに格納し、(2)放送ストリーム記憶手段214に記憶される映像ストリームに対応する番組の放送時刻が変更にならなかった場合には、差分量の値が“0”となるSTC_offsetを、PSI/SIに格納する機能。
出力手段215は、プロセッサ、メモリ等を具備するコンピュータシステム、出力アンプ等を含み、STCオフセット付与手段216によってPSI/SIにSTC_offsetが格納された放送ストリームを、所定のフォーマットで所定の周波数帯の放送信号に変調し、変調した放送信号を、放送アンテナ121から送信する機能を有する。
出力手段225は、プロセッサ、メモリ等を具備するコンピュータシステムを含み、通信ストリーム記憶手段224に記憶される通信ストリームを、インターネット通信網140を介して表示装置110に出力する機能と、表示装置110に含まれる後述のバッファ542において、入力される通信ストリームを遅延させる場合における遅延量(ディレイ値)を指定するATC_delay(Arrival Time Counter delay)を、インターネット通信網140を介して表示装置110に出力する機能とを有する。
図4(a)は、表示装置110の外観図であり、図4(b)は、表示装置110が、受信した放送ストリームから放送映像を復元し、復元した放送映像を画面上に表示しているシーンを示す模式図であり、図4(c)は、表示装置110が、受信した放送ストリームと通信ストリームとから放送映像と通信映像とを復元して、復元した放送映像に、復元した通信映像を重畳させて、放送映像と通信映像とを画面上に同期させて表示しているシーンを示す模式図である。
図4(a)に示されるように表示装置110には、リモコン410が付属している。そして、表示装置110を利用するユーザは、リモコン410を利用して、表示装置110を操作する。
図4(c)に示されるように、この表示装置110は、放送映像と通信映像とを同期させて表示する場合に、放送映像の一部の領域に、通信映像を、Picture−In−Pictureとして重畳させて表示する。
図5は、表示装置110の構成を示す構成図である。
同図に示されるように、表示装置110は、チューナ501と通信インターフェース502と外部機器インターフェース503とリモコンインターフェース504と放送ストリームデコード手段510と通信ストリームデコード手段520とアプリケーション実行制御部530と同期開始パケット決定部540と入力開始制御部541とバッファ542とATCディレイ部543と字幕プレーン551と第1ビデオプレーン552と背景プレーン553とグラフィックスプレーン554と第2ビデオプレーン555とプレーン合成処理部560と音声合成処理部570とディスプレイ580とスピーカ590とから構成される。
さらに、放送ストリームデコード手段510は、第1多重分離部511と第1オーディオデコーダ512と字幕デコーダ513と第1ビデオデコーダ514とシステムパケットマネージャ515とから構成され、通信ストリームデコード手段520は、第2多重分離部521と第2ビデオデコーダ523と第2オーディオデコーダ522とから構成される。
チューナ501は、放送局120から送信された放送信号を、受信アンテナ111を利用して受信して復調し、復調で得られた放送ストリームを放送ストリームデコード手段510に出力する機能を有する。
通信インターフェース502は、例えば、NIC(Network Interface Card)等を含み、通信サービス提供局130から出力された通信ストリームを、インターネット通信網140から受信してバッファ542に出力する機能と、通信サービス提供局130から出力されたATC_delayを受信してATCディレイ部543に出力する機能と、アプリケーション実行制御部530が実行するアプリケーション、アプリケーション実行制御部530が描画するCG(Computer Graphics)画像等を、インターネット通信網140から取得して、アプリケーション実行制御部530に出力する機能とを有する。
バッファ542は、通信インターフェース502から送られて来る通信ストリームを、ATCディレイ部543から指定されるディレイだけ遅延させて、通信ストリームデコード手段520に出力する機能を有する。
ATCディレイ部543は、通信インターフェース502からATC_delayが送られて来た場合に、バッファ542に、通信インターフェース502から送られて来る通信ストリームを、そのATC_delayによって指定されるディレイ値だけディレイさせて、通信ストリームデコード手段520に出力させる機能を有する。
外部機器インターフェース503は、例えば、USB(Universal Serial Bus)ポート等を含み、接続される外部機器(例えば、カメラ、モーションセンサー、USBメモリ等)から信号を受け取り、受け取った信号をアプリケーション実行制御部530に出力する機能を有する。
リモコンインターフェース504は、リモコン410から送られて来る信号を受信し、受信した信号をアプリケーション実行制御部530に出力する機能を有する。
第1多重分離部511は、チューナ501から送られて来る放送ストリームから、ビデオストリームとオーディオストリームと字幕ストリームとシステムパケットとを分離して、分離したビデオストリームを第1ビデオデコーダ514に出力し、分離したオーディオストリームを第1オーディオデコーダ512に出力し、分離した字幕ストリームを字幕デコーダ513に出力し、分離したシステムパケットをシステムパケットマネージャ515に出力する機能を有する。
第2多重分離部521は、バッファ542から送られて来る放送ストリームから、ビデオストリームとオーディオストリームとを分離して、分離したビデオストリームを第2ビデオデコーダ523に出力し、分離したオーディオストリームを第2オーディオデコーダ522に出力する機能を有する。
第1ビデオデコーダ514は、第1多重分離部511から送られて来るビデオストリームをデコードして、非圧縮の映像フレームを生成し、生成した映像フレームを、そのフレームに対応付けられたPTSのタイミングで第1ビデオプレーン552に出力する機能を有する。
第2ビデオデコーダ523は、第2多重分離部521から送られて来るビデオストリームをデコードして非圧縮の映像フレームを生成し、生成した映像フレームを、そのフレームに対応付けられたPTSのタイミングで第2ビデオプレーン555に出力する機能を有する。
第1オーディオデコーダ512は、第1多重分離部511から送られて来るオーディオストリームをデコードして非圧縮のLPCM(Linear Pulse Code Modulation)方式のオーディオフレームを生成し、生成したオーディオフレームを、そのフレームに対応付けられたPTSのタイミングで音声合成処理部570に出力する機能を有する。
第2オーディオデコーダ522は、第2多重分離部521から送られて来るオーディオストリームをデコードして、非圧縮のLPCM方式のオーディオフレームを生成し、生成したオーディオフレームを、そのフレームに対応付けられたPTSのタイミングで音声合成処理部570に出力する機能を有する。
字幕デコーダ513は、第1多重分離部511から送られて来る字幕フレームをデコードして非圧縮のイメージフレームを生成し、生成したイメージフレームを、そのイメージフレームに対応付けられたPTSのタイミングで字幕プレーン551に出力する機能を有する。
システムパケットマネージャ515は、以下の2つの機能を有する。
データ提供機能:第1多重分離部511から送られて来るシステムパケットを解析して、アプリケーション実行制御部530からの要求に応じて、アプリケーション実行制御部530が必要とするデータを提供する機能。
ここで、提供するデータには、例えば、EIT(Encoded information type)パケット等に格納される番組情報、PMT(Program Map Table)パケットに格納されるストリームの属性情報、DSM−CC(Digital Storage Media ? Command and Control)等で提供されるBML(broadcast Markup Language)コンテンツの情報等がある。
通知機能:第1多重分離部511から送られて来るシステムパケットの中に、アプリケーション実行制御部530に対する、アプリケーションの実行制御信号(例えば、アプリケーションの実行開始信号、アプリケーションの実行終了信号等)を含むパケットが含まれている場合に、そのパケットを受け取ったタイミングで、アプリケーション実行制御部530に、アプリケーションの制御信号を通知する機能。
アプリケーション実行制御部530は、通信インターフェース502によって取得されたアプリケーションを実行する機能を有する。例えば、アプリケーションがHTML(Hyper Text Markup Language)コンテンツである場合には、Webブラウザであり、アプリケーションがJava(登録商標)である場合には、JavaVMである。
ここで、アプリケーションは、放送リソースアクセスAPI(Application Programming Interface)を経由して、システムパケットマネージャ515より、現在表示中の放送番組の番組情報や、ストリームの属性情報等を取得する。また、アプリケーションは、再生制御APIを経由して、放送ストリームデコード手段510、通信ストリームデコード手段520の動作、停止等を制御する。また、アプリケーションは、グラフィックス描画APIを経由して、CG画像を、背景プレーン553、グラフィックスプレーン554に出力する。また、アプリケーションは、プレーン合成処理部560におけるプレーンの合成方法を制御する。プレーンの合成方法としては、ビデオプレーンに対して拡大、縮小等のスケーリングや、ポジショニング等が含まれる。また、アプリケーションは、外部機器インターフェース503、リモコンインターフェース504からのデータを取得して、ユーザの操作に合わせて、画像の表示内容を変更してグラフィカルユーザインターフェースを実現する。
字幕プレーン551は、字幕デコーダ513から送られて来たフレームを格納するためのバッファであり、第1ビデオプレーン552は、第1ビデオデコーダ514から送られて来たフレームを格納するためのバッファであり、背景プレーン553は、アプリケーション実行制御部530から送られて来た背景画像を格納するためのバッファであり、グラフィックスプレーン554は、アプリケーション実行制御部530から送られて来たCG画像を格納するためのバッファであり、第2ビデオプレーン555は、第2ビデオデコーダ523から送られて来たフレームを格納するためのバッファである。
プレーン合成処理部560は、字幕プレーン551と第1ビデオプレーン552と背景プレーン553とグラフィックスプレーン554と第2ビデオプレーン555とに格納されている画像を合成して1枚の画像を生成し、生成した画像をディスプレイに出力する機能を有する。
ここで、プレーン合成処理部560は、画像の合成において、背面側から順に、背景プレーン553、第1ビデオプレーン552、第2ビデオプレーン555、字幕プレーン551、グラフィックスプレーン554の順で重畳して画像の合成を行う。また、アプリケーション実行制御部530によって実行されるアプリケーションからの合成方法の制御に応じて、ビデオプレーンに対して拡大、縮小等のスケーリングや、ポジショニング等を行う。
音声合成処理部570は、第1オーディオデコーダ512から出力されたオーディオフレームと第2オーディオデコーダ522から出力されたオーディオフレームとをミキシング(音の重ね合わせ)してスピーカ590に出力する機能を有する。
図6は、図5中の第1多重分離部511と第2多重分離部521と第1ビデオデコーダ514と第2ビデオデコーダ523と同期開始パケット決定部540と入力開始制御部541との部分(以下、この部分を「主要ビデオデコード部」と呼ぶ。)の構成を、さらに詳細に示した詳細構成図である。
第1多重分離部511は、データバッファ601とデコーダ入力器602とPID(Packet ID)フィルタ603と第1ATCカウンタ620とから構成され、第2多重分離部521は、データバッファ611とデコーダ入力器612とPIDフィルタ613と第2ATCカウンタ640とから構成され、第1ビデオデコーダ514は、TB604とMB605とEB606とビデオデコーダ607とから構成され、第2ビデオデコーダ524は、TB614とMB615とEB616とビデオデコーダ617とから構成される。
また、この主要ビデオデコード部には、図5中に記載されていなかった、水晶振動子660と第1STCカウンタ630と第2STCカウンタ650とが追加されている。
データバッファ601とデータバッファ611、デコーダ入力器602とデコーダ入力器612、PIDフィルタ603とPIDフィルタ613、第1ATCカウンタ620と第2ATCカウンタ640、第1STCカウンタ630と第2STCカウンタ650、TB604とTB014、MB605とMB615、EB606とEB616、ビデオデコーダ607とビデオデコーダ617は、それぞれ互いに同様の構成となっている。よってここでは、これらのうちの一方である、データバッファ601とデコーダ入力器602とPIDフィルタ603と第1ATCカウンタ620と第1STCカウンタ630とTB604とMB605とEB606とビデオデコーダ607とについて説明する。
水晶振動子660は、水晶の圧電効果を利用して、27MHzの周波数で発振する振動子である。
第1ATCカウンタ620は、水晶振動子660の発信を利用して、ATC時間軸を刻むカウンタであって、27MHzの周波数で値をインクリメントする機能を有する。
第1STCカウンタ630は、水晶振動子660の発信を利用して、STC時間軸を刻むカウンタであって、90KHzの周波数で値をインクリメントする機能を有する。この第1STCカウンタ630は、PIDフィルタ603から出力されたPCR(Program Clock reference)パケットの到着タイミングで、このPCRパケットのPCR値で、STC時間軸を校正する。第1多重分離部511にストリームが入力され続けている期間には、PCRパケットが入力され続けることとなり、PCRパケットが到着するタイミングで、STCカウンタのSTC値が、PCR値で校正され続けることとなる。
データバッファ601は、ストリームを一時的に格納するためのバッファであって、入力開始制御部541によって定められるタイミングで、格納するストリームをデコーダ入力器602に出力する機能を有する。データバッファ601は、例えば、DRAM(Dynamic Random Access Memory)、ハードディスク等を含む。
デコーダ入力器602は、データバッファ601に格納されるストリームを校正するTSパケットを、データバッファ601に格納されるタイミングで、PIDフィルタ603に入力する機能を有する。なお、データバッファ601に格納されるストリームがTTS(Timestamped TS)ストリームである場合には、TSパケットに付与されるATSと、ATCカウンタの値とが一致するタイミングで、該当するTSパケットをPIDフィルタ603に入力する。なお、ここでは、放送ストリームと通信ストリームとの双方が、TTSストリームであるとして、以下説明する。
PIDフィルタ603は、デコーダ入力器602から送られて来たTSパケットを、そのTSパケットのPIDに従って、そのPIDに対応するデコーダ、システムパケットマネージャ515又は第1STCカウンタ630に出力する機能を有する。例えば、PIDの値がオーディオストリームを示す場合には、第1オーディオデコーダ512に出力し、PIDの値がビデオストリームを示す場合には、第1ビデオデコーダ514に出力し、PIDの値がPCRパケットを示す場合には、第1STCカウンタ630に出力する。
TB604は、PIDフィルタ603から送られて来るTSパケットを蓄積するためのバッファである。
MB605は、TB604からEB606にTSパケットを出力するにあたって、一旦PESパケットを蓄積するためのバッファであって、TB604からMB605にTPパケットが送信される際に、TSパケットからTSヘッダとアダプテーションフィールドとを取り除く機能を有する。
EB606は、符号化状態にあるピクチャを格納するためのバッファであって、MB605からEB606にPESパケットが送信される際に、PESパケットからPESパケットヘッダを取り除く機能を有する。
ビデオデコーダ607は、EB606に格納されている、符号化状態にあるピクチャを、対応する復号時刻(DTS:Decode Time Stamp)毎にデコードする機能と、デコードしたピクチャを、対応する表示時刻(PTS)毎に、第1ビデオプレーン552に出力する機能とを有するデコーダである。
同期開始パケット決定部540は、データバッファ601に格納されているストリームに含まれているパケットの中と、データバッファ611に格納されているストリームに含まれているパケットの中とから、それぞれ、同期して表示を開始するパケット(以下、「同期開始TSパケット」と呼ぶ。)を決定する機能を有する。
以下、図面を用いて、同期開始パケット決定部540の行う開始表示TSパケットの決定の方法について説明する。
図7(a)は、データバッファ601に放送ストリームのTTSストリームがバッファリングされ、データバッファ611に通信ストリームのTTSストリームがバッファリングされている様子を示す模式図である。
図7(a)中のVと書かれている箱は、それぞれ、ストリームに含まれるGOP(Group Of Pictures)の先頭のTSパケットを表わし、箱の上の数字は、そのパケットが記憶されている、データバッファ601又はデータバッファ611のメモリアドレスを表わしている。一般に、GOPの先頭フレームは、Iピクチャである。
図7(a)中のSIと書かれている箱は、ストリームに含まれるSIを表わし、ここではSIに格納されているSTC_Offsetが“−2000”であるとして説明する。
同期開始パケット決定部540は、まず、データバッファ601に記憶されている放送ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値と、SIに格納されているSTC_Offsetとを取得して、第1GOP情報テーブルを生成する。
図7(b)に、同期開始パケット決定部540によって生成される第1GOP情報テーブルの一例である第1GOP情報テーブル710を示す。
図7(b)に示されるように、第1GOP情報テーブル710は、アドレス711とPTS712とPTS+STC_offset713とが対応付けられたテーブルである。
アドレス711は、同期開始パケット決定部540によって取得された、GOPの先頭のTSパケットのメモリアドレスである。
PTS712は、対応するアドレス711に記憶されている、GOPの先頭のTSパケットのPTS値である。
PTS+STC_offset713は、対応するPTS712のPTS値に、同期開始パケット決定部540によって取得されたSTC_offsetの値を加算して得られた値(以下、「PTS+STC_offset値」と呼ぶ。)である。
次に、同期開始パケット決定部540は、データバッファ611に記憶されている通信ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値とを取得して、第2GOP情報テーブルを生成する。
図7(b)に、同期開始パケット決定部540によって生成される第2GOP情報テーブルの一例である第2GOP情報テーブル720を示す。
図7(b)に示されるように、第2GOP情報テーブル720は、アドレス721とPTS722とが対応付けられたテーブルである。
アドレス721は、第1GOP情報テーブル710のアドレス711と同様のものであり、PTS722は、第1GOP情報テーブル710のPTS712と同様のものである。
そして、同期開始パケット決定部540は、第1GOP情報テーブル710と第2GOP情報テーブル720とを比較して、PTS712の値と、PTS+STC_offset713の値とが一致する組み合わせの中から、PTS712の値が最も小さい組み合わせを探す。
そして、その組み合わせのPTS+STC_offset713に対応付けられているアドレス711に格納されているTSパケットと、その組み合わせのPTS722に対応付けられているアドレス721に格納されているTSパケットとを、それぞれ、放送ストリームにおける同期開始TSパケット、通信ストリームにおける同期開始TSパケットとして算定する。
図7(b)の例では、データバッファ601のメモリアドレス“500”に格納されているTSパケットが、放送ストリームにおける同期開始TSパケットとして算定され、データバッファ611のメモリアドレス“150”に格納されているTSパケットが、通信ストリームにおける同期開始TSパケットとして選定されることとなる。
入力開始制御部541は、データバッファ601に格納されている放送ストリームを、デコーダ入力器602に出力するタイミングを決定する機能と、データバッファ611に格納されている通信ストリームを、デコーダ入力器612に出力するタイミングを決定する機能とを有する。
以下、図面を用いて、入力開始制御部541の行う、出力タイミングの決定の方法について説明する。
図8は、デコーダ入力器602とデコーダ入力器612とが、それぞれ、放送ストリームのTSパケット列と通信ストリームのTSパケット列とを、PIDフィルタ603とPIDフィルタ613とに出力するタイミング、及び、パケット列がデコードされて得られる映像フレームが、ビデオプレーンに出力されるタイミングを示すタイミング図である。
ここでは、説明が必要以上に煩雑になってしまうことを避けるために、放送ストリームと通信ストリームとが、それぞれ映像ストリームのみによって構成されているとして説明し、後述のATC1、ATC2、STC1、STC2等の数値、フレームレート等は、実際の時間単位を無視して設定されている。実際に計算する場合には、実際の数値単位や、フレームレート等を考慮に入れた上で計算する必要がある。
同図において、ATC1は、第1ATCカウンタ620によって定められるATC時間軸を示す。
放送ストリームのTSパケット列801は、ATC1時間軸における、デコーダ入力器602から出力される各TSパケットのタイミングを示しており、各箱の幅は、各TSパケットが、デコーダ入力器602からPIDフィルタ603へ伝送される時間を示している。
例えば、TSパケット820は、ATC1時間軸における時刻1300において、デコーダ入力器602から出力されることが示されている。
ここでは、V1と記されているTSパケット820は、放送ストリームの同期開始TSパケットを示しており、PCR1と記されているTSパケット810は、放送ストリームの同期開始TSパケットの直近のPCRパケットを示している。そして、TSパケット820がデコードされて得られる映像フレームは、フレームIDが30であるものとする。
ATC2は、第2ATCカウンタ640によって定められるATC時間軸を示す。
通信ストリームのTSパケット列802は、ATC2時間軸における、デコーダ入力器612から出力される各TSパケットのタイミングを示しており、各箱の幅は、各TSパケットが、デコーダ入力器612からPIDフィルタ613へ伝送される時間を示している。
例えば、TSパケット840は、ATC2時間軸における時刻3400において、デコーダ入力器612から出力されることが示されている。
ここでは、V2と記されているTSパケット840は、通信ストリームの同期開始TSパケットを示しており、PCR2と記されているTSパケット830は、通信ストリームの同期開始TSパケットの直近のPCRパケットを示している。そして、TSパケット840がデコードされて得られる映像フレームは、フレームIDが30であるものとする。
STC1は、第1STCカウンタ630によって定められるSTC時間軸を示す。
放送ストリームのフレームID803は、放送ストリームのTSパケット列がデコードされて得られる映像フレームが、第1ビデオプレーン552に出力されるタイミングを示している。
ここでは、TSパケット810がデコードされて得られるフレームIDが30となる映像フレームは、STC1時間軸における時刻2600、すなわち、ATC1時間軸における時刻1600に、第1ビデオプレーン552に出力されることが示されている。
D1は、TSパケットがデコーダ入力器612から出力されてから、対応するデコードされた映像フレームが第1ビデオプレーン552に出力されるまでにかかる時間である。この例では、ATC1時間軸において300、STC1時間軸において300だけかかることが示されている。D1の算出式については後述する。
STC2は、第2STCカウンタ650によって定められるSTC時間軸を示す。
映像ストリームのフレームID804は、放送ストリームのTSパケット列がデコードされて得られる映像フレームが、第2ビデオプレーン555に出力されるタイミングを示している。
ここでは、TSパケット840がデコードされて得られるフレームIDが30となる映像フレームは、STC2時間軸における時刻6600、すなわち、ATC2時間軸における時刻3600に、第2ビデオプレーン555に出力されることが示されている。
D2は、TSパケットがデコーダ入力器622から出力されてから、対応するデコードされた映像フレームが第2ビデオプレーン555に出力されるまでにかかる時間である。この例では、ATC2時間軸において200、STC2時間軸において200だけかかることが示されている。D2の算出式については後述する。
同図から、TSパケット820がデコードされて得られる映像フレームと、TSパケット840がデコードされて得られる映像フレームとが、それぞれ同時に、第1ビデオプレーン552と第2ビデオプレーン555とに出力されるためには、TSパケット820をデコーダ入力器602から出力するタイミングと、TSパケット840をデコーダ入力器612から出力するタイミングとを、D1−D2だけずらす必要があることがわかる。
入力開始制御部541は、D1−D2の値を算出して、同期開始パケット決定部540によって決定された、放送ストリームの同期開始TSパケット(図8におけるTSパケット820)と、通信ストリームの同期開始TSパケット(図8におけるTSパケット840)とが、それぞれ同時に、第1ビデオプレーン552と第2ビデオプレーン555とに出力されるように、TSパケット820をデコーダ入力器602から出力するタイミングと、TSパケット840をデコーダ入力器612から出力するタイミングとが、算出したD1−D2の値だけずれるように、データバッファ601に格納されている放送ストリームを、デコーダ入力器602に出力するタイミングと、データバッファ611に格納されている通信ストリームを、デコーダ入力器612に出力するタイミングとを決定する。
以下、D1−D2の値の算出方法について説明する。
TSパケットXに付与されるATS値を返す関数をATS(X)とし、TSパケットXに付与されるPCR値を取得する関数をPCR(X)とし、TSパケット820がデコードされて得られる映像フレームが、第1ビデオプレーン552に出力されるタイミングをSyncPTS1とすると、D1は、次式のように表わすことができる。

[数1]
D1 = SyncPTS1 ? PCR(PCR1) ? ATS(V1) + ATS(PCR1)

また、TSパケット840がデコードされて得られる映像フレームが、第2ビデオプレーン555に出力されるタイミングをSyncPTS2とすると、D2は、次式のように表わすことができる。

[数2]
D2 = SyncPTS2 ? PCR(PCR2) ? ATS(V2) + ATS(PCR2)

従って、D1−D2は、

[数3]
D1 ? D2 = SyncPTS1 ? PCR(PCR1) ? ATS(V1) + ATS(PCR1)
[ SyncPTS2 ? PCR(PCR2) - ATS(V2) + ATS(PCR2)]

と表わされる。
この式に、図8に示される各値を代入すると、

[数4]
D1 ? D2 = 2600 ? 2200 ? 1300 + 1200
? [ 600 ? 300 ? 3400 + 3600 ]
= 300 ? 200
= 100
となる。
以上のように構成される表示装置110の行う動作について、以下図面を参照しながら説明する。
<動作>
表示装置110は、その特徴的な動作として、放送ストリームのTSパケット列に含まれる放送映像と、通信ストリームのTSパケット列に含まれる通信映像とが、映像製作者の意図したタイミング通りに同期して表示されるように、放送ストリームのTSパケット列についてのデコーダ入力器602への出力開始タイミングと、通信ストリームのTSパケット列についてのデコーダ入力器612への出力開始タイミングとを算定し、算定した出力開始タイミングで、放送ストリームのTSパケット列と通信ストリームのTSパケット列との出力を開始する出力開始処理を行う。
以下、この出力開始処理について説明する。
<出力開始処理>
図9は、出力開始処理のフローチャートである。
出力開始処理は、データバッファ601への放送ストリームの入力と、データバッファ611への通信ストリームの入力とが開始されたことで開始される。
出力開始処理が開始されると、同期開始パケット決定部540は、放送ストリームのうちの、データバッファ601へ格納済みのTSパケット列から、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値と、SIに格納されているSTC_Offsetとを取得して(ステップS900)、第1GOP情報テーブルを生成する(ステップS910)。
次に、同期開始パケット決定部540は、通信ストリームのうちの、データバッファ611へ格納済みのTSパケット列から、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値とを取得して(ステップS920)、第2GOP情報テーブルを生成する(ステップS930)。
そして、同期開始パケット決定部540は、第1GOP情報テーブル710と第2GOP情報テーブル720とを比較して、PTS712の値と、PTS+STC_offset713の値とが一致する組み合わせが存在するか否かを調べる(ステップS940)。
ステップS940の処理において、一致する組み合わせが存在する場合に(ステップS940:Yes)、同期開始パケット決定部540は、一致する組み合わせの中から、PTS712の値が最も小さい組み合わせを探す。そして、その組み合わせのPTS+STC_offset713に対応付けられているアドレス711に格納されているTSパケットと、その組み合わせのPTS722に対応付けられているアドレス721に格納されているTSパケットとを、それぞれ、放送ストリームにおける同期開始TSパケット、通信ストリームにおける同期開始TSパケットとして算定する(ステップS950)。
放送ストリームにおける同期開始TSパケットと、通信ストリームにおける同期開始TSパケットとが算定されると、入力開始制御部541は、D1−D2を算出し(ステップS960)、放送ストリームの同期開始TSパケットの出力タイミングと、通信ストリームの同期開始TSパケットの出力タイミングとが算出したD1−D2となるように、放送ストリームのTSパケット列についてのデコーダ入力器602への出力開始タイミングと、通信ストリームのTSパケット列についてのデコーダ入力器612への出力開始タイミングとを算定し、算定した出力開始タイミングで、放送ストリームのTSパケット列と通信ストリームのTSパケット列との出力を開始する(ステップS970)。
ステップS970の処理が終了した場合、及び、ステップS940の処理において、一致する組み合わせが存在しない場合に(ステップS940:No)、表示装置110は、その出力開始処理を終了する。
<考察>
上記構成の表示装置110は、通信ストリームを構成する映像フレームのそれぞれを、各映像フレームに対応付けられているPTSに対して、STC_Offsetの値だけ加算して得られるタイミングで表示することとなる。そして、このことによって、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例1>
<概要>
以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第1変形表示装置について説明する。
実施の形態における表示装置110は、ATCカウンタとして、第1ATCカウンタ620と第2ATCカウンタ640との2つのカウンタを備え、STCカウンタとして、第1STCカウンタ630と第2STCカウンタ650との2つのカウンタを備える構成であった。
これに対して、変形例1における第1変形表示装置は、ATCカウンタを1つ、STCカウンタを1つ備える構成の例である。
以下、変形例1における第1変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
<構成>
第1変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第1変形主要ビデオデコード部に変更されるように変形されている。
図10は、第1変形主要ビデオデコード部の構成図である。
同図に示されるように、第1変形主要ビデオデコード部は、実施の形態における主要ビデオ変形部(図6参照)から、第2ATCカウンタ640と第2STCカウンタ650とが削除され、ATC_Offset加算器1040とSTC_Offset加算器1050とが追加されるように変形されている。
ATC_Offset加算器1040は、放送ストリームに対する通信ストリームのATCオフセット値を示すATC_Offsetを算出し、第1ATCカウンタ620から送られて来たATC時刻に対して、算出したATC_Offsetを加算して出力する機能を有する。
ここで、放送ストリームのSTC時間軸における値Xに対応するATC値を返す関数をATC1(X)とし、通信ストリームの時間軸における値Xに対応するATC値を返す関数をATC2(X)とすると、ATC_Offsetは、次式のように表わすことができる。

[数5]
ATC_Offset = ATC2(SyncPTS2) ? ATC1(SyncPTS1)

この式は、以下のように変形することができる。

[数6]
ATC_Offset = [ SyncPTS2 + ATC2(PCR2) ? PCR(PCR2) ]
? [SyncPTS1 + ATC(PCR1) ? PCR(PCR1) ]
= STC_Offset + [ ATC2(PCR2) ? PCR(PCR2) ]
? [ ATC1(PCR1) ? PCR(PCR1) ]

この式に、図8に示される各値を代入すると、

[数7]
ATC_Offset = ?2000 + [ 3300 ? 300 ] ? [ 1200 -2200 ]
= 2000
となる。
STC_Offset加算器1050は、第1STCカウンタ630から送られて来たSTC時刻に対して、放送ストリームに含まれるSTC_Offsetを加算して出力する機能を有する。
<考察>
上記構成の第1変形表示装置は、STC1時間軸に沿って放送ストリームのデコードを行い、STC1時間軸に対してSTC_Offsetが加算されたSTC2時間軸に沿って、映像ストリームのデコードを行う。そして、このことによって、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例2>
<概要>
以下、本発明に係る表示装置の一実施形態として、変形例1における第1変形表示装置の一部を変形した第2変形表示装置について説明する。
変形例1における第1変形表示装置は、通信サービス提供局130が送信する通信ストリームがMPEG−2 TS形式であるTTSストリームである場合に対応する構成であった。
これに対して、変形例2における第2変形表示装置は、通信サービス提供局130が送信する通信ストリームがPESパケット列で構成されるPESストリームである場合に対応する構成の例である。
以下、変形例2における第2変形表示装置の構成について、図面を参照しながら、変形例1における第1変形表示装置との相違点を中心に説明する。
<構成>
第2変形表示装置は、変形例1における第1変形表示装置から、第1変形主要ビデオデコード部が第2変形主要ビデオデコード部に変更されるように変形されている。
図11は、第2変形主要ビデオデコード部の構成図である。
同図に示されるように、第2変形主要ビデオデコード部は、変形例1における第1変形主要ビデオデコード部(図10参照)から、デコーダ入力器612とPIDフィルタ613とATC_Offset加算器1040が削除され、第2ビデオデコーダ523が第2ビデオデコーダ1123に変更されるように変形されている。
第2ビデオデコーダ1123は、変形例1における第2ビデオデコーダ523から、TB614とMB615とが削除され、EB616がEB1116に変更されるように変形されている。
EB1116は、符号化状態にあるピクチャを格納するためのバッファであって、データバッファ611からEB606にPESパケットが送信される際に、PESパケットからPESパケットヘッダを取り除く機能を有する。
第2変形表示装置において、入力開始制御部541は、放送ストリームの、データバッファ601からデコーダ入力器602への出力の開始について、EB1116に十分なデータが溜まるまで(例えば、EB616に1秒分のデータが溜まるまで、EB1116の記憶容量がフルになるまで等が考えられる)待ってから行う。そして、通信ストリームのデータバッファ611からEB1116への出力について、EB1116がアンダーフローしてしまわないように、連続的にデータの出力を行う。
<考察>
上記構成の第2変形表示装置は、変形例1における第1変形表示装置と同様に、STC1時間軸に沿って放送ストリームのデコードを行い、STC1時間軸に対してSTC_Offsetが加算されたSTC2時間軸に沿って、映像ストリームのデコードを行う。そして、このことによって、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例3>
<概要>
以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第3変形表示装置について説明する。
実施の形態における表示装置110は、第1ビデオデコーダ514から出力される映像フレームと、第2ビデオデコーダ523から出力される映像フレームとを、プレーン合成処理部560が合成する構成であった。
これに対して、第3変形表示装置は、第1ビデオデコーダ514から出力される映像フレームと、第2ビデオデコーダ523から出力される映像フレームとを再び多重化する構成の例である。
以下、変形例3における第3変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
<構成>
第3変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第3変形主要ビデオデコード部に変更されるように変形されている。
図12は、第3変形主要ビデオデコード部の構成図である。
同図に示されるように、第3変形主要ビデオデコード部は、実施の形態における主要ビデオ変形部(図6参照)から、プレーン合成処理部560とビデオデコーダ607とビデオデコーダ617とが削除され、多重化器1260とTS再生機1270とが追加されるように変形されている。
多重化器1260は、EB606から出力される、符号化状態にある映像フレーム列からTSパケット列(以下、「第2放送ストリーム」と呼ぶ。)を生成し、EB616から出力される、符号化状態にある映像フレーム列からTSパケット列(以下、「第2通信ストリーム」と呼ぶ。)を生成し、生成した第2放送ストリームと第2通信ストリームとを多重化して、合成ストリームを出力する機能を有する。
ここでは、多重化器1260は、第2放送ストリームと第2通信ストリームとを多重化する際に、例えば、第2放送ストリームのシステムレートと、第2通信ストリームのシステムレートとを倍速化して多重化する。
図13(a)は、システムレートが倍速化される前における、第2放送ストリームのTSパケット列と第2通信ストリームのTSパケット列とのタイミングを示すタイミング図である。ここでは、倍速前のシステムレートが24Mbpsであるとする。
各箱は、TSパケット列を構成するTSパケットを示し、各箱の幅であるdtは、各TSパケットが、PIDフィルタへ入力されてから出力されるまでの時間を示し、ここでは、dt=188×8/240000000となっている。
図13(b)は、システムレートが倍速化された後における、第2放送ストリームのTSパケット列と第2通信ストリームのTSパケット列とのタイミングを示すタイミング図である。ここでは、システムレートが24Mbpsから48Mbpsへと倍速化されている。そして、このことによって、dt=188×8/480000000となっている。
図13(c)は、合成ストリームのTSパケット列のタイミングを示すタイミング図である。
図13(b)と図13(c)とからわかるように、第2放送ストリームのシステムレートと、第2通信ストリームのシステムレートとを倍速化して多重化することで、第2放送ストリームと第2通信ストリームとの多重化を、比較的容易に行うことができる。
ATC2からATC1への変換方法は、例えば、変形例1で説明したATC_Offsetを算出する方法等がある。
再び、図12に戻って、第3変形主要ビデオデコード部の説明を続ける。
TS再生機1270は、多重化器1260から送られて来た合成ストリームから、第2放送ストリームと第2通信ストリームとを分離し、第2放送ストリームに含まれる映像フレームと第2通信ストリームに含まれる映像フレームと同期して出力する機能を有する。
<考察>
上記構成の第3変形表示装置によると、多重化器1260が生成する合成ストリームは、STC_offsetが加味された上で多重化されたものとなる。このことにより、多重化器1260が生成する合成ストリームは、通常のTSストリームと同様のものとなる。従って、多重化器1260が生成する合成ストリームを光ディスク等に記憶させて、別の再生機器で再生させることが可能となる。
<変形例4>
<概要>
以下、本実施の形態に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第4変形表示装置について説明する。
実施の形態における表示装置110は、放送映像と通信映像との同期表示を、ATC1、ATC2、STC1、STC2の4つの時間軸を利用して行う構成であった。
これに対して、変形例4における第4変形表示装置は、放送映像と通信映像との同期表示を、これら4つの時間軸にAbsTime時間軸を加えた計5つの時間軸を利用して行う構成の例である。
以下、変形例4における第4変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
<構成>
第4変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第4変形主要ビデオデコード部に変更されるように変形されている。
図14は、第4変形主要ビデオデコード部の構成図である。
同図に示されるように、第4変形主要ビデオデコード部は、実施の形態における主要ビデオ変形部(図6参照)から、同期開始パケット決定部540と入力開始制御部541とが削除され、同期開始パケット決定部1440と同期開始パケット決定部1450と入力開始制御部1441と入力開始制御部1451と水晶振動子1460とAbsTimeカウンタ1410とAbsTimeカウンタ1411とが追加されるように変形されている。
そして、破線より上の構成要素が第1の筐体(例えば、テレビ受像機)に格納され、破線より下の構成要素が第2の筐体(例えば、タブレット端末)に格納されている。
水晶振動子1460は、水晶振動子660と同様に、水晶の圧電効果を利用して、27MHzの周波数で発振する振動子である。
AbsTimeカウンタ1410とAbsTimeカウンタ1411とは、それぞれ、水晶振動子660、水晶振動子1460の発信を利用して、AbsTime時間軸を刻むカウンタであって、27MHzの周波数で値をインクリメントする機能を有する。
ここで、AbsTimeは、RTC(Real Time Clock)である。
また、AbsTimeカウンタ1410とAbsTimeカウンタ1411とは、互いに通信する機能を有し、NTP(Network Time Protocol)等を利用して、AbsTimeカウンタ1410の刻むAbsTimeとAbsTimeカウンタ1410の刻むAbsTimeとは、時刻が合わせられている。
同期開始パケット決定部1440と同期開始パケット決定部1450とは、互いに通信する機能を有し、同期開始パケット決定部1440と同期開始パケット決定部1450とからなるブロックが、実施の形態における同期開始パケット決定部540と同等の機能を実現する。
入力開始制御部1441と入力開始制御部1451とは、互いに通信する機能を有し、入力開始制御部1441と入力開始制御部1451とからなるブロックが、実施の形態における入力開始制御部541と同等の機能を実現する。ここで、入力開始制御部1441と入力開始制御部1451とは、データバッファ601に格納されている放送ストリームを、デコーダ入力器602に出力するタイミングを決定する機能の実現と、データバッファ611に格納されている通信ストリームを、デコーダ入力器612に出力するタイミングを決定する機能の実現とにおいて、ATC1、ATC2、STC1、STC2の4つの時間軸にAbsTime時間軸を加えた計5つの時間軸を利用する。
以下、図面を用いて、入力開始制御部541の行う、出力タイミングの決定について説明する。
図15は、図9のタイミング図に、時間軸AbsTimeが追加されたタイミング図である。この図は、同期再生を開始するAbsTime時間軸上の値であるSyncAbsTimeが5600である場合の図となっている。
この場合に、放送ストリームの同期開始TSパケット(V1)のデコーダ入力器602への入力開始タイミングは、AbsTime時間軸上では、SyncAbsTime − D1で計算でき、5600−300=5300となる。この放送ストリームの同期開始TSパケット(V1)のデコーダ入力器602へのAbsTime時間軸上の入力開始タイミングをInputAbsTime1とする。また、この場合に、通信ストリームの同期開始TSパケット(V2)のデコーダ入力器612への入力開始タイミングは、AbsTime時間軸上では、SyncAbsTime − D2で計算でき、5600−200=5400となる。この放送ストリームの同期開始TSパケット(V2)のデコーダ入力器612へのAbsTime時間軸上の入力開始タイミングをInputAbsTime2とする。入力開始制御部1441は、InputAbsTime1のタイミングで、放送ストリームの同期開始TSパケット(V1)のデコーダ入力器602への入力を開始する。入力開始制御部1451は、InputAbsTime2のタイミングで、通信ストリームの同期開始TSパケット(V2)のデコーダ入力器612への入力を開始する。これにより、SyncAbsTimeのタイミングで、それぞれ同期してそれぞれのビデオフレームの表示開始することが可能となる。
<考察>
上記構成の第4変形表示装置によると、第1ビデオプレーン552に格納される画像を、第1の筐体に備えられたディスプレイで表示し、第2ビデオプレーン555に格納される画像を、第2の筐体に備えられたディスプレイで表示することで、受信した放送映像と受信した通信映像とを、映像製作者の意図した通りのタイミングで同期して、それぞれ、第1の筐体と第2の筐体とで表示することが可能となる。
<変形例5>
<概要>
以下、本発明に係る表示装置の一実施形態として、変形例1における第1変形表示装置の一部を変形した第5変形表示装置について説明する。
変形例1における第1変形表示装置は、通信サービス提供局130が送信する通信ストリームがMPEG−2 TS形式である場合に対応する構成であった。
これに対して、変形例5における第5変形表示装置は、通信サービス提供局130が、放送映像に同期して表示するグラフィックスデータを送信する場合に対応する構成の例である。グラフィックスデータとして、例えば、放送映像がサッカーの試合の場合における、選手名等の選手に関する情報等が考えられる。
以下、変形例5における第5変形表示装置の構成について、図面を参照しながら、変形例1における第1変形表示装置との相違点を中心に説明する。
<構成>
第5変形表示装置は、変形例1における第1変形表示装置から、第1変形主要ビデオデコード部が第5変形主要ビデオデコード部に変更されるように変形されている。
図16は、第5変形主要ビデオデコード部の構成図である。
同図に示されるように、第5変形主要ビデオデコード部は、変形例1における第1変形主要ビデオデコード部(図10参照)から、データバッファ611とデコーダ入力器612とPIDフィルタ613とTB614とMB615とEB616とビデオデコーダ617と第2ビデオプレーン555とATC_Offset加算器1040とが削除され、アプリケーション実行制御部530とグラフィックスプレーン554とが追加されるように変形されている。
変形例5において、アプリケーション実行制御部530は、アプリケーションを実行することで、通信インターフェース502によって取得されたCG画像データからCG画像を描画して、グラフィックスプレーン554に出力する。
図17(a)は、CG画像データのデータ構成の一例を示すデータ構成図である。
同図に示されるように、CG画像データは、DTSとPTSとが付与された描画指示データとなっている。描画指示データとは、スクリプトコードであって、例えば、アプリケーションフォーマットがHTMLの場合には、JavaScript(登録商標)のグラフィックスの描画コードである。
アプリケーション実行制御部530は、アプリケーションを実行することで、STC_Offset加算器1050から出力されるSTC2の時間軸におけるDTSのタイミングで描画を開始し、描画したCG画像をグラフィックスプレーン554に出力する。
ここで、アプリケーションは、例えば、GetCurrentTime(stc)といった関数で現在時刻を取得して、DTSで示されるタイミングで描画を開始し、例えば、SyncBuffer(outputPTS)といった関数で、指定時刻(outputPTS)に描画したCG画像を出力する。
変形例5において、グラフィックスプレーン554は、ダブルバッファ構造になっている。
図17(b)は、CG画像の描画と表示とのタイミングを示すタイミング図である。
図17(b)に示されるように、アプリケーション実行制御部530は、グラフィックスプレーン554のダブルバッファのうちの一方のバッファに、DTSで示されるタイミングで描画を開始し、グラフィックスプレーン554は、PTSで示されるタイミングで、描画されたCG画像を表示する。
このように、グラフィックスプレーン554をダブルバッファ構造とすることで、滑らかなCG画像の表示を実現することができる。
なお、アプリケーション実行制御部530は、同期開始パケット決定部540と入力開始制御部541との替わりに、アプリケーションを実行することでこれらの機能を実現するとしてもよい。この場合、例えば、GetGOPTable(gop_table)といった関数でGOP情報テーブルを取得し、取得したGOP情報テーブルに含まれるPTS等を元に同期開始TSパケットを決定し、SetStartPTS(pts)やSetStartFrameID(frameID)といった関数で、実行開始を指示する。
<考察>
上記構成の第5変形表示装置は、変形例1における第1変形表示装置と同様に、STC1時間軸に沿って放送ストリームのデコードを行い、STC1時間軸に対してSTC_Offsetが加算されたSTC2時間軸に沿って、CG画像の描画と出力とを行う。そして、このことによって、受信した放送映像と受信したCG画像とを、映像製作者の意図した通りのタイミングで同期して表示する。
<変形例6>
<概要>
以下、本発明に係る表示装置の一実施形態として、変形例5における第5変形表示装置の一部を変形した第6変形表示装置について説明する。
第6変形表示装置は、変形例5における第5変形表示装置に対して、CG画像を描画するハードウエアアクセラレータであるグラフィックスエンジンが追加された構成の例である。
以下、変形例6における第6変形表示装置の構成について、図面を参照しながら、変形例5における第5変形表示装置との相違点を中心に説明する。
<構成>
第6変形表示装置は、変形例5における第5変形表示装置から、第5変形主要ビデオデコード部が第6変形主要ビデオデコード部に変更されるように変形されている。
図18は、第6変形主要ビデオデコード部の構成図である。
同図に示されるように、第6変形主要ビデオデコード部は、変形例5における第5変形主要ビデオデコード部(図16参照)から、EB1840とグラフィックスエンジン1850とが追加されるように変形されている。
EB1840は、CG画像データを格納するためのバッファである。
変形例6において、アプリケーション実行制御部530は、アプリケーションを実行することで、通信インターフェース502によって取得されたCG画像データをEB1840に蓄える。
グラフィックスエンジン1850は、EB1840に格納されたCG画像データから、DTSで示されるタイミングで描画して、グラフィックスプレーン554に出力する機能を有する。
<変形例7>
<概要>
以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第7変形表示装置について説明する。
実施の形態における表示装置110は、放送ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDと、通信ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDとが一致する場合に対応する構成であった。
これに対して、変形例7における第7変形表示装置は、放送ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDと、通信ストリームにおける同期を開始するGOPの先頭映像フレームのフレームIDとが一致しない場合に対応する構成の例となっている。
この例では、放送局120が送信する放送ストリームに含まれる映像フレームのそれぞれと、通信サービス提供局130が送信する通信ストリームに含まれる映像フレームのそれぞれとに、自映像フレームを識別するためのフレームIDが付与される。
ここでは、放送ストリームにおいて、映像フレームのそれぞれは、先頭側から表示順にインクリメントされたフレームIDが付与され、通信ストリームにおいて、映像フレームのそれぞれは、先頭側から表示順にインクリメントされたフレームIDが付与される。そして、放送ストリームに含まれる映像フレームへのフレームIDの付与と、通信ストリームに含まれる映像フレームへのフレームIDの付与とは、互いに同期して表示される映像フレームに対して同一のフレームIDが付与されるように行われる。
以下、変形例7における第7変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
<構成>
第7変形表示装置は、実施の形態における表示装置110から、主要ビデオデコード部が第7変形主要ビデオデコード部に変更されるように変形されている。
ここでは、第7変形主要ビデオデコード部を図示せずに、実施の形態における主要ビデオデコード部を示す図6を用いて、第7変形主要ビデオデコード部の説明を行う。
第7変形例において、同期開始パケット決定部540は、データバッファ601に記憶されている放送ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭のTSパケットのPTS値と、GOPの先頭のTSパケットのフレームIDと、SIに格納されているSTC_Offsetとを取得し、データバッファ611に記憶されている通信ストリームから、GOPの先頭のTSパケットのメモリアドレスと、GOP先頭パケットのTSパケットのPTS値と、GOPの先頭のTSパケットのフレームIDとを取得して、変形第1GOP情報テーブルと変形第2GOP情報テーブルとを生成する。
図19に、同期開始パケット決定部540によって生成される変形第1GOP情報テーブルの一例である変形第1GOP情報テーブル1910と、同期開始パケット決定部540によって生成される変形第2GOP情報テーブルの一例である変形第2GOP情報テーブル1920とを示す。
同図に示されるように、変形第1GOP情報テーブル1910は、アドレス1911とPTS1912とPTS+STC_offset1913とフレームID1914とが対応付けられたテーブルである。
アドレス1911とPTS1912とPTS+STC_offset1913とは、それぞれ、実施の形態におけるアドレス711とPTS712とPTS+STC_offset713と同様のものである(図7(b)参照)。
フレームID1914は、対応するアドレス1911に記憶されている、GOPの先頭のTSパケットのフレームIDである。
図19に示されるように、変形第2GOP情報テーブル1910は、アドレス1921とPTS1922とフレームID1924とが対応付けられたテーブルである。
アドレス1921とPTS1922とフレームID1924とは、それぞれ、アドレス1911とPTS1912とフレームID1914と同様のものである(図7(b)参照)。
ここでは、放送ストリームのGOPテーブル情報のアドレス500のエントリのフレームIDが30であるのに対して、通信ストリームのGOPテーブル情報のアドレス150のエントリのフレームIDが32となっている。
このようなケースでは、同期開始パケット決定部540は、放送ストリームのGOPテーブル情報から、同期再生を開始するエントリを決め、図19の例ではフレームID=30とすると、通信ストリームの変形第2GOP情報テーブル1920から、該当フレームIDよりも後方にあるフレームIDのエントリを探索し、図19の例では、フレームID=32のエントリが対象となる。
図20は、第7変形表示装置において、デコーダ入力器602とデコーダ入力器612とが、それぞれ、放送ストリームのTSパケット列と通信ストリームのTSパケット列とを、PIDフィルタ603とPIDフィルタ613とに出力するタイミング、及び、パケット列がデコードされて得られる映像フレームが、ビデオプレーンに出力されるタイミングを示すタイミング図である。
入力開始制御部541は、図20のように、デコーダへの入力タイミングを決定する。まず、図8で説明した方法と同様に、D1、D2を計算する。次に、放送ストリームの同期開始PTS(SyncPTS1)と、通信ストリームの同期開始PTS(SyncPTS2)を同一時間軸に射影したときの差分値(D3)を算出する。D3の計算式は、D3=SyncPTS2+STC_Offset−SyncPTS1で算出される。入力開始制御部541は、V1のデコーダへの入力を開始した後、D1+D3−D2の値だけ遅らせて、V2のデコーダへの入力を開始する。このように構成することで、同期を開始するGOPの先頭時刻が、放送ストリームと通信ストリームとで一致しない場合において、放送ストリームと通信ストリームの同期再生が可能となる。
なお、図19のように、放送ストリームと通信ストリームのGOP構造が一致しない場合には、時間軸の遅い方である通信ストリームのGOP先頭の表示時刻まで、放送ストリームの表示を行わないようにしてもよい。または、図20のように、放送ストリームから先に出し始めてもよい。もしくは、ユーザが選択できるようにしてもよい。
なお、フレームIDの値が、放送ストリームと通信ストリームで共通のPTSやTimeCodeの値であってもよい。このように構成することで、例えば、図20におけるD3の計算が、その値を使うだけでよくなり、容易になる。
<変形例8>
<概要>
以下、本発明に係る表示装置の一実施形態として、実施の形態における表示装置110の一部を変形した第8変形表示装置について説明する。
実施の形態における表示装置110は、放送局120が送信する放送ストリームが、MPEG−2 TS形式のTTSストリームである場合に対応する構成であった。
これに対して、変形例8における第8変形表示装置は、放送局120が送信する放送ストリームが、MPEG−2 TS形式のTSストリームである場合に対応する構成の例である。
以下、変形例8における第8変形表示装置の構成について、図面を参照しながら、実施の形態における表示装置110との相違点を中心に説明する。
<構成>
第8変形表示装置は、実施の形態における表示装置110において、チューナ501と第1多重分離部511との間に(図5参照)、変換器2100が追加されるように変形されている。
図21は、変換器2100の構成を示す構成図である。
同図に示されるように、変換器2100は、水晶振動子2130とATCカウンタ2140とTSパケットフィルタリング器2110とATS付与器2120とから構成される。
水晶振動子2130とATCカウンタ2140とは、それぞれ、実施の形態における水晶振動子660(図6参照)と第1ATCカウンタ620と同様のものである。
TSパケットフィルタリング器2110は、EITの番組情報、及びPMTパケットのプログラム内のストリーム構成情報を利用して、ユーザが選択する番組を構成するTSパケットのみをフィルタリングして、ATS付与器2120に入力する。
ATS付与器2120は、TSパケットフィルタリング器2110を経由して入力される188バイトのTSパケットに対して、ATCカウンタ2140のATC値を参照して、TSパケットの先頭にATS値を付与し、192バイトのTSパケットを生成する。ATSのフィールドは4バイトなので、0x0から0xFFFFFFFF0の値を取り、ATC値が0xFFFFFFFF以上の値になった場合には、再びWrap−aroundとして0に戻る。なお、Blu−rayの場合には、TSパケットの先頭4Byteの先頭2bitはコピー制御情報に利用されるため、ATS値は30bitであり、30bitでWrap−aroundする。
変換器2100は、図21に示される構成を取ることによって、放送ストリームの各TSパケットに対して、その先頭部にATSを付与する機能を有する。
そして、チューナ501と第1多重分離部511との間に、変換器2100が配置されることで、第1多重分離部511に入力される放送ストリームは、TTSストリームとなる。
<他の変形例>
放送ストリームと通信ストリームの同期再生を実現する上では、放送ストリームと通信ストリームをバッファリングしてデータがそろってから再生する必要があり、また通信ネットワークのネットワーク遅延を考慮して、遅延再生が必要となる。
図22は遅延再生時の課題を示している。タイムラインAは、表示時刻(AbsTime)であり、NTP等の手段により同期が合わされたRTC等の端末共通時刻情報を示している。タイムラインBは、通常の放送波で再生する場合に、表示時刻(AbsTime)
で表示される放送ストリームのビデオのPTSを示している。タイムラインCは、同期再生を実現する際に、遅延再生する場合に、表示時刻(AbsTime)で表示される放送ストリームのビデオのPTSを示している。タイムラインBとタイムラインC間に記載される矢印は、同期再生の再生ルートを示している。まず、AbsTime100から200の間はバッファリングを行い、データバッファに放送ストリームと通信ストリームのデータを格納する。次に、AbsTime200から500の間は、放送ストリームと通信ストリームの同期再生を実行する。AbsTime500で同期再生を終了し、AbsTime500からは通常再生に戻る。このようなケースの場合には、放送ストリームにおいて、PTS1400からPTS1500までのデータが表示されなくなる問題が発生する。例えば、このシーンがCMである場合には、同期表示するユーザは、CMを見ないため、放送局のビジネスが成り立たなくなってしまう課題がある。
そこで、この課題に対応するためのストリームのデコード手段を図23に示す。図23は放送ストリームのデコーダ入力器602の前にセレクタ2302が追加されており、放送ストリームだけでなく、補足ストリームのデータを入力可能としている。補足ストリームとは、遅延再生によって、放送ストリームのデータが欠けることを補うためのストリームである。補足ストリームはあらかじめデータバッファ2301(例えば、HDD等)にダウンロードして格納されていると好ましい。図24では、放送ストリームと通信ストリームのバッファリングの期間において、補足ストリームの再生を行い、図23で追加されたセレクタ2302を切り替え、バッファリングが完了と同時に放送ストリームと通信ストリームの同期再生を実行する。放送ストリームのPTS1400−1500のコンテンツと、補足ストリームのコンテンツを一致させておけば、ユーザは放送ストリームの映像を欠けることなく見ることが可能となる。
なお、このようにバッファリング中の表示コンテンツを放送局の意図通りのコンテンツにするために、同期再生時刻を制御できることが好ましい。つまり、同期開始する表示時刻(AbsTime)をアプリケーションのAPI等でセットできることが好ましい。その情報を、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。同期開始する表示時刻を制御する方法は、図14で示した方法で実現すればよい。
なお、図26に示すように、同期再生の一部または全部において、同期再生の再生速度を上げて、同期再生終了時の表示時刻AbsTimeにおける放送ストリームのPTSが一致するように構成してもよい。図26の例では、遅延再生のタイムラインCにおいて、PTS1100からPTS1500まで早送り再生され、通常再生のタイムラインBと同じタイミングで終了する。
なお、図25に示すように、放送ストリームに対して、遅延停止禁止期間を識別する情報を、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。例えば、図25上段の例では、放送ストリームにおいて、PTS1400からPTS1500には、遅延停止禁止区間が設定されている。この場合には、AbsTime500にユーザから同期再生終了指示がされたとしても、同期再生処理を終了せず、遅延停止禁止区間が終了するまで遅延再生を継続させた後、通常再生に戻る。このような構成にすることによって、放送局が表示して欲しい映像を、同期再生においてもユーザに表示することが可能となる。なお、ユーザ終了指示のタイミングが、遅延停止禁止区間に入っているかどうかの判別は、バッファリング期間も考慮する必要がある。例えば、図25の例では、バッファリング期間は、1000から1100であり、長さは100であるため、AbsTime400から500の間、つまり放送ストリーム1300から1400再生中においても遅延停止禁止区間として処理する。
なお、図25に示すように、放送ストリームに対して、遅延許可、禁止区間を識別する情報を、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。例えば、図25下段の例では、放送ストリームにおいて、PTS1100からPTS1500までは、遅延許可区間、PTS1500以降は遅延禁止区間に設定されている。この場合には、AbsTime200からAbsTime600までは遅延再生を実行しAbsTime600以降は、通常再生に戻る。このような情報を再生装置に通知することによって、放送局の意図通りに遅延再生のOn/Offを制御でき、番組の切り替わり等をスムーズに遷移させることができる。
なお、放送ストリームの途中で、STC不連続点が発生する場合や、放送ストリームの途中で、別映像が挿入される場合には同期を停止するようにしてもよい。このためには、放送ストリームや通信ストリームや通信データ等に、同期停止信号が格納され、その信号を受信するとストリームデコード手段は、同期再生を停止して、通常再生に戻る。このことをアプリケーションに通知するために、APIやEventがアプリケーション側に用意される。アプリケーションは、必要に応じてリスタートする。
なお、例えば、サッカー中継を遅延再生している場合に、インターネットの情報(例えば、Twitterのコメント)を表示すると、インターネットの情報は遅延していないため、映像とインターネットの情報が同期しない問題が発生する。この問題を解決するためには、同期再生のストリームデコード手段は、グラフィックスを表示するアプリケーション制御部に、遅延時間を取得するAPIを提供する。遅延時間は、デコード開始時刻とバッファリング開始時刻のそれぞれAbsTimeを保持しておき、その差分を計算すればよい。もしくは、現在時刻(AbsTime)と、現在デコード中のストリームのTOTパケットの時刻データを比較することで、大まかな遅延時間は算出できる。この遅延時間を利用することで、インターネットの情報(例えば、Twitterのコメント)も、現在時刻−遅延時間までのデータを抽出して表示する。このようにすることで、表示する映像とインターネット情報の同期表示が可能となる。
なお、同期再生をしている番組から、別の番組に移行する場合に、バッファリングをリセットしてしまうと、再度同期再生番組に戻った場合に、再度バッファリングをすると、ユーザにとって煩雑である。そこで、ザッピングをする場合には、ユーザにバッファリング継続するかどうかを尋ねるメニューを提示してもよい。バッファリング継続が選択される場合には、通信ストリームはデータバッファへのバッファリングを継続する。また、バッファリング継続するかどうかはプリファレンスメニューで設定できてもよい。
なお、同期再生を行う番組に必要なデータは、できるだけあらかじめダウンロードすることが求められる。そこで、再生装置において、放送番組の視聴予約や録画予約をした場合に、同期再生に必要なデータをHDD等にダウンロードしておくようにしてもよい。なお、同期再生を行う録画番組においては、遅延せずに録画処理を行う。
なお、同期再生において、緊急放送を正しくユーザに伝えるために、緊急放送の信号が放送ストリームに含まれる場合には、直ちに遅延再生を停止し、通常の放送再生に戻るようにしてもよい。データバッファに格納される放送ストリームは、常に、緊急放送信号を監視することで実現する。
なお、本実施の形態における同期再生を実現するためのアプリケーション実行部が提供する同期再生制御モジュールのAPI一覧を図27に示す。ここではアプリケーションはHTMLコンテンツであるとして説明する。1列目はメソッド名、2列目はAPI概要説明、3列目は引数、4列目はコメントである。AddVideoは、HTML5のビデオタグ等で指定されるビデオストリームを含むストリームのエントリを追加するAPIである。引数には、ビデオオブジェクト(VideoObject)、マスターかどうか(bMaster)、ストリーム上の開始PTS(StartPTS)、マスターとのPTS差分(ptsOffset)を指定する。その他のパラメータとしては、ストリーム終了時にストリーム先頭に戻ってループ再生するかどうかのフラグ、プレーンの合成順番、透過度、STC_Offset等がある。AddAudioは、HTML5のオーディオタグ等で指定されるオーディオストリームを含むストリームのエントリを追加するAPIである。引数には、オーディオオブジェクト(audioObject)、ストリーム上の開始PTS(StartPTS)、マスターとのPTS差分(ptsOffset)を指定する。その他のパラメータとしては、ストリーム終了時にストリーム先頭に戻ってループ再生するかどうかのフラグ、マスター音声とのミキシング係数等がある。AddCanvasは、HTML5のグラフィックス描画モジュールであるcanvasオブジェクトを追加するAPIである。引数にはcanvasオブジェクトを指定する。RemoveVideo,RemoveAudio,RemoveCanvasは、それぞれ追加したビデオオブジェクト、オーディオオブジェクト、キャンバスオブジェクトを削除するAPIである。Playは同期再生開始を指示するAPIである。引数には、再生遅延時間(StartUpDelay)、再生モード(Mode)を指定する。再生モードは、PoutP、PinPの他に、放送ストリームを左目、通信ストリームを右目として3D再生をするモードなどがある。Stopは同期再生停止、Pauseは同期再生一時停止である。GetStartUpDelayは、遅延時間を取得するAPIである。
図28は、放送ストリーム(ビデオストリーム+オーディオストリーム)と通信ストリーム(ビデオストリーム)を同期再生する場合のHTML5コンテンツ拡張の例である。ビデオタグで、ビデオを3つ定義している。1番目は補足ストリーム、1番目は放送ストリーム、3番目は通信ストリームである。Javascriptの動作説明は、図28にコメントを記載している。
図29は、放送ストリーム(ビデオストリーム+オーディオストリーム)と通信ストリーム(オーディオストリーム)を同期再生する場合のHTML5コンテンツ拡張の例である。ビデオタグで放送ストリーム、オーディオタグで通信ストリームを指定する。Javascriptの動作説明は、図29にコメントを記載している。
図30は、放送ストリーム(ビデオストリーム+オーディオストリーム)とグラフィックスデータを同期再生する場合のHTML5コンテンツ拡張の例である。ビデオタグで放送ストリーム、キャンバスタグでグラフィックス描画領域を指定する。Javascriptの動作説明は、図30にコメントを記載している。
なお、本実施の形態において、放送ストリームと通信ストリームの同期再生方法を説明したが、放送ストリームと放送ストリーム、及び、通信ストリームと通信ストリームの同期再生において、入力ストリームをそれぞれ変更することで、同等の構成で実現できることは言うまでもない。
なお、図6、図10、図11、図12、図14で説明した同期再生を実現するためのストリームデコード手段の構成で説明した放送ストリームと通信ストリームに含まれるビデオストリームは、それぞれ独立に圧縮符号化されたストリームであったが、放送ストリームのビデオストリームを参照して圧縮される(ビュー間参照)ビデオストリームを通信ストリームに格納するようなケースにも適用できることは言うまでもない。図31のように、通信ストリームが格納されるEBからDTSで放送ストリーム側のデコーダに入力するように構成すれば、ビュー間参照のような圧縮されたビデオストリームの同期再生も可能である。
<利用技術についての説明>
以下、上記した実施の形態、変形例等において利用されている技術について説明する。
まず、デジタルテレビの放送波等で伝送される一般的なストリームの構造について説明する。
デジタルテレビの放送波等での伝送では、MPEG−2 TS形式のデジタルストリームが使われている。MPEG−2 TSとは、ビデオやオーディオなど様々なストリームを多重化して伝送するための規格である。ISO/IEC13818−1及びITU−T勧告H222.0において標準化されている。
図32は、MPEG−2 TS形式のデジタルストリームの構成を示す図である。同図に示すようにMPEG−2 TSは、ビデオストリーム、オーディオストリーム、字幕ストリームなどを多重化することで得られる。ビデオストリームは番組の主映像を、オーディオストリームは番組の主音声部分や副音声を、字幕ストリームは番組の字幕情報を格納している。ビデオストリームは、MPEG−2、MPEG4−AVCなどの方式を使って符号化記録される。オーディオストリームは、ドルビーAC−3、MPEG−2 AAC、MPEG−4 AAC、HE−AACなどの方式で圧縮・符号化記録されている。
ビデオストリームの構成について説明する。MPEG−2、MPEG−4 AVC、SMPTE VC−1などの動画圧縮符号化においては、動画像の空間方向及び時間方向の冗長性を利用してデータ量の圧縮を行う。時間方向の冗長性を利用する方法として、ピクチャ間予測符号化が用いられる。ピクチャ間予測符号化では、あるピクチャを符号化する際に、表示時間順で前方または後方にあるピクチャを参照ピクチャとする。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対照のピクチャとの差分値に対して空間方向の冗長度を取り除くことによりデータ量の圧縮を行う。図38に一般的なビデオストリームのピクチャの参照構造を示す。矢印は参照して圧縮されていることを示す。
ここでは、参照ピクチャを持たずに符号化対象ピクチャのみを用いてピクチャ内予測符号化を行うピクチャをIピクチャと呼ぶ。ピクチャとは、フレーム及びフィールドの両者を包含する1つの符号化の単位である。また、既に処理済みの1枚のピクチャを参照してピクチャ間予測符号化するピクチャをPピクチャと呼び、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャをBピクチャと呼び、Bピクチャの中で他のピクチャから参照されるピクチャをBrピクチャと呼ぶ。また、フレーム構造の場合のフレーム、フィールド構造のフィールドを、ここではビデオアクセスユニットと呼ぶ。
また、ビデオストリームは、図33に示すような階層構造を有している。ビデオストリームは、複数のGOPから構成されており、これを符合化処理の基本単位とすることで動画像の編集やランダムアクセスが可能となっている。GOPは1つ以上のビデオアクセスユニットにより構成されている。ビデオアクセスユニットは、ピクチャの符合化データを格納する単位であり、フレーム構造の場合は1フレーム、フィールド構造の場合の1フィールドのデータが格納される。各ビデオアクセスユニットは、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードなどから構成される。各データはMPEG−4 AVCの場合は、NALユニットと呼ばれる単位で格納される。
AU識別コードはアクセスユニットの先頭を示す開始符号である。シーケンスヘッダは、複数ビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納したヘッダであり、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。ピクチャヘッダはピクチャ全体の符合化の方式などの情報を格納したヘッダである。補足データは圧縮データの復号に必須ではない付加情報であり、例えば、映像と同期してTVに表示するクローズドキャプションの文字情報やGOP構造情報などが格納される。圧縮ピクチャデータには、圧縮符号化されたピクチャのデータが格納される。パディングデータは、形式を整えるための意味のないデータが格納される。例えば、決められたビットレートを保つためのスタッフィングデータとして用いる。シーケンス終端コードは、再生シーケンスの終端を示すデータである。ストリーム終端コードは、ビットストリームの終端を示すデータである。
AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードの中身の構成は、ビデオの符合化方式によって異なる。
例えば、MPEG−4 AVCの場合であれば、AU識別コードは、AUデリミタ(Access Unit Delimiter)、シーケンスヘッダはSPS(Sequence Parameter Set)に、ピクチャヘッダはPPS(Picture Parameter Set)に、圧縮ピクチャデータは複数個のスライス、補足データはSEI(Supplemental Enhancement Information)、パディングデータはFillerData、シーケンス終端コードはEnd of Sequence、ストリーム終端コードはEnd of Streamに対応する。
例えば、MPEG−2の場合であれば、シーケンスヘッダはsequence_Header、sequence_extension、group_of_picture_headerに、ピクチャヘッダはpicture_header、picture_coding_extension、圧縮ピクチャデータは複数個のスライス、補足データはuser_data、シーケンス終端コードはsequence_end_codeに対応する。AU識別コードは存在しないが、それぞれのヘッダのスタートコードを使えば、アクセスユニットの切れ目を判断できる。
各データは常に必要ではなく、例えば、シーケンスヘッダはGOP先頭のビデオアクセスユニットでのみ必要で、それ以外のビデオアクセスユニットにはなくてもよい、としてもよい。また、符号化方式によっては、ピクチャヘッダは符号順で前のビデオアクセスユニットのものを参照して、自身のビデオアクセスユニット内にピクチャヘッダがなくてもよい。
また、図34に示すようにGOP先頭のビデオアクセスユニットは、圧縮ピクチャデータとしてIピクチャのデータが格納され、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、圧縮ピクチャデータが必ず格納され、補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードが格納されている。GOP先頭以外のビデオアクセスユニットは、AU識別コード、圧縮ピクチャデータが必ず格納され、補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードが格納されている。
トランスポートストリームに含まれる各ストリームはPIDと呼ばれるストリーム識別IDによって識別される。このPIDのパケットを抽出することで複合装置は、対象のストリームを抽出することができる。PIDとストリームの対応は以降で説明するPMTパケットのディスクリプタに格納される。
図32は、トランスポートストリームがどのように多重化されるかを模式的に示している。まず、複数のビデオフレームからなるビデオストリーム3201、複数のオーディオフレームからなるオーディオストリーム3204を、それぞれPESパケット列3202及び3205に変換し、TSパケット3203及び3206に変換する。同じく字幕ストリーム3207のデータをそれぞれPESパケット列3208に変換し、さらにTSパケット3209に変換する。MPEG−2トランスポートストリーム3213はこれらのTSパケットを1本のストリームに多重化することで構成される。
図35は、PESパケット列に、ビデオストリームがどのように格納されるかをさらに詳しく示している。同図における第1段目はビデオストリームのビデオフレーム列を示す。第2段目は、PESパケット列を示す。同図の矢印yy1,yy2, yy3, yy4に示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。各PESパケットはPESヘッダを持ち、PESヘッダには、ピクチャの表示時刻であるPTSやピクチャの復号時刻であるDTSが格納される。
図36は、トランスポートストリームを構成するTSパケットのデータ構造を示している。TSパケットは、4ByteのTSヘッダと、アダプテーションフィールドとTSペイロードから構成される188Byte固定長のパケットである。TSヘッダは、transport_priority、PID、adaptaion_field_controlなどから構成される。PIDは前述した通りトランスポートストリームに多重化されているストリームを識別するためのIDである。transport_priorityは、同一PIDのTSパケットの中のパケットの種別を識別するための情報である。adaptation_field_controlは、アダプテーションフィールドとTSペイロードの構成を制御するための情報である。アダプテーションフィールドとTSペイロードはどちらかだけが存在する場合と両方が存在する場合があり、adaptation_field_controlはその有無を示す。adaptation_field_controlが1の場合は、TSペイロードのみが存在し、adaptation_field_controlが2の場合は、アダプテーションフィールドのみが存在し、adaptation_field_controlが3の場合は、TSペイロードとアダプテーションフィールドの両方が存在することを示す。
アダプテーションフィールドは、PCRなどの情報の格納や、TSパケットを188バイト固定長にするためのスタッフィングするデータの格納領域である。TSペイロードにはPESパケットが分割されて格納される。
トランスポートストリームに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT、PCR等がある。これらのパケットはPSIと呼ばれる。PATはトランスポートストリーム中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0で登録される。PMTは、トランスポートストリーム中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を持ち、またトランスポートストリームに関する各種ディスクリプタを持つ。ディスクリプタにはAVストリームのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、TSパケットのデコーダへの到着時刻とPTS・DTSの時間軸であるSTCの同期を取るために、そのPCRパケットがデコーダに転送されるタイミングに対応するSTC時間の情報を持つ。
図37はPMTのデータ構造を詳しく説明する図である。PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、トランスポートストリームに関するディスクリプタが複数配置される。前述したコピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、トランスポートストリームに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。
ここで、図36下段に示すトランスポートストリームは、TSパケットが並ぶストリームであり、一般的に放送波に使われるストリームはこの形式であり、以降ではTSストリームと呼ぶことにする。一方で、図39下段に示すトランスポートストリームは、188バイトのTSパケットの先頭に4Byteのタイムスタンプを付与したソースパケットが並ぶストリームであり、一般的に通信で伝送されるストリームはこの形式であり、以降ではTTSストリームと呼ぶことにする。TSパケットに付与される先頭のタイムスタンプは、以降ではATSと呼び、ATSは付与されるTSパケットの、ストリームのデコーダへの転送開始時刻を示す。TTSストリームは図14下段に示すようにソースパケットが並ぶこととなり、TTSストリームの先頭からインクリメントする番号はSPN(Source Packet Number)と呼ぶ。
通常の放送波では複数チャンネル分のTSが多重化されたフルTSで送出される。フルTSは188バイトの固定長TSパケット列で構成されるTSストリームである。一方で、BD−REやHDD等の蓄積メディアに放送番組を記録する場合には、フルTSの中から、必要なチャンネルのデータのみを抜き出しパーシャルTSとして記録する。パーシャルTSは、TTSストリームである。ここでTSストリームをTTSストリームに変換する場合に、フルTSから不要となったTSパケットを単純につめて記録してしまうと、TSパケット間の時間間隔情報がなくなるため、デコーダへの入力タイミングが、送出時に想定していたタイミングとずれるため、デコーダが正しく再生できなくなってしまう。そこで、フルTSから不要となったTSパケットの時間間隔情報を残すために、ATSを付与する。このように構成し、デコーダへのデータの入力タイミングを、ATSで制御することによって、デコーダを破綻させることなく、再生することが可能となる。
<補足>
以上、本発明に係る表示装置の一実施形態として、実施の形態、変形例等における表示装置を例として説明したが、以下のように変形することも可能であり、本発明は上述した実施の形態、変形例等で例示した通りの表示装置に限られないことはもちろんである。
(1)実施の形態において、表示装置110は、通信サービス提供局130から送信された通信映像を、インターネット通信網140を介して受信する構成の例であった。しかしながら、通信サービス提供局130から送信された通信映像を受信することができる構成であれば、必ずしもインターネット通信網140を介して送信された通信映像を受信する構成である必要はない。一例として、放送波を介して送信された通信映像を受信する構成、専用回線を介して送信された通信映像を受信する構成等が考えられる。
(2)実施の形態において、通信映像の表示タイミングを補正する必要がない場合には、放送ストリームのPSI/SIに格納されるSTC_Offsetの値が“0”となる構成の例であった。しかしながら、通信ストリームに含まれる通信映像の表示タイミングを補正する必要がないという情報を、放送ストリームに含ませることができれば、必ずしも、放送ストリームのPSI/SIに格納されるSTC_Offsetの値が“0”となる構成である必要はない。一例として、通信ストリームに含まれる通信映像の表示タイミングを補正する必要がない場合に限って、放送ストリームのPSI/SIにSTC_Offsetを格納しないという構成等が考えられる。このような構成の場合、表示装置110は、受信した放送ストリームのPSI/SIにSTC_Offsetが格納されていないときには、STC_Offsetの値が“0”であるときと同様の処理を行う。
(3)実施の形態において、図17(a)では放送ストリームと通信ストリームがともにデータバッファに格納されている例を説明したが、放送ストリームのみがデータバッファに格納されている場合に、放送波のGOPテーブル情報とSTC_Offsetを元に、同期開始する通信ストリームの同期開始PTSを決定し、その地点のデータをサーバに問い合わせて、バッファリングを開始してもよい。同様に、放送ストリームのみがデータバッファに格納されている場合に、放送波のGOPテーブル情報とフレームIDを元に、同期開始する通信ストリームの同期開始PTSもしくはフレームIDを決定し、その地点のデータをサーバに問い合わせて、バッファリングを開始してもよい。
(4)実施の形態において、各GOP先頭のビデオパケットにアダプテーションフィールドとして、該当パケットのPCR値を格納するようにしてもよい。このように構成すれば、ビデオパケット付近のPCRパケットをサーチする必要がないため、D1やD2の算出が容易になる。
(5)実施の形態において、D1やD2を再生装置が計算するのではなく、情報として放送波や通信ストリームのシステムパケットやビデオストリームにて伝送するようにしてもよい。もしくは単にデータとしてサーバから通信で提供するようにしてもよい。
(6)変形例2において、通信ストリームがMP4ストリームであってもよい。この場合には、PTS、DTSが付与されていないため、各フレームに対応するPTSとDTSを示す管理情報をMP4ヘッダ情報に別途用意して、そのタイミング情報を使って処理する。
(7)変形例4において、異なる2台の筐体で同期再生を実現する構成を説明したが、同様の構成で、ストリームデコード手段を追加することによって、3台以上の筐体での同期再生できることは言うまでもない。また、1つの筐体で同期再生できることは言うまでもない。
(8)変形例7において、フレームIDはビデオストリームごとにユニークで、ストリーム間で関連を持たないとする場合(つまり、同一のフレームIDが付与されても同期関係であることを示さない場合)には、放送ストリームに含まれるフレームIDと、通信ストリームに含まれるフレームIDの同期関係を示すためのIDのオフセット情報を別途伝送すれば、放送ストリームのフレームIDと、通信ストリームのフレームIDの同期関係を特定することができる。
(9)実施の形態、変形例等で説明した、STC_Offset、GOP情報テーブル、フレームID、D1、D2、D3、ATC_Offset等の、実施の形態、変形例等を実現するために必要な情報の一部または全部は、放送ストリームや通信ストリームもしくはアプリケーションから取得する通信データ等に格納してもよい。ストリームに格納される場合には、PMTやEIT等のPSI/SIパケットや、BMLのイベントメッセージ、ビデオの各フレームのユーザデータ等に格納される。ビデオに格納される場合には、GOP先頭のみにGOP内のフレームに関する情報が一括で格納されていてもよいし、GOP先頭のみの情報だけでもよい。
(10)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
(11)以下、さらに本発明の一実施形態に係る表示装置の構成及びその変形例と各効果について説明する。
(a)本発明の一実施形態に係る表示装置は、受信した、複数の映像フレームを含むストリームに、別途取得して記憶している画像を同期させて表示する表示装置であって、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、前記受信部によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、画像と、当該画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、前記記憶部に記憶される画像を、前記表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、前記表示部は、さらに、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを前記取得部によって取得された補正情報によって定められる補正量分補正した補正タイミングで、前記記憶部に記憶される画像を表示することを特徴とする。
上述の構成を備える本変形例における表示装置は、番組の放送時刻が変更された場合において、その番組に対応する通信映像を既に受信して記憶しているときであっても、放送映像と通信映像とを、映像製作者の意図した通りのタイミングで同期させて表示することを可能とすることができる。
図40は、上記変形例における表示装置4000の構成図である。
同図に示されるように、表示装置4000は、受信部4010と表示部4020と記憶部4030と取得部4040とを備える。
受信部4010は、複数の映像フレームと、それら映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する機能を有する。一例として、実施の形態におけるチューナ501として実現される。
表示部4020は、受信部4010によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、受信部4010によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する機能を有する。一例として、実施の形態における、放送ストリームデコード手段510と通信ストリームデコード手段520と第1ビデオプレーン552と第2ビデオプレーン555とプレーン合成処理部560とディスプレイ580と入力開始制御部541からなるブロックとして実現される。
記憶部4030は、画像と、その画像の表示タイミングを定める第2表示タイミング情報とを記憶する機能を有する。一例として、実施の形態におけるバッファ542として実現される。
取得部4040は、記憶部4030に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、記憶部4030に記憶される画像を、表示部4020に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する機能を有する。一例として、実施の形態における同期開始パケット決定部540として実現される。
そして、表示部4020は、さらに、記憶部4030に記憶される第2表示タイミング情報によって定められる表示タイミングを取得部4040に取得された補正情報によって定められる補正量分補正した補正タイミングで、記憶部4030に記憶される画像を表示する機能を有する。
(b)また、前記受信部によって受信されるストリームは、さらに、前記補正情報を含み、前記取得部は、前記補正情報の取得を、前記受信部によって受信されたストリームから行うとしてもよい。
このような構成にすることによって、補正情報を、受信部が受信するストリームから取得することができるようになる。
(c)また、前記表示部は、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれと、前記記憶部に記憶される画像とを表示するためのディスプレイを有し、前記表示部は、前記受信部によって受信されたストリームに含まれる映像フレームと、前記記憶部に記憶される画像とを前記ディスプレイに表示する場合に、当該映像フレームに当該画像を重畳させるとしてもよい。
このような構成にすることで、受信部が受信する映像に、記憶部が記憶する画像を重畳して表示することができるようになる。
(d)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であるとしてもよい。
このような構成にすることで、受信部が受信する映像に、サブ受信部が受信する映像を同期させて表示することができるようになる。
(e)また、前記受信部は、放送局から放送された、ストリームを含むデータを伝送する放送波を受信する放送波受信部を有し、前記サブ受信部は、外部のネットワークから、ストリームを含むデータを伝送する伝送信号を受信する伝送信号受信部を有し、前記受信部の受信するストリームは、前記放送波受信部によって受信される放送波によって伝送されるストリームであり、前記サブ受信部の受信するストリームは、前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームであるとしてもよい。
このような構成にすることで、放送波によって伝送される映像に、ネットワークによって伝送される映像を同期させて表示することができるようになる。
(f)また、前記放送波受信部によって受信される放送波によって伝送されるストリームと前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームとは、MPEG(Moving Picture Experts Group)−2 TS(Transport Stream)形式のストリームであるとしてもよい。
このような構成にすることで、受信部とサブ受信部との実現を、比較的汎用的な手法で行うことができるようになる。
(g)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG−2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタと、前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
このような構成にすることで、受信部が受信する映像に、サブ受信部が受信する映像を同期させて表示することができるようになる。
(h)また、前記第1デコーダによって復元された映像フレームと、前記第2デコーダによって復元された映像フレームとを多重化することでストリームを生成する多重化部をさらに備えるとしてもよい。
このような構成にすることで、受信部が受信する映像と、サブ受信部が受信する映像とが多重化されてなるストリームを生成することができるようになる。
(i)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG−2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与し、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する到着時刻カウンタと、前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
このような構成にすることで、到着時刻カウンタの数を1つにすることができる。
(j)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームは、MPEG−2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダとを備え、前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
このような構成にすることで、受信部との実現を、比較的汎用的な手法で行うことができるようになる。
(k)また、複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG−2 TS形式のストリームであり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタとを備え、前記第2デコーダは、基準時間軸における、前記受信部によって受信されるストリームに付与された第1到着時刻に対応する第1基準時間軸時刻と、当該準時間軸における、前記サブ受信部によって受信されるストリームに付与された第2到着時刻に対応する第2基準時間軸時刻と、前記取得部に取得された補正情報によって定められる補正量とを用いて、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力するとしてもよい。
このような構成にすることで、基準時間軸を利用して、このような構成にすることで、受信部が受信する映像に、サブ受信部が受信する映像を同期させて表示することができるようになる。
(l)また、前記記憶部の記憶する画像は、コンピュータグラフィックス画像であり、前記表示部は、前記受信部によって受信されるストリームから映像フレームを復元するデコーダと、前記記憶部に記憶される画像が前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該画像を出力する画像出力部とを有するとしてもよい。
このような構成にすることで、受信部が受信する映像に、コンピュータグラフィックス画像を同期して表示することができるようになる。
本発明の一実施形態に係る送信装置は、複数の映像フレームを記憶する映像記憶部と、前記映像記憶部に記憶される複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報と、画像を表示するタイミングを定める第2表示タイミング情報を記憶する外部装置に、当該第2表示タイミング情報によって定められる表示タイミングを補正することで、当該画像を、前記映像記憶部に記憶する映像フレームと同期させて表示させるための補正量を定める補正情報とを多重化してストリームを生成する生成部と、前記多重化部によって生成されるストリームを送信する送信部とを備えることを特徴とする。
上述の構成を備える本変形例における送信装置によると、複数の映像フレームと第1表示タイミング情報と補正情報とを多重化して送信することができる送信装置を提供することができるようになる。
本発明は、放送コンテンツとそれに付随するコンテンツとを同期して再生する機器に広く利用することができる。
501 チューナ
502 通信インターフェース
510 放送ストリームデコード手段
511 第1多重分離部
512 第1オーディオデコーダ
513 字幕デコーダ
514 第1ビデオデコーダ
515 システムパケットマネージャ
520 通信ストリームデコード手段
521 第2多重分離部
523 第2ビデオデコーダ
522 第2オーディオデコーダ
530 アプリケーション実行制御部
540 同期開始パケット決定部
541 入力開始制御部
552 第1ビデオプレーン
554 グラフィックスプレーン
555 第2ビデオプレーン
560 プレーン合成処理部
TSパケットXに付与されるATS値を返す関数をATS(X)とし、TSパケットXに付与されるPCR値を取得する関数をPCR(X)とし、TSパケット820がデコードされて得られる映像フレームが、第1ビデオプレーン552に出力されるタイミングをSyncPTS1とすると、D1は、次式のように表わすことができる。

[数1]
D1 = SyncPTS1 - PCR(PCR1) - ATS(V1) + ATS(PCR1)

また、TSパケット840がデコードされて得られる映像フレームが、第2ビデオプレーン555に出力されるタイミングをSyncPTS2とすると、D2は、次式のように表わすことができる。

[数2]
D2 = SyncPTS2 - PCR(PCR2) - ATS(V2) + ATS(PCR2)

従って、D1−D2は、

[数3]
D1 - D2 = SyncPTS1 - PCR(PCR1) - ATS(V1) + ATS(PCR1)
- [SyncPTS2 - PCR(PCR2) - ATS(V2) + ATS(PCR2)]

と表わされる。
この式に、図8に示される各値を代入すると、

[数4]
D1 - D2 = 2600 - 2200 - 1300 + 1200
- [ 600 - 300 - 3400 + 3300 ]
= 300 - 200
= 100
となる。
ここで、放送ストリームのSTC時間軸における値Xに対応するATC値を返す関数をATC1(X)とし、通信ストリームの時間軸における値Xに対応するATC値を返す関数をATC2(X)とすると、ATC_Offsetは、次式のように表わすことができる。

[数5]
ATC_Offset = ATC2(SyncPTS2) - ATC1(SyncPTS1)

この式は、以下のように変形することができる。

[数6]
ATC_Offset = [ SyncPTS2 + ATC2(PCR2) - PCR(PCR2) ]
- [SyncPTS1 + ATC(PCR1) - PCR(PCR1) ]
= STC_Offset + [ ATC2(PCR2) - PCR(PCR2) ]
-[ ATC1(PCR1) - PCR(PCR1) ]

この式に、図8に示される各値を代入すると、

[数7]
ATC_Offset = -2000 + [ 3300 - 300 ] - [ 1200 -2200 ]
= 2000
となる。

Claims (13)

  1. 受信した、複数の映像フレームを含むストリームに、別途取得して記憶している画像を同期させて表示する表示装置であって、
    複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報とを含むストリームを受信する受信部と、
    前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれを、前記受信部によって受信されたストリームに含まれる第1表示タイミング情報によって定められる表示タイミングで表示する表示部と、
    画像と、当該画像の表示タイミングを定める第2表示タイミング情報とを記憶する記憶部と、
    前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを補正することで、前記記憶部に記憶される画像を、前記表示部に表示される映像フレームに同期させて表示するための補正量を定める補正情報を取得する取得部とを備え、
    前記表示部は、さらに、前記記憶部に記憶される第2表示タイミング情報によって定められる表示タイミングを前記取得部によって取得された補正情報によって定められる補正量分補正した補正タイミングで、前記記憶部に記憶される画像を表示する
    ことを特徴とする表示装置。
  2. 前記受信部によって受信されるストリームは、さらに、前記補正情報を含み、
    前記取得部は、前記補正情報の取得を、前記受信部によって受信されたストリームから行う
    ことを特徴とする請求項1記載の表示装置。
  3. 前記表示部は、前記受信部によって受信されたストリームに含まれる複数の映像フレームのそれぞれと、前記記憶部に記憶される画像とを表示するためのディスプレイを有し、
    前記表示部は、前記受信部によって受信されたストリームに含まれる映像フレームと、前記記憶部に記憶される画像とを前記ディスプレイに表示する場合に、当該映像フレームに当該画像を重畳させる
    ことを特徴とする請求項2記載の表示装置。
  4. 複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
    前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
    前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報である
    ことを特徴とする請求項3記載の表示装置。
  5. 前記受信部は、放送局から放送された、ストリームを含むデータを伝送する放送波を受信する放送波受信部を有し、
    前記サブ受信部は、外部のネットワークから、ストリームを含むデータを伝送する伝送信号を受信する伝送信号受信部を有し、
    前記受信部の受信するストリームは、前記放送波受信部によって受信される放送波によって伝送されるストリームであり、
    前記サブ受信部の受信するストリームは、前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームである
    ことを特徴とする請求項4記載の表示装置。
  6. 前記放送波受信部によって受信される放送波によって伝送されるストリームと前記伝送信号受信部によって受信される伝送信号によって伝送されるストリームとは、MPEG(Moving Picture Experts Group)−2 TS(Transport Stream)形式のストリームである
    ことを特徴とする請求項5記載の表示装置。
  7. 複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
    前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
    前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
    前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG−2 TS形式のストリームであり、
    前記表示部は、
    前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
    前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、
    前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、
    前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタと、
    前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、
    前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
    ことを特徴とする請求項1記載の表示装置。
  8. 前記第1デコーダによって復元された映像フレームと、前記第2デコーダによって復元された映像フレームとを多重化することでストリームを生成する多重化部をさらに備える
    ことを特徴とする請求項7記載の表示装置。
  9. 複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
    前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
    前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
    前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG−2 TS形式のストリームであり、
    前記表示部は、
    前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
    前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、
    前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与し、前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する到着時刻カウンタと、
    前記受信部によって受信されるストリームに付与された第1到着時刻と、前記サブ受信部によって受信されるストリームに付与された第2到着時刻とを利用して、前記受信部によって受信されるストリームが前記第1デコーダに入力されるタイミングに対して所定時間遅延するタイミングで、前記サブ受信部によって受信されるストリームを前記第2デコーダに入力する遅延入力部とを備え、
    前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
    ことを特徴とする請求項1記載の表示装置。
  10. 複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
    前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
    前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
    前記受信部によって受信されるストリームは、MPEG−2 TS形式のストリームであり、
    前記表示部は、
    前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
    前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダとを備え、
    前記第2デコーダは、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
    ことを特徴とする請求項1記載の表示装置。
  11. 複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める情報とを含むストリームを受信するサブ受信部をさらに備え、
    前記記憶部の記憶する画像は、前記サブ受信部によって受信された複数の映像フレームであり、
    前記記憶部の記憶する第2表示タイミング情報は、前記サブ受信部によって受信された情報であり、
    前記受信部によって受信されるストリームと前記サブ受信部によって受信されるストリームとは、MPEG−2 TS形式のストリームであり、
    前記表示部は、
    前記受信部によって受信されるストリームから映像フレームを復元する第1デコーダと、
    前記サブ受信部によって受信されるストリームから映像フレームを復元する第2デコーダと、
    前記受信部によって受信されるストリームに、当該ストリームが前記第1デコーダに入力されるタイミングに係る第1到着時刻を付与する第1到着時刻カウンタと、
    前記サブ受信部によって受信されるストリームに、当該ストリームが前記第2デコーダに入力されるタイミングに係る第2到着時刻を付与する第2到着時刻カウンタとを備え、
    前記第2デコーダは、基準時間軸における、前記受信部によって受信されるストリームに付与された第1到着時刻に対応する第1基準時間軸時刻と、当該準時間軸における、前記サブ受信部によって受信されるストリームに付与された第2到着時刻に対応する第2基準時間軸時刻と、前記取得部に取得された補正情報によって定められる補正量とを用いて、復元した映像フレームが前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該映像フレームを出力する
    ことを特徴とする請求項1記載の表示装置。
  12. 前記記憶部の記憶する画像は、コンピュータグラフィックス画像であり、
    前記表示部は、
    前記受信部によって受信されるストリームから映像フレームを復元するデコーダと、
    前記記憶部に記憶される画像が前記表示部によって前記補正タイミングで表示されるような出力タイミングで、当該画像を出力する画像出力部とを有する
    ことを特徴とする請求項1記載の表示装置。
  13. 複数の映像フレームを記憶する映像記憶部と、
    前記映像記憶部に記憶される複数の映像フレームと、当該映像フレームそれぞれについての表示タイミングを定める第1表示タイミング情報と、画像を表示するタイミングを定める第2表示タイミング情報を記憶する外部装置に、当該第2表示タイミング情報によって定められる表示タイミングを補正することで、当該画像を、前記映像記憶部に記憶する映像フレームと同期させて表示させるための補正量を定める補正情報とを多重化してストリームを生成する生成部と、
    前記多重化部によって生成されるストリームを送信する送信部とを備える
    ことを特徴とする送信装置。
JP2014504687A 2012-03-12 2013-03-08 表示装置、及び送信装置 Pending JPWO2013136754A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261609492P 2012-03-12 2012-03-12
US61/609,492 2012-03-12

Publications (1)

Publication Number Publication Date
JPWO2013136754A1 true JPWO2013136754A1 (ja) 2015-08-03

Family

ID=49160686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014504687A Pending JPWO2013136754A1 (ja) 2012-03-12 2013-03-08 表示装置、及び送信装置

Country Status (3)

Country Link
US (1) US20140079368A1 (ja)
JP (1) JPWO2013136754A1 (ja)
WO (1) WO2013136754A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9294709B2 (en) * 2012-09-27 2016-03-22 JVC Kenwood Corporation Imaging device, image processing device, imaging method, image processing method, and computer program product
CN105075281B (zh) * 2013-06-05 2019-01-01 太阳专利托管公司 数据解码方法、数据解码装置及数据发送方法
KR20150033827A (ko) * 2013-09-24 2015-04-02 삼성전자주식회사 영상표시장치, 서버 및 그 동작방법
KR20150057149A (ko) * 2013-11-18 2015-05-28 한국전자통신연구원 재전송망에 기초한 3d 방송 서비스 제공 시스템 및 방법
EP3087747A4 (en) * 2013-12-23 2017-08-16 Lg Electronics Inc. Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
EP2919458A1 (en) * 2014-03-11 2015-09-16 Axis AB Method and system for playback of motion video
US20150334471A1 (en) * 2014-05-15 2015-11-19 Echostar Technologies L.L.C. Multiple simultaneous audio video data decoding
GB201421304D0 (en) * 2014-12-01 2015-01-14 Pace Plc Improvements to television service and system
WO2016125654A1 (ja) 2015-02-02 2016-08-11 日立マクセル株式会社 放送受信装置、放送受信方法及びコンテンツ出力方法
JP6461681B2 (ja) * 2015-03-31 2019-01-30 日本放送協会 放送装置、マッピング情報送信装置、受信機、提示対象データ送信装置、放送通信データ同期システムおよびプログラム
WO2017018022A1 (ja) 2015-07-24 2017-02-02 日立マクセル株式会社 放送受信装置
US11445223B2 (en) 2016-09-09 2022-09-13 Microsoft Technology Licensing, Llc Loss detection for encoded video transmission
US10979785B2 (en) * 2017-01-20 2021-04-13 Hanwha Techwin Co., Ltd. Media playback apparatus and method for synchronously reproducing video and audio on a web browser
JP6504294B2 (ja) * 2018-03-23 2019-04-24 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6743931B2 (ja) * 2019-03-26 2020-08-19 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
JP6908170B2 (ja) * 2019-03-26 2021-07-21 ソニーグループ株式会社 送信方法
JP7242389B2 (ja) 2019-04-11 2023-03-20 株式会社東芝 パケット生成装置および方法
US10834298B1 (en) * 2019-10-14 2020-11-10 Disney Enterprises, Inc. Selective audio visual synchronization for multiple displays
CN111510772B (zh) * 2020-03-23 2022-03-29 珠海亿智电子科技有限公司 一种平衡视频帧率误差的方法、装置、设备及存储介质
JP7120399B2 (ja) * 2020-07-29 2022-08-17 ソニーグループ株式会社 送信方法
EP4199525A1 (de) * 2021-12-20 2023-06-21 The Color Grading Company GmbH Computerimplementiertes verfahren zur wahlweisen oder gleichzeitigen anzeige zumindest zweier videos

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090051759A1 (en) * 2005-05-27 2009-02-26 Adkins Sean M Equipment and methods for the synchronization of stereoscopic projection displays
JP5399984B2 (ja) * 2010-06-23 2014-01-29 日本放送協会 送信装置、サーバ装置、および受信装置
KR20120107258A (ko) * 2011-03-21 2012-10-02 삼성전자주식회사 디스플레이장치 및 그 제어방법과, 셔터 안경 및 그 제어방법

Also Published As

Publication number Publication date
US20140079368A1 (en) 2014-03-20
WO2013136754A1 (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
WO2013136754A1 (ja) 表示装置、及び送信装置
JP5137345B2 (ja) ローカル3次元ビデオを具現するためのエンコーディング/デコーディング方法及び装置
JP6184408B2 (ja) 受信装置及びその受信方法
KR100972792B1 (ko) 스테레오스코픽 영상을 동기화하는 장치 및 방법과 이를 이용한 스테레오스코픽 영상 제공 장치 및 방법
KR100782835B1 (ko) 캡션 정보의 출력시점 및 출력 우선순위를 조절하는 방법및 그 장치
US8290353B2 (en) Data processing device and method
US7266288B2 (en) Video/audio playback apparatus and video/audio playback method
EP2651142A2 (en) Transmitter and receiver for transmitting and receiving multimedia content, and reproduction method therefor
JP2008011404A (ja) コンテンツ処理装置及びコンテンツ処理方法
KR101781887B1 (ko) 방송 신호 송수신 방법 및 장치
US20120050476A1 (en) Video processing device
WO2013175718A1 (ja) 受信装置、送信装置、受信方法、及び送信方法
US8750389B2 (en) Video data decoder and method for decoding video data
KR20140107107A (ko) 영상재생장치, 영상재생방법, 영상재생 프로그램, 영상송신장치, 영상송신방법 및 영상송신 프로그램
US20080037956A1 (en) Systems and Methods of Generating Encapsulated MPEG Program Streams
WO2013011696A1 (ja) 送信装置、受信再生装置、送信方法及び受信再生方法
JP4613860B2 (ja) Mpeg符号化ストリーム復号装置
US7894704B2 (en) Reproducing apparatus and method, and recording medium
JP2005109829A (ja) トランスポートストリーム記録編集装置及び記録編集方法
JP2005012499A (ja) データ再生方法及びデータ再生装置
JPH099215A (ja) データ多重方法、データ伝送方法、及び多重データ復号方法、多重データ復号装置
JP2009044282A (ja) デジタル映像データ再生装置及び表示装置
JP3671969B2 (ja) データ多重方法及び多重データ復号方法
KR100956821B1 (ko) Pvr 재생 방법
JP2008066770A (ja) コンテンツ受信装置、コンテンツ送受信システム、及びコンテンツ送受信方法