JP2014504083A - マルチメディアコンテンツを送受信する送信装置および受信装置、その再生方法 - Google Patents

マルチメディアコンテンツを送受信する送信装置および受信装置、その再生方法 Download PDF

Info

Publication number
JP2014504083A
JP2014504083A JP2013543098A JP2013543098A JP2014504083A JP 2014504083 A JP2014504083 A JP 2014504083A JP 2013543098 A JP2013543098 A JP 2013543098A JP 2013543098 A JP2013543098 A JP 2013543098A JP 2014504083 A JP2014504083 A JP 2014504083A
Authority
JP
Japan
Prior art keywords
data
synchronization information
information
eye image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013543098A
Other languages
English (en)
Inventor
パク,ホン−ソク
リ,ジェ−ジュン
ジュ,ユ−ソン
ジャン,ヨン−ソク
キム,ヒ−ジン
リ,デ−ジョン
ジャン,ムン−ソク
キム,ヨン−テ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014504083A publication Critical patent/JP2014504083A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

左眼映像および第1同期化情報を含む第1信号と、右眼映像および第2同期化情報を含む第2信号とを互いに異なる経路を通じて受信する受信部と、第1同期化情報および第2同期化情報を用いて、左眼映像および右眼映像を同期化させて再生する信号処理部とを含む。第1および第2同期化情報は、コンテンツスタート情報、第1データおよび第2データの間のタイムスタンプ差異値、フレームインデックス、タイムコード情報、UTC情報、フレームカウント情報のうち、少なくとも一つが使用されてよい。それにより、互いに異なるデータの同期化を効果的に行うことができる。

Description

本発明は、マルチメディアコンテンツを送受信する送信装置および受信装置、その再生方法に関し、より詳細には、一つのマルチメディアコンテンツを互いに異なる経路を通じて送受信する送信装置および受信装置、その再生方法に関する。
電子技術の発達により、多様な電子装置が開発および普及されている。これらの電子装置の代表的な例としてテレビのような受信装置を挙げることができる。
最近は、テレビの性能が向上するにつれて、3Dコンテンツのようなマルチメディアコンテンツまでもサービスされている。3Dコンテンツは、左眼映像および右眼映像を含むため、既存の2Dコンテンツよりコンテンツのサイズが大きい。
しかし、放送網で使用される伝送帯域幅は制限的である。単一放送網において、3Dコンテンツを提供するためには、解像度を減らす必要があり、それにより、画質が劣化するという問題点があった。
このような問題点を克服するために、左眼映像および右眼映像を互いに異なる経路を通じて伝送し、受信装置でそれを組み合わせて3Dコンテンツを再生するようにする技術が登場している。
一般的に、受信装置では、各映像のタイムスタンプ、すなわち、PTSを参照して左眼映像および右眼映像を同期化させる。よって、同期化が正常に行われるためには、両映像のタイムスタンプが正確に一致しなければならない。しかし、左眼映像および右眼映像を生成するための送信装置が互いに分離されているか、左眼映像および右眼映像を生成する時間が互いに異なる場合、両映像のタイムスタンプが正確に一致することは困難である。それにより、同期化が困難になるという問題点があった。
よって、高解像度のマルチメディアコンテンツが受信装置で効果的に再生できるようにする技術の必要性が生じてきた。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、互いに異なるデータを互いに異なる経路を通じて送受信しつつ、そのデータを同期化させることができる同期化情報を併せて提供してデータを再生できるようにする送信装置および受信装置、その再生方法を提供することにある。
以上のような目的を達成するための本発明の一実施形態に係る受信装置は、左眼映像および第1同期化情報を含む第1信号と、右眼映像および第2同期化情報を含む第2信号とを互いに異なる経路を通じて受信する受信部と、前記第1同期化情報および前記第2同期化情報を用いて、前記左眼映像および前記右眼映像を同期化させて再生する信号処理部とを含む。
ここで、前記第1同期化情報および前記第2同期化情報は、前記左眼映像および前記右眼映像で構成されるコンテンツの開始時点を報知するコンテンツスタート情報を含んでよい。
この場合、前記信号処理部は、前記コンテンツの開始時点と、前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプをそれぞれ比較し、比較結果に応じて、前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプのうち、少なくとも一方を補正して同期化させてよい。
または、前記第1同期化情報および前記第2同期化情報は、それぞれ前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプの間の差異値を含んでよい。この場合、前記信号処理部は、前記差異値を用いて、前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプのうち、少なくとも一方を補正して同期化させることができる。
または、前記第1同期化情報は、前記左眼映像のフレームインデックスを含み、前記第2同期化情報は、前記右眼映像のフレームインデックスを含む。この場合、前記信号処理部は、前記左眼映像のフレームインデックスおよび前記右眼映像のフレームインデックスを比較し、同じフレームインデックスを有する左眼映像および右眼映像が同期化するように処理することができる。
または、前記第1同期化情報は、前記左眼映像のタイムコードを含み、前記第2同期化情報は、前記右眼映像のタイムコードを含む。この場合、前記信号処理部は、前記左眼映像のタイムコードおよび前記右眼映像のタイムコードを比較し、同じタイムコードを有する左眼映像および右眼映像が同期化するように処理することができる。
または、前記第1同期化情報および前記第2同期化情報は、UTC(Coordinated Universal Time)情報を含んでよく、この場合、前記信号処理部は、前記UTC情報を比較して同じUTCを有する左眼映像および右眼映像が同期化するように処理してよい。
一方、上述の受信装置は、前記第1信号および前記第2信号のうち、少なくとも一方を分析してルックアップテーブルを生成する信号分析部と、前記ルックアップテーブルを保存する保存部と、前記ルックアップテーブルに応じて、互いにマッチングする左眼映像および右眼映像を同期化させて再生するように前記信号処理部を制御する制御部とを含んでよい。ここで、前記第1信号および前記第2信号のうち、少なくとも一方はリアルタイム伝送ストリームであってよい。
一方、本発明の一実施形態に係る送信装置は、マルチメディアコンテンツを構成する第1データおよび、前記マルチメディアコンテンツを構成する第2データとの同期化のための同期化情報を含む伝送データを生成するデータ生成部と、前記データ生成部から提供される伝送データを伝送信号に変換して受信装置に伝送する伝送部とを含む。
ここで、前記同期化情報は、前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差異値、フレームインデックスのうち、少なくとも一つを含んでよい。
そして、前記データ生成部は、前記第1データおよびシグナリング情報を入力される入力部と、前記第1データをエンコードし、前記シグナリング情報を用いて前記同期化情報を生成して、前記エンコードされた第1データに付加する符号化処理部と、前記符号化処理部から生成されたデータに付加データをマルチプレキシングして前記伝送データを生成する多重化部とを含んでよい。
ここで、前記第1データは、少なくとも一つの映像フレームに対するデータを含み、前記同期化情報は、前記映像フレームのタイムコード情報であってよい。
一方、前記第1データは、3Dフレームを構成するための左眼映像および右眼映像のうち、いずれか一方を含み、前記第2データは、前記左眼映像および前記右眼映像のうち、いずれか他方を含んでよい。
または、前記第1データは、前記マルチメディアコンテンツを構成するビデオデータ、オーディオデータ、字幕データおよび付加データのうち、少なくとも一つのデータを含み、前記第2データは、前記ビデオデータ、オーディオデータ、字幕データおよび付加データのうち、残りのデータを含んでよい。
一方、本発明の一実施形態に係るマルチメディアコンテンツを再生する再生方法は、マルチメディアコンテンツを構成する第1データおよび第1同期化情報を含む第1信号と、前記マルチメディアコンテンツを構成する第2データおよび第2同期化情報を含む第2信号とを互いに異なる経路を通じて受信するステップと、前記第1同期化情報および前記第2同期化情報を用いて、前記第1データおよび前記第2データを同期化させ、前記マルチメディアコンテンツを再生するステップとを含む。ここで、前記第1同期化情報および前記第2同期化情報は、前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差異値、フレームインデックス、タイムコード情報、UTC情報、フレームカウント情報のうち、少なくとも一つをそれぞれ含んでよい。
以上説明したように、本発明によれば、互いに異なる経路を通じて異なるデータを送受信して伝送帯域幅の制限を克服し、同期化情報を用いてデータが効果的に再生できるようにする。
本発明の一実施形態に係るマルチメディアコンテンツ再生システムの構成を示す図である。 本発明の一実施形態に係る受信装置の構成を示す図である。 ストリーム内のPMTを用いて同期化情報を伝送する過程を説明するための図である。 PMT内に同期化情報が挿入される方法を説明するための図である。 TSアダプテーションフィールドを用いた同期化情報伝達方法を説明するための図である。 PESヘッダを用いた同期化情報伝達方法を説明するための図である。 EITテーブルを用いた同期化情報伝達方法を説明するための図である。 プライベートストリームを用いた同期化情報伝達方法を説明するための図である。 フレームインデックスを同期化情報として使用する実施形態におけるストリーム構成を示す図である。 保存ファイルフォーマットにおける同期化情報挿入方法の一例を示す図である。 伝送ストリーム内で別途のプライベートストリームを用いてフレームインデックスを提供する方法を説明するための図である。 タイムコードを同期化情報として使用する実施形態における同期化方法を説明するための図である。 タイムコードを伝送する方法の一例を説明するための図である。 GoPヘッダにタイムコードを挿入した構成を説明するための図である。 別途のプライベートストリームを用いてタイムコードを伝送した第1および第2信号を比較して同期化する方法を説明するための図である。 本発明の別の実施形態に係る受信装置の構成を示す図である。 ルックアップテーブルを用いた同期化方法を説明するための図である。 フレームインデックスが記録されたルックアップテーブルを用いた同期化方法を説明するための図である。 タイムコードを用いて同期化する受信装置の多様な構成例を示す図である。 タイムコードを用いて同期化する受信装置の多様な構成例を示す図である。 タイムコードを用いて同期化する受信装置の多様な構成例を示す図である。 タイムコードを含むビデオ基礎ストリーム(Elementary Stream:ES)の構成を示す図である。 タイムコードを含むオーディオ基礎ストリーム(Elementary Stream:ES)の構成を示す図である。 タイムコードを含むPMT(Program Map Table)の構成を示す図である。 本発明の一実施形態に係る送信装置の構成を示すブロック図である。 本発明の一実施形態に係る送信装置の構成を示すブロック図である。 プライベートストリームを用いてタイムコードを伝送する送信装置構成の一例を示すブロック図である。 複数の送信装置において同期化情報を共有する多様な方法を説明する図である。 複数の送信装置において同期化情報を共有する多様な方法を説明する図である。 UTCまたはフレームカウント値を用いて複数のデータを同期化させる方法を説明するための図である。 本発明の多様な実施形態に係るマルチメディアコンテンツの再生方法を説明するためのフローチャートである。 本発明の多様な実施形態に係るマルチメディアコンテンツの再生方法を説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態に係るマルチメディアコンテンツ再生システムの構成を示す図である。同図によると、マルチメディアコンテンツ再生システムは、複数の送信装置200−1、200−2と、受信装置100とを含む。
送信装置1、2(200−1、200−2)は、互いに異なる信号を異なる経路で伝送する。図1の場合を例えると、送信装置1(200−1)は、放送網を通じて第1信号を伝送し、送信装置2(200−2)は、ネットワーク10を通じて第2信号を伝送する。
第1信号および第2信号は、一つのマルチメディアコンテンツを構成する互いに異なるデータをそれぞれ含む。例えば、3Dコンテンツの場合には、左眼映像および右眼映像がそれぞれ第1信号および第2信号に含まれてよい。または、ビデオデータおよびオーディオデータに区分されたり、動画データおよび字幕データ、その他のデータ等に区分されてそれぞれ第1信号および第2信号に含まれてよい。
第1信号には、第1データとともに第1同期化情報が含まれ、第2信号には、第2データとともに第2同期化情報が含まれる。
第1および第2同期化情報としては、多様な情報が使用されてよい。具体的には、マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、第1データおよび第2データの間のタイムスタンプ差異値、フレームインデックス、タイムコード情報、UTC情報、フレームカウント情報のうち、少なくとも一つが同期化情報として使用されてよい。
MPEG規格によると、放送データを伝送する伝送ストリームには、PCR(Program Clock Reference)およびPTS(Presentation Time Stamp)等が含まれる。
PCRとは、MPEG規格による受信装置(セットトップボックスやテレビ等)で時刻基準を送信機側に合わせる参照時間情報を意味する。受信装置では、PCRに応じてSTC(System Time Clock)の値を合わせるようになる。PTSは、MPEG規格による放送システムで映像および音声の同期化のための再生時刻を報知するタイムスタンプを意味する。本明細書では、タイムスタンプと呼ぶ。
互いに異なる信号が異なる送信装置100−1、100−2から伝送される場合には、送信装置100−1、100−2の特性に応じてPCRが異なってよい。そのため、PCRに合わせたタイムスタンプに応じて再生するとしても、同期化が行われなくてよい。
本システムにおいて、受信装置200は同期化情報を用いてタイムスタンプを補正したり、同期化情報を直接比較して同期化を行う。
図2は、発明の一実施形態に係る受信装置の構成を示す図である。同図によると、受信装置100は、受信部110および信号処理部120を含む。
受信部110は、複数の互いに異なる信号を異なる経路を通じてそれぞれ受信する。3Dコンテンツの場合、左眼映像および第1同期化情報を含む第1信号と、右眼映像および第2同期化情報を含む第2信号をそれぞれ受信してよい。
第1信号および第2信号は、いずれもリアルタイム伝送ストリームであってよく、MP4ファイルのような保存ファイルフォーマットであってよい。
信号処理部120は、第1同期化情報および第2同期化情報を用いて、左眼映像および右眼映像を同期化させて再生する。図2では図示していないが、信号処理部120は、デマルチプレクサ、デコーダ、レンダリング部、ディスプレイ部等を含んでよい。
信号処理部120は、受信装置100の種類に応じて異なる方式で、3Dフレームを構成することができる。すなわち、偏光方式の場合には、信号処理部120は、同期化された左眼映像の一部および右眼映像の一部を交互に配列し、1つまたは2つのフレームで構成することができる。それにより、レンチキュラーレンズまたはパララックスバリアが付加されたディスプレイパネルを通じて当該フレームを出力することができる。
または、シャッタグラス方式の場合には、信号処理部120は同期化された左眼映像および右眼映像を交互に配置してディスプレイパネルを通じて順次にディスプレイすることができる。
一方、第1および第2同期化情報としては、実施形態に応じて多様な情報が用いられてよい。
具体的には、コンテンツスタート情報が同期化情報として使用される実施形態では、信号処理部120はコンテンツスタート情報を用いてマルチメディアコンテンツの開始時点を把握する。そして、第1データに含まれたフレームのタイムスタンプと第2データに含まれたフレームのタイムスタンプとを、開始時点とそれぞれ比較する。比較結果に応じて、各データのフレームインデックスを抽出することができ、抽出されたフレームインデックスを用いて同期化を行う。
すなわち、第1信号のL2フレームのタイムスタンプと第2信号のR2フレームのタイムスタンプとが互いに異なるとしても、第1信号および第2信号が構成するコンテンツの開始時点とL2フレームのタイムスタンプとの間の差異、開始時点とR2フレームのタイムスタンプとの間の差異が同様である場合、L2フレームとR2フレームとを同期化させてn+1フレームを生成する。
信号処理部120は、コンテンツスタート情報とタイムスタンプを比較し、フレームインデックスを検出することができる。仮に、第1信号でコンテンツスタート情報(PTSH_Start)が100であり、左眼映像L1フレームのタイムスタンプ(PTS)が100であれば、PTS−PTSH_Start=0となる。次の左眼映像であるL2フレームのタイムスタンプ(PTS)が115であれば、PTS−PTSH_Start=15となる。この場合、信号処理部120は、タイムスタンプインターバルを15にしておき、L1フレームをn番目フレーム、L2フレームをn+1フレームにマッチングする。一方、第2信号でコンテンツスタート情報が300であり、R1フレームのタイムスタンプが300、R2フレームのタイムスタンプが330であるとしたら、信号処理部120は、タイムスタンプインターバルを30にしておき、R1フレームをn番目フレーム、R2フレームをn+1フレームにマッチングする。
信号処理部120は、マッチングする両フレームのタイムスタンプが同様になるように、右眼映像フレームのタイムスタンプまたは左眼映像フレームのタイムスタンプを補正する。
右眼映像フレームは、左眼映像フレームの次のフレームにマッチングする。信号処理部120は、右眼映像フレームのタイムスタンプを左眼映像フレームの次のフレームのタイムスタンプと同様になるように補正し、同期化させる。
別の実施形態では、両データ間のタイムスタンプ差異値が同期化情報として使用されてよい。すなわち、第1同期化情報および第2同期化情報は、それぞれ左眼映像のタイムスタンプおよび右眼映像のタイムスタンプの間の差異値を含んでよい。この場合、信号処理部120は、その差異値を反映して、左眼映像のタイムスタンプおよび右眼映像のタイムスタンプのうち、少なくとも一方を補正して同期化させる。
コンテンツスタート情報、タイムスタンプ差異値情報等は、EIT(Event Information Table)、PMT、プライベートストリーム、伝送ストリームヘッダ等に記録されてよい。
または、保存ファイあるフォーマットであるMP4ファイルに伝送される場合には、保存ファイルの特性上、コンテンツのスタート地点から記録されているため、別途のコンテンツスタート情報を提供する必要がない。ただ、コンテンツスタート情報、タイムスタンプ差異値情報に基づいて抽出したリアルタイム伝送ストリームのフレームインデックスと同期化を行うために、保存ファイルもフレームインデックス値を抽出できるようにしなければならない。MP4ファイルの場合、stts、cttsボックスを通じて、タイムスタンプに該当する再生タイミング関連の情報が提供される。それを通じて、MP4ファイルのスタート地点までの再生順を求めることができる。再生順は、フレームインデックスと一致するために、それを用いてリアルタイム伝送ストリームのフレームインデックスと同期化を行うことができる。
別の実施形態においては、フレームインデックス情報が同期化情報として使用されてよい。フレームインデックス情報は、各フレームごとに付与される識別情報を意味する。フレームインデックス情報は、リアルタイム伝送ストリームのEIT(Event Information Table)、PMT、プライベートストリーム、伝送ストリームヘッダ等に記録されてよい。信号処理部120は、同じフレームインデックスを有するフレームのタイムスタンプが同様になるように補正を行うことができる。
図3は、プログラムマップテーブル(Program Map Table:PMT)を含む第1信号および第2信号の構成を示す。同図によると、PMTは、第1信号、第2信号内で周期的に含まれて伝送される。上述のコンテンツスタート情報、タイムスタンプ差異値、フレームインデックス等のような多様な同期化情報は、このようなPMT内に含まれて伝送されてよい。
図4は、PMTの構造を示す図である。同図によると、各種同期化情報は、PMT内のリザーブ領域(Reserved area)や新規descriptor、既存descriptorの拡張領域等を用いて伝送されてよい。
図5は、伝送ストリームのアダプテーションフィールドを用いて各種同期化情報を伝送する方式を説明するための図である。同図においては、アダプテーションフィールド内にrandom_access_indicator、transport_private_data_flag、private_data_byte等が設けられる。random_access_indicatorは、1ビットで実現され、1にセッティングされる場合、シーケンスヘッダの開始を意味する。すなわち、伝送ストリームの任意接近時点を示す。transport_private_data_flagも、1ビットで実現され、1にセッティングされる場合、プライベートデータが1バイト以上存在することを意味する。private_data_byteは、4ないし5バイトで実現され、この部分にコンテンツスタート情報、タイムスタンプ差異値、フレームインデックス等のような同期化情報が含まれてよい。
図6は、PESヘッダを用いた同期化情報伝達方法を示す。PESパケットヘッダは、フレーム単位で提供されるため、PES_private_data部分に各種同期化情報を記録して伝送することができる。同図によると、PES_private_data_flagを1にセッティングし、PES_private_data部分に同期化情報を記録することができる。
図7は、イベント情報テーブル(Event Information Table)を用いてコンテンツスタート情報やタイムスタンプ差異値、フレームインデックス等のような同期化情報を伝達する方法を示す。このような情報は、EITのreserved領域や、新規または既存のdescriptor拡張領域に記録されて伝送されてよい。
図8は、プライベートストリームを用いた同期化情報方式を示す。図8に示すように、コンテンツスタート情報、タイムスタンプ情報、フレームインデックス情報等の同期化情報が記録されたプライベートストリーム、すなわち、データビットストリームを基礎ストリーム(Program Elementary Stream:PES)と別途に含めて伝送することができる。この場合、PESヘッダのストリームIDは、予め定義されたOxBD、OxBF以外に予約されている値の使用も可能である。その他に、タイムコードや、UTCや、フレームカウント情報等もプライベートストリームを用いて伝送されてよい。それについては、後述する。
図9は、同期化情報のうち、フレームインデックスを含む伝送ストリーム構成の一例を示す。MPEG規格によると、伝送ストリームは、ビデオ、オーディオ、その他のデータを伝送する。各プログラムの情報は、プログラムマップテーブル(Program Map Table:PMT)に記録される。
同図においては、フレームインデックスがPMTに挿入された構造を示すが、別の実施形態では、ビデオストリームヘッダ、オーディオストリームヘッダ、TSヘッダ等に挿入されてよい。
同図によると、各PMTには、その次のフレームのフレームインデックスが記録される。各フレームの間に2つ以上のPMTが提供される場合には、Hybridstream_Info_Descriptor()の値は、同じフレームインデックスを示すように定義する。送信装置のマルチプレクサでIフレーム単位でDescriptor()を挿入できたら、データの重複を防止することもできる。
受信装置100では、各PMTを参考にしてフレームのインデックスを検出した後、それを用いて第1信号および第2信号の各フレームを同期化させることができる。
一方、データがリアルタイム伝送ストリームではない、非リアルタイムストリーム形態で伝送される場合には、フレームインデックスは、図9と異なる方式で提供されてよい。
図10は、MP4ファイルに記録されて伝送される実施形態を示した。同図によると、フレームインデックス等の同期化情報は、MP4ファイルディレクトリ内で、stts、stsc等のボックスに記録されてよい。または、ISO media base file format(14496−12)で追加ボックス(box)を定義したり、予め定義されたボックス内のフィールドを拡張してタイムコードを提供することもできる。一例として、ランダムアクセスを提供する“stss(sync sample table)”ボックスを拡張してタイムコードを提供することもできる。
図9および図10では、フレームインデックスが挿入された場合について説明したが、その他の同期化情報も、図9および図10に示す方式で伝送されることができる。
なお、図1では、第1信号および第2信号として説明してきたが、第1信号はメインストリーム、第2信号はハイブリッドストリームと呼んでよい。図9および図10は、ハイブリッドストリームの構造を例示しているが、メインストリームも同じ構造のストリームで構成されてよい。この場合、図9のdescriptor名称は変更されてよいことは自明である。
図11は、フレームインデックスが別途のプライベートストリームを通じて伝送される場合を示す図である。同図に示すように、第1信号でビデオまたはオーディオのようなマルチメディアストリームと別途にプライベートストリームが提供されてよく、当該プライベートストリームを通じて第2信号と同期化されるフレームインデックス値を提供することができる。この場合、第2信号も、図11のような構造のリアルタイム伝送ストリームなら、当該伝送ストリームのプライベートストリームからフレームインデックスを検出して、同期化させることができる。
一方、第2信号が、図10に示す構造を有する保存ファイルフォーマットなら、その保存ファイルのstblボックス等からフレームインデックスを確認し、第1信号のフレームインデックスと比較することができる。
一方、別の実施形態では、タイムコード、UTC(Coordinated Universal Time)情報、フレームカウント情報等も同期化情報として使用されてよい。
図12は、タイムコードを同期化情報として用いてフレームを同期化させる実施形態について説明する。タイムコードは、タイムコード生成機によって作られる一連のパルス信号として、容易な編集管理のために開発された信号規格である。コンテンツ制作および編集時には、左眼映像及び右眼映像の同期化された管理のために、同じタイムコードを使用する。よって、タイムコードは、ストリーム生成または送出時点に関係なく、同じペア(pair)を保持することができる。
具体的には、SMPTE(Society of Motion Picture and Television Engineers)タイムコードが使用されてよい。すなわち、SMPTE 12Mでは、“時:分:秒:フレーム”の形式でタイムコードを表現する。SMPTEタイムコードは、記録方式によってLTC(Longitude Time Code)またはVITC(Vertical Interval Time Code)に区分されてよい。LTCは、テープの進行方向に沿って記録される。LTCの場合、視覚情報(25bits)、ユーザ情報(32bits)、同期情報(16bits)、保存領域(4bits)、フレームモード表示(2bits)を含めて総80bitsのデータで構成されてよい。VITCは、ビデオ信号の垂直帰線期間内の2つの水平ラインに記録される。
SMPTE RP−188では、LTCまたはVITCタイプのタイムコードがancillary dataに伝送できるインターフェース規格を定義している。タイムコードおよびタイムコードに関連する付加情報を新規定義し、このようなインターフェース規格によって伝送してよい。
タイムコードに関連する付加情報としては、左眼映像および右眼映像のタイムコードが一致しない場合に、提供される他映像に対するタイムコード、現在映像が立体映像か否かを報知するための2D/3D切り替え情報、立体映像の開始点情報等があってよい。このような付加情報は、ユーザ情報町域または保存領域(或いは、未割り当て領域)を通じて提供することができる。なお、タイムコードを含まないメディアの場合には、ネットワークプロトコールでタイムコードスペースを拡張定義して使用することができる。例えば、RTP header extensionを通じてタイムコードを提供することもできる。
送信装置200−1、200−2では、左眼映像のタイムコード、右眼映像のタイムコード情報をそれぞれ第1同期化情報および第2同期化情報として用いて、左眼映像および右眼映像とともに伝送する。
受信装置100は、受信されたタイムコードを用いて左眼映像および右眼映像のタイムスタンプを補正したり、タイムコードを直接比較して同じタイムコードを有する左眼映像および右眼映像を直ちに検出する方式で同期化させることができる。
タイムコードは、ビデオ基礎ストリーム(MPEG GoP等)、オーディオ基礎ストリーム、伝送ストリームヘッダ、プライベートストリーム、PMT等に記録されてよい。伝送ストリームヘッダに記録される場合、Random access Indicator、Transport_private_data_flag領域、Private_data_byte領域等が使用されてよい。
図13は、GoPヘッダ内にタイムコードが記録されたMPEGストリームの構成を示す。図14は、図13のGoPヘッダのシンタックス構造の一例を示す。
図14によると、タイムコード(time code)は、25bitsのデータで記録されてよい。図13および図14に示すように、タイムコードはGoP単位で受信装置100に伝送されてよい。
図15は、タイムコードが別途のプライベートストリームを通じて提供される場合を示す。第1信号でビデオまたはオーディオストリームと別途にプライベートストリームが提供される。プライベートストリームには、第2信号と同期化するためのタイムコードが含まれる。第2信号でも、ビデオまたはオーディオストリームと別途にプライベートストリームが提供される。受信装置100は、第1信号および第2信号のプライベートストリーム内に記録されたタイムコードを比較する。それにより、同じタイムコードを有するPTS1、DTS1の第1信号データと、PTS1’、DTS1’の第2信号データを同期化させて生成する。残りの信号データに対しても、タイムコードを比較して同期化させる。
プライベートストリームを含む伝送ストリームの構成は、上述の図8のように実現されてよい。同図に示すように、タイムコードが記録されたプライベートストリーム、すなわち、データビットストリームを基礎ストリーム(Program Elementary Stream:PES)と別途に含めて伝送することができる。この場合、PESヘッダのストリームIDは、予め定義されたOxBD、OxBF以外に予約されている値の使用も可能である。その他に、UTCや、フレームカウント情報等もタイムコートと同様に伝送されてよいため、それについては図示および説明を省略する。
図16は、本発明の別の実施形態に係る受信装置の構成を示すブロック図である。同図によると、受信装置は、受信部110と、信号処理部120の他に、信号分析部130と、保存部140および制御部150を含む。
受信部110は、第1受信部111と、第2受信部112とを含む。各受信部111、112は、互いに異なる経路を通じて伝送される第1信号および第2信号をそれぞれ受信する。第1および第2受信部111、112の構成は、その通信経路を応じて多様な実現されてよい。例えば、放送網を通じて伝送される信号を受信するためのモジュールである場合には、アンテナや、チューナや、復調部、等化部等のような構成要素を含んでよい。ネットワークを通じて信号を受信する場合には、ネットワーク通信モジュールを含んでよい。
信号分析部130は、第1信号および第2信号のうち、少なくとも一方を分析してルックアップテーブルを生成する。互いに異なる信号が異なる経路を通じて受信されるため、第1信号および第2信号のいずれか一方は、他方の信号より遅く受信されてよい。例えば、放送中にチャネルを変更し、3Dコンテンツの開始時点よりチャネル変更時点が遅い場合が生じ得る。このとき、第1信号および第2信号が全てリアルタイム伝送ストリームの場合にも、第1信号および第2信号が早く同期化されなければならない。このような点を考慮し、同期化情報を用いて互いにマッチングするフレームに対する情報をルックアップテーブルに記録しておくことができる。ルックアップテーブルは、上述の多様な同期化情報に基づいて互いにマッチングすると判断されたフレームのインデックス情報を含んでよい。
信号分析部130から生成されたルックアップテーブルは、保存部140に保存される。
制御部150は、ルックアップテーブルを参考にし、互いにマッチングする左眼映像および右眼映像を同期化させて再生するように、信号処理部120を制御することができる。
図17は、ルックアップテーブル生成および保存過程を説明するための図である。同図によると、MPEG規格に係る第2信号、すなわち、ハイブリッドストリームが受信されると、信号分析部130は、同期化情報を参考にIフレームのインデックスを検出する。そして、当該フレームのタイムスタンプ、メモリアドレス等を含むルックアップテーブル20を生成した後、保存部140に保存する。
フレームインデックス検出は、上述のように、コンテンツスタート情報と当該フレームのタイムスタンプとを比較したり、タイムスタンプ差異値等を用いて行うことができる。それについては、上述しているため、繰り返し説明は省略する。
図18は、フレームインデックス情報そのものが同期化情報で提供される場合のルックアップテーブル生成および保存過程を示す。同図によると、第1信号の各フレームに対するフレームインデックス情報が第1信号、すなわち、メインストリームに併せて伝送される。
それにより、第2信号、すなわち、ハイブリッドストリームの各フレームに対するフレームインデックス情報とともにルックアップテーブル20に記録される。第1信号および第2信号のフレームのマッチング関係がルックアップテーブル20に記録されると、制御部150はそれを参考に同期化再生を行うように、信号処理部120を制御することができる。
フレームインデックス情報が直接提供される場合、図16の信号分析部130は省略されてよい。
図19は、タイムコードを同期化情報として使用する実施形態に係る受信装置構成を示す図である。同図によると、受信装置300は、第1デマルチプレクサ310と、第1デパケット化部320と、第1デコーダ330と、レンダリング部340と、第2デマルチプレクサ350と、第2デパケット化部360と、第2デコーダ370および制御部380を含む。
第1デマルチプレクサ310と、第1デパケット化部320と、第1デコーダ330と、レンダリング部340と、第2デマルチプレクサ350および第2デパケット化部360は、図2および図16の信号処理部120に含まれる構造であってよい。
第1デマルチプレクサ310および第2デマルチプレクサ350は、それぞれ第1信号および第2信号からタイムコードを分離して制御部380に提供する。第1デマルチプレクサ310および第2デマルチプレクサ350は、タイムコードが分離されたビデオPESパケットを第1デパケット化部320および第2デパケット化部360にそれぞれ提供する。
第1デパケット化部320および第2デパケット化部360は、タイムコードが分離されたパケットをパーシング(Parsing)してビデオデータを第1デコーダ330および第2デコーダ370に提供する。
第1および第2デコーダ330、370は、各ビデオデータをデコードしてレンダリング部340に提供する。レンダリング部340は、制御部380の制御により、第1信号のビデオデータと第2信号のビデオデータとを同期化させて3D映像30を再生する。
もし、第2信号が非リアルタイムストリームであり、第1信号がリアルタイムストリークである場合、制御部380は、第2信号のタイムコードを予め獲得して待機することができる。その後、第1信号のタイムコードが獲得されると、制御部330は、二つのタイムコードを比較して、互いにマッチングするフレームを探索する。そして、探索されたフレームを同期化させて再生するように、レンダリング部340を制御する。
図20は、タイムコードを同期化情報として使用する別の実施形態に係る受信装置の構成を示すブロック図である。同図の受信装置も、第1デマルチプレクサ310と、第1デパケット化部320と、第1デコーダ330と、レンダリング部340と、第2デマルチプレクサ350と、第2デパケット化部360と、第2デコーダ370および制御部380を含んでよい。
第1デマルチプレクサ310は、受信された第1信号からビデオパケットを分離して第1デパケット化部320に提供する。第1デパケット化部320は、ビデオパケットをデパケット化してDTS、PTSを検出し、タイムコード情報を制御部380に提供する。
第2デマルチプレクサ350は、受信された第2信号からビデオパケットを分離して第2デパケット化部360に提供する。第2デパケット化部360は、ビデオパケットをデパケット化してDTS、PTSを検出し、タイムコード情報を制御部380に提供する。
第1デコーダ330および第2デコーダ370は、それぞれビデオデータをデコードする。
制御部380は、各信号のタイムコードを参考にして、同じタイムコードを有するフレーム間のタイムスタンプ差異を計算する。そして、計算された差異を反映して第1信号および第2信号のうち、少なくとも一方のタイムスタンプを補正し、補正されたタイムスタンプ情報を各信号のフレームに付与して、レンダリング部340に提供する。例えば、左眼映像のタイムスタンプが右眼映像のタイムスタンプより遅い場合、左眼映像のタイムスタンプを調整したり、右眼映像のタイムスタンプを調整し、同じ値に合わせることができる。レンダリング部340は、調整されたタイムスタンプに応じて左眼映像および右眼映像を組み合わせて3D映像を再生する。
図21は、タイムコードを同期化情報として使用する別の実施形態に係る受信装置の構成を示すブロック図である。同図も、図19および20と同様に、第1デマルチプレクサ310と、第1デパケット化部320と、第1デコーダ330と、レンダリング部340と、第2デマルチプレクサ350と、第2デパケット化部360と、第2デコーダ370および制御部380を含んでよい。
制御部380は、タイムコードとマッチングするインデックスナンバーまたはタイムスタンプ等が記録されたルックアップテーブルを別途のソースまたは経路を通じて提供され、保存することができる。制御部380は、ルックアップテーブルを参考に、同じ時点で再生されなければならない左眼映像および右眼映像を探索した後、探索結果をレンダリング部340に提供する。それにより、同期化再生が行われてよい。このようなルックアップテーブルは、第1信号および第2信号のうち、いずれか一方とともに受信されてよく、それと異なる経路を通じて提供されてよい。
すなわち、左眼映像および右眼映像を製作したコンテンツ製作者がルックアップテーブルを予め生成して受信装置側に配布することができる。
場合によっては、一つのプログラム内でタイムコードが不連続的に生成されてよい。この場合、プログラム中にチャネルを変更すると、ランダムアクセス時間遅延により、リアルタイムで入力される左眼映像または右眼映像と同期化する他映像を探し出すことが困難になる可能性がある。よって、ランダムアクセスに関連するルックアップテーブルを予め生成しておくと、ランダムアクセス時間遅延を最小限化することができる。
以上のように、受信装置は多様な形態で実現されてよい。
一方、上述のように、タイムコードは、多様な方式で受信装置側に提供されてよい。
図22は、ビデオストリームを用いてタイムコードを提供する場合のストリーム構造を示す。同図によると、タイムコードは、AVC(Advanced Video Coding:ISO/IEC 14496−10)で定義するSEI(Supplemental Enhancement Information)を用いて伝送することができる。すなわち、同図に示すように、Picture timing SEIで定義するseconds_value、minutes_value、hours_value、n_framesを用いてタイムコードを伝達することができる。
図23は、オーディオストリームを用いてタイムコードを提供する場合のストリーム構造を示す。同図に示すように、AC−3(ATSC A/52: 2010)によると、オーディオストリームはシンクフレーム(Sync Frame)が連続的に並ぶ構造を有する。
シンクフレームの構成中で、シンクフレークの情報を提供するBSI(Bit Stream Information)領域でタイムコードに対する情報を提供することができる。
図24は、タイムコードがPMTを通じて提供される場合のPMTシンタックス(syntax)を示す。同図によると、タイムコードは周期的に伝送されるPMTのリザーブまたはdescriptorを通じて提供されてよい。PMT提供間隔は、同期化されたタイムコードを付与するためのGoP単位またはフレーム単位で構成されてよい。図9においては、2つのフレームごとにPMTが伝送されるものとして示しているが、毎フレーム単位でタイムコードを含むPMTが提供されてよい。
上述のように、多様な情報が同期化情報として使用されてよく、その位置も多様に設定されてよい。
図25は、このような同期化情報が含まれた情報を送信する送信装置の構成の一例を示すブロック図である。同図によると、送信装置200は、データ生成部410および伝送部420を含む。同図の送信装置200は、図1のシステムで複数の送信装置200−1、200−2のいずれか一方であってよい。なお、図25の送信装置200から提供するデータは、マルチメディアコンテンツを構成する複数のデータの一つであってよい。それにより、他装置装置が伝送する別のデータとともに受信装置に提供されると、受信装置はそれを用いてマルチメディアコンテンツを再生することができる。説明の便宜上、以下では、図25の送信装置が提供するデータを、第1データ、他送信装置が提供するデータを第2データという。
一実施形態によると、第1データは左眼映像および右眼映像のうちの一方であり、第2データは左眼映像および右眼映像のうちの他方であってよい。それにより、受信装置は、第1データおよび第2データを組み合わせて一つの3Dコンテンツを構成できるようになる。この場合、オーディオデータや字幕データ等のその他のデータは、第1データおよび第2データのうちの一方とともに提供されたり、別途の経路を通じて受信装置に提供されてよい。
別の実施形態によると、第1データはマルチメディアコンテンツを構成するビデオデータ、オーディオデータ、字幕データおよび付加データのうち、少なくとも一つのデータを含み、第2データはビデオデータ、オーディオデータ、字幕データおよび付加データのうち、残りのデータを含んでよい。それにより、受信装置で3Dコンテンツを再生する場合の他に、2Dコンテンツを再生する場合にも、上述の様々な実施形態がそのまま適用されてよい。
データ生成部410は、第1データと同期化情報を含む伝送データを生成する。同期化情報とは、第1データおよび第2データの間の同期化のための情報を意味する。
上述のように、同期化情報は、マルチメディアコンテンツの開始時点を報知するコンテンツスタート情報、第1データおよび前記第2データの間のタイムスタンプ差異値、フレームインデックス、タイムコード情報、UTC情報、フレームカウント情報のうち、少なくとも一つを含んでよい。これら同期化情報の挿入方法は、詳細に上述しているため、繰り返し説明は省略する。
伝送部420は、データ生成部410で生成したストリームを受信装置100側に伝送する。伝送部420の細部構成は、ストリームの種類に応じて異なるように実現されてよい。
仮に、図25の装置装置が放送送信装置である場合、伝送部420は、RSエンコーダ、インターリーバ、トレリスエンコーダ、変調器等を含む形態で実現されてよい。
または、図25の送信装置がインターネットのようなネットワークを通じてストリームを伝送するウェブサーバである場合には、伝送部420は、HTTPプロトコルによって受信装置、すなわち、ウェブクライアントと通信するネットワークインターフェースモジュールで実現されてよい。
データ生成部410の細部構成は、実施形態に応じて異なるように実現されてよい。
図26は、送信装置の細部構成の一例を示すブロック図である。
同図によると、データ生成部410と、入力部411と、符号化処理部412および多重化部413を含む。
入力部411は、コンテンツ製作者から第1データおよびシグナリング情報を提供される。シグナリング情報とは、同期化情報生成に用いられる情報である。
符号化処理部412は、第1データをエンコードし、シグナリング情報を用いて同期化情報を生成した後、エンコードされた第1データに付加する。
同期化情報がコンテンツスタート情報である場合、符号化処理部412は、PCRに基づいて最初のフレームのタイムスタンプを生成し、そのタイムスタンプを同期化情報に付加する。
または、タイムスタンプ差異値が同期化情報として使用される場合、シグナリング情報は、第2データを生成および送信する別の送信装置のPCRに対する情報で実現されてよい。符号化処理部412は、シグナリング情報に基づいて、第1および第2データ間のタイムスタンプ差異値を同期化情報で生成した後、エンコードされた第1データに付加することができる。
一方、タイムコードが同期化情報として使用される場合、別途のシグナリング情報なしに、第1データおよび同期化情報が入力部411に入力されてよい。符号化処理部412は、第1データおよび同期化情報をそのままエンコードして多重化部413に提供する。
その他に、MPEG規格によるビデオデータ圧縮等を行う構成が更に追加されてよいが、このような構成は図示および説明を省略する。
多重化部413は、符号化処理部412から生成されたデータに付加データをマキシングして伝送データを生成する。付加データとは、PSIP、EPG情報等であってよい。
伝送部420は、多重化部413から提供される伝送ストリームに対してチャネル符号化、変調等の処理を行って伝送信号に変換した後、チャネルを通じて伝送する。変調には、地上放送方式で使用される8 VSB方式、ケーブルテレビのための高速データ率方式である16 VSB方式等が使用されてよい。
一方、上述のように、受信装置で互いに異なるデータが異なる経路を通じて受信されるためには、複数の送信装置でそれぞれデータを伝送したり、一つの送信装置が互いに異なる電素うユニットを用いてデータを伝送しなければならない。複数の送信装置でそれぞれのデータを伝送する場合には、各送信装置が同期化情報を生成して付加するためには、プログラムの時間計画を共有すべきである。
図27は、本発明の別の実施形態に係る送信装置の構成を示す。同図の送信装置は、タイムコードを別途のプライベートストリームで処理して伝送する。同図によると、送信装置は、A/Vエンコーダ部510と、タイムコード検出部520と、タイムコードエンコーダ部530およびマルチプレクサ540を含む。
A/Vエンコーダ部510は、入力されるマルチメディアデータに含まれたA/Vデータをエンコードする。エンコード方式は、送信装置に適用された規格に応じて異なってよい。
タイムコード検出部520は、入力されるマルチメディアデータから映像のタイムコードを検出してタイムコードエンコーダ部530に提供する。検出されるタイムコードは、タイムラインデータファイルに保存されてよい。タイムコードエンコーダ部530は、検出されたタイムコードを適切な伝送フォーマットにカプセル化(encapsulate)し、A/Vエンコーダ部510と同様のプログラムシステムクロックを使用して算出されるプレゼンテーションタイムスタンプを組み合わせて、A/Vエンコーダ部510で処理するA/V(Audio/Video)データと同期化させる。
タイムコードエンコーダ部530で処理されたタイムコード情報は、A/Vエンコーダ部510で処理されたA/Vデータとともにマルチプレクサ540に提供される。マルチプレクサ540は、このようなデータをマルチプレキシングしてMPEG2−TSを出力する。
図27では図示していないが、送信装置にはパイロット挿入部と、変調部と、インターリーバ、ランダム化部、RFアップコンバータ等のような多様な構成が追加されてよい。これらの構成は、送信装置の一般的な構成に該当するため、具体的な図示および説明は省略する。
図28は、プログラムの時間計画を共有する複数のストリーム生成主体について図示している。
ストリーム生成主体を例えると、ビデオおよびオーディオを伝送する放送局、字幕のような付加データを伝送する第三者、関連するゲームを提供する第三者等があってよい。図20によると、一つのプログラムを構成する伝送ストリームを製作するために、ストリーム生成主体1、2、3のうち、一つは別のストリーム生成主体に、タイムコードに基づいて時間計画を伝送する。各ストリーム生成主体は、時間計画を用いて同期化情報を生成し、それぞれ伝送ストリームを生成して伝送することができる。このような時間計画または同期化情報は、既存のEPGから提供する時間スケジュールと違ってストリーム生成端同期化のために、正確度を有するフレーム単位情報である。
図29は、同期化情報を生成するための情報共有の別の方法を説明する図である。同図によると、基準時間サーバ600は、各ストリーム生成主体1、2、3で基準時間を提供する。同じ基準時間サーバ600を通じて基準時間、すなわち、PCRを提供されて共有するようになると、同じコンテンツのフレームに対して同じDTS、PTSを生成して付加することができるようになる。
図30は、UTCまたはフレームカウント値等を同期化情報として使用する送信装置の構成の例を示す図である。
同図によると、互いに異なるメディア#1、#2、#3は、それぞれ異なるストリーム生成部710、720、730に提供される。この場合、各メディア#1、#2、#3とともに、UTCまたはフレームカウント値も提供されてよい。各ストリーム生成部710、720、730は、これらの情報を同期化情報に付加して伝送ストリーム#1、#2、#3をそれぞれ生成した後、伝送する。
以上のように、多様な種類の同期化情報が各データとともに受信装置に提供され、受信装置は、それに基づいてデータを正確に同期化させてコンテンツを再生することができるようになる。
図31は、本発明の一実施形態に係るコンテンツ再生方法を説明するためのフローチャートである。
同図によると、受信装置は、第1信号および第2信号を異なる経路を通じてそれぞれ受信する(S2310)。第1信号には、第1データとともに第1同期化情報が含まれ、第2信号には、第2データとともに第2同期化情報が含まれる。
受信装置は、第1および第2同期化情報をそれぞれ検出した後(S2320)、それに基づいてマッチングするフレームを確認して同期化させて再生する(S2330)。具体的には、互いにマッチングするフレームのタイムスタンプを直接補正したり、同期化情報を直接比較してマッチングするフレームを直ちに同期化させて再生することができる。
図32は、本発明の別の実施形態に係る受信装置の再生方法を説明するためのフローチャートである。同図によると、2つの信号のうち、第2信号を受信して保存する(S2410)。そして、第2信号を分析し(S2420)、第2信号に含まれたデータのフレームインデックスを検出した後、インデックステーブルを保存する(S2430)。
第2信号受信と別に、第1信号が受信されると(S2440)、第1信号のフレームのタイムスタンプを抽出する(S2450)。そして、当該フレームのフレームインデックスを抽出した後(S2460)、インデックステーブルと比較してマッチングするフレームを検索する(S2470)。
それから、検索されたフレームを同期化させて再生する(S2480)。
同期化情報の例およびそれを用いた同期化方法については、上述の様々な実施形態について説明しているため、繰り返し説明は省略する。
上述のように、本明細書における左眼映像および右眼映像の同期化以外に、映像とテキスト、映像とオーディオ等のような多様な異種のデータ間の同期化を行うこともできる。一例として、UHD(Ultra High Definition)伝送においても、既存のHDチャネルを用いる装置との互換性を保障するために、非リアルタイムでUHD付加映像を伝送することができる。この場合、一つの原本映像に復元するためには、映像間の同期化が必須である。よって、上述の多様な実施形態の同期化技術がUHD伝送にも使用されてよい。
上述の本発明の多様な実施形態に係る方法を実行するためのプログラムは、多様な記録媒体に保存して使用されてよい。
具体的には、上述の方法を実行するためのコードは、RAM(Random Access Memory)、フラッシュメモリ、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electronically Erasable and Programmable ROM)、レジスタ、ハードディスク、リムーバブルディスク、メモリカード、USBメモリ、CD−ROM等のように、端末機で読取可能な多様な記録媒体に保存されていてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。

Claims (15)

  1. 左眼映像および第1同期化情報を含む第1信号と、右眼映像および第2同期化情報を含む第2信号とを互いに異なる経路を通じて受信する受信部と、
    前記第1同期化情報および前記第2同期化情報を用いて、前記左眼映像および前記右眼映像を同期化させて再生する信号処理部と
    を含む受信装置。
  2. 前記第1同期化情報および前記第2同期化情報は、
    前記左眼映像および前記右眼映像で構成されるコンテンツの開始時点を報知するコンテンツスタート情報を含むことを特徴とする請求項1に記載の受信装置。
  3. 前記信号処理部は、
    前記コンテンツの開始時点と、前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプをそれぞれ比較し、比較結果に応じて、前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプのうち、少なくとも一方を補正して同期化させることを特徴とする請求項2に記載の受信装置。
  4. 前記第1同期化情報および前記第2同期化情報は、それぞれ前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプの間の差異値を含み、
    前記信号処理部は、
    前記差異値を用いて、前記左眼映像のタイムスタンプおよび前記右眼映像のタイムスタンプのうち、少なくとも一方を補正して同期化させることを特徴とする請求項1に記載の受信装置。
  5. 前記第1同期化情報は、前記左眼映像のフレームインデックスを含み、
    前記第2同期化情報は、前記右眼映像のフレームインデックスを含み、
    前記信号処理部は、
    前記左眼映像のフレームインデックスおよび前記右眼映像のフレームインデックスを比較し、同じフレームインデックスを有する左眼映像および右眼映像が同期化するように処理することを特徴とする請求項1に記載の受信装置。
  6. 前記第1同期化情報は、前記左眼映像のタイムコードを含み、
    前記第2同期化情報は、前記右眼映像のタイムコードを含み、
    前記信号処理部は、
    前記左眼映像のタイムコードおよび前記右眼映像のタイムコードを比較し、同じタイムコードを有する左眼映像および右眼映像が同期化するように処理することを特徴とする請求項1に記載の受信装置。
  7. 前記第1同期化情報および前記第2同期化情報は、UTC(Coordinated Universal Time)情報を含み、
    前記信号処理部は、前記UTC情報を比較して同じUTCを有する左眼映像および右眼映像が同期化するように処理することを特徴とする請求項1に記載の受信装置。
  8. 前記第1信号および前記第2信号のうち、少なくとも一方を分析してルックアップテーブルを生成する信号分析部と、
    前記ルックアップテーブルを保存する保存部と、
    前記ルックアップテーブルに応じて、互いにマッチングする左眼映像および右眼映像を同期化させて再生するように前記信号処理部を制御する制御部と
    を含み、
    前記第1信号および前記第2信号のうち、少なくとも一方はリアルタイム伝送ストリームであることを特徴とする請求項1ないし7のいずれか一項に記載の受信装置。
  9. マルチメディアコンテンツを構成する第1データおよび、前記マルチメディアコンテンツを構成する第2データとの同期化のための同期化情報を含む伝送データを生成するデータ生成部と、
    前記データ生成部から提供される伝送データを伝送信号に変換して受信装置に伝送する伝送部と
    を含む送信装置。
  10. 前記同期化情報は、
    前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差異値、フレームインデックスのうち、少なくとも一つを含むことを特徴とする請求項9に記載の送信装置。
  11. 前記データ生成部は、
    前記第1データおよびシグナリング情報を入力される入力部と、
    前記第1データをエンコードし、前記シグナリング情報を用いて前記同期化情報を生成して、前記エンコードされた第1データに付加する符号化処理部と、
    前記符号化処理部から生成されたデータに付加データをマルチプレキシングして前記伝送データを生成する多重化部と
    を含むことを特徴とする請求項10に記載の送信装置。
  12. 前記第1データは、少なくとも一つの映像フレームに対するデータを含み、
    前記同期化情報は、
    前記映像フレームのタイムコード情報であることを特徴とする請求項9に記載の送信装置。
  13. 前記第1データは、3Dフレームを構成するための左眼映像および右眼映像のうち、いずれか一方を含み、前記第2データは、前記左眼映像および前記右眼映像のうち、いずれか他方を含むことを特徴とする請求項9ないし12のいずれか一項に記載の送信装置。
  14. 前記第1データは、前記マルチメディアコンテンツを構成するビデオデータ、オーディオデータ、字幕データおよび付加データのうち、少なくとも一つのデータを含み、
    前記第2データは、前記ビデオデータ、オーディオデータ、字幕データおよび付加データのうち、残りのデータを含むことを特徴とする請求項9ないし12のいずれか一項に記載の送信装置。
  15. マルチメディアコンテンツを再生する再生方法において、
    マルチメディアコンテンツを構成する第1データおよび第1同期化情報を含む第1信号と、前記マルチメディアコンテンツを構成する第2データおよび第2同期化情報を含む第2信号とを互いに異なる経路を通じて受信するステップと、
    前記第1同期化情報および前記第2同期化情報を用いて、前記第1データおよび前記第2データを同期化させ、前記マルチメディアコンテンツを再生するステップと
    を含み、
    前記第1同期化情報および前記第2同期化情報は、
    前記マルチメディアコンテンツの開始地点を報知するコンテンツスタート情報、前記第1データおよび前記第2データの間のタイムスタンプ差異値、フレームインデックス、タイムコード情報、UTC情報、フレームカウント情報のうち、少なくとも一つをそれぞれ含むことを特徴とする再生方法。
JP2013543098A 2010-12-07 2011-12-07 マルチメディアコンテンツを送受信する送信装置および受信装置、その再生方法 Pending JP2014504083A (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US42043510P 2010-12-07 2010-12-07
US61/420,435 2010-12-07
US201161450779P 2011-03-09 2011-03-09
US61/450,779 2011-03-09
US201161478161P 2011-04-22 2011-04-22
US61/478,161 2011-04-22
KR10-2011-0128643 2011-12-02
KR1020110128643A KR101831775B1 (ko) 2010-12-07 2011-12-02 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
PCT/KR2011/009442 WO2012077982A2 (ko) 2010-12-07 2011-12-07 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법

Publications (1)

Publication Number Publication Date
JP2014504083A true JP2014504083A (ja) 2014-02-13

Family

ID=46683930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013543098A Pending JP2014504083A (ja) 2010-12-07 2011-12-07 マルチメディアコンテンツを送受信する送信装置および受信装置、その再生方法

Country Status (8)

Country Link
US (1) US9628771B2 (ja)
EP (1) EP2651142A4 (ja)
JP (1) JP2014504083A (ja)
KR (1) KR101831775B1 (ja)
CN (1) CN103262554A (ja)
BR (1) BR112013013994A2 (ja)
MX (1) MX2013006515A (ja)
WO (1) WO2012077982A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017183854A (ja) * 2016-03-29 2017-10-05 セイコーエプソン株式会社 表示システム、表示装置、頭部装着型表示装置、表示制御方法、表示装置の制御方法、及び、プログラム
US10129500B2 (en) 2015-11-06 2018-11-13 Panasonic Intellectual Property Management Co., Ltd. Multi-display apparatus
JP2019169948A (ja) * 2013-10-11 2019-10-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置および受信装置

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9900577B2 (en) * 2011-08-10 2018-02-20 Electronics And Telecommunications Research Institute Apparatus and method for providing content for synchronizing left/right streams in fixed/mobile convergence 3DTV, and apparatus and method for playing content
EP2822282B1 (en) * 2012-04-23 2018-11-07 LG Electronics Inc. Signal processing device and method for 3d service
US20150109411A1 (en) * 2012-04-26 2015-04-23 Electronics And Telecommunications Research Institute Image playback apparatus for 3dtv and method performed by the apparatus
KR101699367B1 (ko) * 2012-05-16 2017-02-14 한국전자통신연구원 3dtv 다중화 방법 및 그 장치
TWI517669B (zh) 2012-06-05 2016-01-11 晨星半導體股份有限公司 影像的同步方法及其裝置
CN103517062B (zh) * 2012-06-15 2016-05-25 晨星软件研发(深圳)有限公司 影像的同步方法及其装置
JP6313704B2 (ja) 2012-06-22 2018-04-18 サターン ライセンシング エルエルシーSaturn Licensing LLC 受信装置およびその同期処理方法
WO2013190787A1 (ja) * 2012-06-22 2013-12-27 ソニー株式会社 受信装置およびその同期処理方法
KR101481797B1 (ko) * 2013-01-07 2015-01-13 한국기술교육대학교 산학협력단 입체영상시스템에서 좌우영상의 프레임간 동기를 보정하기 위한 방법 및 그 장치
ITTO20130035A1 (it) * 2013-01-15 2014-07-16 Inst Rundfunktechnik Gmbh Sendeeinrichtung zum drahtlosen uebertragen eines mpeg2-ts kompatiblen datenstroms
US10284840B2 (en) 2013-06-28 2019-05-07 Electronics And Telecommunications Research Institute Apparatus and method for reproducing 3D image
EP3087747A4 (en) 2013-12-23 2017-08-16 Lg Electronics Inc. Apparatuses and methods for transmitting or receiving a broadcast content via one or more networks
US9942622B2 (en) * 2014-01-24 2018-04-10 Hiperwall, Inc. Methods and systems for synchronizing media stream presentations
CN104935914B (zh) * 2014-03-19 2017-03-22 宏达国际电子股份有限公司 电子装置及其摄影方法
CN104539931A (zh) * 2014-12-05 2015-04-22 北京格灵深瞳信息技术有限公司 一种多目相机系统、装置及同步方法
WO2016163603A1 (ko) * 2015-04-05 2016-10-13 엘지전자 주식회사 Xml 자막에 기반한 방송 서비스를 위한 방송 신호 송수신 방법 및 장치
CN106303673B (zh) * 2015-06-04 2021-01-22 中兴通讯股份有限公司 码流对齐、同步处理方法及发送、接收终端和通信系统
WO2019139184A1 (ko) * 2018-01-10 2019-07-18 계명대학교 산학협력단 계층적 스트리밍 네트워크에서의, 미디어 스트리밍 그룹 동기화 시스템 및 방법
US11132141B2 (en) * 2018-07-23 2021-09-28 Ionir Systems Ltd. System and method for synchronization of data containers
CN110505466B (zh) * 2019-09-12 2021-09-28 北京四维图新科技股份有限公司 图像处理方法、装置、电子设备、存储介质和系统
KR20210065604A (ko) * 2019-11-27 2021-06-04 한국전자통신연구원 분산 네트워크 기반 멀티미디어 스트리밍 서비스에서 스트림을 선택하여 수신하는 방법 및 장치
CN112130565B (zh) * 2020-09-14 2023-06-23 贵州翰凯斯智能技术有限公司 一种自走机器人平台控制系统及其通信方法
CN113473105A (zh) * 2021-06-01 2021-10-01 青岛小鸟看看科技有限公司 图像同步方法、图像显示及处理设备、及图像同步系统
CN113873345B (zh) * 2021-09-27 2023-11-14 中国电子科技集团公司第二十八研究所 一种分布式的超高清视频同步处理方法
CN114173171A (zh) * 2021-12-08 2022-03-11 上海智驾汽车科技有限公司 一种多通道的大数据信息同步存储及回放方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040455A (ja) * 2002-07-03 2004-02-05 Nippon Television Network Corp 伝送再生方法、伝送方法、及びそのシステム
JP2006324739A (ja) * 2005-05-17 2006-11-30 Matsushita Electric Ind Co Ltd 符号化データ再生装置
WO2010053246A2 (en) * 2008-11-04 2010-05-14 Electronics And Telecommunications Research Institute Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE37991E1 (en) * 1993-01-12 2003-02-18 Visual Automation Systems, Inc. Apparatus for tracking the flow of video signals by incorportating patterns of machine readable signals which will appear at predetermined locations of a television picture
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
JPH0936871A (ja) * 1995-07-17 1997-02-07 Sony Corp データ伝送システムおよびデータ伝送方法
CN1286327C (zh) 1996-02-28 2006-11-22 松下电器产业株式会社 光盘重放装置及光盘记录装置
CN100484237C (zh) 2001-04-24 2009-04-29 派威公司 利用预取数据传输的数据点播数字广播系统
US7280674B2 (en) * 2001-06-05 2007-10-09 University Of Florida Research Foundation Device and method for object illumination and imaging using time slot allocation based upon road changes
KR100751422B1 (ko) * 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
JP2004357156A (ja) 2003-05-30 2004-12-16 Sharp Corp 映像受信装置および映像再生装置
JP4332089B2 (ja) 2004-08-19 2009-09-16 ソニー株式会社 再生装置、再生方法および再生プログラム、ならびに、記録媒体
KR100739764B1 (ko) * 2005-11-28 2007-07-13 삼성전자주식회사 입체 영상 신호 처리 장치 및 방법
KR100772866B1 (ko) * 2006-02-21 2007-11-02 삼성전자주식회사 타임 시프트된 컨텐츠와 실시간 컨텐츠의 재생 시간을동기화시키는 장치 및 그 방법
KR100801002B1 (ko) 2006-06-05 2008-02-11 삼성전자주식회사 무선 네트워크 상에서 멀티미디어 데이터를 전송/재생하는방법, 및 그 방법을 이용한 무선 기기
KR100905723B1 (ko) 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
CN101232623A (zh) * 2007-01-22 2008-07-30 李会根 基于传输流的立体音视频数字编码传输方法和系统
CN100559877C (zh) 2007-04-27 2009-11-11 北京大学 一种支持多视点视频合成的网络流媒体播放器及方法
JP5129053B2 (ja) 2007-07-27 2013-01-23 パナソニック株式会社 コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生プログラム及び集積回路
WO2009077969A2 (en) * 2007-12-18 2009-06-25 Koninklijke Philips Electronics N.V. Transport of stereoscopic image data over a display interface
CA2721397C (en) * 2008-05-02 2014-09-30 Lg Electronics Inc. Method of receiving broadcasting signal and apparatus for receiving broadcasting signal
JP4692600B2 (ja) 2008-09-25 2011-06-01 富士ゼロックス株式会社 情報処理装置、通信システム、及びプログラム
KR101500440B1 (ko) * 2008-10-17 2015-03-09 삼성전자 주식회사 영상처리장치 및 영상처리방법
EP2211556A1 (en) * 2009-01-22 2010-07-28 Electronics and Telecommunications Research Institute Method for processing non-real time stereoscopic services in terrestrial digital multimedia broadcasting and apparatus for receiving terrestrial digital multimedia broadcasting
JP4588120B2 (ja) * 2009-02-19 2010-11-24 パナソニック株式会社 再生装置、記録方法、記録媒体再生システム
GB0903063D0 (en) * 2009-02-24 2009-04-08 Geotate Bv automatic configuration
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
JP5274359B2 (ja) 2009-04-27 2013-08-28 三菱電機株式会社 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体
BRPI1004351A2 (pt) * 2009-06-11 2020-06-23 Panasonic Corporation Dispositivo de reprodução, circuito integrado, meio de gravação.
US20110025821A1 (en) * 2009-07-30 2011-02-03 Dell Products L.P. Multicast stereoscopic video synchronization
JP2011087195A (ja) * 2009-10-16 2011-04-28 Sony Corp 画像処理装置および画像処理方法
JP2011119906A (ja) * 2009-12-02 2011-06-16 Sony Corp 画像処理装置および画像処理方法
KR20110064161A (ko) * 2009-12-07 2011-06-15 삼성전자주식회사 3차원 영상에 관한 압축 방법 및 장치, 그리고 3차원 영상 디스플레이 장치 및 그 시스템
US8736670B2 (en) 2009-12-07 2014-05-27 Photon-X, Inc. 3D visualization system
CN103348694A (zh) * 2010-12-07 2013-10-09 三星电子株式会社 发送用于构成内容的数据的发射机、接收和处理该数据的接收机及其方法
KR20120084252A (ko) * 2011-01-19 2012-07-27 삼성전자주식회사 복수의 실시간 전송 스트림을 수신하는 수신 장치와 그 송신 장치 및 멀티미디어 컨텐츠 재생 방법
JP2012165142A (ja) * 2011-02-04 2012-08-30 Canon Inc 情報処理装置及びその制御方法、並びに、プログラム
CN104471951B (zh) * 2012-07-16 2018-02-23 Lg电子株式会社 处理数字服务信号的方法及装置
JP6004807B2 (ja) * 2012-07-24 2016-10-12 キヤノン株式会社 画像処理装置、その制御方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004040455A (ja) * 2002-07-03 2004-02-05 Nippon Television Network Corp 伝送再生方法、伝送方法、及びそのシステム
JP2006324739A (ja) * 2005-05-17 2006-11-30 Matsushita Electric Ind Co Ltd 符号化データ再生装置
WO2010053246A2 (en) * 2008-11-04 2010-05-14 Electronics And Telecommunications Research Institute Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169948A (ja) * 2013-10-11 2019-10-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置および受信装置
US10129500B2 (en) 2015-11-06 2018-11-13 Panasonic Intellectual Property Management Co., Ltd. Multi-display apparatus
JP2017183854A (ja) * 2016-03-29 2017-10-05 セイコーエプソン株式会社 表示システム、表示装置、頭部装着型表示装置、表示制御方法、表示装置の制御方法、及び、プログラム

Also Published As

Publication number Publication date
KR20120063431A (ko) 2012-06-15
WO2012077982A2 (ko) 2012-06-14
CN103262554A (zh) 2013-08-21
BR112013013994A2 (pt) 2020-11-17
EP2651142A2 (en) 2013-10-16
US20130258054A1 (en) 2013-10-03
US9628771B2 (en) 2017-04-18
EP2651142A4 (en) 2014-08-06
MX2013006515A (es) 2013-07-22
WO2012077982A3 (ko) 2012-07-26
KR101831775B1 (ko) 2018-02-26

Similar Documents

Publication Publication Date Title
KR101831775B1 (ko) 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
JP5977760B2 (ja) 複数のリアルタイム伝送ストリームを受信する受信装置と、その送信装置およびマルチメディアコンテンツ再生方法
KR100972792B1 (ko) 스테레오스코픽 영상을 동기화하는 장치 및 방법과 이를 이용한 스테레오스코픽 영상 제공 장치 및 방법
JP6184408B2 (ja) 受信装置及びその受信方法
US9392256B2 (en) Method and apparatus for generating 3-dimensional image datastream including additional information for reproducing 3-dimensional image, and method and apparatus for receiving the 3-dimensional image datastream
US20110010739A1 (en) Method and apparatus for transmitting/receiving stereoscopic video in digital broadcasting system
US20130271657A1 (en) Receiving apparatus for providing hybrid service, and hybrid service providing method thereof
US20130276046A1 (en) Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
US9516086B2 (en) Transmitting device, receiving device, and transceiving method thereof
US20130271568A1 (en) Transmitting system and receiving apparatus for providing hybrid service, and service providing method thereof
US9615143B2 (en) Device and method for providing content by accessing content stream in hybrid 3D TV, and device and method for reproducing content
US20140147088A1 (en) Transmission device, receiving/playing device, transmission method, and receiving/playing method
US20130307924A1 (en) Method for 3dtv multiplexing and apparatus thereof
KR102016674B1 (ko) 하이브리드 서비스를 제공하는 수신 장치 및 하이브리드 서비스 제공 방법
Kim et al. World's first hybrid 3DTV broadcasting experiment
KR20130116154A (ko) 서로 다른 경로를 통해 복수의 신호를 수신하는 수신 장치 및 그 신호 처리 방법
KR20130115975A (ko) 하이브리드 서비스를 제공하기 위한 송신 시스템과 수신 장치 및 그 서비스 제공 방법들
KR20140004045A (ko) 실시간으로 전송되는 기준 영상과 별도로 전송되는 부가 영상 및 콘텐츠를 연동하여 3d 서비스를 제공하기 위한 전송 장치 및 방법, 및 수신 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160928

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161007

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20161209