JP2008079114A - 同期再生システム - Google Patents

同期再生システム Download PDF

Info

Publication number
JP2008079114A
JP2008079114A JP2006257457A JP2006257457A JP2008079114A JP 2008079114 A JP2008079114 A JP 2008079114A JP 2006257457 A JP2006257457 A JP 2006257457A JP 2006257457 A JP2006257457 A JP 2006257457A JP 2008079114 A JP2008079114 A JP 2008079114A
Authority
JP
Japan
Prior art keywords
data
audio
synchronization
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006257457A
Other languages
English (en)
Other versions
JP4362734B2 (ja
Inventor
Hiroyuki Hashimoto
浩幸 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006257457A priority Critical patent/JP4362734B2/ja
Priority to US11/898,860 priority patent/US8509605B2/en
Publication of JP2008079114A publication Critical patent/JP2008079114A/ja
Application granted granted Critical
Publication of JP4362734B2 publication Critical patent/JP4362734B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B31/00Associated working of cameras or projectors with sound-recording or sound-reproducing means
    • G03B31/06Associated working of cameras or projectors with sound-recording or sound-reproducing means in which sound track is associated with successively-shown still pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】伝送帯域を圧迫することなく、各再生装置が、より簡易に同期をとることが可能な同期再生システムを提供すること。
【解決手段】アンプ200が、マルチメディアデータを、インターネット410を介して受信する受信部210と、マルチメディアデータから音声データを分離する分離部220と、当該音声データに基づき、同期用データを生成する同期用データ生成部250と、当該同期用データを、セットトップボックス100へ向け赤外通信路420を介して送信する同期用データ送信部260とを含み、セットトップボックス100が、マルチメディアデータを、インターネット410を介して受信する受信部110と、マルチメディアデータから画像データを分離する分離部120と、同期用データを、赤外通信路420を介して受信する同期用データ受信部150と、同期用データに基づき、再生対象の画像データを決定するマッチング部160とを含んで構成される。
【選択図】図1

Description

本発明は、画像データと音声データを含むマルチメディアデータを、画像再生装置と音声再生装置が同期して再生する同期再生システムに関する。
従来、再生装置は、画像データと音声データを含むストリームをネットワーク経由で送受信することによって音声を含む動画を再生している。例えば、RFC1889で規定されているRTP(Real-time Transport Protocol)等によってこのような同期再生技術が実現されている。
しかし、例えば、画像を投写するプロジェクタと接続されたセットトップボックスと、音声を出力するスピーカーと接続されたアンプのように、画像再生装置と音声再生装置が分離している場合、RTPでは同期をとることができない。
そこで、各再生装置は、RTCP(RTP Control Protocol)、NTP(Network Time Protocol)を用い、基準クロックに基づき、再生時刻を調整しながら同期をとることが提案されている。
しかし、RTCPは、伝送帯域幅の5%程度がコマンド送受信のために必要になり、コンテンツを伝送するための帯域が狭くなってしまう。
また、ストリームに独自の同期信号を付加することも提案されているが、この場合も伝送帯域をより圧迫することになる上、ストリームに同期信号を付加するための処理が必要になり、装置構成が複雑化してしまう欠点がある。
また、例えば、特開2006−148679号公報では、データ処理装置が、データストリームを受信し、当該データストリームを複製し、データストリームに含まれる映像データの時刻情報と音声データの時刻情報を用いて映像と音声を同期させて再生することが記載されている。
特開2006−148679号公報
しかし、特開2006−148679号公報の手法では、データストリームを複製するための処理、複製したデータストリームを記憶するための記憶領域が必要になる。
本発明の目的は、画像再生装置と音声再生装置が分離している場合に、ストリームの伝送帯域を圧迫することなく、各再生装置が、より簡易に同期をとることが可能な同期再生システムを提供することである。
上記課題を解決するため、本発明に係る同期再生システムは、
画像データおよび音声データを含むマルチメディアデータに基づき、画像を再生する少なくとも1台の画像再生装置と、前記マルチメディアデータに基づき、音声を再生する音声再生装置とを含む同期再生システムにおいて、
前記音声再生装置は、
前記マルチメディアデータを、情報提供装置から第1の伝送路を介して受信する受信部と、
前記マルチメディアデータから前記音声データを分離する分離部と、
当該音声データに基づき、同期用データを生成する同期用データ生成部と、
当該同期用データを、前記画像再生装置へ向け前記第1の伝送路とは異なる第2の伝送路を介して送信する同期用データ送信部と、
を含み、
前記画像再生装置は、
前記マルチメディアデータを、前記情報提供装置から前記第1の伝送路を介して受信する受信部と、
前記マルチメディアデータから画像データおよび音声データを分離する分離部と、
当該画像データおよび当該音声データを記憶する記憶部と、
前記同期用データを、前記第2の伝送路を介して受信する同期用データ受信部と、
前記同期用データに基づき、前記記憶部に記憶された前記音声データから対応する音声データを決定するとともに、前記記憶部に記憶された画像データのうち、決定した音声データに対応する再生対象の画像データを決定するマッチング部と、
を含むことを特徴とする。
本発明によれば、同期再生システムは、ストリーム(マルチメディアデータ)が伝送される第1の伝送路とは異なる第2の伝送路を用いて同期用データを伝送することにより、第1の伝送路の伝送帯域を圧迫することなく、画像再生装置と音声再生装置が分離した状態で画像と音声を同期させることができる。
また、本発明によれば、同期再生システムは、元のストリームに独自の同期用データを付加したり、ストリームを複製したりすることなく、同期をとることができるため、各再生装置が、より簡易に同期をとることができる。
さらに、本発明によれば、同期再生システムは、音声データに基づく同期用データに基づいて対応する音声データを決定するとともに、決定した音声データに対応する再生対象の画像データを決定することにより、音声データと画像データが共通の同期情報を有していない場合であっても同期させやすく、より柔軟に同期をとることができる。
また、本発明に係る同期再生システムは、
画像データおよび音声データを含むマルチメディアデータに基づき、画像を再生する少なくとも1台の画像再生装置と、前記マルチメディアデータに基づき、音声を再生する音声再生装置とを含む同期再生システムにおいて、
前記音声再生装置は、
前記マルチメディアデータを、情報提供装置から第1の伝送路を介して受信する受信部と、
前記マルチメディアデータから前記音声データを分離する分離部と、
当該音声データに基づき、同期用データを生成する同期用データ生成部と、
当該同期用データを、前記画像再生装置へ向け前記第1の伝送路とは異なる第2の伝送路を介して送信する同期用データ送信部と、
を含み、
前記画像再生装置は、
前記マルチメディアデータを、前記情報提供装置から前記第1の伝送路を介して受信する受信部と、
前記マルチメディアデータから画像データを分離する分離部と、
当該画像データを記憶する記憶部と、
前記同期用データを、前記第2の伝送路を介して受信する同期用データ受信部と、
前記同期用データに基づき、再生対象の画像データを決定するマッチング部と、
を含むことを特徴とする。
本発明によれば、同期再生システムは、ストリーム(マルチメディアデータ)が伝送される第1の伝送路とは異なる第2の伝送路を用いて同期用データを伝送することにより、第1の伝送路の伝送帯域を圧迫することなく、画像再生装置と音声再生装置が分離した状態で画像と音声を同期させることができる。
また、本発明によれば、同期再生システムは、元のストリームに独自の同期用データを付加したり、ストリームを複製したりすることなく、同期をとることができるため、各再生装置が、より簡易に同期をとることができる。
さらに、本発明によれば、同期再生システムは、画像再生装置側で音声データを記憶することなく、同期をとることができるため、同期のために必要になる記憶容量をより抑制することができる。
また、前記同期再生システムにおいて、
前記同期用データは、音声データの再生予定時刻を示すパターンデータを含み、
前記マッチング部は、当該パターンデータに基づき、前記再生対象の画像データを決定してもよい。
これによれば、同期再生システムは、時刻を基準にして同期をとることができる。
また、前記同期再生システムにおいて、
前記同期用データは、音声データの一部を示すパターンデータを含み、
前記マッチング部は、前記パターンデータに基づき、前記記憶部に記憶された前記音声データから対応する音声データを決定してもよい。
これによれば、同期再生システムは、音声データの一部を用いて同期をとることができる。これにより、同期再生システムは、音声データに時刻情報が含まれない場合であっても同期をとることができ、より多種類の音声データに対応することができる。
また、前記同期再生システムにおいて、
前記マルチメディアデータは、前記情報提供装置によって複数のパケットに分割されて送信され、
前記同期用データは、パケット識別情報を示すパターンデータを含み、
前記マッチング部は、当該パケット識別情報に基づき、前記再生対象の画像データを決定してもよい。
これによれば、同期再生システムは、パケット識別データを用いて同期をとるできるため、音声データの一部を用いて同期をとる場合と比べ、第2の伝送路における伝送帯域の占有量をより低減できる。
また、前記同期再生システムにおいて、
前記同期用データ生成部は、前記音声データの種別を判定するとともに、当該種別に基づき、当該種別を示す種別データおよび前記パターンデータを含む前記同期用データを生成してもよい。
これによれば、同期再生システムは、音声データの種別に適した同期用データを用いて同期をとることができる。
また、前記同期再生システムにおいて、
前記マッチング部は、前記種別データに基づき、マッチング手法を決定してもよい。
これによれば、同期再生システムは、音声データの種別に適した同期用データを用いて同期をとることができる。より具体的には、マッチング部は、例えば、音声データに再生予定時刻が含まれる場合は当該再生予定時刻を検索キーとしてマッチングし、音声データにパケット識別情報が含まれる場合は当該パケット識別情報を検索キーとしてマッチングし、音声データに再生予定時刻もパケット識別情報も含まれない場合は当該音声データの一部のデータ列を検索キーとしてマッチングすることができる。
以下、本発明を同期再生システムに適用した場合を例に採り、図面を参照しつつ説明する。なお、以下に示す実施例は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施例に示す構成の全てが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。
(第1の実施例)
図1は、第1の実施例における同期再生システムの機能ブロック図である。
本実施例における同期再生システムは、画像再生装置の一種であるセットトップボックス100と、音声再生装置の一種であるアンプ200とを含んで構成されている。
ユーザーは、セットトップボックス100から情報提供装置300に所望のマルチメディアデータ(例えば、映画、ドラマ等)の配信を要求する。
情報提供装置300は、当該要求に応じてインターネット410を介して画像データおよび音声データを含むマルチメディアデータを、セットトップボックス100とアンプ200にマルチキャスト送信する。ここで、マルチメディアデータは、例えば、ストリームの一種であるMPEG2−TS(Moving Picture Experts Group 2 Transport Stream)であり、188バイトの複数のパケットに分割されて送信される。
以下、MPEG2−TSを用いてビデオオンデマンド方式で、セットトップボックス100とアンプ200が画像(映像)と音声を同期して再生する場合を例に採り説明する。
アンプ200は、パケットを、情報提供装置300から第1の伝送路であるインターネット410を介して受信する受信部210と、当該パケットから音声データを分離する分離部220と、当該音声データを音声データのフォーマットにデコードする音声1次デコード部230と、デコードされた音声データを出力するデジタル音声出力部240と、デジタル音声出力部240からの音声データに基づき、同期用データを生成する同期用データ生成部250と、当該同期用データを、セットトップボックス100へ向け第2の伝送路である赤外通信路420を介して送信する同期用データ送信部260とを含んで構成されている。
また、アンプ200は、音声1次デコード部230によってデコードされた音声データ(例えば、AC3データ等)を、さらにデジタルデータ(単なるビット列)にデコードする音声2次デコード部270と、当該デジタルデータをアナログ信号に変換するデジタルアナログ変換部272と、当該アナログ信号を増幅する増幅部274と、増幅された信号をスピーカー290に出力する出力部280とを含んで構成されている。
また、セットトップボックス100は、パケットを、情報提供装置300からインターネット410を介して受信する受信部110と、当該パケットから画像データおよび音声データを分離する分離部120と、当該画像データおよび当該音声データを各データのフォーマットにデコードする画像音声1次デコード部130と、デコードされたデータを画像データ群142および音声データ群144として記憶する記憶部140とを含んで構成されている。
また、セットトップボックス100は、アンプ200からの同期用データを、赤外通信路420を介して受信する同期用データ受信部150と、当該同期用データに基づき、音声データ群144から対応する音声データを決定するとともに、画像データ群142のうち、決定した音声データに対応する再生対象の画像データを決定するマッチング部160と、決定された画像データをデジタルデータ(単なるビット列)にデコードする画像2次デコード部170と、当該デジタルデータをプロジェクタ190に出力する出力部180とを含んで構成されている。
なお、これらの各部の機能を実装するためのハードウェアとしては、例えば、以下のものを採用してもよい。例えば、デジタル音声出力部240としては、光デジタル音声信号を出力するデジタル音声出力インターフェース等、同期用データ生成部250、マッチング部160としては、CPU等、同期用データ送信部260、同期用データ受信部150としては、赤外通信インターフェース等を採用してもよい。なお、これら以外の各部は、セットトップボックス100やアンプ200に備わっているハードウェアをそのまま使用可能である。また、受信部110および受信部210の機能は、各再生装置の外部のモデム等を共通で使用することによって実装してもよい。また、デジタル音声出力部240を省略し、音声1次デコード部230から同期用データ生成部250に1次デコード後音声データを出力してもよい。
次に、これらの各部を用いた処理の流れについて説明する。まず、アンプ200における処理の流れについて説明する。
図2は、第1の実施例におけるアンプ200における処理の流れを示すフローチャートである。また、図3は、第1の実施例におけるアンプにおけるデータの変化を示す模式図であり、図3(A)は、マルチメディアデータを示す模式図であり、図3(B)は、パケットデータを示す模式図であり、図3(C)は、分離後の音声データを示す模式図であり、図3(D)は、同期用データと1次デコード後の音声データを示す模式図である。
情報提供装置300は、図3(A)に示すマルチメディアデータを複数のパケットに分割して図3(B)に示すMPEG2−TS(ストリーム)としてセットトップボックス100およびアンプ200に配信する。
受信部210は、インターネット410を介して情報提供装置300からの複数のパケットを先頭のパケットから順次受信する(ステップS1)。なお、各パケットは、ヘッダ部(H)とデータ部(画像データ(V1等)、音声データ(A1等)等)で構成されている。また、ヘッダ部には、パケットの種別を識別するためのPID(Packet Identifier)、パケット番号を示すカウンタ等が含まれる。また、データ部は、基本的には画像データまたは音声データであるが、制御データ等であってもよい。
分離部220は、複数のパケットを組み立てて元の音声データを分離する(ステップS2)。これにより、図3(C)に示す音声データが生成される。なお、MPEG2−TSでは、この分離はDEMUX(De-multiplex)と呼ばれ、分離された音声データは音声エレメンタリストリームと呼ばれる。
音声1次デコード部230は、音声データを1次デコードする(ステップS3)。これにより、図3(D)に示す1次デコード後音声データが生成される。なお、本実施例では、音声データのフォーマットとしてAC3(Audio Code number 3)を用いている。
デジタル音声出力部240は、デコード後の音声データをデジタル出力し、同期用データ生成部250は、当該音声データに基づき、図3(D)に示す同期用データを生成する(ステップS4)。具体的には、同期用データ生成部250は、AC3のヘッダから音声データの種別を判定し、AC3のtimecod1とtimecod2から再生予定時刻を判定し、同期用データ送信部260での通信に適したヘッダ、音声データの種別を示す種別データ、当該音声データの再生予定時刻を示す再生予定時刻データを含む同期用データを生成する。
同期用データ送信部260は、当該同期用データを、赤外通信路420に適した形式に変調し、赤外通信路420を介してセットトップボックス100へ向け送信する(ステップS5)。
なお、音声2次デコード部270は、1次デコードされた音声データをデジタル値に変換し、デジタルアナログ変換部272は、当該デジタル値をアナログ信号に変換し、増幅部274は、当該アナログ信号を増幅し、出力部280は、当該アナログ信号をスピーカー290に出力し、スピーカー290は、当該アナログ信号に基づく音声を出力する。この処理の流れは一般的なMPEG2における音声の再生と同様である。
次に、セットトップボックス100における処理について説明する。
図4は、第1の実施例におけるセットトップボックス100における処理の流れを示すフローチャートである。また、図5は、第1の実施例におけるセットトップボックスにおけるデータの変化を示す模式図であり、図5(A)は、マルチメディアデータを示す模式図であり、図5(B)は、パケットデータを示す模式図であり、図5(C)は、分離後の画像データおよび音声データを示す模式図であり、図5(D)は、1次デコード後の画像データおよび音声データを示す模式図であり、図5(E)は、同期用データを示す模式図である。
情報提供装置300は、図5(A)に示すマルチメディアデータを複数のパケットに分割して図5(B)に示すMPEG2−TS(ストリーム)としてセットトップボックス100およびアンプ200に配信する。
受信部110は、インターネット410を介して情報提供装置300からの複数のパケットを順次受信する(ステップS11)。
分離部120は、複数のパケットを組み立てて元の画像データおよび音声データを分離する(ステップS12)。これにより、図5(C)に示す画像データおよび音声データが生成される。
画像音声1次デコード部130は、画像データおよび音声データを1次デコードする(ステップS13)。これにより、図5(D)に示す1次デコード後画像データおよび1次デコード後音声データが生成される。なお、本実施例では、画像データのフォーマットとしてHD(High Definition)解像度のMPEG−2Videoを、音声データのフォーマットとしてAC3を用いている。
そして、画像音声1次デコード部130は、1次デコード後の各データを画像データ群142、音声データ群144の一部として記憶部140に記憶する(ステップS14)。
また、同期用データ受信部150は、アンプ200からの図5(E)に示す同期用データを、赤外通信路420を介して受信する(ステップS15)。なお、同期用データ受信部150は、同期用データが変調されている場合(例えば、デジタル値が赤外光に変わっている場合等)は復調(例えば、赤外光をデジタル値に戻す等)して受信する。
マッチング部160は、同期用データに含まれる種別データに基づき、対象の音声データがAC3であることを判定し、同期用データに含まれる再生予定時刻データを参照し、当該再生予定時刻と適合する音声データを音声データ群144から検索して決定する(ステップS16)。
そして、マッチング部160は、決定した音声データに対応する再生対象の画像データを画像データ群142から検索して決定する(ステップS17)。具体的には、例えば、画像データに再生予定時刻が含まれる場合は当該再生予定時刻が音声データの再生予定時刻と一致する画像データが再生対象の画像データとして決定される。また、例えば、画像データにパケットの連続番号(パケット識別情報)が含まれる場合は当該連続番号が、音声データの連続番号に最も近い画像データが再生対象の画像データとして決定される。
そして、マッチング部160は、現在時刻(例えば、画像2次デコード部170での再生時刻、セットトップボックス100でのシステムタイマーの時刻等)と再生対象の画像データの再生予定時刻に基づき、再生タイミングを調整(例えば、画像2次デコード部170に再生すべき画像データを指示、画像データの補間、間引き等)し、画像2次デコード部170は、HD解像度のMPEG−2Videoフォーマットの画像データをデジタル値にデコードし、出力部180は、当該デジタル値をプロジェクタ190に出力し、プロジェクタ190は、当該デジタル値に基づいて画像を投写することにより、画像データを再生する(ステップS18)。なお、画像と音声の同期手法自体は、一般的な手法であり、マッチング部160は、画像に対する音声の遅延が0〜30ミリ秒程度に収まるように画像の再生タイミングを調整する。
以上のように、本実施例によれば、同期再生システムは、ストリームが伝送されるインターネット410とは異なる伝送路である赤外通信路420を用いて同期用データを伝送することにより、インターネット410の伝送帯域を圧迫することなく、画像再生装置と音声再生装置が分離した状態で画像と音声を同期させることができる。
また、同期用データには、音声データは含まれないため、同期再生システムは、セットトップボックス100やアンプ200が有している赤外通信等の比較的低速な伝送路を用いることができ、新たなハードウェアを追加することなく、かつ、省電力で同期をとることができる。
また、本実施例によれば、同期再生システムは、元のストリームに独自の同期用データを付加したり、ストリームを複製したりすることなく、同期をとることができるため、各再生装置が、より簡易に同期をとることができる。
さらに、本実施例によれば、同期再生システムは、音声データに基づく同期用データに基づいて対応する音声データを決定するとともに、決定した音声データに対応する再生対象の画像データを決定することにより、音声データと画像データが共通の同期情報(例えば、再生予定時刻情報等)を有していない場合であっても同期させやすく、より柔軟に同期をとることができる。
具体的には、例えば、音声データには再生予定時刻情報、パケット識別情報が含まれ、画像データには再生予定時刻情報が含まれず、パケット識別情報のみが含まれる場合、マッチング部160は、同期用データに含まれる再生予定時刻情報から再生対象の画像データを直接決定することはできないが、当該再生予定時刻情報と一致する音声データを決定し、当該音声データのパケット識別情報から再生対象の画像データを決定することができる。
(第2の実施例)
第1の実施例では、画像再生装置が音声データも記憶し、同期用データと当該音声データを用いて同期をとっているが、画像再生装置は、音声データを記憶せず、同期用データと画像データを用いて同期をとってもよい。次に、この同期方式の処理手順について説明する。
図6は、第2の実施例における画像再生装置における処理の流れを示すフローチャートである。
本実施例では、画像データおよび音声データには共通の再生予定時刻情報が含まれるものとする。なお、再生予定時刻情報としては、例えば、PTS(Presentation Time Stamp)等が該当する。
受信部110は、インターネット410を介して情報提供装置300からの複数のパケットを順次受信する(ステップS11)。
分離部120は、複数のパケットを組み立てて元の画像データを分離する(ステップS22)。
画像音声1次デコード部130は、画像データを1次デコードする(ステップS23)。なお、本実施例では、画像音声1次デコード部130は、画像データのデコード機能のみを有していればよい。
そして、画像音声1次デコード部130は、1次デコード後の画像データを画像データ群142として記憶部140に記憶する(ステップS24)。なお、本実施例では、記憶部140に音声データ群144は記憶されない。
また、同期用データ受信部150は、アンプ200からの同期用データを、赤外通信路420を介して受信する(ステップS25)。なお、本実施例では、同期用データは、種別データを有していなくてもよく、再生予定時刻データを有していればよい。
マッチング部160は、同期用データに含まれる再生予定時刻データを参照し、当該再生予定時刻と適合する画像データを画像データ群142から検索して決定する(ステップS26)。
そして、マッチング部160等は、現在時刻と再生対象の画像データの再生予定時刻に基づき、再生タイミングを調整して画像データを再生する(ステップS18)。
以上のように、第2の実施例によれば、同期再生システムは、第1の実施例と同様の作用効果を奏することができる。
さらに、本実施例によれば、同期再生システムは、画像再生装置側で音声データを記憶することなく、同期をとることができるため、同期のために必要になる記憶容量をより抑制することができる。
(その他の実施例)
なお、本発明の適用は、上述した実施例に限定されず、種々の変形が可能である。
例えば、上述した実施例では、同期用データのパターンデータとして、再生予定時刻を示すパターンデータを採用したが、音声データに再生予定時刻が含まれない場合は音声データのパケット識別情報を示すパターンデータを用いてもよく、音声データに再生予定時刻もパケット識別情報も含まれない場合は音声データの一部(例えば、音声データの先頭から数バイトのデータ等)を示すパターンデータを用いてもよい。
これによれば、同期再生システムは、音声データに再生予定時刻情報が含まれない場合であっても、同期をとることができるため、より種々のパターンの音声データに対応することができる。
例えば、上述した実施例では、音声データのフォーマットはAC3であったが、例えば、LPCM(Linear Pulse Code Modulation)、DTS(Digital Theater Systems)、MPEG1レイヤー2等であってもよい。
また、画像再生装置は、セットトップボックス100とプロジェクタ190の組み合わせには限定されず、例えば、TV、モニター、PC(Personal Computer)等の画像出力が可能な種々のであってもよい。
また、1台の音声再生装置と、複数台の画像再生装置を同期させる場合にも本発明は有効である。具体的には、例えば、展示会場において、複数のモニターを並べて1つの大きな画像を表示しながらスピーカーから音声を出力する同期再生システム等にも本発明は有効である。
また、音声再生装置は、アンプ200とスピーカーの組み合わせには限定されず、セットトップボックス、TV等の音声出力が可能な種々の装置を採用可能である。
また、第1の伝送路は、インターネット410には限定されず、例えば、家庭内ネットワーク等であってもよい。
また、情報提供装置300の送信方式は、マルチキャスト方式には限定されず、例えば、ユニキャスト方式等であってもよい。
また、上述した実施例では、マルチメディアデータは複数のパケットに分割されて各再生装置に配信されたが、例えば、第1の伝送路が高速大容量の伝送路である場合、マルチメディアデータは単一のストリームとしてフレームごとに各再生装置に配信されてもよい。
また、第2の伝送路は、赤外通信路420には限定されず、例えば、レーザー通信路等の種々の無線伝送路、IEEE1394ケーブル、USBケーブル等を用いた種々の有線伝送路であってもよい。
また、上述した実施例では、各再生装置は、1次デコード、2次デコードを行っているが、デコードの手法は任意であり、2回デコードを行うことは必須ではない。
また、上述した実施例では、ストリームとして、MPEG2−TSを用いているが、その他のMPEG等のストリームを用いてもよい。
第1の実施例における同期再生システムの機能ブロック図である。 第1の実施例におけるアンプにおける処理の流れを示すフローチャートである。 第1の実施例におけるアンプにおけるデータの変化を示す模式図であり、図3(A)は、マルチメディアデータを示す模式図であり、図3(B)は、パケットデータを示す模式図であり、図3(C)は、分離後の音声データを示す模式図であり、図3(D)は、同期用データと1次デコード後の音声データを示す模式図である。 第1の実施例におけるセットトップボックスにおける処理の流れを示すフローチャートである。 第1の実施例におけるセットトップボックスにおけるデータの変化を示す模式図であり、図5(A)は、マルチメディアデータを示す模式図であり、図5(B)は、パケットデータを示す模式図であり、図5(C)は、分離後の画像データおよび音声データを示す模式図であり、図5(D)は、1次デコード後の画像データおよび音声データを示す模式図であり、図5(E)は、同期用データを示す模式図である。 第2の実施例における画像再生装置における処理の流れを示すフローチャートである。
符号の説明
100 セットトップボックス(画像再生装置)、110、210 受信部、120、220 分離部、150 同期用データ受信部、160 マッチング部、200 アンプ(音声再生装置)、250 同期用データ生成部、260 同期用データ送信部、300 情報提供装置、410 インターネット(第1の伝送路)、420 赤外通信路(第2の伝送路)

Claims (7)

  1. 画像データおよび音声データを含むマルチメディアデータに基づき、画像を再生する少なくとも1台の画像再生装置と、前記マルチメディアデータに基づき、音声を再生する音声再生装置とを含む同期再生システムにおいて、
    前記音声再生装置は、
    前記マルチメディアデータを、情報提供装置から第1の伝送路を介して受信する受信部と、
    前記マルチメディアデータから前記音声データを分離する分離部と、
    当該音声データに基づき、同期用データを生成する同期用データ生成部と、
    当該同期用データを、前記画像再生装置へ向け前記第1の伝送路とは異なる第2の伝送路を介して送信する同期用データ送信部と、
    を含み、
    前記画像再生装置は、
    前記マルチメディアデータを、前記情報提供装置から前記第1の伝送路を介して受信する受信部と、
    前記マルチメディアデータから画像データおよび音声データを分離する分離部と、
    当該画像データおよび当該音声データを記憶する記憶部と、
    前記同期用データを、前記第2の伝送路を介して受信する同期用データ受信部と、
    前記同期用データに基づき、前記記憶部に記憶された前記音声データから対応する音声データを決定するとともに、前記記憶部に記憶された画像データのうち、決定した音声データに対応する再生対象の画像データを決定するマッチング部と、
    を含むことを特徴とする同期再生システム。
  2. 画像データおよび音声データを含むマルチメディアデータに基づき、画像を再生する少なくとも1台の画像再生装置と、前記マルチメディアデータに基づき、音声を再生する音声再生装置とを含む同期再生システムにおいて、
    前記音声再生装置は、
    前記マルチメディアデータを、情報提供装置から第1の伝送路を介して受信する受信部と、
    前記マルチメディアデータから前記音声データを分離する分離部と、
    当該音声データに基づき、同期用データを生成する同期用データ生成部と、
    当該同期用データを、前記画像再生装置へ向け前記第1の伝送路とは異なる第2の伝送路を介して送信する同期用データ送信部と、
    を含み、
    前記画像再生装置は、
    前記マルチメディアデータを、前記情報提供装置から前記第1の伝送路を介して受信する受信部と、
    前記マルチメディアデータから画像データを分離する分離部と、
    当該画像データを記憶する記憶部と、
    前記同期用データを、前記第2の伝送路を介して受信する同期用データ受信部と、
    前記同期用データに基づき、再生対象の画像データを決定するマッチング部と、
    を含むことを特徴とする同期再生システム。
  3. 請求項1、2のいずれかに記載の同期再生システムにおいて、
    前記同期用データは、音声データの再生予定時刻を示すパターンデータを含み、
    前記マッチング部は、当該パターンデータに基づき、前記再生対象の画像データを決定することを特徴とする同期再生システム。
  4. 請求項1に記載の同期再生システムにおいて、
    前記同期用データは、音声データの一部を示すパターンデータを含み、
    前記マッチング部は、前記パターンデータに基づき、前記記憶部に記憶された前記音声データから対応する音声データを決定することを特徴とする同期再生システム。
  5. 請求項1、2のいずれかに記載の同期再生システムにおいて、
    前記マルチメディアデータは、前記情報提供装置によって複数のパケットに分割されて送信され、
    前記同期用データは、パケット識別情報を示すパターンデータを含み、
    前記マッチング部は、当該パケット識別情報に基づき、前記再生対象の画像データを決定することを特徴とする同期再生システム。
  6. 請求項3〜5のいずれかに記載の同期再生システムにおいて、
    前記同期用データ生成部は、前記音声データの種別を判定するとともに、当該種別に基づき、当該種別を示す種別データおよび前記パターンデータを含む前記同期用データを生成することを特徴とする同期再生システム。
  7. 請求項6に記載の同期再生システムにおいて、
    前記マッチング部は、前記種別データに基づき、マッチング手法を決定することを特徴とする同期再生システム。
JP2006257457A 2006-09-22 2006-09-22 同期再生システム Expired - Fee Related JP4362734B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006257457A JP4362734B2 (ja) 2006-09-22 2006-09-22 同期再生システム
US11/898,860 US8509605B2 (en) 2006-09-22 2007-09-17 Synchronized reproduction system and synchronized reproduction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006257457A JP4362734B2 (ja) 2006-09-22 2006-09-22 同期再生システム

Publications (2)

Publication Number Publication Date
JP2008079114A true JP2008079114A (ja) 2008-04-03
JP4362734B2 JP4362734B2 (ja) 2009-11-11

Family

ID=39225062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006257457A Expired - Fee Related JP4362734B2 (ja) 2006-09-22 2006-09-22 同期再生システム

Country Status (2)

Country Link
US (1) US8509605B2 (ja)
JP (1) JP4362734B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004520A (ja) * 2008-05-23 2010-01-07 Yamaha Corp Avシステム
JP2011045086A (ja) * 2009-08-24 2011-03-03 Samsung Electronics Co Ltd 再生同期化方法及びこれを適用したデバイス{Methodforplaysynchronizationanddeviceusingthesame}
JP2013078048A (ja) * 2011-09-30 2013-04-25 Toshiba Corp 情報再生装置及び情報再生方法
JP2013081155A (ja) * 2012-07-26 2013-05-02 Toshiba Corp 情報再生装置及び情報再生方法
JP2014519769A (ja) * 2011-06-10 2014-08-14 コニンクリジケ ケーピーエヌ エヌブィー 複数モジュールから同期されたユーザー体験を提供する方法及びシステム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366972B2 (en) * 2005-04-29 2008-04-29 Microsoft Corporation Dynamically mediating multimedia content and devices
JP5094478B2 (ja) * 2008-03-06 2012-12-12 株式会社日立製作所 受信装置
US9226011B2 (en) * 2012-09-11 2015-12-29 Comcast Cable Communications, Llc Synchronizing program presentation
CN108353228B (zh) * 2015-11-19 2021-04-16 香港科技大学 一种信号分离的方法、系统和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3104681B2 (ja) * 1998-06-10 2000-10-30 日本電気株式会社 オーディオ・ビデオ同期再生方法および装置
JP2006148679A (ja) * 2004-11-22 2006-06-08 Matsushita Electric Ind Co Ltd データ処理装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004520A (ja) * 2008-05-23 2010-01-07 Yamaha Corp Avシステム
JP2011045086A (ja) * 2009-08-24 2011-03-03 Samsung Electronics Co Ltd 再生同期化方法及びこれを適用したデバイス{Methodforplaysynchronizationanddeviceusingthesame}
JP2014519769A (ja) * 2011-06-10 2014-08-14 コニンクリジケ ケーピーエヌ エヌブィー 複数モジュールから同期されたユーザー体験を提供する方法及びシステム
JP2013078048A (ja) * 2011-09-30 2013-04-25 Toshiba Corp 情報再生装置及び情報再生方法
US8464305B2 (en) 2011-09-30 2013-06-11 Kabushiki Kaisha Toshiba Content reproduction apparatus and content reproduction method
JP2013081155A (ja) * 2012-07-26 2013-05-02 Toshiba Corp 情報再生装置及び情報再生方法

Also Published As

Publication number Publication date
US20080075428A1 (en) 2008-03-27
JP4362734B2 (ja) 2009-11-11
US8509605B2 (en) 2013-08-13

Similar Documents

Publication Publication Date Title
JP4362734B2 (ja) 同期再生システム
JP4668515B2 (ja) マルチメディアコンテンツに同期化されたメタデータ伝送装置及び方法
JP6737922B2 (ja) 送信方法、受信方法、送信装置および受信装置
JP6184408B2 (ja) 受信装置及びその受信方法
JP4983923B2 (ja) デコーダ装置、およびデコード方法
WO2005043783A1 (ja) 携帯端末向け伝送方法及び装置
JP2005278152A (ja) 映像音声再生装置及び映像音声再生方法
JP2007053668A (ja) 動画配信システムおよび動画配信サーバー
JPWO2012067219A1 (ja) コンテンツデータ生成装置、コンテンツデータ生成方法、コンピュータプログラムおよび記録媒体
WO2004077825A1 (ja) データ処理装置および方法
JP2009272945A (ja) 同期再生装置
JP5841715B2 (ja) 映像音声出力装置、および映像音声出力システム、およびマスタ装置
JP2005123789A (ja) Av同期システム
US20040042459A1 (en) Method and system for co-relating transport packets on different channels using a packet prioritization scheme
US8238446B2 (en) Method and apparatus for reproducing digital broadcasting
JP2013532432A (ja) 単一の復号器でチャンネル変更を可能にする受信機および該受信機での方法
JP7275212B2 (ja) 送信方法、受信方法、送信装置および受信装置
JP4534168B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2006148679A (ja) データ処理装置
US20100166382A1 (en) Video and audio reproduction system, distribution device, and synchronization adjustment method
JP2000188752A (ja) 多重分離制御装置
JP3944845B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2008131341A (ja) 映像音声再生システムと映像再生装置
US20110110641A1 (en) Method for real-sense broadcasting service using device cooperation, production apparatus and play apparatus for real-sense broadcasting content thereof
JP2008153955A (ja) 映像記録再生装置、その特殊再生方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090804

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4362734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees