JP2017507560A - 2つの電子デバイスにおいて再生を同期させるための方法及び装置 - Google Patents

2つの電子デバイスにおいて再生を同期させるための方法及び装置 Download PDF

Info

Publication number
JP2017507560A
JP2017507560A JP2016546759A JP2016546759A JP2017507560A JP 2017507560 A JP2017507560 A JP 2017507560A JP 2016546759 A JP2016546759 A JP 2016546759A JP 2016546759 A JP2016546759 A JP 2016546759A JP 2017507560 A JP2017507560 A JP 2017507560A
Authority
JP
Japan
Prior art keywords
audio
electronic device
playback
decoded
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016546759A
Other languages
English (en)
Other versions
JP6721510B2 (ja
Inventor
スチュワート,ジョン,シドニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017507560A publication Critical patent/JP2017507560A/ja
Application granted granted Critical
Publication of JP6721510B2 publication Critical patent/JP6721510B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43079Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on multiple devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64707Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless for transferring content from a first network to a second network, e.g. between IP and wireless
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/647Control signaling between network components and server or clients; Network processes for video distribution between server and clients, e.g. controlling the quality of the video stream, by dropping packets, protecting content from unauthorised alteration within the network, monitoring of network load, bridging between two different networks, e.g. between IP and wireless
    • H04N21/64723Monitoring of network processes or resources, e.g. monitoring of network load

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

第1の電子デバイスにおけるビデオ及び関連する第1の音声を含む番組の再生を、第1の音声も受信する第2の電子デバイスにおける番組に関連する第2の音声の再生と同期させるための方法(400)であって、第2の電子デバイス内の第1の音声デコーダにより、第1の音声を復号し、復号された第1の音声を出力するステップ(405)と、第2の電子デバイス内の第2の音声デコーダにより、第2の音声を復号し、第2の電子デバイスにより再生するために復号された第2の音声を出力するステップ(410)と、第1の電子デバイスにおけるビデオの再生と、第2の電子デバイスにおける第2の音声の再生とを同期させるためのユーザコマンドを受信するステップ(415)とを含み、ユーザコマンドに応答して、第2の電子デバイス内のキャプチャデバイスにより、第1の電子デバイスにおける第1の音声の再生をキャプチャするステップ(505)と、第2の電子デバイスにより、出力された復号された第1の音声及びキャプチャされた第1の音声の間のオフセットを決定するステップ(510)と、第1の電子デバイスにおける第1の音声の再生が第2の電子デバイスにおける第2の音声の再生と同期するように、オフセットに応じて復号された第2の音声の出力を調整するステップ(515)とをさらに含む、方法(400)。

Description

実施形態の本原理は、一般的には2つの電子デバイスの再生を同期させるための方法及び装置に関し、より詳細には、2つの電子デバイスの一方におけるビデオ及びビデオに関連する第1の音声の再生と、他方の電子デバイスにおける第1の音声とは異なり且つビデオに関連する第2の音声の再生との同期に関する。
今日、マルチメディアストリーム又は放送番組をエンドユーザに提供するための複数の方法、たとえばブロードバンドテレビ(TV)及びモバイルTVが共存している。ブロードバンドTVでは、受信機は通常、受信デバイスに接続された、セットトップボックス(Set−Top Box)又はSTBと呼ばれる標準的なTVデバイスである。モバイルTVでは、受信機デバイスはモバイル端末、たとえば携帯電話、携帯情報端末(PDA:Personal Digital Assistant)、又はタブレットである。
MPEG−2ストリームでは、いくつかのコンポーネント、たとえば音声、ビデオが、適時にレンダリングされるように互いに同期される。これは、コンポーネント間同期と呼ばれる。一般的な例は唇同期(lip synchronization)であり、リップシンク(lip−sync)として知られているが、これは人物の唇が対応するビデオ上で動くのと全く同じ時間に音声を提供するものである。そのような同期は、典型的には特定のタイムスタンプを用いて実現される。MPEG−2ストリームでは、プレゼンテーションタイムスタンプ(Presentation Time Stamp)すなわちPTSにより、そのような同期が保証される。音声サンプルのPTSは、(MPEG−2ストリームに同様に含まれるプログラムクロックリファレンス(Program Clock Reference)すなわちPCRによって設定される)内部クロックを基準としたその提示時刻を示し、同じように、ビデオサンプルのPTSは、同様に同じ内部クロックを基準としたその提示時刻を示す。
しかしながら、2つの電子デバイスがそれぞれビデオストリーム及び音声ストリームを受信する場合、それぞれの再生同士の同期は簡単には実現できない。したがって、2つの異なる受信デバイスによりそれぞれ受信される音声及びビデオを同期させるための方法及び装置が必要となる。本発明は、これら及び/又は他の問題に対処する。
本発明の一態様によれば、第1の電子デバイスにおけるビデオ及び関連する第1の音声を含む番組の再生を、第1の音声も受信する第2の電子デバイスにおける番組に関連する第2の音声の再生と同期させるための方法が開示される。方法は、第2の電子デバイス内の第1の音声デコーダにより、第1の音声を復号し、復号された第1の音声を出力するステップと、第2の電子デバイス内の第2の音声デコーダにより、第2の音声を復号し、第2の電子デバイスにより再生するために復号された第2の音声を出力するステップと、第1の電子デバイスにおけるビデオの再生と、第2の電子デバイスにおける第2の音声の再生とを同期させるためのユーザコマンドを受信するステップとを含み、ユーザコマンドに応答して、第2の電子デバイス内のキャプチャデバイスにより、第1の電子デバイスにおける第1の音声の再生をキャプチャするステップと、第2の電子デバイスにより、出力された復号された第1の音声及びキャプチャされた第1の音声の間のオフセットを決定するステップと、第1の電子デバイスにおける第1の音声の再生が第2の電子デバイスにおける第2の音声の再生と同期するように、オフセットに応じて復号された第2の音声の出力を調整するステップとをさらに含む。
一実施形態では、ユーザコマンドは、ユーザが入力メカニズムを作動させることにより生成される。
一実施形態では、方法は、番組の通常の再生において番組の先頭から第1の時間間隔だけ離れた第1の位置から第2の電子デバイスにより第2の音声を再生するステップをさらに含み、第2の音声の再生が第1の位置にある場合に、第1の電子デバイスによる番組の再生が、通常の再生において番組の先頭から第2の時間間隔だけ離れた第2の位置にあり、第1の時間間隔及び第2の時間間隔の差が事前定義された間隔以内である。
一実施形態では、方法は、ユーザ信号に応答して第2の音声の再生を第1の位置に位置決めするステップをさらに含む。
他の実施形態では、方法は、オフセットを決定するステップが失敗した場合に、ユーザコマンドを再度入力するようにユーザに依頼するステップをさらに含み、キャプチャするステップ及びオフセットを決定するステップが反復される。
他の実施形態では、方法は、第1の音声デコーダにより、第1及び第2の音声デコーダの出力が同期されるように、オフセットに応じて復号された第1の音声を出力することで、出力を調整するステップをさらに含む。
他の実施形態では、方法は、第2の電子デバイスにより第2の音声を再生する前に、第1の音声及び第2の音声を第2の電子デバイスにダウンロードするステップをさらに含む。第1の電子デバイスにより受信される番組、並びに第2の電子デバイスにより受信される第1の音声及び第2の音声の両方を、第1のソースから、又は第2のソース及び第1のソースからそれぞれダウンロードすることができる。
他の実施形態では、方法は、オフセットに応じて、新たにキャプチャされる音声サンプルに対応する復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するステップと、決定されたプレゼンテーションタイムスタンプに関連付けられた復号された第2の音声内のサンプルを出力するステップを含む第2の音声の再生を調整するステップとをさらに含む。
本発明の他の態様によれば、第2の電子デバイスが開示される。第2の電子デバイスは、それぞれ、第2の電子デバイスにより受信された第1及び第2の音声を復号し、復号された第1及び第2の音声を出力するための第1及び第2の音声デコーダであって、第1及び第2の音声が、ビデオ及び第1の音声を含む番組に関連し、第1の電子デバイスにより再生される、第1及び第2の音声デコーダと、第1の電子デバイスにより再生される第1の音声をキャプチャするための音声キャプチャデバイスと、キャプチャされた再生第1音声及び第1の音声デコーダからの復号された第1の音声を受信する音声相関器と、第2の電子デバイスにおける第2の音声の再生を、第1の電子デバイスにおけるビデオの再生と同期させるためのユーザコマンドを受信した場合に、受信されたキャプチャされた再生第1音声と、第1の音声デコーダから出力された受信された復号された第1の音声との間のオフセットを決定するよう音声相関器に指示し、オフセットに応じて復号された第2の音声を出力するよう第2の音声デコーダに指示するように構成された、プロセッサとを備える。
一実施形態では、第2の電子デバイスは、番組の通常の再生において番組の先頭から第1の時間間隔だけ離れた第1の位置から第2の電子デバイスにより第2の音声を再生するビデオプレーヤーをさらに備え、第2の音声の再生が第1の位置にある場合に、第1の電子デバイスにおける番組の再生が、通常の再生において番組の先頭から第2の時間間隔だけ離れた第2の位置にあり、第1の時間間隔及び第2の時間間隔の差が事前定義された間隔以内である。ビデオプレーヤーは、ユーザ信号に応答して第2の音声の再生を第1の位置に位置決めすることができる。第2の電子デバイスは、ユーザがユーザコマンドを入力するための入力メカニズム(48、49)を含むことができる。オフセットの決定が失敗した場合に、プロセッサは、ユーザコマンドを再度入力するようユーザに依頼し、オフセットを再度決定するよう音声相関器に指示するように構成することができる。
一実施形態では、プロセッサは、第1及び第2の音声デコーダの出力が同期されるように、オフセットに応じて復号された第1の音声を出力することで、出力を調整するよう第1の音声デコーダに指示するように構成することができる。
他の実施形態では、第2の電子デバイスが第2の音声を再生する前に、第1の音声及び第2の音声が第2の電子デバイス(4)にダウンロードされ得る。
他の実施形態では、第1の電子デバイスにより受信される番組、並びに第2の電子デバイスにより受信される第1の音声及び第2の音声が、第1のソースから、又は第2のソース及び第1のソースからそれぞれダウンロードされる。
他の実施形態では、プロセッサは、オフセットに応じて、新たにキャプチャされる音声サンプルに対応する復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するよう音声相関器に指示し、決定されたプレゼンテーションタイムスタンプに関連する復号された第2の音声内のサンプルを出力するよう第2の音声デコーダに指示するように構成することができる。
本発明の他の態様によれば、第2の電子デバイスが開示される。第2の電子デバイスは、それぞれ、第2の電子デバイスにより受信された第1及び第2の音声を復号し、復号された第1及び第2の音声を出力するための第1及び第2の手段であって、第1及び第2の音声が、ビデオ及び第1の音声を含む番組に関連し、第1の電子デバイスにより再生される、第1及び第2の手段と、第1の電子デバイスにより再生される第1の音声をキャプチャするための手段と、キャプチャされた再生第1音声及び第1の手段からの復号された第1の音声を受信するための相関器手段と、第2の電子デバイスにおける第2の音声の再生を、第1の電子デバイスにおけるビデオの再生と同期させるためのユーザコマンドを受信した場合に、受信されたキャプチャされた再生第1音声と、第1の手段から出力された受信された復号された第1の音声との間のオフセットを決定するよう相関器手段に指示し、オフセットに応じて復号された第2の音声を出力するよう第2の手段に指示するように構成された、処理手段とを備える。第2の電子デバイスは、ユーザがユーザコマンドを入力するための手段を含むことができる。
一実施形態では、第2の電子デバイスは、番組の通常の再生において番組の先頭から第1の時間間隔だけ離れた第1の位置から第2の電子デバイスにより第2の音声を再生するビデオプレーヤーをさらに備え、第2の音声の再生が第1の位置にある場合に、第1の電子デバイスにおける番組の再生が、通常の再生において番組の先頭から第2の時間間隔だけ離れた第2の位置にあり、第1の時間間隔及び第2の時間間隔の差が事前定義された間隔以内である。ビデオプレーヤーは、ユーザ信号に応答して第2の音声の再生を第1の位置に位置決めすることができる。
他の実施形態では、オフセットの決定が失敗した場合に、処理手段は、ユーザコマンドを再度入力するようユーザに依頼し、オフセットを再度決定するよう相関器手段に指示するように構成することができる。
他の実施形態では、処理手段は、第1及び第2の手段の出力が同期されるように、オフセットに応じて復号された第1の音声を出力することで、出力を調整するよう第1の手段に指示するように構成することができる。
他の実施形態では、第2の電子デバイスが第2の音声を再生する前に、第1の音声及び第2の音声を第2の電子デバイスにダウンロードすることができる。
他の実施形態では、第1の電子デバイスにより受信される番組、並びに第2の電子デバイスにより受信される第1の音声及び第2の音声を、第1のソースから、又は第2のソース及び第1のソースからそれぞれダウンロードすることができる。
他の実施形態では、処理手段は、オフセットに応じて、新たにキャプチャされる音声サンプルに対応する復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するよう相関器手段に指示し、決定されたプレゼンテーションタイムスタンプに関連する復号された第2の音声内のサンプルを出力するよう第2の手段に指示するように構成することができる。
3つの態様全てにおいて、第1の電子デバイスは、テレビ受信機、シアタービデオ再生デバイス、及びコンピュータのうちの1つとすることができる。
添付の図面と併せて本発明の実施形態の以下の説明を参照することにより、本発明の上述及び他の特徴及び利点、並びにそれらを実現する方法がより明らかとなり、本発明がより良く理解されよう。
本発明の一例示的実施形態によるシステムの図である。 本発明の一例示的実施形態による図1に示されたシステムにおけるSTB2、TV3及びモバイル端末4のさらなる詳細の図である。 モバイル端末4のディスプレイ48上のビデオプレーヤーの一例示的ユーザインタフェースの図である。 本発明の一例示的実施形態によるTV3におけるビデオの再生とモバイル端末4における第2の音声の再生とを同期させるためにモバイル端末4において実行される一例示的処理400の図である。 本発明の一例示的実施形態によるTV3におけるビデオの再生とモバイル端末4における第2の音声の再生とを同期させるためのユーザコマンドに応答して2つの再生を同期させるための一例示的処理420の図である。
本明細書で提示された例示は本発明の好ましい実施形態を示すものであり、そのような例示はいかなる方法でも本発明の範囲を限定するものと解釈されるべきではない。
ここで図面を、より詳細には図1を参照すると、本発明の一実施形態に準拠するシステムのブロック図が示されている。第1のストリーム8は、音声−ビデオストリーム、たとえばMPEG−2トランスポートストリームであるが、ブロードバンドネットワークなど第1のネットワーク5上でビデオサーバ9により送信される。第1のストリーム8は、セットトップボックス(STB)2により受信される。第1のストリーム8は第1の音声及び関連するビデオを含む番組を搬送し、番組がSTB2により処理された後に、番組がテレビ(TV)3により再生される。当技術分野で知られているように、STB2は、第1のストリーム8に埋め込まれた同期信号を用いて、第1の音声をビデオと同期させる。したがって、TV3におけるビデオ及び第1の音声の再生は同期される。
本明細書で用いられる「同期」という用語は、音声及びビデオの時間差が、音声がビデオに対して進んでいる場合には20ミリ秒(ms)を超えず、又は音声がビデオに対して遅れている場合には40msを超えないことを意味する。
MPEG−2符号化形式が一例として使用されているが、デジタルビデオ放送(DVB:Digital Video Broadcasting)、デジタルビデオ放送−ハンドヘルド(DVB−H:Digital Video Broadcasting−Handheld)、高度テレビジョンシステム委員会−モバイル/ハンドヘルド(ATSC−M/H:Advanced Television Systems Committee−Mobile/Handheld)、及びATSC A/53による符号化も使用することができる。
さらに、第1のストリーム8は、放送源から衛星、地上波、又はケーブルを介して放送される放送番組とすることができる。第1のストリーム8は、ローカルドライブ、ネットワークドライブ、又はSTB2によりアクセス可能な他の記憶デバイスからのものとすることもできる。したがって、いくつかの実施形態では、第1のネットワーク5は必要ない。第1のストリーム8は、アナログテレビ信号を表すこともできる。一実施形態では、STB2をTV3に組み込んで、TV3が両方の機能セットを実行するようにすることもできる。
第1の音声及び第2の音声を含む第2のストリーム7は、ビデオサーバ1により第2のネットワーク6を介してモバイル端末4に送信される。第2の音声は、第1のストリーム8内のビデオに関連するものであるが、第1の音声とは異なる。たとえば、第2の音声は、第1の音声とは異なる言語を搬送する。本発明の一実施形態の原理によれば、ユーザは、TV3でビデオを見てモバイル端末4で第2の音声を聞くことを、2つの再生が同期した状態で行うことができる。
第2のストリーム7は要求に応じてモバイル端末4に送信され、また、第2のストリーム7は関連するビデオを含むことができる。第1のストリーム8は、要求に応じてSTB2に放送する又はSTB2に送信することができる。
また、第2のネットワーク6は、インターネット、衛星ネットワーク、Wi−Fiネットワーク、又はモバイル端末4により無線又は有線でアクセス可能な他のデータネットワークとすることもできる。
本実施形態によれば、第2のストリーム7は、DVB−Hネットワーク、ATSC−M/Hネットワーク、又は他の符号化規格をサポートする他のネットワークを介して、モバイル端末4がそれらの符号化形式をサポートする限り、分散させることができる。また、第2のストリーム7は、モバイル端末4によりアクセス可能な記憶デバイス、たとえばモバイル端末4に無線又は有線、たとえばUSBで接続された記憶デバイスから受信することもできる。したがって、いくつかの実施形態では、第2のネットワーク6は必要ない。モバイル端末4は、モバイル端末として示されているが、たとえばセルラー端末、タブレット、Wi−Fi受信機、DVB−T端末、DVB−H端末、及びATSC−M/H端末などのデバイスとすることができる。
STB2は、ビデオを提示するための1つ又は複数のディスプレイと、第1の音声の可聴信号を出力するための1つ又は複数のスピーカーとを備える公衆ホットスポットに配置することができる。エンドユーザは、公衆ホットスポットにいる場合、ホットスポットにおいて表示されたビデオに関連する音声をモバイル端末で聞く。本発明の一実施形態の原理によれば、モバイル端末4により再生される音声は、モバイル端末4に取り付けられた又は含まれるマイクロフォンを用いて、STB2により再生されるビデオと同期される。ホットスポット内の異なるユーザは同じビデオを見るが、たとえばそのビデオに関連する異なる言語などを搬送する異なる音声ストリームを聞く。
図2に、STB2、TV3、及びモバイル端末4のさらなる詳細を示す。前述のように、STB2の機能はTV3に組み込むことができる。STB2は、データ逆多重化器21、ビデオデコーダ23、及び音声デコーダ25を含む。TV3は、ディスプレイ31及びラウドスピーカー(loud speaker)33を含む。データ逆多重化器21は、第1のネットワーク5から受信された第1のストリーム8から第1の音声ストリーム及びビデオストリームを分離し出力する。前述のように、第1のストリーム8はネットワークからのものとして示されているが、第1のストリーム8はローカルドライブ、ネットワークドライブ、又はSTB2によりアクセス可能な他の記憶デバイスからのものでもよい。他の実施形態では、第1のストリーム8はアナログ信号である場合があり、ビデオデコーダ23及び音声デコーダ25は、たとえばビデオ復調器及び音声復調器にそれぞれ置き換えられるべきである。
そして、ビデオストリームはビデオデコーダ23により復号される。復号されたビデオ信号はTV3により受信され、ディスプレイ31に表示される。音声デコーダ25は第1の音声ストリームを復号し、復号された第1の音声信号をTV3に出力する。TV3は、復号された音声信号に応答して、スピーカー33を介して可聴出力信号、すなわち再生第1音声信号を生成する。
本実施形態におけるモバイル端末4は、メインプロセッサ40、音声キャプチャ41、音声相関器42、第1の音声デコーダ43、データ逆多重化器44、第2の音声デコーダ45、スピーカー、たとえばヘッドセット又はイヤホン46、マイクロフォン47、ディスプレイ48、及びキーボード49を含む。メインプロセッサ40は、モバイル端末4のメインコントローラである。音声キャプチャ41、音声相関器42、データ逆多重化器44、及び/又は第1及び第2の音声デコーダ43及び45などのいくつかの要素の機能は、メインプロセッサ40に組み込むことができる。
動作においては、データ逆多重化器44は、第2のネットワーク6から受信された第2のストリーム7から第1の音声ストリーム及び第2の音声ストリームを分離し抽出する。データ逆多重化器44は、第1及び第2の音声ストリームを第1の音声デコーダ43及び第2の音声デコーダ45にそれぞれ出力する。第1及び第2の音声デコーダ43及び45は、それぞれの第1及び第2の音声ストリームに応答して復号された第1及び第2の音声信号をそれぞれ生成する。ヘッドセット46は、復号された第2の音声信号を、可聴信号、すなわち再生第2音声信号としてレンダリングする。
マイクロフォン47は、スピーカー33から可聴出力信号を受信する。マイクロフォン47により受信された可聴信号は音声キャプチャ41によりデジタル化され、音声キャプチャ41はバッファとしても機能し、デジタル化された音声信号を音声相関器42に送信する。デジタル化された音声及び復号された第1の音声信号の両方が第1の音声を表すが互いに同期していない場合があることに留意されたい。
音声相関器42は、音声キャプチャ41からのデジタル化された音声信号と、第1の音声デコーダ43からの復号された第1の音声信号との間のオフセットを決定する。音声相関器42は、デジタル化された音声信号の周波数範囲の少なくとも一部を、復号された第1の音声信号の周波数範囲の少なくとも一部と相関させることにより、オフセットを決定することができる。たとえば、デジタル化された音声信号を復号された第1の音声信号と相関させることは、それぞれの信号の低音成分、センターチャネル信号成分などを用いて実行することができる。
或いは、音声相関器42は、当技術分野で知られているように復号された第1の音声信号及びデジタル化された音声信号の信号特性を解釈して、オフセットを決定することができる。たとえば、各信号の信号対雑音比を決定し相関させて、オフセット計算に関する信頼度因子(confidants factor)を与えることができる。
さらに他の代替例として、音声相関器42は、デジタル化された音声信号及び復号された第1の音声信号のピークレベル、エンベロープ及び/又は波形を解釈して、オフセットを決定することができる。
オフセットが決定されると、音声相関器42は、オフセットに応じてスピーカー46に対して復号された第2の音声信号を後退又は前進させるように第2の音声デコーダ45に通知して、モバイル端末4における第2の音声の再生がTV3におけるビデオの再生と同期されるようにする。したがって、第1の電子デバイスにおける第1の音声の再生と、第2の電子デバイスにおける第2の音声の再生との間のオフセットが解消される。たとえば、オフセットが2秒である、すなわちスピーカー33からのデジタル化された音声信号が、復号された第1の音声信号より進んでいると音声相関器42が決定した場合、第2の音声デコーダ45はスピーカー46への音声出力を2秒だけ前進させる。オフセットがマイナス2秒である、すなわちスピーカー33からのデジタル化された音声信号が、復号された第1の音声信号より遅れていると音声相関器42が決定した場合、第2の音声デコーダ45は出力音声信号を2秒前から再出力する。本実施形態では、復号された第1の音声信号は、オフセットを計算するための基準として使用され、デジタル化された音声信号を同様に基準とすることもでき、オフセットの符号は反対になる。
第2の音声デコーダ45にオフセットを通知する代わりに、音声相関器42は、決定されたオフセットに応じて最も最近受信されたデジタル化された音声信号と同期された復号された第1の音声信号のプレゼンテーションタイムスタンプ(PTS)を決定し、第2の音声デコーダ45にPTSを通知して、第2の音声デコーダ45が復号された第2の音声信号を決定されたPTSに従って出力できるようにすることができる。
音声相関器22がオフセットを決定する時間を短縮するために、及び/又は、スピーカー33からのデジタル化された音声信号及び復号された第1の音声信号を格納するためのバッファ(図示せず)のサイズを削減するために、デジタル化された音声信号及び復号された第1の音声信号の間の実際のオフセットは、所定の時間、たとえば10秒未満であるべきである。また、この手法は、第1及び第2の音声デコーダ43及び45で使用されるバッファ(図示せず)のサイズを削減することもできる。
本発明の一実施形態の原理によれば、モバイル端末4のユーザは、TV3におけるビデオの再生の経過時間を決定しなくてはならない。この情報は、当技術分野でよく知られているようにTV3のディスプレイ31上に表示することができ、又はその情報がディスプレイ31に表示されない場合、ユーザは番組の開始時刻を番組表などから調べ、現在時刻を用いて経過時間を計算することができる。番組がローカルドライブから再生される場合、ユーザは、現在時刻から再生開始時刻を減算することで経過時間を簡単に計算することができる。ユーザがビデオ信号の経過時間を決定すると、ユーザは、モバイル端末4における第2の音声の再生を、TV3におけるビデオの再生の決定された経過時間から所定のオフセット又は時間間隔、好ましくは10秒以内である経過時間を有する位置に調整しなくてはならない。そしてユーザは、入力メカニズムを作動させることで、たとえば、キーボード49の特定のキー若しくはディスプレイ48に表示された特定の仮想キーを押下することで、又はメインプロセッサがディスプレイ48若しくはカメラ(図示せず)を介して特定のジェスチャを検出できると仮定してディスプレイ48の前で特定のジェスチャを行うことで、TV3における番組の再生とモバイル端末4における第2の音声の再生とを同期させるようにモバイル端末4に指示する。
ユーザは、モバイル端末4上のウェブブラウザなどから第2の音声を選択することで、第2の音声の再生を開始することができる。第2の音声が選択された後、モバイル端末4は音声/ビデオプレーヤー300を起動し、そのユーザインタフェースはたとえば図3に示されており、第2の音声又は第2の音声及びビデオの組合せの再生を、自動で又は他のユーザ信号に応答して開始する。図3に示されるように、ステータスバー340は再生の状況を示す。現在の再生位置はインジケータ330により示され、番組の総時間はインジケータ310により示され、残り時間はインジケータ320により示される。総時間が01:15:00(1時間15分)と表示されており、残り時間が39:33(39分33秒)と表示されているので、ユーザは経過時間を35分27秒と決定することができる。ユーザは、当技術分野でよく知られているように、インジケータ330を所望の位置へドラッグするか、又はステータスバー340内の所望の位置をクリックすることで、再生位置を調整することができる。インジケータ310及び320に基づいて、ユーザは、第2の音声又は第2の音声及びビデオの組合せの再生を、TV3におけるビデオの再生から、例示的な事前定義されたオフセットである10秒以内となるように調整することができる。
当技術分野でよく知られているように、ユーザ入力は、キーボード49若しくはディスプレイ48又は両方からのものとすることができる。そして、メインプロセッサ40は、第1及び第2の音声デコーダ43及び45に、所望の同期機能を実行するように指示する。
ユーザがモバイル端末4において再生位置を選択すると、ユーザはキーボード49又はディスプレイ48を介して他の信号を入力して、TV3におけるビデオの再生とモバイル端末4における第2のビデオの再生とを同期させるようにメインプロセッサ40に要求することができる。メインプロセッサ40が2つの再生を同期させるためのユーザ信号を受信すると、メインプロセッサ40は、TV3における第1の音声の再生をキャプチャするように音声キャプチャ41を作動させ又はこれに指示し、オフセット又は所望のPTSを決定するように音声相関器42を作動させ又はこれに指示する。メインプロセッサ40に同期させるように要求する信号は、キーボード49内の特別なキー、ディスプレイ48上の特別な仮想ボタンを作動させることで、又はプロセッサ40によりタッチ感応ディスプレイ48若しくはカメラ(図示せず)を介して検出可能な特定のハンドジェスチャによって、生成することができる。
図4を参照すると、TV3におけるビデオの再生とモバイル端末4における第2の音声の再生とを同期させるためにモバイル端末4において実行される一例示的処理400が示されている。処理400は、図1〜3に示された実施形態を用いて説明される。第1の電子デバイス、例示的にはTV3は、ビデオ及び関連する第1の音声を含む番組を再生する。番組に含まれるビデオ及び第1の音声は、第1のストリーム8のコンポーネントである。第1のストリーム8はアナログ形式でもよい。第1の電子デバイスにおける番組の再生中に、第1の音声及びビデオが同期していることが仮定される。これは、第1のストリーム8に埋め込まれた同期信号を用いる、当技術分野でよく知られている事例である。第1の電子デバイスは、シアタービデオ再生デバイス又はコンピュータでもよい。
第2の電子デバイス、例示的にはモバイル端末4は、番組に関連する第2の音声を再生する。第2の電子デバイスもまた、第1の音声を受信し復号する。第2の電子デバイスにより受信される第1及び第2の音声は、第2のストリーム7のコンポーネントである。第2の電子デバイスは、モバイル端末として説明されているが、第1の電子デバイスにおける第1の音声の再生を受信可能であって、好ましくは、第2の音声の再生が第1の電子デバイスからの第1の音声の再生のキャプチャに影響しないようにするためにイヤホン出力を有する、任意の電子デバイスとすることができる。
メインプロセッサ40が音声キャプチャ41、音声相関器42、第1及び第2の音声デコーダ43及び45の機能を実行する場合、処理400はメインプロセッサ40により実行される。しかしながら、これらのコンポーネントは、メインプロセッサ40の内部ではあるが、なおも存在する。
ステップ405において、メインプロセッサ40は、第1の音声を復号し、復号された第1の音声を出力するよう第1の音声デコーダ43を起動し又はこれに指示するように動作可能である又は構成される。第1の音声デコーダ43は出力バッファを有するべきであり、出力バッファ内のどのサンプルが音声相関器42に出力されるべきかを第1の音声デコーダ43が選択できるようにする。
ステップ410において、メインプロセッサ40は、第2の音声を復号し、第2の電子デバイスにより再生するために、復号された第2の音声を出力するよう第2の音声デコーダ45を起動し又はこれに指示するように動作可能である又は構成される。第2の音声デコーダ45は出力バッファを有するべきであり、出力バッファ内のどのサンプルが再生用にヘッドセット46に出力されるべきかを第2の音声デコーダ45が選択できるようにする。
ステップ415において、メインプロセッサ40は、第1の電子デバイスにおけるビデオの再生と第2の電子デバイスにおける第2の音声の再生とを同期させるためのユーザコマンドを受信するように動作可能である又は構成される。ユーザ入力は入力メカニズムを作動させることから生成され、これは、ディスプレイ46に表示された特定のアイコン、ディスプレイ46の前での特定のユーザジェスチャ、又はキーボード49上の特定のキーとすることができる。
同期させるためのユーザコマンドに応答して、ステップ420において他の要素と協力するメインプロセッサ40は、2つの再生を同期させるように動作可能である又は構成される。ステップ420の一例示的処理フローが、図5に示されている。
ステップ505において、メインプロセッサ40は、第2の電子デバイスのキャプチャデバイス、たとえばマイクロフォン47により、第1の電子デバイスにおける第1の音声の再生をキャプチャするよう音声キャプチャ41を起動し又はこれに指示するように動作可能である又は構成される。また、メインプロセッサ40は、ステップ510において、モバイル端末4内の第1の音声デコーダ43からの復号された第1の音声と、音声キャプチャ41によりデジタル化されたキャプチャされた第1の音声との間のオフセットを決定するよう音声相関器42を起動し又はこれに指示するように動作可能である又は構成される。そして、メインプロセッサ40は、第1の電子デバイスにおける第1の音声の再生が第2の電子デバイスにおける第2の音声の再生と同期するように、復号された第2の音声の出力をオフセットに応じて調整することで第2の音声の再生を調整させるよう第2の音声デコーダ45を起動し又はこれに指示するように動作可能である又は構成される。TV3における第1の音声及びビデオの再生が同期しており、TV3における第1の音声の再生及びモバイル端末4における第2の音声の再生が同期しているので、TV3におけるビデオの再生及びモバイル端末4における第2の音声の再生もまた同期する。
他のコンポーネント、たとえば第2の音声デコーダ45、及びユーザインタフェースが図3のように表示され得るビデオプレーヤー(図示せず)と協力するメインプロセッサ40が、番組の通常の再生において番組の先頭から第1の時間間隔だけ離れた第1の位置から第2の音声を再生するように動作可能であり又は構成され、第2の音声の再生が第1の位置にある場合に、第1の電子デバイスにおける番組の再生が、通常の再生において番組の先頭から第2の時間間隔だけ離れた第2の位置にあり、第1の時間間隔及び第2の時間間隔の差が事前定義された間隔以内であることに留意されたい。
事前定義された間隔は、ユーザ調整可能とすることができ、同期を素早く実現できるように10秒以下であることが好ましい。図3に関して先に論じられたように、ユーザはユーザ信号を介して第2の音声の再生を第1の位置から開始するように調整又は位置決めすることができる。ユーザ信号に応答して、メインプロセッサ40は、第1の位置に対応する復号された第2の音声内のサンプルを出力するなどして復号された第2の音声の出力を調整するよう第2の音声デコーダ45に指示するように動作可能である又は構成される。
第2の音声をモバイル端末4に提供するサーバが、STB2に送信されるビデオの位置を知っている場合、第2の音声を提供するサーバは、送信されるビデオの現在の位置に対応する第2の音声における位置を決定し、サーバのウェブサイト上のアイコンを作動させるなどのサーバへのユーザ入力に応答して、対応する位置から第2の音声を送信することができる。したがって、第1の位置の位置決めは、モバイル端末4、又は第2の音声を送信するサーバにおいて行うことができる。
一実施形態では、第1の時間間隔及び第2の時間間隔の差が事前定義された間隔より大きい場合、メインプロセッサ40は、2つの再生を同期させるためのユーザコマンドに応答して、第1の位置を調整するようユーザに依頼するように動作可能である又は構成される。
他の実施形態において、オフセットを決定するステップが失敗した場合、メインプロセッサ40は、2つの再生を同期させるためのユーザコマンドを再度入力するようユーザに依頼するように動作可能であり又は構成され、キャプチャするステップ及びオフセットを決定するステップが反復される。
本発明の一実施形態の原理によれば、第2の音声デコーダ45からヘッドセット46に出力される復号された第2の音声が第1の位置に調整される場合、第1の音声デコーダ43の出力は、第2の音声デコーダ45の出力と同期するように自動的に調整されて、その結果復号された第1の音声内の出力サンプルが第1の位置に対応する。したがって、2つの音声デコーダの出力が同期する。すなわち、第2の音声デコーダ45からの出力サンプルは、第1の音声デコーダ43からの出力サンプルに対応する。たとえば、第1の音声デコーダ43からの現在の出力サンプルに関連付けられたPTSと、第2の音声デコーダ45からの現在の出力サンプルに関連付けられたPTSとは同一である。
したがって、メインプロセッサ40は、第1の音声デコーダ43に、第1及び第2の音声デコーダの出力が同期されるように、復号された第1の音声をオフセットに応じて出力することで、その出力を調整するように指示することができる。
他の実施形態では、メインプロセッサ40は、第1の電子デバイスにおけるビデオの再生と第2の電子デバイスにおける第2の音声の再生とを同期させるためのユーザコマンドの発生の受信に応答して、第1の音声デコーダ43に第2の音声デコーダ45と同期するように指示することができる。
第1及び第2の音声デコーダ43及び45の出力を同期させる利点は、第1の電子デバイスにおけるビデオの再生と第2の電子デバイスにおける第2の音声の再生とを同期させるためのユーザコマンドをユーザがいつでも送信でき、2つの音声デコーダが本発明の本実施形態に従ってすぐに同期を実行できるということである。
他の実施形態では、モバイル端末4が第2の音声を再生する前に、第1及び第2の音声はモバイル端末4に事前にダウンロードされる。一実施形態では、第2の音声の再生は、モバイル端末4により受信されたビデオの再生を含むことができる。
一実施形態では、第1及び第2の音声は、同一のソース、たとえば番組を第1の電子デバイスに送信するサービスプロバイダの同一のウェブサイトから、第2の電子デバイスにダウンロードすることができる。他の実施形態では、第2の音声は、番組を第1の電子デバイスに送信するソースとは異なるソースからダウンロードすることができる。たとえば、STB2により受信される番組は、サービスプロバイダの放送源から受信され、第2の電子デバイスにより受信される第2の音声は、サービスプロバイダがスポンサーであるウェブサイトからダウンロードされる。
実際には、第2の電子デバイスにより第2の音声を受信する帯域幅が狭すぎる場合、ユーザは第2の音声を受信するために他のソースに切り替えることができる。これは、ユーザが非常に低い帯域幅を有するストリーミング源を選択し、ユーザが第2の音声の再生を第1の位置に調整できない場合に起こり得る。
他の実施形態では、メインプロセッサ40は、オフセットに応じてPTSを決定し、PTSを第2の音声デコーダ45に提供するよう音声相関器42に指示するように動作可能であり又は構成され、第2の音声デコーダ45は、PTSに関連付けられた復号されたサンプルから出力しなくてはならない。他の実施形態では、メインプロセッサ40は、同一のPTSを第1の音声デコーダ43に提供するよう音声相関器42に指示するように動作可能であり又は構成され、その結果、第1の音声デコーダ43は、PTSに関連付けられた復号されたサンプルから出力しなくてはならない。音声相関器42は、オフセットを決定すると、以下のようにPTSを決定することができる。すなわち、次に受信されるキャプチャされた音声サンプルに対応するはずである第1の音声デコーダ43からの復号された音声サンプルを決定し、対応する復号された第1の音声サンプルのPTSを所望のPTSと決定する。
TV3のスピーカー33からの再生音声をキャプチャするためのキャプチャデバイスの一例としてマイクロフォン47が使用されているが、キャプチャデバイスは無線受信機、たとえばモバイル端末4におけるブルートゥース(登録商標)(Bluetooth)受信機でもよく、キャプチャされる第1の音声信号は単純に、無線端末4へ無線で送信されるSTB2からの音声デコーダ25からの復号された第1の音声信号である。
本発明は好ましい設計を有するものとして説明されているが、本発明は、本開示の趣旨及び範囲内でさらに修正することができる。したがって、本出願は、その一般的な原理を用いた本発明のいかなる変形、使用、又は適合も含むものとする。さらに、本出願は、本発明が関連する当技術分野における既知又は習慣的な行為に入るような、添付の特許請求の範囲の限定に入る、本開示からの逸脱を含むものとする。
本発明は好ましい設計を有するものとして説明されているが、本発明は、本開示の趣旨及び範囲内でさらに修正することができる。したがって、本出願は、その一般的な原理を用いた本発明のいかなる変形、使用、又は適合も含むものとする。さらに、本出願は、本発明が関連する当技術分野における既知又は習慣的な行為に入るような、添付の特許請求の範囲の限定に入る、本開示からの逸脱を含むものとする。
ここで例としていくつかの付記を記載する。
(付記1)
第1の電子デバイスにおけるビデオ及び関連する第1の音声を含む番組の再生を、前記第1の音声も受信する第2の電子デバイスにおける前記番組に関連する第2の音声の再生と同期させるための方法であって、
前記第2の電子デバイス内の第1の音声デコーダにより、前記第1の音声を復号し、前記復号された第1の音声を出力するステップと、
前記第2の電子デバイス内の第2の音声デコーダにより、前記第2の音声を復号し、前記第2の電子デバイスにより再生するために前記復号された第2の音声を出力するステップと、
前記第1の電子デバイスにおける前記ビデオの再生と、前記第2の電子デバイスにおける前記第2の音声の再生とを同期させるためのユーザコマンドを受信するステップと
を含み、
前記ユーザコマンドに応答して、
前記第2の電子デバイス内のキャプチャデバイスにより、前記第1の電子デバイスにおける前記第1の音声の再生をキャプチャするステップと、
前記第2の電子デバイスにより、前記出力された復号された第1の音声及び前記キャプチャされた第1の音声の間のオフセットを決定するステップと、
前記第1の電子デバイスにおける前記第1の音声の再生が前記第2の電子デバイスにおける前記第2の音声の再生と同期するように、前記オフセットに応じて前記復号された第2の音声の出力を調整するステップと
をさらに含む、方法。
(付記2)
前記番組の通常の再生において前記番組の先頭から第1の時間間隔だけ離れた第1の位置から前記第2の電子デバイスにより前記第2の音声を再生するステップをさらに含み、前記第2の音声の再生が前記第1の位置にある場合に、前記第1の電子デバイスによる前記番組の再生が、通常の再生において前記番組の前記先頭から第2の時間間隔だけ離れた第2の位置にあり、前記第1の時間間隔及び前記第2の時間間隔の差が事前定義された間隔以内である、付記1に記載の方法。
(付記3)
ユーザ信号に応答して前記第2の音声の再生を前記第1の位置に位置決めするステップをさらに含む、付記2に記載の方法。
(付記4)
前記オフセットを決定するステップが失敗した場合に、前記ユーザコマンドを再度入力するようにユーザに依頼するステップをさらに含み、キャプチャする前記ステップ及び前記オフセットを決定する前記ステップが反復される、付記1に記載の方法。
(付記5)
前記第1の音声デコーダにより、前記第1及び第2の音声デコーダの出力が同期されるように、前記オフセットに応じて前記復号された第1の音声を出力することで、出力を調整するステップをさらに含む、付記1に記載の方法。
(付記6)
前記第2の電子デバイスにより前記第2の音声を再生する前に、前記第1の音声及び前記第2の音声を前記第2の電子デバイスにダウンロードするステップをさらに含む、付記1に記載の方法。
(付記7)
前記第1の電子デバイスにより受信される前記番組、並びに前記第2の電子デバイスにより受信される前記第1の音声及び前記第2の音声が、第1のソースからダウンロードされる、付記6に記載の方法。
(付記8)
前記第1の電子デバイスにより受信される前記番組が、前記第1及び第2の音声を前記第2の電子デバイスにダウンロードするための第1のソースとは異なる第2のソースからダウンロードされる、付記6に記載の方法。
(付記9)
前記ユーザコマンドが、ユーザが入力メカニズムを作動させることにより生成される、付記1に記載の方法。
(付記10)
前記オフセットに応じて、新たにキャプチャされる音声サンプルに対応する前記復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するステップと、前記決定されたプレゼンテーションタイムスタンプに関連付けられた前記復号された第2の音声内のサンプルを出力するステップを含む前記第2の音声の再生を調整するステップとをさらに含む、付記1に記載の方法。
(付記11)
前記第1の電子デバイスが、テレビ受信機、シアタービデオ再生デバイス、及びコンピュータのうちの1つである、付記1に記載の方法。
(付記12)
第2の電子デバイスであって、
それぞれ、前記第2の電子デバイスにより受信された第1及び第2の音声を復号し、前記復号された第1及び第2の音声を出力するための第1及び第2の音声デコーダであって、前記第1及び第2の音声が、ビデオ及び前記第1の音声を含む番組に関連し、第1の電子デバイスにより再生される、第1及び第2の音声デコーダと、
前記第1の電子デバイスにより再生される前記第1の音声をキャプチャするための音声キャプチャデバイスと、
前記キャプチャされた再生第1音声及び前記第1の音声デコーダからの前記復号された第1の音声を受信する音声相関器と、
前記第2の電子デバイスにおける前記第2の音声の再生を、前記第1の電子デバイスにおける前記ビデオの再生と同期させるためのユーザコマンドを受信した場合に、前記受信されたキャプチャされた再生第1音声と、前記第1の音声デコーダから出力された前記受信された復号された第1の音声との間のオフセットを決定するよう前記音声相関器に指示し、前記オフセットに応じて前記復号された第2の音声を出力するよう前記第2の音声デコーダに指示するように構成された、プロセッサと
を備える、第2の電子デバイス。
(付記13)
前記番組の通常の再生において前記番組の先頭から第1の時間間隔だけ離れた第1の位置から前記第2の電子デバイスにより前記第2の音声を再生するビデオプレーヤーをさらに備え、前記第2の音声の再生が前記第1の位置にある場合に、前記第1の電子デバイスにおける前記番組の再生が、通常の再生において前記番組の前記先頭から第2の時間間隔だけ離れた第2の位置にあり、前記第1の時間間隔及び前記第2の時間間隔の差が事前定義された間隔以内である、付記12に記載の第2の電子デバイス。
(付記14)
前記ビデオプレーヤーが、ユーザ信号に応答して前記第2の音声の再生を前記第1の位置に位置決めする、付記13に記載の第2の電子デバイス。
(付記15)
前記オフセットの決定が失敗した場合に、前記プロセッサが、前記ユーザコマンドを再度入力するようユーザに依頼し、前記オフセットを再度決定するよう前記音声相関器に指示するように構成される、付記12に記載の第2の電子デバイス。
(付記16)
前記プロセッサが、前記第1及び第2の音声デコーダの出力が同期されるように、前記オフセットに応じて前記復号された第1の音声を出力することで、出力を調整するよう前記第1の音声デコーダに指示するように構成された、付記12に記載の第2の電子デバイス。
(付記17)
前記第2の電子デバイスが前記第2の音声を再生する前に、前記第1の音声及び前記第2の音声が前記第2の電子デバイスにダウンロードされる、付記12に記載の第2の電子デバイス。
(付記18)
前記第1の電子デバイスにより受信される前記番組、並びに前記第2の電子デバイスにより受信される前記第1の音声及び前記第2の音声が、第1のソースからダウンロードされる、付記17に記載の第2の電子デバイス。
(付記19)
前記第1の電子デバイスにより受信される前記番組が、前記第1及び第2の音声を前記第2の電子デバイスにダウンロードするための第1のソースとは異なる第2のソースからダウンロードされる、付記17に記載の第2の電子デバイス。
(付記20)
ユーザが前記ユーザコマンドを入力するための入力メカニズムをさらに備える、付記12に記載の第2の電子デバイス。
(付記21)
前記プロセッサが、前記オフセットに応じて、新たにキャプチャされる音声サンプルに対応する前記復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するよう前記音声相関器に指示し、前記決定されたプレゼンテーションタイムスタンプに関連する前記復号された第2の音声内のサンプルを出力するよう前記第2の音声デコーダに指示するように構成された、付記12に記載の第2の電子デバイス。
(付記22)
前記第1の電子デバイスが、テレビ受信機、シアタービデオ再生デバイス、及びコンピュータのうちの1つである、付記12に記載の第2の電子デバイス。
(付記23)
第2の電子デバイスであって、
それぞれ、前記第2の電子デバイスにより受信された第1及び第2の音声を復号し、前記復号された第1及び第2の音声を出力するための第1及び第2の手段であって、前記第1及び第2の音声が、ビデオ及び前記第1の音声を含む番組に関連し、第1の電子デバイスにより再生される、第1及び第2の手段と、
前記第1の電子デバイスにより再生される前記第1の音声をキャプチャするための手段と、
前記キャプチャされた再生第1音声及び前記第1の手段からの前記復号された第1の音声を受信するための相関器手段と、
前記第2の電子デバイスにおける前記第2の音声の再生を、前記第1の電子デバイスにおける前記ビデオの再生と同期させるためのユーザコマンドを受信した場合に、前記受信されたキャプチャされた再生第1音声と、前記第1の手段から出力された前記受信された復号された第1の音声との間のオフセットを決定するよう前記相関器手段に指示し、前記オフセットに応じて前記復号された第2の音声を出力するよう前記第2の手段に指示するように構成された、処理手段と
を備える、第2の電子デバイス。
(付記24)
前記番組の通常の再生において前記番組の先頭から第1の時間間隔だけ離れた第1の位置から前記第2の電子デバイスにより前記第2の音声を再生するビデオプレーヤーをさらに備え、前記第2の音声の再生が前記第1の位置にある場合に、前記第1の電子デバイスにおける前記番組の再生が、通常の再生において前記番組の前記先頭から第2の時間間隔だけ離れた第2の位置にあり、前記第1の時間間隔及び前記第2の時間間隔の差が事前定義された間隔以内である、付記23に記載の第2の電子デバイス。
(付記25)
前記ビデオプレーヤーが、ユーザ信号に応答して前記第2の音声の再生を前記第1の位置に位置決めする、付記24に記載の第2の電子デバイス。
(付記26)
前記オフセットの決定が失敗した場合に、前記処理手段が、前記ユーザコマンドを再度入力するようユーザに依頼し、前記オフセットを再度決定するよう前記相関器手段に指示するように構成される、付記23に記載の第2の電子デバイス。
(付記27)
前記処理手段が、前記第1及び第2の手段の出力が同期されるように、前記オフセットに応じて前記復号された第1の音声を出力することで、出力を調整するよう前記第1の手段に指示するように構成された、付記23に記載の第2の電子デバイス。
(付記28)
前記第2の電子デバイスが前記第2の音声を再生する前に、前記第1の音声及び前記第2の音声が前記第2の電子デバイスにダウンロードされる、付記23に記載の第2の電子デバイス。
(付記29)
前記第1の電子デバイスにより受信される前記番組、並びに前記第2の電子デバイスにより受信される前記第1の音声及び前記第2の音声が、第1のソースからダウンロードされる、付記28に記載の第2の電子デバイス。
(付記30)
前記第1の電子デバイスにより受信される前記番組が、前記第1及び第2の音声を前記第2の電子デバイスにダウンロードするための第1のソースとは異なる第2のソースからダウンロードされる、付記28に記載の第2の電子デバイス。
(付記31)
ユーザが前記ユーザコマンドを入力するための入力手段をさらに備える、付記23に記載の第2の電子デバイス。
(付記32)
前記処理手段が、前記オフセットに応じて、新たにキャプチャされる音声サンプルに対応する前記復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するよう前記相関器手段に指示し、前記決定されたプレゼンテーションタイムスタンプに関連する前記復号された第2の音声内のサンプルを出力するよう前記第2の手段に指示するように構成された、付記23に記載の第2の電子デバイス。
(付記33)
前記第1の電子デバイスが、テレビ受信機、シアタービデオ再生デバイス、及びコンピュータのうちの1つである、付記23に記載の第2の電子デバイス。

Claims (33)

  1. 第1の電子デバイスにおけるビデオ及び関連する第1の音声を含む番組の再生を、前記第1の音声も受信する第2の電子デバイスにおける前記番組に関連する第2の音声の再生と同期させるための方法であって、
    前記第2の電子デバイス内の第1の音声デコーダにより、前記第1の音声を復号し、前記復号された第1の音声を出力するステップと、
    前記第2の電子デバイス内の第2の音声デコーダにより、前記第2の音声を復号し、前記第2の電子デバイスにより再生するために前記復号された第2の音声を出力するステップと、
    前記第1の電子デバイスにおける前記ビデオの再生と、前記第2の電子デバイスにおける前記第2の音声の再生とを同期させるためのユーザコマンドを受信するステップと
    を含み、
    前記ユーザコマンドに応答して、
    前記第2の電子デバイス内のキャプチャデバイスにより、前記第1の電子デバイスにおける前記第1の音声の再生をキャプチャするステップと、
    前記第2の電子デバイスにより、前記出力された復号された第1の音声及び前記キャプチャされた第1の音声の間のオフセットを決定するステップと、
    前記第1の電子デバイスにおける前記第1の音声の再生が前記第2の電子デバイスにおける前記第2の音声の再生と同期するように、前記オフセットに応じて前記復号された第2の音声の出力を調整するステップと
    をさらに含む、方法。
  2. 前記番組の通常の再生において前記番組の先頭から第1の時間間隔だけ離れた第1の位置から前記第2の電子デバイスにより前記第2の音声を再生するステップをさらに含み、前記第2の音声の再生が前記第1の位置にある場合に、前記第1の電子デバイスによる前記番組の再生が、通常の再生において前記番組の前記先頭から第2の時間間隔だけ離れた第2の位置にあり、前記第1の時間間隔及び前記第2の時間間隔の差が事前定義された間隔以内である、請求項1に記載の方法。
  3. ユーザ信号に応答して前記第2の音声の再生を前記第1の位置に位置決めするステップをさらに含む、請求項2に記載の方法。
  4. 前記オフセットを決定するステップが失敗した場合に、前記ユーザコマンドを再度入力するようにユーザに依頼するステップをさらに含み、キャプチャする前記ステップ及び前記オフセットを決定する前記ステップが反復される、請求項1に記載の方法。
  5. 前記第1の音声デコーダにより、前記第1及び第2の音声デコーダの出力が同期されるように、前記オフセットに応じて前記復号された第1の音声を出力することで、出力を調整するステップをさらに含む、請求項1に記載の方法。
  6. 前記第2の電子デバイスにより前記第2の音声を再生する前に、前記第1の音声及び前記第2の音声を前記第2の電子デバイスにダウンロードするステップをさらに含む、請求項1に記載の方法。
  7. 前記第1の電子デバイスにより受信される前記番組、並びに前記第2の電子デバイスにより受信される前記第1の音声及び前記第2の音声が、第1のソースからダウンロードされる、請求項6に記載の方法。
  8. 前記第1の電子デバイスにより受信される前記番組が、前記第1及び第2の音声を前記第2の電子デバイスにダウンロードするための第1のソースとは異なる第2のソースからダウンロードされる、請求項6に記載の方法。
  9. 前記ユーザコマンドが、ユーザが入力メカニズムを作動させることにより生成される、請求項1に記載の方法。
  10. 前記オフセットに応じて、新たにキャプチャされる音声サンプルに対応する前記復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するステップと、前記決定されたプレゼンテーションタイムスタンプに関連付けられた前記復号された第2の音声内のサンプルを出力するステップを含む前記第2の音声の再生を調整するステップとをさらに含む、請求項1に記載の方法。
  11. 前記第1の電子デバイスが、テレビ受信機、シアタービデオ再生デバイス、及びコンピュータのうちの1つである、請求項1に記載の方法。
  12. 第2の電子デバイスであって、
    それぞれ、前記第2の電子デバイスにより受信された第1及び第2の音声を復号し、前記復号された第1及び第2の音声を出力するための第1及び第2の音声デコーダであって、前記第1及び第2の音声が、ビデオ及び前記第1の音声を含む番組に関連し、第1の電子デバイスにより再生される、第1及び第2の音声デコーダと、
    前記第1の電子デバイスにより再生される前記第1の音声をキャプチャするための音声キャプチャデバイスと、
    前記キャプチャされた再生第1音声及び前記第1の音声デコーダからの前記復号された第1の音声を受信する音声相関器と、
    前記第2の電子デバイスにおける前記第2の音声の再生を、前記第1の電子デバイスにおける前記ビデオの再生と同期させるためのユーザコマンドを受信した場合に、前記受信されたキャプチャされた再生第1音声と、前記第1の音声デコーダから出力された前記受信された復号された第1の音声との間のオフセットを決定するよう前記音声相関器に指示し、前記オフセットに応じて前記復号された第2の音声を出力するよう前記第2の音声デコーダに指示するように構成された、プロセッサと
    を備える、第2の電子デバイス。
  13. 前記番組の通常の再生において前記番組の先頭から第1の時間間隔だけ離れた第1の位置から前記第2の電子デバイスにより前記第2の音声を再生するビデオプレーヤーをさらに備え、前記第2の音声の再生が前記第1の位置にある場合に、前記第1の電子デバイスにおける前記番組の再生が、通常の再生において前記番組の前記先頭から第2の時間間隔だけ離れた第2の位置にあり、前記第1の時間間隔及び前記第2の時間間隔の差が事前定義された間隔以内である、請求項12に記載の第2の電子デバイス。
  14. 前記ビデオプレーヤーが、ユーザ信号に応答して前記第2の音声の再生を前記第1の位置に位置決めする、請求項13に記載の第2の電子デバイス。
  15. 前記オフセットの決定が失敗した場合に、前記プロセッサが、前記ユーザコマンドを再度入力するようユーザに依頼し、前記オフセットを再度決定するよう前記音声相関器に指示するように構成される、請求項12に記載の第2の電子デバイス。
  16. 前記プロセッサが、前記第1及び第2の音声デコーダの出力が同期されるように、前記オフセットに応じて前記復号された第1の音声を出力することで、出力を調整するよう前記第1の音声デコーダに指示するように構成された、請求項12に記載の第2の電子デバイス。
  17. 前記第2の電子デバイスが前記第2の音声を再生する前に、前記第1の音声及び前記第2の音声が前記第2の電子デバイスにダウンロードされる、請求項12に記載の第2の電子デバイス。
  18. 前記第1の電子デバイスにより受信される前記番組、並びに前記第2の電子デバイスにより受信される前記第1の音声及び前記第2の音声が、第1のソースからダウンロードされる、請求項17に記載の第2の電子デバイス。
  19. 前記第1の電子デバイスにより受信される前記番組が、前記第1及び第2の音声を前記第2の電子デバイスにダウンロードするための第1のソースとは異なる第2のソースからダウンロードされる、請求項17に記載の第2の電子デバイス。
  20. ユーザが前記ユーザコマンドを入力するための入力メカニズムをさらに備える、請求項12に記載の第2の電子デバイス。
  21. 前記プロセッサが、前記オフセットに応じて、新たにキャプチャされる音声サンプルに対応する前記復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するよう前記音声相関器に指示し、前記決定されたプレゼンテーションタイムスタンプに関連する前記復号された第2の音声内のサンプルを出力するよう前記第2の音声デコーダに指示するように構成された、請求項12に記載の第2の電子デバイス。
  22. 前記第1の電子デバイスが、テレビ受信機、シアタービデオ再生デバイス、及びコンピュータのうちの1つである、請求項12に記載の第2の電子デバイス。
  23. 第2の電子デバイスであって、
    それぞれ、前記第2の電子デバイスにより受信された第1及び第2の音声を復号し、前記復号された第1及び第2の音声を出力するための第1及び第2の手段であって、前記第1及び第2の音声が、ビデオ及び前記第1の音声を含む番組に関連し、第1の電子デバイスにより再生される、第1及び第2の手段と、
    前記第1の電子デバイスにより再生される前記第1の音声をキャプチャするための手段と、
    前記キャプチャされた再生第1音声及び前記第1の手段からの前記復号された第1の音声を受信するための相関器手段と、
    前記第2の電子デバイスにおける前記第2の音声の再生を、前記第1の電子デバイスにおける前記ビデオの再生と同期させるためのユーザコマンドを受信した場合に、前記受信されたキャプチャされた再生第1音声と、前記第1の手段から出力された前記受信された復号された第1の音声との間のオフセットを決定するよう前記相関器手段に指示し、前記オフセットに応じて前記復号された第2の音声を出力するよう前記第2の手段に指示するように構成された、処理手段と
    を備える、第2の電子デバイス。
  24. 前記番組の通常の再生において前記番組の先頭から第1の時間間隔だけ離れた第1の位置から前記第2の電子デバイスにより前記第2の音声を再生するビデオプレーヤーをさらに備え、前記第2の音声の再生が前記第1の位置にある場合に、前記第1の電子デバイスにおける前記番組の再生が、通常の再生において前記番組の前記先頭から第2の時間間隔だけ離れた第2の位置にあり、前記第1の時間間隔及び前記第2の時間間隔の差が事前定義された間隔以内である、請求項23に記載の第2の電子デバイス。
  25. 前記ビデオプレーヤーが、ユーザ信号に応答して前記第2の音声の再生を前記第1の位置に位置決めする、請求項24に記載の第2の電子デバイス。
  26. 前記オフセットの決定が失敗した場合に、前記処理手段が、前記ユーザコマンドを再度入力するようユーザに依頼し、前記オフセットを再度決定するよう前記相関器手段に指示するように構成される、請求項23に記載の第2の電子デバイス。
  27. 前記処理手段が、前記第1及び第2の手段の出力が同期されるように、前記オフセットに応じて前記復号された第1の音声を出力することで、出力を調整するよう前記第1の手段に指示するように構成された、請求項23に記載の第2の電子デバイス。
  28. 前記第2の電子デバイスが前記第2の音声を再生する前に、前記第1の音声及び前記第2の音声が前記第2の電子デバイスにダウンロードされる、請求項23に記載の第2の電子デバイス。
  29. 前記第1の電子デバイスにより受信される前記番組、並びに前記第2の電子デバイスにより受信される前記第1の音声及び前記第2の音声が、第1のソースからダウンロードされる、請求項28に記載の第2の電子デバイス。
  30. 前記第1の電子デバイスにより受信される前記番組が、前記第1及び第2の音声を前記第2の電子デバイスにダウンロードするための第1のソースとは異なる第2のソースからダウンロードされる、請求項28に記載の第2の電子デバイス。
  31. ユーザが前記ユーザコマンドを入力するための入力手段をさらに備える、請求項23に記載の第2の電子デバイス。
  32. 前記処理手段が、前記オフセットに応じて、新たにキャプチャされる音声サンプルに対応する前記復号された第1の音声内のサンプルに関連付けられたプレゼンテーションタイムスタンプを決定するよう前記相関器手段に指示し、前記決定されたプレゼンテーションタイムスタンプに関連する前記復号された第2の音声内のサンプルを出力するよう前記第2の手段に指示するように構成された、請求項23に記載の第2の電子デバイス。
  33. 前記第1の電子デバイスが、テレビ受信機、シアタービデオ再生デバイス、及びコンピュータのうちの1つである、請求項23に記載の第2の電子デバイス。
JP2016546759A 2014-01-31 2014-01-31 2つの電子デバイスにおいて再生を同期させるための方法及び装置 Expired - Fee Related JP6721510B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2014/014146 WO2015116162A1 (en) 2014-01-31 2014-01-31 Method and apparatus for synchronizing playbacks at two electronic devices

Publications (2)

Publication Number Publication Date
JP2017507560A true JP2017507560A (ja) 2017-03-16
JP6721510B2 JP6721510B2 (ja) 2020-07-15

Family

ID=50102277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016546759A Expired - Fee Related JP6721510B2 (ja) 2014-01-31 2014-01-31 2つの電子デバイスにおいて再生を同期させるための方法及び装置

Country Status (6)

Country Link
US (1) US10250927B2 (ja)
EP (1) EP3100458B1 (ja)
JP (1) JP6721510B2 (ja)
KR (1) KR102179321B1 (ja)
CN (1) CN105940679B (ja)
WO (1) WO2015116162A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7102826B2 (ja) 2018-03-23 2022-07-20 ヤマハ株式会社 情報処理方法および情報処理装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3100458B1 (en) * 2014-01-31 2018-08-15 Thomson Licensing Method and apparatus for synchronizing the playback of two electronic devices
FR3030979A1 (fr) * 2014-12-17 2016-06-24 Orange Procede de controle de la restitution d' un flux media lors d' un appel telephonique
CN105338393A (zh) * 2015-10-29 2016-02-17 小米科技有限责任公司 媒体同步方法和装置
EP3226570A1 (en) * 2016-03-31 2017-10-04 Thomson Licensing Synchronizing audio and video signals rendered on different devices
US9854302B1 (en) * 2016-06-23 2017-12-26 Bryan Nunes Multimedia servers that broadcast a channel listing and packet-switched audio
CN106412665A (zh) * 2016-10-18 2017-02-15 北京小米移动软件有限公司 多媒体的同步播放控制方法、装置及系统
EP3534618A4 (en) * 2016-10-27 2020-06-03 Evixar Inc. CONTENT REPRODUCING PROGRAM AND CONTENT REPRODUCING APPARATUS
US10892833B2 (en) 2016-12-09 2021-01-12 Arris Enterprises Llc Calibration device, method and program for achieving synchronization between audio and video data when using Bluetooth audio devices
US10764631B2 (en) 2018-06-04 2020-09-01 Dish Network L.L.C. Synchronizing audio of a secondary-language audio track
AU2021221165A1 (en) * 2020-02-13 2022-09-29 Pacers Basketball, LLC Technologies for communicating an enhanced event experience
US11601691B2 (en) 2020-05-04 2023-03-07 Kilburn Live, Llc Method and apparatus for providing audio and video within an acceptable delay tolerance
FR3111497A1 (fr) * 2020-06-12 2021-12-17 Orange Procédé de gestion de la restitution d’un contenu multimédia sur des dispositifs de restitution.
CN114339326B (zh) * 2021-12-10 2023-06-27 北京拼响天空文化科技有限公司 基于视频播放的声画同步方法、装置和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011302A (ja) * 2006-06-30 2008-01-17 Sanyo Electric Co Ltd デジタル放送受信機
US20080209482A1 (en) * 2007-02-28 2008-08-28 Meek Dennis R Methods, systems. and products for retrieving audio signals
JP2013115782A (ja) * 2011-11-30 2013-06-10 Toshiba Corp 電子機器及び音声出力方法
US20130177286A1 (en) * 2012-01-09 2013-07-11 Mozaik Multimedia, Inc Noninvasive accurate audio synchronization
JP2014000831A (ja) * 2012-06-15 2014-01-09 Sumitomo Wiring Syst Ltd 車両用電子制御ユニット

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5040081A (en) * 1986-09-23 1991-08-13 Mccutchen David Audiovisual synchronization signal generator using audio signature comparison
US5055939A (en) 1987-12-15 1991-10-08 Karamon John J Method system & apparatus for synchronizing an auxiliary sound source containing multiple language channels with motion picture film video tape or other picture source containing a sound track
US5642171A (en) 1994-06-08 1997-06-24 Dell Usa, L.P. Method and apparatus for synchronizing audio and video data streams in a multimedia system
MXPA03010751A (es) 2001-05-25 2005-03-07 Dolby Lab Licensing Corp Segmentacion de senales de audio en eventos auditivos.
CN1742492B (zh) 2003-02-14 2011-07-20 汤姆森特许公司 媒体内容的基于音频和视频的媒体服务的自动同步
CN1728794A (zh) 2004-07-28 2006-02-01 上海乐金广电电子有限公司 视频来源设备中的音频信号传送方法及其装置
US8015306B2 (en) * 2005-01-05 2011-09-06 Control4 Corporation Method and apparatus for synchronizing playback of streaming media in multiple output devices
JP2006324960A (ja) 2005-05-19 2006-11-30 Toshiba Corp 無線通信装置
JP4834340B2 (ja) 2005-07-14 2011-12-14 キヤノン株式会社 情報処理装置及びその方法とプログラム
US7681052B2 (en) 2005-11-10 2010-03-16 Microsemi Corp. - Analog Mixed Signal Group Ltd. Enhanced classification for power over ethernet
US7907212B2 (en) 2006-03-20 2011-03-15 Vixs Systems, Inc. Multiple path audio video synchronization
JP4748075B2 (ja) 2007-02-07 2011-08-17 カシオ計算機株式会社 画像同期システム及び画像同期方法
US20080219641A1 (en) * 2007-03-09 2008-09-11 Barry Sandrew Apparatus and method for synchronizing a secondary audio track to the audio track of a video source
BRPI0816903A2 (pt) 2007-09-21 2015-03-17 Thomson Licensing Aparelho e método para a sincronização de sinais observáveis por usuário
EP2043323A1 (en) 2007-09-28 2009-04-01 THOMSON Licensing Communication device able to synchronise the received stream with that sent to another device
TW201015997A (en) 2008-10-03 2010-04-16 Aonvision Technology Corp System for listening multiple sound tracks
US8111843B2 (en) 2008-11-11 2012-02-07 Motorola Solutions, Inc. Compensation for nonuniform delayed group communications
JP2010171626A (ja) 2009-01-21 2010-08-05 Olympus Corp 動画生成装置および動画生成方法
JP2010206593A (ja) 2009-03-04 2010-09-16 Sony Corp 画像処理装置、画像処理方法、及びプログラム
WO2010122447A1 (en) 2009-04-20 2010-10-28 Koninklijke Philips Electronics N.V. Verification and synchronization of files obtained separately from a video content
US20120102233A1 (en) * 2009-05-27 2012-04-26 Ajay Shah Synchronized delivery of interactive content using standardized vectors
JP2011188289A (ja) 2010-03-09 2011-09-22 Olympus Imaging Corp 画像音声記録システム
US8831761B2 (en) * 2010-06-02 2014-09-09 Sony Corporation Method for determining a processed audio signal and a handheld device
US8640181B1 (en) * 2010-09-15 2014-01-28 Mlb Advanced Media, L.P. Synchronous and multi-sourced audio and video broadcast
KR101841313B1 (ko) 2010-09-22 2018-03-22 톰슨 라이센싱 멀티미디어 흐름 처리 방법 및 대응하는 장치
GB201017174D0 (en) * 2010-10-12 2010-11-24 Muvemedia Ltd System and method for delivering multilingual video or film sound tracks or multilingual spoken or sung dialog for synchronization and playback
US20120105719A1 (en) 2010-10-29 2012-05-03 Lsi Corporation Speech substitution of a real-time multimedia presentation
US20130124664A1 (en) * 2011-11-16 2013-05-16 Motorola Mobility, Inc Coordinating media presentations among peer devices
US9118951B2 (en) * 2012-06-26 2015-08-25 Arris Technology, Inc. Time-synchronizing a parallel feed of secondary content with primary media content
US9596386B2 (en) * 2012-07-24 2017-03-14 Oladas, Inc. Media synchronization
US8726304B2 (en) * 2012-09-13 2014-05-13 Verance Corporation Time varying evaluation of multimedia content
CN103237203B (zh) 2013-04-09 2016-03-02 广东欧珀移动通信有限公司 一种基于移动终端的音视频同步方法及系统
US9628837B2 (en) * 2013-08-07 2017-04-18 AudioStreamTV Inc. Systems and methods for providing synchronized content
US9210204B2 (en) * 2013-10-31 2015-12-08 At&T Intellectual Property I, Lp Synchronizing media presentation at multiple devices
US20160345051A1 (en) * 2014-01-31 2016-11-24 Thomson Licensing Method and apparatus for synchronizing playbacks at two electronic devices
EP3100458B1 (en) * 2014-01-31 2018-08-15 Thomson Licensing Method and apparatus for synchronizing the playback of two electronic devices
CN105376628B (zh) * 2014-08-27 2018-09-21 深圳Tcl新技术有限公司 音视频信号同步方法和装置
US9693165B2 (en) * 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011302A (ja) * 2006-06-30 2008-01-17 Sanyo Electric Co Ltd デジタル放送受信機
US20080209482A1 (en) * 2007-02-28 2008-08-28 Meek Dennis R Methods, systems. and products for retrieving audio signals
JP2013115782A (ja) * 2011-11-30 2013-06-10 Toshiba Corp 電子機器及び音声出力方法
US20130177286A1 (en) * 2012-01-09 2013-07-11 Mozaik Multimedia, Inc Noninvasive accurate audio synchronization
JP2014000831A (ja) * 2012-06-15 2014-01-09 Sumitomo Wiring Syst Ltd 車両用電子制御ユニット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7102826B2 (ja) 2018-03-23 2022-07-20 ヤマハ株式会社 情報処理方法および情報処理装置

Also Published As

Publication number Publication date
WO2015116162A1 (en) 2015-08-06
CN105940679B (zh) 2019-08-06
EP3100458B1 (en) 2018-08-15
JP6721510B2 (ja) 2020-07-15
US10250927B2 (en) 2019-04-02
CN105940679A (zh) 2016-09-14
KR20160114612A (ko) 2016-10-05
KR102179321B1 (ko) 2020-11-18
US20160323612A1 (en) 2016-11-03
EP3100458A1 (en) 2016-12-07

Similar Documents

Publication Publication Date Title
JP6721510B2 (ja) 2つの電子デバイスにおいて再生を同期させるための方法及び装置
KR102156467B1 (ko) 2 개의 전자 디바이스들에서의 재생들을 동기화하기 위한 방법 및 장치
JP4456004B2 (ja) メディア・サービスの再生自動同期化方法および装置
JP6148862B2 (ja) メディアサービスの同期方法
JP2007067858A (ja) 音声信号処理装置、音声信号処理方法およびプログラム並びに入力装置
WO2019188393A1 (ja) 情報処理装置、情報処理方法、送信装置、及び送信方法
JP2009094796A (ja) テレビジョン受信機
TWI334691B (en) Method and apparatus for audio volume control when switching electrical product channels
KR20160093404A (ko) 캐릭터 선택적 오디오 줌인을 제공하는 멀티미디어 콘텐츠 서비스 방법 및 장치
JP5551186B2 (ja) 放送受信装置及び放送受信装置における番組情報音声出力方法
JP4894896B2 (ja) 音声信号処理装置及び音声信号処理方法
KR101559170B1 (ko) 영상표시장치 및 그 제어방법
JP6440314B2 (ja) 受信装置、受信方法、及びプログラム
JP6436573B2 (ja) 受信装置、受信方法、及びプログラム
JP4385710B2 (ja) 音声信号処理装置及び音声信号処理方法
JP2021176217A (ja) 配信音声遅延調整装置、配信音声遅延調整システム、および配信音声遅延調整プログラム
JP2013121096A (ja) 音声調整装置およびデジタル放送受信装置
KR20100043581A (ko) 텔레비전의 주화면 및 부화면 출력 제어 장치 및 방법
JP2017069705A (ja) 受信装置、受信方法、放送システムおよびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181225

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190426

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190531

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200618

R150 Certificate of patent or registration of utility model

Ref document number: 6721510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees