JP4456004B2 - メディア・サービスの再生自動同期化方法および装置 - Google Patents

メディア・サービスの再生自動同期化方法および装置 Download PDF

Info

Publication number
JP4456004B2
JP4456004B2 JP2004568544A JP2004568544A JP4456004B2 JP 4456004 B2 JP4456004 B2 JP 4456004B2 JP 2004568544 A JP2004568544 A JP 2004568544A JP 2004568544 A JP2004568544 A JP 2004568544A JP 4456004 B2 JP4456004 B2 JP 4456004B2
Authority
JP
Japan
Prior art keywords
media service
voice
media
audio
waveform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004568544A
Other languages
English (en)
Other versions
JP2006514329A (ja
Inventor
クーン‐ヒユーイ フー,カール
アラン ストロースマン,ジエイムズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2006514329A publication Critical patent/JP2006514329A/ja
Application granted granted Critical
Publication of JP4456004B2 publication Critical patent/JP4456004B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • H04N5/073Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations

Description

一般に、本発明は、ユーザに提供されるメディア・サービス(オーディオおよび/またはビデオ)に関し、特に、メディア・サービス内に埋め込まれるタイム・マーカ(time marker:時間標識)に関りなく、オーディオ/ビデオをベースとするメディア・サービスを再生(playback:プレイバック)する際の同期化に関する。
同一のメディア・コンテンツ(例えば、スポーツ・イベント)を提供する複数の異なるメディア・サービスが利用できるので、マルチメディアの利用者は、1つのオーサリング・ソース(authoring source)からのビデオ(video:映像)をベースとするメディア・サービスを、第2のオーサリング・ソースからのオーディオ(audio:音声)をベースとするメディア・サービスを聴きながら、見たいと思うこともある。ビデオをベースとするメディア・サービスは、スポーツ・イベントを全国的にテレビジョン放送し、オーディオをベースとするメディア・サービスは、同じスポーツ・イベントをローカルにラジオ放送する。各メディア・サービスの放送のタイムライン(timeline)に相違があるので(メディア・サービスの放送または制作において生じる遅延に相違があるため)、両方のメディア・サービスの再生の間に遅延が感じられることがある。
「リップシンク」(lip‐synching:音声と口の動きの同期)は、同様な同期化問題から生じる効果であるが、同一のオーサリング・ソース/コンテンツ・ソースからのメディア・サービスの再生に関る効果である。従来の解決法では、メディア・コンテンツ(アナログまたはディジタル)を表すオーディオ/ビデオのメディア・サービスの中に情報を挿入し、タイム・マーカ(time marker:時間標識)を供給して、提供するメディア・サービスを整合させる。次に、特殊な受信装置が、供給されるタイム・マーカに基づき、オーディオ/ビデオのメディア・サービスを同期させ、リップシンク効果を最少限度に抑える。しかしながら、多くのメディア・サービスは、リップシンク効果を減じるために利用できるタイム・マーカを具えていない。
従って、同一のまたは異なるオーサリング・ソースからのメディア・サービス(例えば、放送および/またはストリーミング)を同期させる方法および装置を具え、そのような方法と装置が、タイム・マーカ(および供給されるタイム・マーカを処理する特殊な装置)に頼らないようにすれば有利となる。
(発明の概要)
本発明の態様により、対応するメディア・コンテンツは同じであるが、オーサリング・ソースの異なるビデオ・メディア・サービスとオーディオ・メディア・サービスとの間で再生を自動的に同期させる方法が得られる。ビデオ・メディア・サービスとオーディオ・メディア・サービスに対応する音声波形に共通の特性が整合(match:調整、調和)される。この整合ステップの結果に基づき、ビデオ・メディア・サービスとオーディオ・メディア・サービスのうち少なくとも1つの再生(plyaback:プレイバック)のタイミングが調節され、ビデオ・メディア・サービスとオーディオ・メディア・サービスとの間で再生を自動的に同期させる。
本発明の別の態様により、メディア・コンテンツは同じであるが、オーサリング・ソースの異なるビデオ・メディア・サービスとオーディオ・メディア・サービス間で再生を自動的に同期させる装置が得られる。音声整合装置は、ビデオ・メディア・サービスとオーディオ・メディア・サービスにそれぞれ対応する音声波形に共通の音声特性を整合させる。可変遅延装置は、音声整合装置の出力に基づき、ビデオ・メディア・サービスとオーディオ・メディア・サービスの少なくとも1つの再生タイミングを調節して、ビデオ・メディア・サービスとオーディオ・メディア・サービスとの間で再生を自動的に同期させる。
本発明のこれらのおよびその他の態様、特徴および利点は、図面に関連して読まれる好ましい実施例についての以下の詳細な説明から明白となる。
本発明は、埋め込まれるタイム・マーカに関りなく、異なるオーサリング・ソース(例えば、放送されるメディア、ストリームされるメディア、など)からのメディア・サービスを同期させる方法と装置に関する。また、本発明は、同一のオーサリング・ソースからの2つのメディア・サービスの場合、放送されるコンテンツのみ、またはストリーミング・コンテンツのみ、を同期させるのにも容易に利用できる。更に、当業者により容易に確認されるように、本発明は他のタイプのメディア・サービスを同期させるのにも使用できる。好ましい実施例で、本発明はテレビジョン放送からのビデオ・メディア・サービスと衛星音声放送からのオーディオ・メディア・サービス(両メディア・サービスは同一のメディア・コンテンツから得られる)とを同期させるのにも使用できる。
本明細書中で使用する、「メディア・サービス(media service)」という用語には、オーディオ、ビデオ、テキスト(文字)、放送番組、マルチメディア・データ・ファイル、およびストリーミング・メディアが含まれる。オーディオをベースとするメディア・サービスは、それに対応するオーディオ信号を有し、ビデオをベースとするメディア・サービスは、それに対応するビデオ信号を有する。放送される番組は、ラジオ、テレビジョン受信機、または放送されるメディアを受信できる他のタイプの装置により提供できるサービスから成る。このようなサービスは典型的に、放送波によりテレビ局またはラジオ局から放送され、ケーブル、衛星、アンテナ、およびラジオ/テレビジョン番組を配信できる他の通信メディアに接続して受信される。番組は、リアルワン(RealOne(米国における登録商標))またはマイクロソフト社のメディア・プレーヤ(Microsoft Media Player(米国における登録商標))のような、メディア・ブラウザまたはプレーヤとして知られるプログラムによりメディア・サービスを提供するインターネットのような通信ネットワークでも送信される。
マルチメディア・ファイルは、テキスト、イメージ、ビデオ、およびオーディオ・データを組み合わせて構成される。ビデオ・データまたはオーディオ・データのみから成るファイルも、マルチメディア・ファイルと定義される。ストリーミング・メディアは、オーディオ、ビデオ、マルチメディア、テキスト、および双方向のデータ・ファイルから成り、ファイル全体の配信が完了する前に、利用者のコンピュータで再生するインターネットまたは他の通信ネットワーク環境を介して利用者のコンピュータに配信される。ストリーミング・メディアの1つの利点は、ストリーミング・メディアのファイルは、ファイル全体がダウンロードされる前に再生し始めるので、利用者はファイル全体をダウンロードする際のように長時間待たずに済む。ディジタル記録された音楽、映画、プレビュー(予告編)、ニュース、ラジオ放送、およびライブ・イベントは全て、利用できるストリーミング・コンテンツの増大に貢献している。
ストリーミング・メディアは、種々のフォーマットで、例えば、RealAudio(登録商標)、RealVideo(登録商標)、RealMedia(米国における登録商標)、Apple QuickTime(登録商標)、Microsoft Windows(登録商標) Media Format、QuickTime(登録商標)、MPEG‐2 Layer III Audio、MP3(米国における登録商標)などでエンコードされる。典型的に、メディア・ファイルは、特定のフォオーマットとの互換性を表示する拡張子(接尾辞)で指定される。例えば、拡張子ram、rm、rpmのうち1つで終わるメディア・ファイル(オーディオ/ビデオ・ファイル)は、RealMediaフォーマットと互換性がある。ファイルの拡張子およびそれと互換性のあるフォーマットの幾つかを以下の表に掲載する。メディアのタイプ、拡張子、および互換性のフォーマットを掲載する、もっと包括的なリストは、例えば、 http://www.bowers.cc/extensions2.htm に掲載されている。
「オーサリング・ソース(authoring source)」とは、メディア・サービスを制作(create:クリエート)したソース(source:源)を指す。放送局(ブロードキャスタ)により制作されるメディア・サービスは、放送をベースとするオーサリング・ソースを有する。これは、メディア・サービスが、放送波、衛星、ケーブルなどで送信するために、放送センター(テレビ局またはラジオ局)により制作されたことを意味する。同様に、ストリームされるメディア・サービスは、ストリーミングをベースとするオーサリング・ソースを有する。ストリーム化(ストリームされた)メディア・サービスも、放送波、衛星、ケーブル、またはインターネットで受信されるが、一般に、ストリーム化ファイルは、ストリーミング・メディア・プレーヤで再生される。本発明の原理により、テレビジョン受信機、コンピュータなどの再生装置は、適正なソフトウェア/ハードウェアを使用し、放送で制作されたメディア・サービスとストリーム化メディア・サービスの両方を受信できる性能を有する。メディア・サービスのソースは、メディア・サービスの再生を制限しない。オーサリング・ソースは、放送局、ロケーション、およびメディア・サービスの送信に使用するフォーマットにより分類される。例えば、放送をベースとするオーサリング・ソースには、放送されるテレビジョン番組であるメディア・サービスのためのABC、NBC、FOX、CBS、およびUPNが含まれる。
メディア・コンテンツは、メディア・サービスが得られる内容を指す。メディア・コンテンツの例として、歌、政治演説、ニュース放送、映画の予告編、生放送、ラジオ放送、金融会議の召集、ライブ・コンサート、スポーツ・イベント、映画、テレビジョン、ケーブル番組、ウェブ・カメラ映像、などが含まれる。一般に、同一のメディア・コンテンツのソースから、幾つかの異なるメディア・サービスが得られる。例えば、大学のフットボール試合は、全国放送されるテレビジョン番組を提供するオーディオ/ビデオ・メディア・サービスを有する。この大学フットボール試合は、大学用のパブリック・アクセス・チャンネルに対応するオーディオ/ビデオ・メディア・サービスとしても送信される。メディア・オーサリング・ソースが同じであっても、全国放送とパブリック・アクセス・チャンネルからのメディア・サービスは異なる。本発明の原理と一致する、メディア・コンテンツの他の例も使用できる。
本発明は、種々の形態のハードウェア、ソフトウェア、ファームウェア、特殊目的のプロセッサで、またはそれらを組み合わせて、実施することができる。本発明は、ハードウェアとソフトウェアの組合せとして実施するのが好ましい。ソフトウェアは、プログラム記憶装置で具体化されるアプリケーション・プログラムとして実施されるのが好ましい。アプリケーション・プログラムは、適当なアーキテクチャから成るコンピュータにアップロードされ、コンピュータで実行される。コンピュータは、1つまたは複数の中央処理装置(CPU)、ランダム・アクセス・メモリ(RAM)、および入力/出力(I/O)インタフェースのようなコンピュータ・プラットフォーム上で実施されるのが好ましい。コンピュータ・プラットフォームには、オペレーティング・システム(OS)とマイクロ命令コードが含まれる。本明細書中で述べる種々のプロセスおよび機能は、マイクロ命令コードの一部であるか、アプリケーション・プログラムの一部(またはその組合せ)であり、オペレーティング・システムにより実行される。付加的データ記憶装置およびプリンタのような、他の種々の周辺装置がコンピュータ・プラットフォームに接続される。
添付の図面に示すシステムの構成要素および方法のステップは、ソフトウェアで実施されるのが好ましく、システムの構成要素間の実際の接続(或いはプロセスのステップ)は、本発明がプログラムされる仕方に依り異なる。本明細書中の開示を与えられて、当技術分野における通常の当業者は、本発明のこれらのおよび同様な実施または構成を考えることができる。
図1は、本発明の実施例による、メディア・サービスの自動同期化を実行するコンピュータ処理システム100を示すブロック図である。コンピュータ処理システム100(またはその要素)は、放送オーサリング・ソース200(図2)およびストリーミング・オーサリング・ソース250(図2)内にすでに存在するか、または本発明に従い追加される。本明細書中でコンピュータ処理システム100は、音声整合(sound‐matching:サウンド・マッチング、音声同期)装置とも称される。
コンピュータ処理システム100は、システム・バス104を介して他の構成要素に結合される少なくとも1つのプロセッサ(CPU)102を具える。ランダム・アクセス・メモリ(RAM)108、読出し専用メモリ(ROM)199、ディスプレイ・アダプタ110、I/Oアダプタ112、およびユーザ・インタフェース・アダプタ114は、システム・バス104に結合される。
表示装置(ディスプレイ)116は、ディスプレイ・アダプタ110を介してシステム・バス104に結合される。記憶装置(磁気的、光学的などの)118は、I/Oアダプタ112によりシステム・バス104に結合される。
入力装置120は、ユーザ・インタフェース・アダプタ114により、システム・バス104に結合される。入力装置120は、情報をシステム100に入力/出力するために使用され、キーボード、キーパッド、マウス、スイッチ、ボタンなどを具える。
デコーダ130は、システム・バス104に結合される。デコーダ130は、処理(同期化)のための入力信号、例えば、放送信号およびストリーミング信号を受信する。デコーダ130は、アナログ・ディジタル(AD)変換およびディジタル・アナログ(DA)変換などの機能を実行する。当業者により容易に確認されるように、他の機能もデコーダ130により実行される。当業者に知られているように、コンピュータ処理システム100の代りに、ディジタル・サウンド・プロセッサ(DSP:Digital Sound Processor:ディジタル音声処理装置)も使用される。
図2は、本発明の実施例による、放送をベースとするオーサリング・ソース200、およびストリーミングをベースとするオーサリング・ソース250を示すブロック図である。放送オーサリング・ソース200は、放送局205とテレビジョン受信機210を具える。ストリーミング・オーサリング・ソース250は、オーディオ・システム255とモデム260を具え、モデム260は、インターネット・サービス・プロバイダ(ISP)265に接続され、ISP265は、インターネット270に接続される。本明細書中で、テレビジョン受信機210とオーディオ・システム255は、「出力装置(output device)」とも称される。
各システムはそれに関連するユーザ制御手段を有する。一般に、リモコンは、オンスクリーン・インタフェースと共に、ビデオ出力装置(テレビジョン受信機210)に関連し、キーボードは、ディスプレイおよびリモコンと共に、オーディオ出力装置(オーディオ・システム255)に関連する。
本発明は、前述した放送オーサリング・ソース/ストリーミング・オーサリング・ソースの厳密な構成に限定されず、他のシステム構成も本発明に従い使用できる。当業者に明白のように、本発明に使用される放送オーサリング/ストリーミング・オーサリング・ソースは、受信機、デコーダ、および出力装置を具え、受信機は、コンテンツを受信する。デコーダは、コンテンツを復号化し、出力装置は、復号化されたコンテンツを利用者に提供する。複数の異なるタイプのコンテンツ、例えば、放送コンテンツ/ストリーミング(例えば、IP)コンテンツを受信し、復号化し出力することのできる単一のシステムを具えることもできる。複合化されたシステムの一例は、インターネット・テレビジョン装置である。
本発明の実施例によれば、利用者は、テレビジョンで放送されるスポーツ・イベントを見ながら、生(ライブ)のインターネット・ストリーミング放送でそのイベントの解説を聴いている。放送されるスポーツ・イベントは、メディア・コンテンツを表す。テレビジョン放送されるそのスポーツ・イベントは、ビデオ・メディア・サービスを表し、放送オーサリング・ソースは、それに対応するテレビジョン放送の音声を表す音声波形を有する。インターネットからの音声解説は、ストリーム化(ストリームされた)オーサリング・ソースからのオーディオをベースとするメディア・サービスである。
この両メディア・サービスの送信と処理における遅延により、視聴に混乱を生じないようにするため、この2つのメディア・サービスの同期を調節する必要がある。満足のいく整合(同期)を得るために、利用者はこの2つの番組の相対的タイミングを調節する。調節は、利用者が手動で、自動的に、或いは手動と自動を組み合わせて、実行できる。組合せの場合、本発明を使用して、利用者に自動同期の結果を微調整させながら、メディア・サービスの自動同期化を実行することができる。メディア・サービスが変更されるまで、システム/装置は、決定された遅延を維持する。
図3は、本発明の実施例による、メディア・サービスを同期させる同期化装置300を示すブロック図である。同期化装置300は、利用者および/または自動制御に応答する調節可能な遅延ライン305を具える。自動制御は、図1に示すコンピュータ処理システム100で行われる。本発明の実施例において、自動制御を使用しなければ、コンピュータ処理装置は同期化装置300から省かれる。本明細書中で与えられる開示により、当業者は同期化装置300のこれらのおよび他の種々の構成を考えることができる。
調節可能な遅延ライン(delay line:ディレイ・ライン)305は、放送オーサリング・ソース200およびストリーミング・オーサリング・ソース250の何れか一方に、または両方に挿入される。遅延ライン305は、ゼロから数秒(またはそれ以上)の遅延を挿入することができる。バッファがすでに使用されているオーサリング・ソースにおいては、コンテンツの適正な期間にわたりバッファのサイズが増大され、且つ遅延を調節するような機構が追加される。
利用者および/または自動制御は、相対的遅延を増大または減少させることができる。
本発明は、各遅延ラインについて個別的制御、または一方の遅延ラインを増すと同時に、他方の遅延を減じる制御を行うこともできる。
本発明の実施例による、手動でのユーザ制御について更に説明する。本発明の1つの実施例で、利用者(ユーザ)は、各出力装置(例えば、テレビジョン受信機210およびオーディオ・システム255)の出力の遅延を調節するために、制御装置を与えられる。制御装置を手動で調整することにより、利用者は複数のメディア・サービス間で満足のゆく同期を達成できる。本例では、両出力装置に遅延が存在するとして説明されるが、本発明の他の実施例では、遅延制御はどの装置にも行われる。本発明の別の実施例で、放送源(ソース)からのメディア・サービスとストリーミング源(例えば、インターネット・テレビジョン)からのメディア・サービスを受信できる装置の場合、利用者は、一方のメディア・サービスを進ませると同時に、他方のメディア・サービスを遅らせる。ユーザ制御は、制御範囲(メディア・サービスAの最大前進、メディア・サービスBの最大遅延)〜(メディア・サービスAの最大遅延、メディア・サービスBの最大前進)を有する。本発明は、手動によるユーザ制御に関し前述した実施例に限定されず、従って、本発明の技術思想と範囲を維持しながら、他の実施例も本発明に従って容易に使用される。
本発明の実施例により、自動的ユーザ制御(自動制御装置)について更に説明する。本発明の1つの実施例である、両タイプのコンテンツ(放送されるコンテンツおよびストリーミング・コンテンツ)を受信するシステムにおいて、利用者は同期化装置を起動させる。この場合、ユーザ制御は「同期させる/デフォルトに戻る」ボタンである。「同期させる/デフォルトに戻る」ボタンが起動されると、自動同期化装置はコンテンツを同期させる。もちろん、当技術の通常の当業者に容易に考えられるように、他の構成も可能である。
自動同期化は、以下に述べるように、ノイズ(雑音)エンベロープ・マッチング(noise envelope matching:雑音包絡線整合)、音声指紋マッチング、(audio fingerprint matching)および埋め込まれたメタ・データ・タグ、などをベースとするが、これらに限定されない。
雑音エンベロープのマッチング方法で、オーディオをベースとするメディア・サービスの音声波形の処理された雑音エンベロープ全体が整合される。操作理論の中心は、ディジタル処理技術により、各波形において異なる音声特性を整合することである。例えば、イベントの各音声ストリーム(以下、「音声ストリーム」とは、メディア・サービスの音声、またはメディア・サービスに対応する音声波形、を指す)における群集雑音(crowd noise)は、同期を得るために使用される。両ストリームにおいて広帯域の背景音声特性が分析される。音声ストリーム間の相対的遅延を決定するために、時間領域で関連付けプロセスが実行される。遅延が決定された後、オーディオ/ビデオのプレゼンテーションが調節される。
音声特性は、音声波形の物理的属性(例えば、周波数、利得、波形の振幅、利得など)を定めるために使用されるオーディオ・パラメータと定義される。当業者はオーディオ・メディア・サービスのマッチングのために分析すべき音声波形の音声特性を定めるために1つまたは複数の基準を選択できる。これらの波形は、ディジタル信号処理技術を使用して音声特性を更に決定するためにフィルタ(濾波)される。
大学のバスケットボールの試合について、以下の実例を考える。図4は、放送されるテレビジョン番組の音声ストリーム400と、オーディオ・メディア・サービスのストリーミング音声ストリーム450(何れも同一番組に対応する)のエネルギ・スペクトルを示すグラフである。放送される音声400およびストリーミング音声450(図4)の同期後のエネルギ・スペクトルを、水平軸が時間を表し垂直軸が振幅を表すグラフ(図5)に示す。
視聴者は、このバスケットボールの試合をラジオの放送で(オーディオ・メディア・サービス450として)聴くことを選択するかも知れない。主音声の音声スペクトルの内容は、相違する。各アナウンサは、半ば無作為に種々のイベントについて解説する。これらの放送の間に共通の情報は背景の雑音であり、これは、音声波形(観衆の雑音を表す)の振幅の鋭い変化によりアナウンサと区別される。両方のアナウンサが、同一のイベント(メディア・コンテンツ)に居合わせていると想定して、背景の観衆雑音の相対的出力は、イベントが観衆の反応を引き起こすと、時間の経過につれ変動する。各音声波形における観衆の反応を比較するために、タイム・ウィンドウ(time window:時間窓)が選択される。このタイム・ウィンドウの選択は、音声ストリームとオーディオ・メディア・サービスから音声波形をサンプリングするために使用される、予測される最悪ケースの遅延差に基づく。時間に関するスペクトルの出力密度曲線(power density curve)が、音声波形のサンプリングから発生される。スペクトルの出力密度曲線は、サンプリング・システムの処理負荷に依存し、できるだけ頻繁に発生されるのが好ましい。しかしながら、このような発生は、最大限度よりも少ない、所定の回数または他の回数でも行われる。
この2つの音声波形のスペクトルのエネルギは、振幅は異なるが形状および相対的エネルギは似通っている(同様な音声エンベロープを有する)。本実施例で、ピーク部は観衆の歓声499のような、ピンク・ノイズ(pink noise)イベントであり、放送の音声400は、ストリーム化オーディオ・メディア・サービスのストリーミング音声450より遅れる。この解決策は、2つのスペクトル・チャート間の相関誤差が一定のサンプリング・ウィンドウにわたり最少限度になるまで、ストリーミング音声450を遅延させることである。
埋め込まれたメタ・データ・タグ(meta data tag)を有するストリームの場合、これらのタグ内の情報は、同期を達成するために使用される。例えば、2つのメディア・サービスがその中に埋め込まれたイベント・コード(event code:事象コード)を有するなら(DVDの場合、チャプタ・ブレイクが使用されるが、これは、当業者により容易に確認されるように、多くのイベント・コードのうちの1つのタイプにすぎない)、そのようなメタ・データは、抽出されて、同期を達成するために遅延ラインの調節に使用される。もしメディア・サービスがその中に埋め込まれたタイム・コード(time code:時間コード)を有するならば、そのタイム・コード情報は(メタ・データとして)抽出され、同期を達成するために遅延ラインの調節に使用される。
自動同期化の別の例として、音声波形における既知のサウンド(スタジアムの「チャージ(突撃)」サウンド、得点サウンド、応援歌、など)の音声指紋が、メディア・サービス、ストリームなどの調整に使用される。入来する音声波形が「指紋」のデータベースと絶えず整合される。このような指紋のデータベースは、例えば、記憶装置118の中に収められる。入来するストリームと、音声指紋データベース内に記憶された音声指紋との整合が認定されると、タグがバッファ(または他のメモリ装置)の中に挿入され、そのタグが識別される。タグに基づき2つのメディア・サービスの間で関連付け機能が実行され、同期化が得られる。同期化は相関誤差の最小化により生じたものと考えられる。前述の事項が自動的に行われている間、利用者は、自動同期化を手動で微調整することが許される。音声指紋は音声指紋データベースから容易に削除されまたは追加される。これに代り、各メディア・サービスに対応する音声における、指紋採取されたサウンド間の時間の長さが測定され、次にメディア・サービスのうちの1つの再生が、計算された時間長だけ遅延される。
図6の流れ図は、対応する番組は同一であるが、オーサリング・ソースの異なる第1のメディア・サービスと第2のメディア・サービスとの間で再生を同期させる方法を例示する。第1のメディア・サービスと第2のメディア・サービスには、放送のコンテンツ、ストリーミング・コンテンツ、その組合せ、および本発明による同期化を利用できる他のタイプのコンテンツが含まれる。
第1のメディア・サービスと第2のメディア・サービスにおいて共通のオーディオ・イベント(特性)が、整合される(ステップ610)。
この整合(マッチング)ステップの結果に基づいて、第1のメディア・サービスおよび/または第2のメディア・サービスの再生タイミングが調節されて、第1のメディア・サービスと第2のメディア・サービスとの間で再生を自動的に同期させる(ステップ620)。
第1のメディア・サービスおよび/または第2のメディア・サービスの再生タイミングは、ユーザ入力に基づいて更に調節される(ステップ630)。ユーザ入力は、第1のメディア・サービスおよび/または第2のメディア・サービスの再生タイミングの中に挿入された遅延を増大または減少させる。
ステップ610には、ステップ610a、610b、および610cが含まれる。
ステップ610aで、雑音エンベロープ・マッチングに基づき整合が行われる。ステップ610aには、ステップ610a1〜610a4が含まれる。ステップ610a1で、第1のメディア・サービスと第2のメディア・サービスをサンプリングするためにタイム・ウィンドウが選択される。この選択は、第1のメディア・サービスと第2のメディア・サービスとの間で予測される最悪ケースの遅延差に基づく。ステップ610a2で、第1のメディア・サービスと第2のメディア・サービスについてスペクトルの出力密度曲線が発生される。ステップ610a3で、スペクトルの出力密度曲線に生じる背景のオーディオ・イベントが、第1のメディア・サービスと第2のメディア・サービスについて関連付けられる。ステップ610a4で、第1のメディア・サービスと第2のメディア・サービスに対応するスペクトルの出力密度曲線間の相関誤差が最少限度に抑えられる。
ステップ610bで、第1のメディア・サービスと第2のメディア・サービス内に埋め込まれているメタ・データ・タグ内に埋め込まれたイベント・コードに基づき、マッチング(整合)が実行される。ステップ610bには、ステップ610b1〜610b2が含まれる。ステップ610b1で、第1のメディア・サービスと第2のメディア・サービス内でメタ・データ・タグが識別され、イベント・コードがメタ・データ・タグ内で識別される。ステップ610b2で、イベント・コードが関連付けられる。
ステップ610cで、既知のサウンドの音声指紋に基づきマッチングが実行される。ステップ610cにステップ610c1〜610c2が含まれる。ステップ610c1で、既知のサウンドの音声指紋(音声指紋のデータベース内に記憶される)が、第1のメディア・サービスと第2のメディア・サービス内のサウンド(音声)と比較される。ステップ610c2で、音声指紋に一致し、且つ第1のメディア・サービスと第2のメディア・サービスに生じるサウンドが関連付けられる。
本発明の別の実施例として、メディア・サービスに対応する音声波形を使用し、ビデオをベースとするメディア・サービスに対応する音声波形に対しオーディオ・メディア・サービス(2つのメディア・サービスはコンテンツ・ソースが同じである)を整合させる。上述したプロセスにより、ビデオをベースとするメディア・サービスはオーディオをべースとするメディア・サービスと同期される。
本発明の種々の実施例による、種々の実施シナリオについて説明する。
ATSC/DBS受信機で、MPEGバッファを可変サイズにすることにより、遅延ラインが実施される。ユーザ制御は、リモコン上で、一対のボタンとして、或いはロッカ・ボタン(rocker button)として、実施される。遅延の相対的設定の視覚表示は、画面上(オンスクリーン)のグラフィック表示または英数字表示として現れる。ユーザは、一方のボタンを押すことにより遅延を増し、他方のボタンを押すことにより遅延を減じる。画面上のグラフィック表示は、挿入された遅延量により増加または減少する棒グラフである。
インターネットのストリーミング音声受信機では、オーディオ・バッファを可変サイズにすることにより、遅延ラインが実施される。ユーザ制御(制御装置)は、ユニット制御パネルまたはリモコン上で付加的コントロールとして実施される。遅延の相対的設定は、ディスプレイ上でグラッフィクまたは英数字として視覚表示される。
ATSC/DBS/ブラウザ(Browser)が、可能なテレビジョン受信機(ストリーミング・コンテンツをブラウザで受信できる性能を有する)で、MPEGバッファを可変サイズにするか、またはストリーミング音声バッファを可変サイズにするか、または両バッファを可変サイズにすることにより、調節可能な遅延ラインが実施される。システム内に遅延ラインが1つだけある場合、ユーザ制御はその遅延の長さを制御するが、遅延ラインが2つある場合、一方の遅延を増大させ、他方の遅延を減少させる。何れのシナリオにおいても、ユーザ制御は、リモコン上の2つのボタンまたは1つのロッカ・ボタンで実施され、画面上のグラッフィクまたは英数がその2つのプログラム(番組)間の相対的遅延を表示する。
添付されている図面に関して実施例を説明したが、本発明はこれらの実施例に限定されず、且つ本発明の範囲または技術思想から離れることなく、種々の変更および変形が当該技術分野の通常の技術者(当業者)により行われることが理解されるべきである。そのような変更と修正は、請求項で規定する本発明の範囲内に含められる意図のものである
本発明の実施例による、メディア・サービスの自動同期化を実行するためのコンピュータ処理システム100を示すブロック図である。 本発明の実施例による、放送をベースとするオーサリング・ソース200およびストリーミングをベースとするコンテンツ・オーサリング・ソース250を示すブロック図である。 本発明の実施例による、同一メディア・コンテンツの複数のメディア・サービスを同期させる同期化装置300を示すブロック図である。 本発明の実施例による、放送音声ストリーム400とストリーミング音声ストリーム450(何れも同じメディア・コンテンツに対応する)のエネルギ・スペクトルを示すグラフである。 本発明の実施例による、同期後の放送音声ストリーム500とストリーミング音声ストリーム550のエネルギ・スペクトルを示すグラフである。 本発明の実施例による、対応するメディア・コンテンツは同じであるがオーサリング・ソースの異なるビデオ・メディア・サービスとオーディオ・メディア・サービスとの間で再生を同期させる方法を示す流れ図である。

Claims (24)

  1. 同一のメディア・コンテンツに対応する、第1のメディア・サービスと第2のメディア・サービスとの間で再生を自動的に同期させる方法であって、
    前記第1のメディア・サービスの音声波形における音声特性を、前記第2のメディア・サービスに対応する音声波形において対応する音声特性整合させるステップであって、第1および第2のメディア・サービスは異なるソースからオーサー(authored)され、前記音声波形の両方に共通する特性を識別するために、前記整合させるステップは、雑音包絡線整合、スペクトルの出力密度曲線整合、メタ・データ・タグに埋め込まれた整合イベント・コード、および既知のサウンドの音声指紋を含むグループから選択される、ステップと、
    前記第1のメディア・サービスと、前記第2のメディア・サービスの再生を、自動的に同期させるために、前記整合させるステップの結果に基づき、前記第1のメディア・サービスと前記第2のメディア・サービスのうち少なくとも1つの再生タイミングを調節して、他方のメディア・サービスからの音声の代わりに用いるメディア・サービスからの音声を同期化することを可能にしたステップと、
    から成る、前記再生を自動的に同期させる方法。
  2. 前記整合させるステップで、雑音エンベロープのマッチングを使用し、前記第1のメディア・サービスの音声波形前記第2のメディア・サービスの音声波形に共通の音声特性を整合させる、請求項1記載の再生を自動的に同期させる方法。
  3. 前記整合させるステップで、既知のサウンドの音声指紋を使用し、前記第1のメディア・サービスの音声波形前記第2のメディア・サービスの音声波形に共通の音声特性を整合させる、請求項1記載の再生を自動的に同期させる方法。
  4. 前記既知のサウンドが、スタジアムでのチャージ・サウンド、得点サウンドおよび歌のうち少なくとも1つから成る、請求項3記載の再生を自動的に同期させる方法。
  5. 前記整合させるステップが、前記第1のメディア・サービスと前記第2のメディア・サービスとの間で予側される最悪の場合の遅延差に基づき、前記第1のメディア・サービスの音声波形および前記第2のメディア・サービスに対応する音声波形をサンプリングするためにタイム・ウィンドウを選択するステップから成る、請求項1記載の再生を自動的に同期させる方法。
  6. 前記整合させるステップが、前記第1のメディア・サービスの音声波形前記第2のメディア・サービスの音声波形についてスペクトルの出力密度曲線を発生するステップを含む、請求項1記載の再生を自動的に同期させる方法。
  7. 前記共通の音声特性が、背景のオーディオ・イベントであり、前記整合させるステップが、前記第1のメディア・サービスの音声波形前記第2のメディア・サービスの音声波形に生じる背景のオーディオ・イベントとを関連付けるステップから成る、請求項1記載の再生を自動的に同期させる方法。
  8. 前記整合させるステップが、前記第1のメディア・サービスの音声波形前記第2のメディア・サービスの音声波形に対応するスペクトルの出力密度曲線間の相関誤差を最少限度に抑えるステップから成る、請求項1記載の再生を自動的に同期させる方法。
  9. 前記整合させるステップが、
    前記第1のメディア・サービスの音声波形および前記第2のメディア・サービスに対応する音声波形をサンプリングするためのタイム・ウィンドウを選択するステップと、
    前記音声波形についてのスペクトルの出力密度曲線を発生するステップと、
    前記音声波形のスペクトルの出力密度曲線に生じる、背景のオーディオ・イベントを関連付けるステップと、
    前記音声波形に対応する前記スペクトルの出力密度曲線間の相関誤差を最少限度に抑えるステップと、
    から成る、請求項1記載の再生を自動的に同期させる方法。
  10. 前記調節するステップが、ユーザの入力に基づき、再生のタイミングを調節し、前記ユーザ入力が、前記第1のメディア・サービスと前記第2のメディア・サービスのうち少なくとも1つの再生タイミング中に挿入された遅延を変更させる、請求項1記載の再生を自動的に同期させる方法。
  11. 前記ユーザ入力が、前記第1のメディア・サービスと前記第2のメディア・サービスのうち少なくとも1つの再生タイミング中に挿入された遅延を増大させると共に、前記第1のメディア・サービスと前記第2のメディア・サービスのうち少なくとも別の1つの再生タイミング中に挿入された遅延を減少させる、請求項10記載の再生を自動的に同期させる方法。
  12. 前記整合させるステップが、前記第1のメディア・サービスと前記第2のメディア・サービスのうち少なくとも1つに埋め込まれるメタ・データ・タグに埋め込まれたイベント・コードを使用し、前記第1のメディア・サービスの音声信号と音声波形に共通のオーディオ・イベントを整合させる、請求項1記載の再生を自動的に同期させる方法。
  13. 前記整合させるステップが、
    既知のサウンドの音声指紋を、前記第1のメディア・サービスの音声信号のサウンドおよび前記第2のメディア・サービスに対応する音声波形と比較するステップと、
    音声指紋と一致し、且つ音声信号と音声波形に生じる複数のサウンドを関連付けるステップと、
    から成る、請求項1記載の再生を自動的に同期させる方法。
  14. 同一のメディア・コンテンツに対応する、第1のメディア・サービスと第2のメディア・サービスとの間で再生を自動的に同期させる装置であって、
    前記第1のメディア・サービスの音声波形を表す音声信号と前記第2のメディア・サービスに対応する音声波形とにおける話し言葉以外の音声特性を整合させて、前記音声波形の両方に共通する特性を識別する音声整合装置であって、前記第2のメディア・サービスは、第1のメディア・サービスとは異なり、前記第1および第2のメディア・サービスは異なるソースからオーサー(authored)される、音声整合装置と、
    前記第1のメディア・サービスと前記第2のメディア・サービスとの間で再生を自動的に同期させるために、前記音声整合装置の出力に基づき、前記第1のメディア・サービスと前記第2のメディア・サービスの少なくとも1つの再生タイミングを調節して、他方のメディア・サービスからの音声の代わりに用いるメディア・サービスからの音声を同期化することが可能である可変遅延装置と、
    から成る、前記再生を自動的に同期させる装置。
  15. 前記音声整合装置が、雑音エンベロープ整合を使用し、前記第1のメディア・サービスの音声信号と音声波形に共通のオーディオ・イベントを整合させる、請求項14記載の再生を自動的に同期させる装置。
  16. 前記音声整合装置が、既知のサウンドの音声指紋を使用して、前記第1のメディア・サービスの音声信号と音声波形に共通のオーディオ・イベントを整合させる、請求項14記載の再生を自動的に同期させる装置。
  17. 前記音声整合装置が、音声信号と音声波形間で予期される最悪の場合の遅延に基づき、前記第1のメディア・サービスの音声信号と音声波形をサンプリングするためタイム・ウィンドウを選択する、請求項14記載の再生を自動的に同期させる装置。
  18. 前記音声整合装置が、前記第1のメディア・サービスの音声信号と音声波形についてスペクトルの出力密度曲線を発生する、請求項14記載の再生を自動的に同期させる装置。
  19. 前記音声整合装置が、前記第1のメディア・サービスの音声信号と音声波形に対応するスペクトルの出力密度曲線間の相関誤差を最少限度に抑える、請求項14記載の再生を自動的に同期させる装置。
  20. 前記音声整合装置が、前記第1のメディア・サービスの音声信号および前記第2のメディア・サービスに対応する音声波形をサンプリングし、前記音声信号と音声波形についてスペクトルの出力密度曲線を発生し、前記音声信号と音声波形のスペクトルの出力密度曲線に生じる背景のオーディオ・イベントを関連付け、前記音声信号と音声波形に対応するスペクトルの出力密度曲線間の相関誤差を最少限度に抑える、請求項14記載の再生を自動的に同期させる装置。
  21. 前記可変遅延装置が、ユーザ入力に基づき再生のタイミングを調節し、前記ユーザ入力が、前記第1のメディア・サービスと前記第2のメディア・サービスのうち少なくとも1つの再生に挿入される遅延を変更させる、請求項14記載の再生を自動的に同期させる装置。
  22. 前記音声整合装置が、前記第1のメディア・サービスと前記第2のメディア・サービスの少なくとも1つに埋め込まれるメタ・データ・タグに埋め込まれたイベント・コードを使用し、前記第1のメディア・サービスと前記第2のメディア・サービスに共通の音声特性を整合させる、請求項14記載の再生を自動的に同期させる装置。
  23. 前記音声整合装置が、既知のサウンドの音声指紋を、前記第1のメディア・サービスの音声信号および音声波形における音声特性と比較し、音声指紋と一致し、且つ音声信号と音声波形に生じるサウンドを関連付ける、請求項14記載の再生を自動的に同期させる装置。
  24. 前記第1のメディア・コンテンツが、第1のオーサリング・ソースのものであり、前記第2のメディア・コンテンツが、第2のオーサリング・ソースのものである、請求項14記載の再生を自動的に同期させる装置。
JP2004568544A 2003-02-14 2003-02-14 メディア・サービスの再生自動同期化方法および装置 Expired - Lifetime JP4456004B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2003/004527 WO2004075565A1 (en) 2003-02-14 2003-02-14 Automatic synchronization of audio and video based media services of media content

Publications (2)

Publication Number Publication Date
JP2006514329A JP2006514329A (ja) 2006-04-27
JP4456004B2 true JP4456004B2 (ja) 2010-04-28

Family

ID=32907013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004568544A Expired - Lifetime JP4456004B2 (ja) 2003-02-14 2003-02-14 メディア・サービスの再生自動同期化方法および装置

Country Status (7)

Country Link
US (1) US9628851B2 (ja)
EP (1) EP1593272B1 (ja)
JP (1) JP4456004B2 (ja)
KR (1) KR100934460B1 (ja)
CN (1) CN1742492B (ja)
AU (1) AU2003211073A1 (ja)
WO (1) WO2004075565A1 (ja)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6263503B1 (en) 1999-05-26 2001-07-17 Neal Margulis Method for effectively implementing a wireless television system
US8266657B2 (en) 2001-03-15 2012-09-11 Sling Media Inc. Method for effectively implementing a multi-room television system
US7142250B1 (en) * 2003-04-05 2006-11-28 Apple Computer, Inc. Method and apparatus for synchronizing audio and video streams
EP1652385B1 (en) * 2003-07-25 2007-09-12 Koninklijke Philips Electronics N.V. Method and device for generating and detecting fingerprints for synchronizing audio and video
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
US11294618B2 (en) 2003-07-28 2022-04-05 Sonos, Inc. Media player system
US8290603B1 (en) 2004-06-05 2012-10-16 Sonos, Inc. User interfaces for controlling and manipulating groupings in a multi-zone media system
US11650784B2 (en) 2003-07-28 2023-05-16 Sonos, Inc. Adjusting volume levels
US11106424B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US9207905B2 (en) 2003-07-28 2015-12-08 Sonos, Inc. Method and apparatus for providing synchrony group status information
US11106425B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US8327411B2 (en) * 2003-12-01 2012-12-04 Sharp Laboratories Of America, Inc. Low-latency random access to compressed video
US9977561B2 (en) 2004-04-01 2018-05-22 Sonos, Inc. Systems, methods, apparatus, and articles of manufacture to provide guest access
KR100916274B1 (ko) 2004-06-07 2009-09-10 슬링 미디어 인코퍼레이티드 퍼스널 미디어 브로드캐스팅 시스템
US9998802B2 (en) 2004-06-07 2018-06-12 Sling Media LLC Systems and methods for creating variable length clips from a media stream
US7769756B2 (en) * 2004-06-07 2010-08-03 Sling Media, Inc. Selection and presentation of context-relevant supplemental content and advertising
US7975062B2 (en) 2004-06-07 2011-07-05 Sling Media, Inc. Capturing and sharing media content
US7917932B2 (en) 2005-06-07 2011-03-29 Sling Media, Inc. Personal video recorder functionality for placeshifting systems
DE102004046746B4 (de) 2004-09-27 2007-03-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum Synchronisieren von Zusatzdaten und Basisdaten
US20060184960A1 (en) * 2005-02-14 2006-08-17 Universal Music Group, Inc. Method and system for enabling commerce from broadcast content
DE102005045628B3 (de) * 2005-06-22 2007-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln einer Stelle in einem Film, der in einer zeitlichen Folge aufgebrachte Filminformationen aufweist
DE102005045627A1 (de) 2005-06-22 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Durchführen einer Korrelation zwischen einem Testtonsignal, das mit variabler Geschwindigkeit abspielbar ist, und einem Referenztonsignal
TWI331309B (en) * 2006-12-01 2010-10-01 Ind Tech Res Inst Method and system for executing correlative services
US7953118B2 (en) * 2006-12-08 2011-05-31 Microsoft Corporation Synchronizing media streams across multiple devices
US8272008B2 (en) * 2007-02-28 2012-09-18 At&T Intellectual Property I, L.P. Methods, systems, and products for retrieving audio signals
US20100131464A1 (en) * 2007-03-21 2010-05-27 Koninklijke Philips Electronics N.V. Method and apparatus for enabling simultaneous reproduction of a first media item and a second media item
US20080256136A1 (en) * 2007-04-14 2008-10-16 Jerremy Holland Techniques and tools for managing attributes of media content
US8751022B2 (en) 2007-04-14 2014-06-10 Apple Inc. Multi-take compositing of digital media assets
US20080263433A1 (en) * 2007-04-14 2008-10-23 Aaron Eppolito Multiple version merge for media production
US8381086B2 (en) * 2007-09-18 2013-02-19 Microsoft Corporation Synchronizing slide show events with audio
US9936143B2 (en) 2007-10-31 2018-04-03 Google Technology Holdings LLC Imager module with electronic shutter
US20110187927A1 (en) * 2007-12-19 2011-08-04 Colin Simon Device and method for synchronisation of digital video and audio streams to media presentation devices
JP5283914B2 (ja) * 2008-01-29 2013-09-04 キヤノン株式会社 表示制御装置及び表示制御方法
US8140641B2 (en) 2008-11-14 2012-03-20 Microsoft Corporation Managing media synchronization
CN101763848B (zh) * 2008-12-23 2013-06-12 王宏宇 一种用于音频内容识别的同步方法
US9185445B2 (en) * 2009-09-24 2015-11-10 At&T Intellectual Property I, L.P. Transmitting a prioritized audio stream along with multimedia content
US10080061B1 (en) * 2009-12-18 2018-09-18 Joseph F. Kirley Distributing audio signals for an audio/video presentation
US8739225B2 (en) 2010-07-19 2014-05-27 Thomson Licensing Alternative audio delivery for television viewing
US9131256B2 (en) * 2010-09-30 2015-09-08 Verizon Patent And Licensing Inc. Method and apparatus for synchronizing content playback
US8862254B2 (en) 2011-01-13 2014-10-14 Apple Inc. Background audio processing
US8842842B2 (en) 2011-02-01 2014-09-23 Apple Inc. Detection of audio channel configuration
US8621355B2 (en) 2011-02-02 2013-12-31 Apple Inc. Automatic synchronization of media clips
EP2501127B1 (en) * 2011-03-14 2017-06-14 EchoStar Technologies L.L.C. Timing uninterruptible processes
US8965774B2 (en) 2011-08-23 2015-02-24 Apple Inc. Automatic detection of audio compression parameters
US9111579B2 (en) 2011-11-14 2015-08-18 Apple Inc. Media editing with multi-camera media clips
EP2611051B1 (en) * 2011-12-29 2014-06-04 Thomson Licensing Method for synchronizing media services
EP2648418A1 (en) * 2012-04-05 2013-10-09 Thomson Licensing Synchronization of multimedia streams
US9392322B2 (en) * 2012-05-10 2016-07-12 Google Technology Holdings LLC Method of visually synchronizing differing camera feeds with common subject
EP2670157B1 (en) 2012-06-01 2019-10-02 Koninklijke KPN N.V. Fingerprint-based inter-destination media synchronization
US9226011B2 (en) 2012-09-11 2015-12-29 Comcast Cable Communications, Llc Synchronizing program presentation
US20140114919A1 (en) * 2012-10-19 2014-04-24 United Video Properties, Inc. Systems and methods for providing synchronized media content
US9032301B2 (en) * 2012-11-05 2015-05-12 LiveCrowds, Inc. Crowd-sync technology for participant-sharing of a crowd experience
US9742825B2 (en) 2013-03-13 2017-08-22 Comcast Cable Communications, Llc Systems and methods for configuring devices
US9773058B2 (en) * 2013-03-15 2017-09-26 Shazam Investments Ltd. Methods and systems for arranging and searching a database of media content recordings
US9761248B2 (en) * 2013-04-26 2017-09-12 Nec Corporation Action analysis device, action analysis method, and action analysis program
EP2822287A1 (en) * 2013-07-01 2015-01-07 Thomson Licensing Method and apparatus for frame accurate advertisement insertion
EP3047653B1 (en) * 2013-09-20 2020-05-06 Koninklijke KPN N.V. Correlating timeline information between media streams
ES2796873T3 (es) 2013-09-20 2020-11-30 Koninklijke Kpn Nv Correlacionar información de línea de tiempo entre flujos de medios
US9426336B2 (en) * 2013-10-02 2016-08-23 Fansmit, LLC System and method for tying audio and video watermarks of live and recorded events for simulcasting alternative audio commentary to an audio channel or second screen
EP2876890A1 (en) 2013-11-21 2015-05-27 Thomson Licensing Method and apparatus for frame accurate synchronization of video streams
JP6721510B2 (ja) 2014-01-31 2020-07-15 インターデジタル シーイー パテント ホールディングス 2つの電子デバイスにおいて再生を同期させるための方法及び装置
US9357127B2 (en) 2014-03-18 2016-05-31 Google Technology Holdings LLC System for auto-HDR capture decision making
US9971319B2 (en) * 2014-04-22 2018-05-15 At&T Intellectual Property I, Lp Providing audio and alternate audio simultaneously during a shared multimedia presentation
US9729784B2 (en) 2014-05-21 2017-08-08 Google Technology Holdings LLC Enhanced image capture
US9813611B2 (en) 2014-05-21 2017-11-07 Google Technology Holdings LLC Enhanced image capture
US9628702B2 (en) 2014-05-21 2017-04-18 Google Technology Holdings LLC Enhanced image capture
US9774779B2 (en) 2014-05-21 2017-09-26 Google Technology Holdings LLC Enhanced image capture
CN105448312B (zh) 2014-06-12 2019-02-19 华为技术有限公司 音频同步播放方法、装置及系统
US9413947B2 (en) 2014-07-31 2016-08-09 Google Technology Holdings LLC Capturing images of active subjects according to activity profiles
US9654700B2 (en) 2014-09-16 2017-05-16 Google Technology Holdings LLC Computational camera using fusion of image sensors
CN105989846B (zh) * 2015-06-12 2020-01-17 乐融致新电子科技(天津)有限公司 一种多通道语音信号同步方法及装置
US10057651B1 (en) * 2015-10-05 2018-08-21 Twitter, Inc. Video clip creation using social media
US9979997B2 (en) 2015-10-14 2018-05-22 International Business Machines Corporation Synchronization of live audio and video data streams
WO2017077020A1 (en) * 2015-11-06 2017-05-11 Koninklijke Kpn N.V. Contiguous streaming of media stream
CN105827997A (zh) * 2016-04-26 2016-08-03 厦门幻世网络科技有限公司 一种为视听化数字媒体配音的方法及装置
CN110741435B (zh) * 2017-06-27 2021-04-27 杜比国际公司 音频信号处理的方法、系统和介质
CN109525873B (zh) * 2017-09-18 2022-03-15 炬芯科技股份有限公司 一种音频播放同步方法及装置
TW201931863A (zh) * 2018-01-12 2019-08-01 圓剛科技股份有限公司 多媒體訊號的同步設備及其同步方法
KR101988157B1 (ko) * 2018-01-26 2019-06-11 건국대학교 산학협력단 소리 파형을 이용한 다수 동영상 간 시간축 동기화 방법 및 장치
JP2019165386A (ja) * 2018-03-20 2019-09-26 ヤマハ株式会社 信号解析方法および信号解析装置
CN108682436B (zh) * 2018-05-11 2020-06-23 北京海天瑞声科技股份有限公司 语音对齐方法及装置
CN109587542B (zh) * 2018-12-27 2020-11-27 北京奇艺世纪科技有限公司 音视频数据同步设备、方法、数据处理设备、介质
CN112447185B (zh) * 2019-08-30 2024-02-09 广州虎牙科技有限公司 音频同步误差测试方法、装置、服务器及可读存储介质
CN111131917B (zh) * 2019-12-26 2021-12-28 国微集团(深圳)有限公司 音频频谱实时同步方法、播放装置
US11451855B1 (en) 2020-09-10 2022-09-20 Joseph F. Kirley Voice interaction with digital signage using mobile device
US11831943B2 (en) 2021-10-26 2023-11-28 Apple Inc. Synchronized playback of media content
WO2023211753A1 (en) * 2022-04-29 2023-11-02 MIXHalo Corp. Synchronized audio streams for live broadcasts

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970002845B1 (ko) * 1993-12-31 1997-03-12 엘지전자 주식회사 디지탈 오디오 신호의 복조장치
US5537141A (en) * 1994-04-15 1996-07-16 Actv, Inc. Distance learning system providing individual television participation, audio responses and memory for every student
WO1997041683A1 (en) * 1996-04-29 1997-11-06 Princeton Video Image, Inc. Audio enhanced electronic insertion of indicia into video
US5912701A (en) * 1997-05-09 1999-06-15 At&T Corp. Arrangement for measuring and controlling temporal relationships between channels of a multimedia communication system
US6931370B1 (en) * 1999-11-02 2005-08-16 Digital Theater Systems, Inc. System and method for providing interactive audio in a multi-channel audio environment
US6429902B1 (en) * 1999-12-07 2002-08-06 Lsi Logic Corporation Method and apparatus for audio and video end-to-end synchronization
US6630963B1 (en) * 2001-01-23 2003-10-07 Digeo, Inc. Synchronizing a video program from a television broadcast with a secondary audio program
TW582022B (en) * 2001-03-14 2004-04-01 Ibm A method and system for the automatic detection of similar or identical segments in audio recordings
JP4212253B2 (ja) 2001-03-30 2009-01-21 三洋電機株式会社 話速変換装置
US20030028796A1 (en) * 2001-07-31 2003-02-06 Gracenote, Inc. Multiple step identification of recordings
US20030066089A1 (en) * 2001-09-28 2003-04-03 David Andersen Trigger mechanism for sync-to-broadcast web content

Also Published As

Publication number Publication date
KR20050105210A (ko) 2005-11-03
EP1593272A1 (en) 2005-11-09
KR100934460B1 (ko) 2009-12-30
US9628851B2 (en) 2017-04-18
JP2006514329A (ja) 2006-04-27
CN1742492B (zh) 2011-07-20
AU2003211073A1 (en) 2004-09-09
EP1593272A4 (en) 2008-12-24
EP1593272B1 (en) 2017-08-30
WO2004075565A1 (en) 2004-09-02
US20060156374A1 (en) 2006-07-13
CN1742492A (zh) 2006-03-01

Similar Documents

Publication Publication Date Title
JP4456004B2 (ja) メディア・サービスの再生自動同期化方法および装置
US20160073141A1 (en) Synchronizing secondary content to a multimedia presentation
US10567834B2 (en) Using an audio stream to identify metadata associated with a currently playing television program
CA2774985C (en) Caption and/or metadata synchronization for replay of previously or simultaneously recorded live programs
JP6721510B2 (ja) 2つの電子デバイスにおいて再生を同期させるための方法及び装置
TWI332358B (en) Media player apparatus and method thereof
US20200379722A1 (en) Apparatus and method for providing various audio environments in multimedia content playback system
KR102156467B1 (ko) 2 개의 전자 디바이스들에서의 재생들을 동기화하기 위한 방법 및 장치
WO2019188393A1 (ja) 情報処理装置、情報処理方法、送信装置、及び送信方法
US11551722B2 (en) Method and apparatus for interactive reassignment of character names in a video device
JP2002271823A (ja) 視聴率評価システム
US20140075471A1 (en) Apparatus, systems and methods for accessing supplemental information pertaining to a news segment
US11758245B2 (en) Interactive media events
KR100499032B1 (ko) 텔레비젼 수신기를 기반으로 하는 오디오 및 비디오 합성편집장치
CN102088625A (zh) 媒体内容的基于音频和视频的媒体服务的自动同步
JP2022058012A (ja) Cmデータ特定装置、システム、方法、及びプログラム
KR20090074629A (ko) 음향 모드 제어 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061113

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20080318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090206

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090601

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4456004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term