JP4990762B2 - インターネットプロトコルに用いるストリーミングオーディオとストリーミングビデオとの同期保持 - Google Patents

インターネットプロトコルに用いるストリーミングオーディオとストリーミングビデオとの同期保持 Download PDF

Info

Publication number
JP4990762B2
JP4990762B2 JP2007516469A JP2007516469A JP4990762B2 JP 4990762 B2 JP4990762 B2 JP 4990762B2 JP 2007516469 A JP2007516469 A JP 2007516469A JP 2007516469 A JP2007516469 A JP 2007516469A JP 4990762 B2 JP4990762 B2 JP 4990762B2
Authority
JP
Japan
Prior art keywords
audio
video
packet
packets
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007516469A
Other languages
English (en)
Other versions
JP2008506282A (ja
Inventor
デービズ、トレバー
クーリング、ジョン・デイビッド
ラクシュミナラヤナン、ゴピ
リチャーズ、マーチン・ジョン
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2008506282A publication Critical patent/JP2008506282A/ja
Application granted granted Critical
Publication of JP4990762B2 publication Critical patent/JP4990762B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4396Processing of audio elementary streams by muting the audio signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

本発明は、一般的にはディジタルシネマ再生システムに関し、さらに詳細には、ディジタルシネマの上演におけるオーディオコンテンツとビデオコンテンツの同期化をおこなう方法及び装置に関する。
「ディジタルシネマ」の概念には、観客席又は劇場でのディジタル技術を用いた聴覚/視覚素材を、製作、配給、上演することが含まれる。ディジタルシネマプログラムは一般に、DVD−ROM、テープ、あるいはコンピュータハードディスクドライブのような物理媒体上に、圧縮され暗号化された形態で配信され、原則的に、衛星又は他のブロードバンド通信経路を用いて電子的伝送手段によって配信される。
ディジタルシネマ再生システムは、ディジタルシネマの上演を行うのに必要なプロセスを制御する。これらのプロセスには、ディジタルシネマプログラムの受信と保存を行うステップ、それを伸張し解読して、ディジタルコンテンツデコーダで処理できるディジタルビデオデータストリームとディジタルオーディオデータストリームにするステップ、このデータストリームのコンテンツをデコーディングしてビデオディスプレイ及びオーディオ増幅器を作動させるために用いる信号を得るステップ、及び劇場の観客席におけるカーテンや劇場照明のような他の装置を制御するステップが含まれる。
ビジネス上のさまざまな理由により、ビデオコンテンツとオーディオコンテンツとを別のデータストリームで伝送し処理することが必要となっている。例えば、1つの上演のためのビデオデータが、異なった言語またはその上演の成熟度の評価に影響を及ぼす俗悪な言葉と共に配信されることがある。再生時、ビデオデータと共に適切なオーディオデータを上演のために選択することができる。このビデオデータと選択されたオーディオデータとは、独立したストリームで、コンテンツデコーディングのような処理のための装置に伝達される。
標準的なディジタルシネマ再生システムには、コンピュータ同士を相互に接続するのに用いられる多くのネットワークに類似する電子的ネットワークを経由して相互に通信するいくつかの装備が含まれる。これらのネットワークはしばしば、伝送制御プロトコル/インターネットプロトコル(TCP/IP)として知られる通信プロトコルを用いて、IEEE802.3標準に記載された、イーサネットとして一般に知られる標準に準拠する。ネットワークとプロトコルをこのように選択することで、電気的論理的インターフェースとそれを用いるのに必要な手続を容易に利用することができ、かつ比較的低価格となるので、ディジタルシネマ再生システムの実施が容易になる。残念ながら、この形式のネットワークとプロトコルを用いることでは、ビデオデータストリームとオーディオデータストリームとの処理及び上演での同期化が難しくなる。
ビデオデータストリームとオーディオデータストリームとの同期が外れると、同時に生じるはずのビデオコンテンツとオーディオ コンテンツにおける事象のタイミングに不均衡が生じる可能性がある。タイミングの不均衡が大きくなると、視聴者は気持ちが集中できなくなる。同期化エラーは再生システムにおけるタイミングエラーによることもあり、また、再生システムの動作を制御するビデオデータストリームとオーディオデータストリームと一緒に伝達される制御情報のエラーによることもある。制御情報のエラーは、ビデオ/オーディオコンテンツの製作時またはマスタリング時のミス、1つのデータ様式またはデータ規格から他のデータ様式またはデータ規格へのデータストリームの変換、及び、ビデオコンテンツとオーディオコンテンツの長さの差を含むさまざまな原因により生じ、それにより、表示を1つのプログラムから他のプログラムに切替えたとき位置合わせエラーが生じる。
IPネットワークのようなネットワークを介してパケットを伝送するストリームの同期化を含むさまざまな状況で、オーディオデータストリームとビデオデータストリームとを同期化する方法が知られている。これらの方法の多くは、ネットワークの遅れが予想できず、オーディオコンテンツ又はビデオコンテンツのパケットが失われるか、又はエラーを含んだ状態で受け取られ、そして、競合するネットワーク通信が変化するところでの使用を予定している。独立のビデオデータストリームとオーディオデータストリームとの同期を保持するために共通に用いられる方法には、どちらかの後にあるデータストリームから情報のパケットを省略又は廃棄すること、データストリームを処理する装置の処理クロックの速度を調整すること、及び受信したパケットのデータをデコード又は復元するプロセスを切り詰めることが含まれる。
他のディジタルビデオコンテンツ及びディジタルオーディオコンテンツとは違ってディジタルシネマ再生システムでは、ビデオコンテンツ及びオーディオコンテンツのパケットを省略又は廃棄するべきではなく、復元したビデオコンテンツ及びオーディオコンテンツに最高のレベルを保持させなければならない。処理クロックの速度を調整することは、上演中に顕著な歪みをもたらすため、実施形態によっては不可能であり、見栄えのしないものである。
本発明の目的は、ビデオデータとオーディオデータとを完成させるために別々のビデオデータストリームとオーディオデータストリームとの同期化を行うことである。
本発明の1形態によれば、ビデオコンテンツとオーディオコンテンツを伝達する一連のビデオパケット(ビデオパケットのシーケンス)と一連のオーディオパケット(オーディオパケットのシーケンス)のタイミング情報を抽出することにより、そして、同期させるために選択的にパケットを遅らせることにより、オーディオ/ビデオプログラムのオーディオコンテンツ及びビデオコンテンツを同期化する。一連のビデオパケットと一連のオーディオパケットとの間で知覚される不均衡を測定するために、このタイミング情報に対して知覚モデルが適用される。不均衡を測定した結果、オーディオパケットが早すぎることを示したならば、知覚モデルにより一連のオーディオパケットと一連のビデオパケットとの間で知覚された不均衡が減少するような量だけ、オーディオパケットを遅らせる。不均衡を測定した結果、オーディオパケットが遅すぎることを示したならば、知覚モデルにより一連のオーディオパケットと一連のビデオパケットとの間で知覚された不均衡が減少するような量だけ、ビデオパケットとオーディオパケットのそれぞれを遅らせる。
本発明のさまざまな特徴とその好ましい実施の形態は、以下の説明と、図中類似の参照番号で類似の要素を示した添付図を参照することによりよく理解できるであろう。以下の説明と図面の内容は例示のためのものであり、本発明の技術範囲を限定するためのものと解釈すべきでない。
A.序論
図1は、複数の再生システムを有するディジタルシネマネットワークを示す。一般的なシステムでは、ディジタルシネマ複合館の各観客席に再生システムを持っている。しかし、例えば、1以上のスクリーンを持つ1つの観客席に複数の再生システムを具備させることを含む多種多様な方法でネットワークと装置とを組み立て設置することができる。後者の構成では、1つの観客席に対して同時に複数のディジタルシネマプログラムを上演することが可能である。
図1を参照すると、劇場管理サーバー10、ゲートウェイ30、及び再生システム40a,40bが劇場ネットワークスイッチ20を用いネットワークによりお互いに接続されている。ここでは、ギガビットイーサネット又は1000BASE−Tネットワークを用いることが好ましい。劇場管理サーバー10は、ディジタルシネマネットワークにおける再生システム40a,40bの管理及び全体的な制御を含むさまざまな業務を行う。ゲートウェイ30は任意的なものであり、ディジタルシネマネットワークと、衛星通信リンク33又は地上の広帯域ネットワーク37のような1以上の通信経路との間の通信リンクを提供する。あるいは、ゲートウェイをスイッチ20に組み込み、単一のスイッチ/ゲートウェイ又はルータ装置としてもよい。通信経路は、シネマ販売促進素材及びディジタルシネマプログラム復号化キーのような情報を配信するために用いることができる。仮想プライベートネットワーキング又は同様の機能を、復号化キーのような細心の注意が必要な情報を保護するために用いることができる。
ディジタルシネマネットワークの好ましい実施の形態において、各再生システム40は、ネットワーク内の他のすべての再生システムと機能的に独立している。他のいかなる再生システムの装置の動作を必要とせずにディジタルシネマの上演のために、それぞれの再生システム40を動作させることができる。この再生システムはさまざまな方法で実施することができる。1つの方法を以下に記載する。
B.再生システム
図2に示した概略ブロック図は、ショーストア(show store)41、ショープレイヤー(show player)42、ディスプレイ43、オーディオプロセッサ44、オートメーションインターフェース45、及びスイッチ49を有する再生システム40の1つの実施の形態を示している。スイッチ49は、ショープレイヤー42を除くこれらのすべての装置間のネットワーク接続を行う。通信経路51,53,54は、ショープレイヤー42を、ショーストア41、ディスプレイ43、及びオーディオプロセッサ44に直接接続させる。
ショーストア41は、通信経路52を介してネットワークスイッチ20と接続され、1以上のディジタルシネマプログラムを受信し保存するためのファイルサーバーとしての役割を果たす。ショーストア41は、ショーの構成、ショーのスケジュール、及び、認可とディジタル著作権管理と暗号化とについての情報を保存する。好ましい実施の形態では、ショーストア41はまた、ダイナミックホストコンフィグレーションプロトコル(DHCP)サーバーとしての役割を果たし、ネットワークIPアドレスを、再生システム40における装置へ割付ける制御を行い、再生システムにおける業務遂行を円滑にするために、サービスローケーションプロトコル(SLP)ユーザーとサービスエージェントを実行することができる。DHCPとSLPとは、それぞれ、インターネットリクエストフォアコメンツ(RFC)1541及びRFC2165に記載されている。ショーストア41は、保存されたプログラムからビデオ情報とオーディオ情報とを抽出し、抽出した情報を、それに続く処理を容易にするエンコードされたデータストリームに再フォーマットし、ショープレイヤー42にこのエンコードされたデータストリームを提供する。このエンコードされたデータストリームは、ショーストア41からショープレイヤー42に、これら2つの装置を直接接続する専用の100BASE−Tイーサネット経路のような広帯域通信経路51により伝達されることが好ましい。代表的な実施の形態において、エンコードされた表現により、国際標準化機構(ISO)のモーションピクチャーエキスパーツグループ(MPEG)文書ISO/IEC13818−1から13818−9に記載されたMPEG−2標準、又は、ISO/IEC15444:2000に記載されたJPEG−2000標準のような標準に従いエンコードされたビデオ情報が伝達され、パルスコードモジュレーション(PCM)データ、メタオーディオエンハンスドPCMデータ、又はメタオーディオDolby Fのようなエンコーディングプロセスにより生成されたデータにエンコードすることのできるオーディオ情報が伝達される。適切なショーストア41の一例としてサンフランシスコ州、カリフォルニアのドルビーラボラトリーズから入手可能なドルビーショーストアDSS100があげられる。
ショープレイヤー42は、それぞれディスプレイ43とオーディオプロセッサ44に提供されるディジタルビデオ情報とディジタルオーディオ情報を得るために、このエンコードされたデータストリームをデコードするディジタルコンテンツデコーダである。このエンコードされた表現は暗号化されていてもよい。これが暗号化されている場合は、ショープレイヤー42は、ビデオコンテンツを解読するために適切なビデオ-コンテンツ復号化キーを用いる。RSA暗号化標準PKCS#1v2.1又はIEEE1363−2000標準に記載されているような技術により提供されるキー生成及び交換を伴う連邦情報処理標準(FIPS)公開197に記載されたような技術を用いることが好ましい。ショーストア41は劇場管理サーバー10から適切なビデオ-コンテンツ復号化キーを受け取り、劇場管理サーバーはこのキーを保存し、その後必要に応じてショープレイヤー42に送信するか、あるいは、保存せずにこのキーをショープレイヤー42に送信する。
一実施の形態によれば、ショーストア41は、ショープレイヤー42と一意的に関連付けられたパブリックキーを用いて暗号化されたビデオ-コンテンツ復号化キーの暗号化バージョンを受け取る。ショープレイヤー42は、プライベートキーを用いて暗号化されたビデオ-コンテンツ復号化キーを解読し、このビデオ-コンテンツ復号化キーを用いて必要に応じてビデオ情報を解読してデコードし、必要ならば、続いてディスプレイ43に送信するために、このデコードされたビデオ情報を暗号化する。暗号化は、映画テレビ技術者協会(SMPTE)DC28.4標準案のような標準に準拠することができ、あるいは、ディスプレイ43と互換性のあるメーカー独自の処理に準拠することもできる。適切なショープレイヤー42の一例として、サンフランシスコ州、カリフォルニアのドルビーラボラトリーズから入手可能なドルビーショーストアDSP100があげられる。
ディスプレイ43は、ショープレイヤー42からデコードされたビデオ情報を受け取り、必要なら情報を解読し、見るためのビデオ情報を表示する。ディスプレイは、基本的に、液晶ディスプレイ(LCD)又はスクリーンに像を投影することのできるプロジェクター又は他のディスプレイ媒体のようなビデオ情報を表示することのできるどんな装置でもよい。このデコードされたビデオ情報は、SMPTE292M標準に記載されたような高解像度シリアルデータインターフェース(HD−SDI)に準拠した形式で、広帯域通信経路53によりショープレイヤー42から直接ディスプレイ43に送られることが好ましい。適切なディスプレイ43の一例として、ベルギーのBarco N.V., Pres. Kennedypark 35, 8500 Kortrijkから入手可能なモデルDP100プロジェクターがあげられる。
オーディオプロセッサ44は、ショーストア42からオーディオ情報を受け取り、必要ならこのオーディオ情報をデコードし、ラウドスピーカで出力するために増幅することのできる信号を生成するために要求に応じてフィルタリングとイコライゼーションを行う。適切なオーディオプロセッサ44の一例として、サンフランシスコ州、カリフォルニアのドルビーラボラトリーズから入手可能なシネマサウンドプロセッサモデルCP650があげられる。このオーディオ情報は、SMPTE276M標準に準拠した形式で、2つの装置を直接接続する広帯域通信経路54によりショープレイヤー42から直接オーディオプロセッサ44に送られることが好ましい。
オートメーションインターフェース45は、スイッチ49を介して受信した命令に応答して、劇場照明、カーテン、及び劇場オートメーションシステムにおける他の要素を制御するための信号を生成する。適切なオートメーションインターフェースとして、サンフランシスコ州、カリフォルニアのドルビーラボラトリーズから入手可能なネットワーク
オートメーションインターフェースNA10があげられる。
スイッチ49は、再生システム40のネットワーク内の交信を切替える。好ましい実施の形態において、これは、1000BASE−Tネットワークのような1000Mbs又はそれ以上のネットワークをサポートする。
C.ショーストア
以下に記載の本発明の実施の形態は、エンコードされたビデオデータとオーディオデータとを受信し処理するショープレイヤーに組み込まれる。前記ビデオデータは上述のMPEG−2標準に準拠している。このビデオデータとオーディオデータとは、コンテンツストリーミングプロトコル(CSP)によりパケットに整えられる。ショーストア41は、マテリアルエクスチェンジフォーマット(MXF)に準拠してデータファイルに書いてあるデータに応答して、CSPに準拠するデータストリームを生成する。MXFは、放送アプリケーションのためのSMPTEW25技術者協会で現在承認処理中の標準である。必要ならば、本発明の特徴を他の再生システム装置又は部品に組み込んでもよい。本発明の原理は、他の標準に準拠したビデオデータストリームとオーディオデータストリームを同期させるために用いることができる。
CSPは、前述のドルビーショーストアDSSlOOで用いることができる。このプロトコルの使用は本発明にとって本質的なものではないが、その使用により上述のドルビーショープレイヤーDSPlOOにより処理することのできるデータストリームを生じさせる。CSPを用いて、ショーストア41は、ビデオデータとオーディオデータとをパケットに整える。各ビデオパケットは、ビデオデータを伝達するデータセクションと、リールID、ビデオリールフレームカウント、ビデオフレーム端部補正値、ビデオフレーム時間補正、及びビデオフレームレートを含む制御情報を伝達するヘッダセクションを有する。各オーディオパケットオーディオデータ伝達するデータセクションと、リールID、オーディオリールフレームカウント、オーディオフレーム端部補正値、オーディオサンプルレート、及びオーディオフレームレートを含む制御情報を伝達するヘッダセクションを有する。
ここに記載した実施の形態では、ショーストア41は、「トラックファイル」として整えられたMXFファイルを保存する。各トラックファイルのデータは、基本的に従来のフィルムのリールとして運搬された視覚又は聴覚素材に相当する、プログラム素材の「リール」に巻いたビデオコンテンツ又はオーディオコンテンツを表す。トラックファイルは、例えば動画のようなプログラムのすべて又は一部に相当するであろう。一般に、普通の長さの動画は、それぞれがビデオデータストリームとオーディオデータストリームとを生みだすシーケンスとして上演される、複数のビデオトラックファイルのセットと複数のオーディオトラックファイルのセットとに整えられる。ショーストア41がトラックファイルを読み込むと、CSPに準拠するデータストリーム中の情報のパケットが生じる。ビデオパケットは、各ビデオフレームにビデオデータを伝達する。オーディオパケットは、それぞれのビデオフレームに対応する期間又は本質的に必要とされる他の期間にオーディオデータを伝達する。
リールIDとリールフレームカウントは、ショーストア41により作られる。相互に時間で関係付けられたビデオトラックファイルとオーディオトラックファイルのそれぞれのペアから生じたパケットに対して、一意的なリールIDが作られる。リールフレームカウントは、トラックファイルの最初からフレーム単位での、トラックファイル内のそれぞれのフレームの位置に相当する。フレーム端部補正値のような、上述した他の制御情報はトラックファイルから取得され、CSPに準拠したパケットのヘッダに挿入される。
D.ショープレイヤー
図3に示した概略ブロック図は、ショープレイヤー42の1実施の形態を示している。ビデオバッファ61は、ショーストア41から通信経路51を介して受信したCSPビデオデータストリーム内に入れて伝達されたビデオコンテンツのパケットを受信し蓄える。一般的なネットワークプロトコルは、ショーストア41からビデオバッファ61へのビデオパケットの移動を制御するために用いられる。ビデオバッファ61に蓄えられたビデオコンテンツのパケットは、引き続いて、上述のように通信経路53を介してディスプレイ43に送ることのできる、デコードされたビデオフレームへとデコーディングするために、ビデオデコーダ63に送られる。エンコードされたパケットは、デコードされたフレームがビデオデコーダ63により出力される速さに等しい一定の速さで動作するクロックと同期してビデオデコーダ63に送られる。この速さがビデオフレームレートである。各パケット内に入れられて伝達されるエンコードされたデータの量は一定ではない。その結果、ビデオデコーダ63に送られるエンコードされたデータのビットレート又はデータレートは変化する。
バッファ62は任意的なものであり、変化が大きいデータレートでビデオデータをビデオデコーダ63に送ることが必要なシステムにおいて効果的に用いることができる。バッファ62を使用することにより、ビデオデコーダ63の要求を満足させるために必要なピークレートでビデオデータを送ることのできない低価格のメモリー回路で、ビデオバッファ61を実現させることができるので、実施コストを低減することができる。この任意的な構成において、ビデオバッファ61は、ビデオデコーダ63が必要とする平均データレートを満足する速度でビデオデータをバッファ62に送る。バッファ62は、ありうる最高の画質に要求されるフレームレートを達成するのに必要な最大のデータレートで、ありうる最大量のビデオコンテンツのパケットをビデオデコーダ63に送ることができるように、十分なビデオデータを蓄える。
オーディオバッファ64は、ショーストア41から通信経路51を介して受信したCSPオーディオデータストリーム内に入れて伝達されたオーディオコンテンツのパケットを受信し蓄える。ショーストア41からオーディオバッファ64へのオーディオパケットの移動を制御するために一般的なネットワークプロトコルを用いてもよい。上述のように、オーディオバッファ64に蓄えられたオーディオコンテンツのパケットは、プロセッサ65により読み出され通信経路54を介してオーディオプロセッサ44に送られる。
その他の構成要素により、再生中にビデオデータとオーディオデータとの同期が達成され保持されるように、ビデオデコーダ63の動作とプロセッサ65の動作が制御される。
E.同期
1.概要
上述の通り、MXF標準案によりフォーマットされたトラックファイルに保存されたデータから作られたCSPデータストリーム内にパッケージされたビデオデータとオーディオデータをここに記載した実施の形態で処理する。この特定のコーディング標準を必要とするこの特定の実施の形態に固有の特徴は本発明の特徴にとって本質的ではない。
図3を参照すると、エンコードされたビデオデータのパケットは、ビデオフレーム期間の始まりに印をつけるためのクロックに同期させて一定の速度でビデオバッファ61から読み出される。デコーダモデル67は、ビデオパケットで伝送された情報をビデオバッファ61から読み出されたときに分析し、これらのパケットのビデオタイミング情報を取得する。同期制御装置66に送られるこのタイミング情報は、それぞれのビデオパケットがデコードされたビデオフレームとしてビデオでコーダ63により出力される時刻を示す。このモデルがビデオタイミング情報を取得する1つの方法を以下に説明する。
原則として、ビデオタイミング情報は、本質的に、ショーストア41からディスプレイ43の入力までの経路のどこかでビデオパケットを分析することにより得ることができるが、ビデオデータストリームとオーディオデータストリームの相対的な位置合わせをより容易に行うことができるので、デコーダ63の入力の前にパケットを分析する構成が好ましい。バッファ62に流れるときに、バッファ62の出力側にあるような高いピークレートを含む、変化の大きなレートで流れるときにデコーダモデル67がビデオパケット中のデータを分析しなけらばならないのに比べて、デコーダモデル67がデコーダモデル67がビデオパケット中のデータを適度なデータレートで分析することができるので、図示した構成の方が魅力的である。
オーディオデータも、上述のビデオフレームレートクロックと同期してオーディオバッファ64から読み出される。多くの実施の形態において、オーディオパケットはビデオパケットと位置合わせがされているとは思われず、また、オーディオパケットはビデオフレームレートと同じ速さで読み出されるわけではない。プロセッサ65は、オーディオタイミング情報を取得するためにオーディオバッファ64からオーディオパケットに入れて送られた情報を読み出すときにこの情報を分析する。同期制御装置66に送られるこのタイミング情報は、それぞれのオーディオパケットが通信経路54に出力される時刻を示す。このプロセッサがオーディオパケットのオーディオタイミング情報を取得する1つの方法を以下に説明する。
同期制御装置66は、デコーダモデル67とプロセッサ65からビデオタイミング情報とオーディオタイミング情報とをそれぞれ受信し、ビデオデータストリームとオーディオデータストリームの相対位置調整をビデオフレームの先頭で定める。この情報を、2つのデータストリーム間でのタイミングの不均衡又は同期化エラーの知覚の程度を導き出す知覚モデルに送る。この知覚の程度に応答して、同期制御装置66は、ビデオパケット及び/又はオーディオパケットの相対的なタイミングを調整し、知覚できるとみなされるタイミングの不均衡を減少させる。この方法について以下に説明する。好ましい実施の形態では任意的な補正値制御装置69が含まれる。これらの実施の形態では、同期制御装置66は、補正値制御装置69により特定されたタイミング位置合わせにおいて、好ましい補正値で対処する。例えば、オーディオプロセッサ44における遅れの処理を、補正値により対処することが好ましいであろう。
2.知覚モデル
ビデオデータストリームとオーディオデータストリームとの間の同期の誤差は、画像とサウンドが相互に調和していない状態を引き起こす。誤差の大きさによっては、この不均衡により視聴者の気持ちがそがれる。爆発、足音、スピーチのような視覚的及び聴覚的目印となる多くの事象がある。スピーチにおける同期化誤差は、もっとも大きく困惑させるものであり、一般に「口パク」誤差と称される。国際電気通信連合(ITU)書面ITU−RBT.1359−1、表題「放送でのサウンドと画像の相対的タイミング」では、同期化誤差を、「検知閾値」により定義される区間の外側にあるとき、検知可能であるとクラス分けし、誤差が「許容閾値」により定義される区間の外側にあるとき、誤差は許容できないとクラス分けする。この書面によれば、検知閾値により定義される区間は、+45msから−125msの間であり、許容閾値により定義される区間は、+90msから−190msの間である。ここで、正の数値はオーディオがビデオに先行していることを示す。
1つの実施の形態において、知覚モデル68では、3つの値を持つ知覚される不均衡の程度が提供される。1つの値は、0のような値で、タイミングの不均衡は、もしあったとしても、検知閾値で定義される区間内にあることを示す。2番目の値は、正の1のような値で、検知閾値で定義される区間から外れる量だけオーディオがビデオに先行していることを示す。3番目の値は、負の1のような値で、検知閾値で定義される区間から外れる量だけビデオがオーディオに先行していることを示す。範囲の広いモデルを用いることもできる。
3.ビデオタイミング(ビデオデコーダモデル)
上述のビデオフレームクロックと同期して、デコーダモデル67は、各ビデオフレーム期間に対するそれぞれのビデオパケットのビデオタイミング情報を導き出す。
ビデオパケット内に入れて送られた情報にデコーダモデル67を適用することによりビデオタイミング情報を取得する。それぞれのビデオパケットについてのこのタイミング情報は、それぞれのビデオパケットからデコードされたビデオデータがビデオデコーダ63により出力される時刻を示す。上述のCSPによりフォーマットされたビデオパケットからビデオタイミング情報を取得する1つの方法を以下に記載する。
CSP準拠のビデオデータストリーム内の各ビデオパケットは、制御情報を有するヘッダセクションと、フレーム内の映像又は視覚プログラムの画像を表現するデータを有するデータセクションとを具備する。それぞれのパケットのヘッダには、それぞれのトラックファイルのデータストリーム内で連続するビデオパケット毎に1づつ増加するデコード順序のビデオリールフレームカウントと、ビデオフレームレートと、そこからビデオタイミング情報を導き出すことのできるビデオフレーム端数補正値が含まれる。デコーディングタイムスタンプ(DTS)は、以下に表す式により得ることができる。
Figure 0004990762
DTSは、それぞれのパケット内に入れて伝達されたデータがビデオデコーダ63によりデコードされて出力される順序又は相対時間を表す。この順序は、表示順序と称されるデコーダにより出力される、対応するデコードされたデータの順序である必要はない。
表示順序における各パケットの相対的なタイミング又はビデオ表示時刻(VPT)は、これらもまたビデオパケットヘッダ内に入れて伝達されるDTSとビデオフレーム時間補正値(TO)から導き出すことができる。これを行う1つの方法を以下に説明する。
各ビデオパケットは、パケット内のビデオデータがどのようにエンコードされていて、これをどのようにデコードするべきかを示す、一般にI,P,及びBと称される3つのタイプのうちの1つにクラス分けされる。Iパケットは、ビデオプログラム内の他のすべてのフレームとは独立にエンコードされ、したがって、ビデオデータストリーム内の他のすべとのパケットとは独立にデコードすることのできるデータを伝達する。Pパケットは、ビデオプログラム内の先行するフレームから予測される値を用いてエンコードされていて、この先行するフレームに対応するパケットをデコードしてからでないとデコードできないデータを伝達する。例えば、Pパケットは、先行するIパケットに直接従属することもあり、あるいは、Pパケット従属することもあり。これはそれぞれ直接的又は間接的にIパケットに従属している。Bパケットは、ビデオデータストリーム内の後続するフレームと場合によって先行するフレームとから予測される値を用いてエンコードされていて、これらの先行するフレームと後続するフレームに対応するパケットをデコードしてからでないとデコードできないデータを伝達する。
ビデオデータストリーム内のパケットのシーケンスの一例を表Iに示した情報により表す。
Figure 0004990762
このシーケンス内のパケットは、DTSの値で示されたようなデコード順序を示す。DTSからVPTを導き出すために必要な調整はTO値で表現される。この計算は以下の式で表される。
Figure 0004990762
例えば、2番目のパケットのVPTは、タイプPであり、DTS+TO=2+2=4となる。3番目のパケットのVPTは、タイプBであり、DTS+TO=3+(−1)=2となる。
ここに示した例では、説明を簡単にするために、DTSの値は任意の整数値を選択し、ビデオフレームレートは任意に1を選択している。
これらのパケットのVPTは、パケットからデコードされるフレームの表示順序を示す。このフレームの順序は、I,B,B,P,B,B,P
であり、ここでこのシーケンス中の各要素の添え字は対応するパケットのDTSである。
MPEG−2準拠のビデオデータストリーム内のエンコードされたビデオパケットは、Iパケットから始まる画像のグループ(GOP)に整えられる。例えば、デコードの順序に並べた表Iに示したパケットのシーケンスが1つのGOPとなり得る。デコードの順序に並べた各GOPがIパケットから始まるとしても、このIパケットはかならずしも、ビデオデコーダによって出力されるGOPの最初のフレームに該当する必要はない。これはGOPとなり得るパケットのシーケンスのもう1つの例で見ることができ、それは表IIに示した情報により表される。
Figure 0004990762
このシーケンス内のパケットもデコードの順序で示されている。VPTも上述したものと同様の方法でDTSとTOから導き出される。この例では、最初のBパケットは先行するGOP内のパケットに従属するかもしれない。
これらのパケットのVPTは、パケットからデコードされるフレームの表示順序を示し、これらのパケットからデコードされる順序はB,B,I,B,B,Pであり、ここで、このシーケンス中の各要素の添え字は対応するパケットのDTSである。
もし時刻TがGOP内の最初のパケットがビデオデコーダに入力される時刻であり、時刻Tがデコードされたデータの最初のフレームがGOPへ出力される時刻だとすると、これらの2つの時間間隔(T−T)は、デコーダのデコーディング待ち時間と称されることのある定数である。ビデオデコー63においてフレーム再順序付けが行われるので、GOP内での各フレームのデコーディング待ち時間は一定ではない。デコーダモデル67は、デコーダに入力されるパケットのDTSからビデオデコーダ63により出力されるフレームのVPTを導き出す。1つの実施の形態において、デコーダモデル67は、上述のようにDTSからVPTを計算し、バッファ62におけるバッファ遅れ、デコーディング待ち時間、及びビデオデコーダ63で生じる再順序付けをつかさどる。このモデルの実施の形態では、このモデルがビデオデコーダ63の実際の動作の責任を負うので、例えば再生開始部分がGOPの中を通るような異常な状況でも適切なVPTを定めることができる。
他の実施の形態においてデコーダモデル67は、バッファ62とビデオデコーダ63における時間遅れを補償する長さを有するファーストインファーストアウト(FIFO)を用いる。ビデオパケットがバッファ62に送られたとき、対応するDTS値がFIFOに押し込まれる。ビデオフレームがビデオデコーダ63により出力されると、時間値がそのフレームのVPTとしてFIFOから読み出される。この実施の形態は、コンピュータの立場から見て上述の実施の形態に比べて複雑ではないが、再生開始部分がGOPを通り越しているような異常な状況では適切なVPTを定めることができない。
いずれの実施の形態においても、VPTは、ディスプレイ43で表示するためにそれぞれのビデオパケットからのデコードされたビデオフレームがビデオデコーダ63から出力される時刻を表す。
4.オーディオタイミング
CSP準拠のオーディオデータストリーム中の各オーディオパケットは、制御情報を持つヘッダセクションと、オーディオサンプルのフレームを表現するデータを持つデータセクションとを有する。データセクションはフレーム内の個々のサンプルを表現するPCMデータを伝達することができ、又は、変換コーディング又はブロック圧縮のようなブロックエンコーディングプロセスを用いてエンコードされたオーディオのサンプルのフレームを表すデータのセットを伝達することができる。パケットにより表現されたオーディオフレーム中のサンプル数はパケットヘッダの情報により指定される。一般に、ヘッダは、オーディオサンプルレートとオーディオフレームレートとを指定する。オーディオフレーム内のサンプル数は、オーディオサンプルレートをオーディオフレームレートで割算することにより算出することができる。
ヘッダセクションには、オーディオ表示時刻(APT)を導き出すことのできる制御情報も含まれる。CSPに準拠するオーディオパケットからオーディオタイミング情報を取得することのできる1つの方法を以下に説明する。
それぞれのパケットのヘッダには、それぞれのトラックファイルに対するデータストリーム内で連続するパケット毎に1つ増加するオーディオリールフレームカウントが含まれる。表示順序に並べた各パケットの先頭の相対的なタイミング、又は、オーディオフレーム時刻(AFT)は、以下に示す計算により取得される。
Figure 0004990762
プロセッサ65は、オーディオパケットがオーディオバッファ64から読み出されたときオーディオパケットに対応する各オーディオフレームのAFTを決定する。上述のビデオフレームクロックに同期して、現ビデオフレーム期間の開始部に最も近くに並べられたオーディオデータストリーム内のサンプル期間に対するオーディオ表示時刻(APT)を、プロセッサ65が決定する。一般的な状況では、この配列位置は、オーディオフレームの開始部と同時ではなく、フレーム内のどこかで生じる。このような状況で、配列位置のタイミング情報は、配列位置の生じるフレームの開始部をAFTから推定することにより取得する。この推定はさまざまの方法で行われる。ひとつの方法は以下である。
Figure 0004990762
ここで、K=オーディオフレームの開始部と現ビデオフレームの開始部との間のサンプル期間数、である。
5.同期制御
同期制御装置66は、ビデオデータストリームとオーディオデータストリームとの同期を達成し保持させる責任を担う。以下の説明において、本発明の原理が再生中の同期を保持するためにどのように用いられるかを記載しているが、同じ原理を再生の開始時に同期を達成するために用いることができる。必要なら、再生の開始時における最初の同期は、本質的に公知の同期技術を用いて達成させてもよい。
ビデオパケットとオーディオパケットの処理を遅らせることにより好ましい制限内で同期を保持するために必要なので、ビデオデータストリームとオーディオデータストリームとの相対的な位置が監視され調整される。1つの実施の形態において、ビデオバッファ61からビデオデータの読み出しを整数のビデオフレーム期間だけ中断することによりビデオパケットの処理を遅延させ、オーディオバッファ64からオーディオデータの読み出しを整数のオーディオサンプル期間又は整数のオーディオフレーム期間だけ中断することによりオーディオデータの処理を遅延させる。
各ビデオフレームについて、同期制御装置66は、現ビデオフレームのビデオタイミング情報を取得し、実質的にビデオフレームの開始部と位置合わせしてあるオーディオデータストリームにおける位置のオーディオタイミング情報を取得する。このタイミング情報は、2つのデータストリーム間の不均衡が知覚されるとみなされるかどうかを決定する知覚モデル68に送られる。1つの実施の形態においては、ビデオ時刻とオーディオ時刻との間の差が上述のITU検知閾値で定義される区間の外側にあるかどうかを判断することによりこれを行う。
もし知覚モデル68が知覚不均衡がないとの判断を示した場合、ビデオバッファ61からビデオデータを読み出しそれをビデオデコーダ63に送ること、及び、オーディオバッファ64からオーディオデータを読み出しそれを通信経路54を介してオーディオプロセッサ44に送ることにより、2つのデータストリームの通常の処理を続ける。
もしオーディオ時刻とビデオ時刻とによりオーディオデータストリームがビデオデータストリームより進んでおり、知覚モデル68によりデータストリーム間の不均衡が知覚できるとの判断が示された場合、ビデオデータストリームの通常の処理を続けるが、同期制御装置66は、プロセッサ65に対して、オーディオフレーム期間の整数倍又はオーディオサンプル期間の整数倍のうちのどちらかの指定の期間だけオーディオデータストリームの処理を遅らせるよう指令する。この期間の所要時間DAを定める1つの方法は以下で表される。
Figure 0004990762
この期間にプロセッサ65は、経路54を介してオーディオデータストリームにゼロ値のサンプル又はこれまでのサンプル値を挿入する。オーディオパケットがブロックエンコーディングプロセスにより作られたデータを伝達するする場合は、オーディオバッファ64から読み出される次のオーディオパケットの前にゼロ値のデータを挿入することが好ましい。この実施の形態において、オーディオプロセッサ44は、出力を無音にするか又は先のサンプルを繰り返すことによって挿入されたデータに応じることができる。無音区間に続くオーディオの強さは、非常に低いレベルから必要とされる通常のレベルまで徐々に増加させることができる。遅延の前のオーディオサンプルを出力する前にショープレイヤー42又はオーディオプロセッサ44のどちらか一方が遅延情報を受け取ることができる場合は、無音区間に先立つオーディオの強さは、必要に応じて非常に低いレベルに徐々に減少させていってもよい。
ビデオ時刻及びオーディオ時刻により、ビデオデータストリームがオーディオデータストリームより先行していることが示され、知覚モデル68により、データストリーム同士に不均衡があることが示された場合、上述したように同期制御装置66は、ビデオフレーム期間の整数倍の指定期間DVだけビデオデータストリームの処理を遅らせるようビデオデコーダ63に指令し、かつ、オーディオフレーム期間の整数倍又はオーディオサンプル期間の整数倍の指定期間DAだけオーディオデータストリームの処理を遅らせるようプロセッサ65に指令する。この2つの期間の所要時間を定める1つの方法は以下で表される。
Figure 0004990762
ここでPV=ビデオフレーム期間である。
期間DVでは、ビデオデコーダ63は、経路53を介して送られるビデオデータストリームに1以上のビデオフレームのデータを挿入する。挿入するフレームは先行するビデオフレームの繰り返しでもよく、又は、一般にブラックフレームと呼ばれる輝度のない映像のような任意の映像を表示させてもよい。期間DAでは、プロセッサ65は、上述の通り、経路54を介して送られるオーディオデータストリームにゼロ値のサンプルのようなデータを挿入する。
一般的なの実施の形態において、ビデオフレーム期間は約40msでありオーディオサンプル期間は約20μsである。オーディオデータストリームの位置調整は、一般に、ビデオデータストリームよりさらに細かい区分で行うことができる。
相対的な位置の調整は、販売促進用予告編からメイン上映作品への移行のようなデータストリーム中の原素材の変化や、ビデオフレームレート又はオーディオフレームレート又はオーディオサンプリングレートの変化や、操作員により指定された補正値の変化をきっかけとして行われる。
1つのトラックファイルから他のトラックファイルの開始部への切換があったときはいつでも、ショーストア41の1つの実行形態により、異なったリールIDを生じさせ新しいトラックファイルから作られるパケットの最初のフレームカウントをゼロにリセットする。場合によっては、ショーストア41は、ビデオトラックファイルとオーディオトラックファイルとの間の切り替えを違う時刻に行うことができる。この場合、ショープレイヤー42の好ましい実施の形態では、2つのデータストリームにおけるパケットがリールIDと合致するまで位置調整の変更を中断する。
F.実施
本発明のさまざまな特徴を組み込んだ装置は、コンピュータ又は汎用コンピュータに見られる構成要素と同様な構成要素と結合したディジタル信号プロセッサ(DSP)回路のような専用化した構成要素を含む他の装置により実行させるソフトウェアを含むさまざまな方法で実施することができる。図4は、本発明の特徴を実施するために用いることのできる装置の概略ブロック図である。プロセッサ72は計算手段を提供する。RAM73は処理のためのプロセッサ72により用いられるランダムアクセスメモリ(RAM)のシステムである。ROM74は、装置を動作させるのに必要なプログラムを保存するための、及び、おそらく本発明のさまざまな特徴を実行することのできるリードオンリーメモリ(ROM)のような固定記憶の形態を示す。I/O制御75は、通信チャンネル76,77を用いて信号を受信し送信するインターフェース回路を示す。図示の実施の形態では、すべての主要なシステム構成要素は、2以上の物理的または論理的バスを表すバス71に接続されているが、バス構成は本発明を実施するためにからなずしも必要ではない。
汎用コンピュータシステムにより実施される実施の形態では、キーボードやマウスやディスプレイのような装置とのインターフェースのための構成要素、及び、磁気テープ又はディスク或いは光学的記憶媒体のような記憶媒体を有する記憶装置78を制御するための構成要素を付加的に含めることができる。この記憶媒体はオペレーティングシステムに対する指令プログラム、ユーティリティープログラム、及びアプリケーションプログラムを記憶するために使うことができ、また、本発明のさまざまな特徴を実行するプログラムを含有することができる。このコンピュータシステムはハードウェア的な故障に対して耐性があることが好ましい。このためのひとつの方法は、2重電源と冗長記憶装置のような冗長な構成要素を用いること、及び、異常を検出し対応することのできるオペレーションシステムを用いることで行うことができる。
本発明のさまざまな特徴を実行するために必要な機能は、個別の論理要素、集積回路、one or moreASICs及び/又はプログラム制御されるプロセッサを含む広くさまざまな方法に用いられる構成要素により実行される。これらの構成要素を用いる方法は本発明にとって重要ではない。
本発明を実施するソフトウェアは、超音波から赤外周波数を含む範囲のスペクトルでのベースバンド通信経路又は変調通信経路のような機械的に読み出し可能なさまざまな媒体、又は、磁気テープ、磁気カード、磁気ディスク、光学カード又は光学ディスク、及び紙を含む媒体上の検出可能なマーキングを含んで、原則としてあらゆる記憶技術を含む、情報を伝達する記憶媒体により伝達することができる。
ディジタルシネマネットワークの概略ブロック図である。 ディジタルシネマ再生システムの概略ブロック図である。 ビデオデータとオーディオデータとの同期を保持するための構成要素を含む、ディジタルシネマ再生システムにおけるショープレイヤーの概略ブロック図である。 本発明の種々の特徴を実施するために用いることのできる装置の概略ブロック図である。

Claims (10)

  1. オーディオ/ビデオプログラムのオーディオコンテンツ及びビデオコンテンツを処理する処理装置が実行する方法であって、該方法は、
    第1の制御情報と前記オーディオコンテンツとを伝達する一連のオーディオパケットを受信し、前記第1の制御情報から前記一連のオーディオパケット中のそれぞれのオーディオパケットのオーディオ時刻情報を取得するステップであって、
    各オーディオパケット内に入れて伝達したデータは、オーディオフレーム期間を有するオーディオフレームを表し、第1の量は前記オーディオフレーム期間の整数倍に等しい量であり、第3の量はオーディオフレーム期間の整数倍に等しい量である、あるいは、
    各オーディオパケット内に入れて伝達したデータは、各々がオーディオサンプル期間を有する複数のサンプルを表し、前記第1の量は前記オーディオサンプル期間の整数倍に等しい量であり、前記第3の量はオーディオサンプル期間の整数倍に等しい量である、
    ステップと、
    第2の制御情報と前記ビデオコンテンツとを伝達する一連のビデオパケットを受信し、前記第2の制御情報から前記一連のビデオパケット中のそれぞれのビデオパケットのビデオ時刻情報を取得するステップであって、各ビデオパケット内に入れて伝達したデータは、ビデオフレーム期間を有するビデオフレームを表し、第2の量はビデオフレーム期間の整数倍に等しい量である、
    ステップと、
    前記オーディオ時刻情報と前記ビデオ時刻情報とからそれぞれのビデオパケットに対するそれぞれのオーディオパケットの相対時刻整合状態を定め、それぞれのビデオパケットとそれぞれのオーディオパケットとの間での知覚できる不均衡の指標を取得するために該相対時刻整合状態に知覚モデルを適用するステップと、
    前記知覚できる不均衡の指標により、それぞれのオーディオパケットが第1の閾値を超えた時間だけそれぞれのビデオパケットとの好ましい時刻整合状態より進んでいることが示された場合、前記それぞれのオーディオパケットの全部又は一部を前記第1の量だけ遅らせ、それにより前記知覚モデルに基づいて、遅らせたそれぞれのオーディオパケットとそれぞれのビデオパケットとの間で知覚できる不均衡を減少させるステップと、
    前記知覚できる不均衡の指標により、それぞれのオーディオパケットが第2の閾値を超えた時間だけそれぞれのビデオパケットとの好ましい時刻整合状態より遅れていることが示された場合、前記それぞれのビデオパケットを前記第2の量だけ遅らせ前記それぞれのオーディオパケットの全部又は一部を前記第3の量だけ遅らせ、それにより前記知覚モデルに基づいて、遅らせたそれぞれのオーディオパケットと遅らせたそれぞれのビデオパケットとの間で知覚できる不均衡を減少させるステップと、
    を具備することを特徴とする方法。
  2. 第1の制御情報から推定することにより、前記それぞれのオーディオパケットの開始のタイミングを伝達する前記オーディオ時刻情報を取得するステップを具備することを特徴とする請求項1に記載の方法。
  3. 遅らせられた前記それぞれのオーディオパケットの全部又は一部から生成されたオーディオデータストリームに情報を挿入するステップと、
    前記挿入した情報に先行するオーディオコンテンツの再生レベルを減少させ、前記挿入した情報に後続するオーディオコンテンツの再生レベルを増加させるステップと、
    を具備することを特徴とする請求項1に記載の方法。
  4. 一連のオーディオパケットと一連のビデオパケットとを通信ネットワークから受信し、装置内の1以上のバッファに蓄えるステップと、
    前記ネットワークにおける通信を制御するために用いるプロトコルを、情報を前記1以上のバッファに蓄えるための制御に使用するステップと、
    を具備することを特徴とする請求項1に記載の方法。
  5. 前記知覚モデルに基づいて、知覚できない程度にまで前記知覚できる不均衡を減少させるように、前記第1の量と、前記第2の量と、前記第3の量とを定めることを特徴とする請求項1に記載の方法。
  6. コンピュータにオーディオ/ビデオプログラムのオーディオコンテンツ及びビデオコンテンツを処理する方法を実行させるための命令のプログラムを記録したコンピュータ読み取り可能な記憶媒体であって、前記方法は、
    第1の制御情報と前記オーディオコンテンツとを伝達する一連のオーディオパケットを受信し、前記第1の制御情報から前記一連のオーディオパケット中のそれぞれのオーディオパケットのオーディオ時刻情報を取得するステップであって、
    各オーディオパケット内に入れて伝達したデータは、オーディオフレーム期間を有するオーディオフレームを表し、第1の量は前記オーディオフレーム期間の整数倍に等しい量であり、第3の量はオーディオフレーム期間の整数倍に等しい量である、あるいは、
    各オーディオパケット内に入れて伝達したデータは、各々がオーディオサンプル期間を有する複数のサンプルを表し、前記第1の量は前記オーディオサンプル期間の整数倍に等しい量であり、前記第3の量はオーディオサンプル期間の整数倍に等しい量である、
    ステップと、
    第2の制御情報と前記ビデオコンテンツとを伝達する一連のビデオパケットを受信し、
    前記第2の制御情報から前記一連のビデオパケット中のそれぞれのビデオパケットのビデオ時刻情報を取得するステップであって、各ビデオパケット内に入れて伝達したデータは、ビデオフレーム期間を有するビデオフレームを表し、第2の量はビデオフレーム期間の整数倍に等しい量である、
    ステップと、
    前記オーディオ時刻情報と前記ビデオ時刻情報とからそれぞれのビデオパケットに対するそれぞれのオーディオパケットの相対時刻整合状態を定め、それぞれのビデオパケットとそれぞれのオーディオパケットとの間での知覚できる不均衡の指標を取得するために該相対時刻整合状態に知覚モデルを適用するステップと、
    前記知覚できる不均衡の指標により、それぞれのオーディオパケットが第1の閾値を超えた時間だけそれぞれのビデオパケットとの好ましい時刻整合状態より進んでいることが示された場合、前記それぞれのオーディオパケットの全部又は一部を前記第1の量だけ遅らせ、それにより、前記知覚モデルに基づいて、遅らせたそれぞれのオーディオパケットとそれぞれのビデオパケットとの間で知覚できる不均衡を減少させるステップと、
    前記知覚できる不均衡の指標により、それぞれのオーディオパケットが第2の閾値を超えた時間だけそれぞれのビデオパケットとの好ましい時刻整合状態より遅れていることが示された場合、前記それぞれのビデオパケットを前記第2の量だけ遅らせ前記それぞれのオーディオパケットの全部又は一部を前記第3の量だけ遅らせ、それにより、前記知覚モデルに基づいて、遅らせたそれぞれのオーディオパケットと遅らせたそれぞれのビデオパケットとの間で知覚できる不均衡を減少させるステップと、
    を具備することを特徴とする媒体。
  7. 前記方法は、第1の制御情報から推定することにより、前記それぞれのオーディオパケットの開始のタイミングを伝達する前記オーディオ時刻情報を取得するステップを具備することを特徴とする請求項に記載の媒体。
  8. 前記方法は、遅らせられた前記それぞれのオーディオパケットの全部又は一部から生成されたオーディオデータストリームに情報を挿入するステップと、
    前記挿入した情報に先行するオーディオコンテンツの再生レベルを減少させ、前記挿入した情報に後続するオーディオコンテンツの再生レベルを増加させるステップと、
    を具備することを特徴とする請求項に記載の媒体。
  9. 前記一連のオーディオパケットと前記一連のビデオパケットとを、通信ネットワークから受信し、該パケットを装置内の1以上のバッファに蓄え、
    前記ネットワークにおける通信を制御するために用いるプロトコルを、情報を前記1以上のバッファに蓄えるための制御に使用する、
    ことを特徴とする請求項に記載の媒体。
  10. 前記方法は、前記知覚モデルに基づいて、知覚できない程度にまで前記知覚できる不均衡を減少させるように、前記第1の量と、前記第2の量と、前記第3の量とを定めることを特徴とする請求項に記載の媒体。
JP2007516469A 2004-06-18 2005-04-08 インターネットプロトコルに用いるストリーミングオーディオとストリーミングビデオとの同期保持 Active JP4990762B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/871,363 2004-06-18
US10/871,363 US7400653B2 (en) 2004-06-18 2004-06-18 Maintaining synchronization of streaming audio and video using internet protocol
PCT/US2005/012082 WO2006006980A2 (en) 2004-06-18 2005-04-08 Maintaining synchronization of streaming audio and video using internet protocol

Publications (2)

Publication Number Publication Date
JP2008506282A JP2008506282A (ja) 2008-02-28
JP4990762B2 true JP4990762B2 (ja) 2012-08-01

Family

ID=35480487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007516469A Active JP4990762B2 (ja) 2004-06-18 2005-04-08 インターネットプロトコルに用いるストリーミングオーディオとストリーミングビデオとの同期保持

Country Status (6)

Country Link
US (1) US7400653B2 (ja)
EP (1) EP1759535B1 (ja)
JP (1) JP4990762B2 (ja)
CN (1) CN100525459C (ja)
CA (1) CA2567074C (ja)
WO (1) WO2006006980A2 (ja)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11650784B2 (en) 2003-07-28 2023-05-16 Sonos, Inc. Adjusting volume levels
US11106424B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US11106425B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US11294618B2 (en) 2003-07-28 2022-04-05 Sonos, Inc. Media player system
US8086752B2 (en) * 2006-11-22 2011-12-27 Sonos, Inc. Systems and methods for synchronizing operations among a plurality of independently clocked digital data processing devices that independently source digital data
US10613817B2 (en) 2003-07-28 2020-04-07 Sonos, Inc. Method and apparatus for displaying a list of tracks scheduled for playback by a synchrony group
US8290603B1 (en) 2004-06-05 2012-10-16 Sonos, Inc. User interfaces for controlling and manipulating groupings in a multi-zone media system
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
US9374607B2 (en) 2012-06-26 2016-06-21 Sonos, Inc. Media playback system with guest access
US9977561B2 (en) 2004-04-01 2018-05-22 Sonos, Inc. Systems, methods, apparatus, and articles of manufacture to provide guest access
US8868698B2 (en) 2004-06-05 2014-10-21 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US8326951B1 (en) 2004-06-05 2012-12-04 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US20060034581A1 (en) * 2004-08-10 2006-02-16 Dell Products L.P. Media device featuring synchronized playback
GB2417866B (en) * 2004-09-03 2007-09-19 Sony Uk Ltd Data transmission
KR100652956B1 (ko) * 2005-01-14 2006-12-01 삼성전자주식회사 비디오 수신지연 알림방법 및 이를 적용한 방송수신장치
US8451375B2 (en) 2005-04-28 2013-05-28 Panasonic Corporation Lip-sync correcting device and lip-sync correcting method
US7764713B2 (en) * 2005-09-28 2010-07-27 Avaya Inc. Synchronization watermarking in multimedia streams
US9692537B2 (en) * 2005-10-18 2017-06-27 Avago Technologies General Ip (Singapore) Pte. Ltd. System, method, and apparatus for jitter reduction in a video decoder system
CA2541560C (en) * 2006-03-31 2013-07-16 Leitch Technology International Inc. Lip synchronization system and method
US20070297454A1 (en) * 2006-06-21 2007-12-27 Brothers Thomas J Systems and methods for multicasting audio
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US9202509B2 (en) 2006-09-12 2015-12-01 Sonos, Inc. Controlling and grouping in a multi-zone media system
US8788080B1 (en) 2006-09-12 2014-07-22 Sonos, Inc. Multi-channel pairing in a media system
JP2008092107A (ja) * 2006-09-29 2008-04-17 Toshiba Corp 情報処理装置及び音声/映像データ再生方法
JP4360400B2 (ja) * 2006-12-05 2009-11-11 セイコーエプソン株式会社 コンテンツ再生システムおよびこれに用いられる再生装置、並びにコンテンツ再生方法
US8272008B2 (en) * 2007-02-28 2012-09-18 At&T Intellectual Property I, L.P. Methods, systems, and products for retrieving audio signals
WO2008122934A2 (en) * 2007-04-04 2008-10-16 Nxp B.V. Integrated circuit having data processing stages and electronic device including the integrated circuit
US8174558B2 (en) * 2007-04-30 2012-05-08 Hewlett-Packard Development Company, L.P. Automatically calibrating a video conference system
CN101137066B (zh) * 2007-05-11 2011-01-05 中兴通讯股份有限公司 一种多媒体数据流同步控制的方法及装置
CN101682759B (zh) * 2007-06-27 2013-01-09 汤姆森许可贸易公司 增强数字图像的图像质量的方法和设备
US9060094B2 (en) 2007-09-30 2015-06-16 Optical Fusion, Inc. Individual adjustment of audio and video properties in network conferencing
US8743284B2 (en) * 2007-10-08 2014-06-03 Motorola Mobility Llc Synchronizing remote audio with fixed video
US8111971B2 (en) * 2007-12-05 2012-02-07 Cisco Technology, Inc. Systems and methods of reducing media stream delay through independent decoder clocks
CN101465996B (zh) * 2008-12-31 2013-04-24 华为技术有限公司 一种网络电视显示时间的方法及设备和系统
EP2346260A1 (en) 2009-11-30 2011-07-20 Alcatel Lucent Method for monitoring the synchronization between a video stream and at least one audio stream of a multimedia content
US8699351B2 (en) * 2009-12-04 2014-04-15 At&T Intellectual Property I, L.P. Method and system for detecting audio and video synchronization
US8640181B1 (en) * 2010-09-15 2014-01-28 Mlb Advanced Media, L.P. Synchronous and multi-sourced audio and video broadcast
US8878894B2 (en) 2010-09-15 2014-11-04 Hewlett-Packard Development Company, L.P. Estimating video cross-talk
US8988489B2 (en) 2010-09-15 2015-03-24 Hewlett-Packard Development Company, L. P. Determining a synchronization relationship
JP5552993B2 (ja) * 2010-10-07 2014-07-16 Nttエレクトロニクス株式会社 Mxf処理装置
US9565426B2 (en) * 2010-11-12 2017-02-07 At&T Intellectual Property I, L.P. Lip sync error detection and correction
US11265652B2 (en) 2011-01-25 2022-03-01 Sonos, Inc. Playback device pairing
US11429343B2 (en) 2011-01-25 2022-08-30 Sonos, Inc. Stereo playback configuration and control
US8989277B1 (en) * 2011-11-03 2015-03-24 Xilinx, Inc. Reducing artifacts within a video processing system
CN102761724B (zh) * 2011-12-16 2017-11-10 新奥特(北京)视频技术有限公司 一种视音频处理的方法
US9282360B2 (en) * 2012-01-24 2016-03-08 Spencer Shanson System and method for maintaining integrity of audio data in a multiplexed audio/video stream over a low-latency network connection
US9729115B2 (en) 2012-04-27 2017-08-08 Sonos, Inc. Intelligently increasing the sound level of player
KR20150037949A (ko) * 2012-08-01 2015-04-08 톰슨 라이센싱 화상 프레임 속도에 오디오 지연을 적응시키는 방법 및 장치
US9008330B2 (en) 2012-09-28 2015-04-14 Sonos, Inc. Crossover frequency adjustments for audio speakers
DE102013200171A1 (de) * 2013-01-09 2014-07-10 Lufthansa Technik Ag Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System
US9510055B2 (en) 2013-01-23 2016-11-29 Sonos, Inc. System and method for a media experience social interface
US9654545B2 (en) 2013-09-30 2017-05-16 Sonos, Inc. Group coordinator device selection
US9288596B2 (en) 2013-09-30 2016-03-15 Sonos, Inc. Coordinator device for paired or consolidated players
US9720576B2 (en) 2013-09-30 2017-08-01 Sonos, Inc. Controlling and displaying zones in a multi-zone system
US20150095679A1 (en) 2013-09-30 2015-04-02 Sonos, Inc. Transitioning A Networked Playback Device Between Operating Modes
US9300647B2 (en) 2014-01-15 2016-03-29 Sonos, Inc. Software application and zones
US20150220498A1 (en) 2014-02-05 2015-08-06 Sonos, Inc. Remote Creation of a Playback Queue for a Future Event
US9226073B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US9226087B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US9679054B2 (en) 2014-03-05 2017-06-13 Sonos, Inc. Webpage media playback
US10587693B2 (en) 2014-04-01 2020-03-10 Sonos, Inc. Mirrored queues
US20150324552A1 (en) 2014-05-12 2015-11-12 Sonos, Inc. Share Restriction for Media Items
US20150334471A1 (en) * 2014-05-15 2015-11-19 Echostar Technologies L.L.C. Multiple simultaneous audio video data decoding
US20150356084A1 (en) 2014-06-05 2015-12-10 Sonos, Inc. Social Queue
US9874997B2 (en) 2014-08-08 2018-01-23 Sonos, Inc. Social playback queues
EP2996269A1 (en) 2014-09-09 2016-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio splicing concept
US9723038B2 (en) 2014-09-24 2017-08-01 Sonos, Inc. Social media connection recommendations based on playback information
US9667679B2 (en) 2014-09-24 2017-05-30 Sonos, Inc. Indicating an association between a social-media account and a media playback system
US9959087B2 (en) 2014-09-24 2018-05-01 Sonos, Inc. Media item context from social media
EP3114625A1 (en) 2014-09-24 2017-01-11 Sonos, Inc. Social media connection recommendations based on playback information
US9690540B2 (en) 2014-09-24 2017-06-27 Sonos, Inc. Social media queue
US10645130B2 (en) 2014-09-24 2020-05-05 Sonos, Inc. Playback updates
US9860286B2 (en) 2014-09-24 2018-01-02 Sonos, Inc. Associating a captured image with a media item
CN104506883A (zh) * 2014-12-11 2015-04-08 成都德芯数字科技有限公司 一种基于广域网直播的音视频编码器及其工作方法
CN106302378B (zh) * 2015-05-25 2020-09-22 恩智浦美国有限公司 用于流同步的多媒体系统和方法
US10248376B2 (en) 2015-06-11 2019-04-02 Sonos, Inc. Multiple groupings in a playback system
CN106470339B (zh) * 2015-08-17 2018-09-14 南宁富桂精密工业有限公司 终端设备、及音频视频同步检测方法
US10726594B2 (en) 2015-09-30 2020-07-28 Apple Inc. Grouping media content for automatically generating a media presentation
EP3323128A1 (en) * 2015-09-30 2018-05-23 Apple Inc. Synchronizing audio and video components of an automatically generated audio/video presentation
US10269387B2 (en) 2015-09-30 2019-04-23 Apple Inc. Audio authoring and compositing
US10303422B1 (en) 2016-01-05 2019-05-28 Sonos, Inc. Multiple-device setup
US9886234B2 (en) 2016-01-28 2018-02-06 Sonos, Inc. Systems and methods of distributing audio to one or more playback devices
CN106101694A (zh) * 2016-06-12 2016-11-09 深圳创维-Rgb电子有限公司 一种自动校准唇音同步的方法、装置和系统
US10158905B2 (en) 2016-09-14 2018-12-18 Dts, Inc. Systems and methods for wirelessly transmitting audio synchronously with rendering of video
US10712997B2 (en) 2016-10-17 2020-07-14 Sonos, Inc. Room association based on name
CN108495164B (zh) * 2018-04-09 2021-01-29 珠海全志科技股份有限公司 音视频同步处理方法及装置、计算机装置及存储介质
US11159327B2 (en) * 2018-08-06 2021-10-26 Tyson York Winarski Blockchain augmentation of a material exchange format MXF file
US10861482B2 (en) * 2018-10-12 2020-12-08 Avid Technology, Inc. Foreign language dub validation
EP3871422A1 (en) * 2018-10-24 2021-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Source device, sink devices, methods and computer programs
CN110177294A (zh) * 2019-06-11 2019-08-27 亦非云互联网技术(上海)有限公司 播放器音视频同步方法及系统、存储介质及终端
US11601691B2 (en) 2020-05-04 2023-03-07 Kilburn Live, Llc Method and apparatus for providing audio and video within an acceptable delay tolerance
US11699205B1 (en) 2020-05-20 2023-07-11 State Farm Mutual Automobile Insurance Company Providing a GUI to enable analysis of time-synchronized data sets pertaining to a road segment
CN112995781B (zh) * 2021-04-27 2021-08-13 南斗六星系统集成有限公司 一种实时视频中音视频延时确定方法和系统
CN113507637A (zh) * 2021-07-13 2021-10-15 北京字跳网络技术有限公司 媒体文件处理方法、装置、设备、可读存储介质及产品
FR3131161A1 (fr) * 2021-12-20 2023-06-23 Sagemcom Broadband Sas Dispositif et procédé pour la restitution audio-vidéo synchronisée.
US11895468B2 (en) 2022-01-31 2024-02-06 Harman International Industries, Incorporated System and method for synchronization of multi-channel wireless audio streams for delay and drift compensation

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE33535E (en) * 1985-09-16 1991-02-12 Audio to video timing equalizer method and apparatus
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
JPH07105362A (ja) * 1993-10-06 1995-04-21 Fujitsu Ltd 曲線の標本点発生装置
JP3197766B2 (ja) * 1994-02-17 2001-08-13 三洋電機株式会社 Mpegオーディオデコーダ、mpegビデオデコーダおよびmpegシステムデコーダ
US5598352A (en) * 1994-09-30 1997-01-28 Cirrus Logic, Inc. Method and apparatus for audio and video synchronizing in MPEG playback systems
US5815634A (en) 1994-09-30 1998-09-29 Cirrus Logic, Inc. Stream synchronization method and apparatus for MPEG playback system
GB9424429D0 (en) * 1994-12-02 1995-01-18 Philips Electronics Uk Ltd Audio/video timing discrepancy management
US6122668A (en) * 1995-11-02 2000-09-19 Starlight Networks Synchronization of audio and video signals in a live multicast in a LAN
US5570372A (en) * 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
US6148135A (en) * 1996-01-29 2000-11-14 Mitsubishi Denki Kabushiki Kaisha Video and audio reproducing device and video decoding device
US5818634A (en) * 1996-08-05 1998-10-06 Motorola, Inc. Dual mode optical Magnifier system
JP3698376B2 (ja) * 1996-08-19 2005-09-21 松下電器産業株式会社 同期再生装置
US5949410A (en) * 1996-10-18 1999-09-07 Samsung Electronics Company, Ltd. Apparatus and method for synchronizing audio and video frames in an MPEG presentation system
US6661430B1 (en) * 1996-11-15 2003-12-09 Picostar Llc Method and apparatus for copying an audiovisual segment
US6262776B1 (en) * 1996-12-13 2001-07-17 Microsoft Corporation System and method for maintaining synchronization between audio and video
US5959684A (en) * 1997-07-28 1999-09-28 Sony Corporation Method and apparatus for audio-video synchronizing
JP3063838B2 (ja) * 1997-10-02 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置および方法
US6269122B1 (en) * 1998-01-02 2001-07-31 Intel Corporation Synchronization of related audio and video streams
IL123906A0 (en) * 1998-03-31 1998-10-30 Optibase Ltd Method for synchronizing audio and video streams
JP3094999B2 (ja) * 1998-10-15 2000-10-03 日本電気株式会社 オーディオ・ビデオ同期再生装置
US6583821B1 (en) * 1999-07-16 2003-06-24 Thomson Licensing S.A. Synchronizing apparatus for a compressed audio/video signal receiver
JP2001069467A (ja) * 1999-08-30 2001-03-16 Toshiba Corp データ再生装置
JP2001245292A (ja) * 2000-02-29 2001-09-07 Japan Radio Co Ltd データ受信装置、データ送受信システム及び記録媒体
TW499818B (en) * 2001-03-29 2002-08-21 Winbond Electronics Corp Audio/video packet synchronous decoding method
EP1341386A3 (en) * 2002-01-31 2003-10-01 Thomson Licensing S.A. Audio/video system providing variable delay
US6975774B2 (en) * 2002-03-18 2005-12-13 Tektronix, Inc. Quantifying perceptual information and entropy
US6956871B2 (en) * 2002-04-19 2005-10-18 Thomson Licensing Apparatus and method for synchronization of audio and video streams
JP4175038B2 (ja) * 2002-06-20 2008-11-05 三菱電機株式会社 Mpeg2デコーダ
US6850284B2 (en) * 2002-08-27 2005-02-01 Motorola, Inc. Method and apparatus for decoding audio and video information

Also Published As

Publication number Publication date
EP1759535A2 (en) 2007-03-07
WO2006006980A3 (en) 2006-06-15
US7400653B2 (en) 2008-07-15
JP2008506282A (ja) 2008-02-28
CA2567074A1 (en) 2006-01-19
CN100525459C (zh) 2009-08-05
EP1759535B1 (en) 2018-06-06
US20050281255A1 (en) 2005-12-22
CN1969561A (zh) 2007-05-23
WO2006006980A2 (en) 2006-01-19
CA2567074C (en) 2013-01-08

Similar Documents

Publication Publication Date Title
JP4990762B2 (ja) インターネットプロトコルに用いるストリーミングオーディオとストリーミングビデオとの同期保持
US7448061B2 (en) Frame synchronization in an ethernet NTP time-keeping digital cinema playback system
KR101350754B1 (ko) 채널 변경 시간을 감소시키고 채널 변경 동안 오디오/비디오 콘텐츠를 동기화하는 방법
US20110293021A1 (en) Prevent audio loss in the spliced content generated by the packet level video splicer
US20070286245A1 (en) Digital signal processing apparatus and data stream processing method
US20120081604A1 (en) Electronic apparatus
KR20070008069A (ko) 음성/영상신호의 동기화 장치 및 방법
US7894704B2 (en) Reproducing apparatus and method, and recording medium
JP6957186B2 (ja) 情報処理装置、情報処理方法、プログラム、および記録媒体製造方法
CA2490879C (en) Reproducing apparatus and method, and recording medium
JP4391412B2 (ja) ディジタルストリームの動的多重化方法
WO2014162748A1 (ja) 受信装置、及び受信方法
KR20080089721A (ko) 오디오/비디오 동기화 방법
US20090323719A1 (en) Methods and apparatus for transforming first transport stream of first format into second transport stream of second format by emulating arrival time stamp information
CA2725177C (en) Reproducing apparatus and method, and recording medium
JPH1188878A (ja) 不連続トランスポートストリームパケット処理装置
JP2001339688A (ja) トランスポートストリーム再生装置
JP5168105B2 (ja) 音声再生装置、及び音声再生方法
JP2006019997A (ja) 動画データ転送システム
KR101810883B1 (ko) 라이브 스트리밍 시스템 및 그의 스트리밍 클라이언트
JP6335775B2 (ja) メディア受信装置
WO2021107912A1 (en) Adaptive delay support for splicer
JP2011035578A (ja) 送信装置、受信装置及び伝送システム
KR20150045869A (ko) 전송 스트림 시스템 타겟 디코더 모델에 기초한 하이브리드 서비스를 제공하는 영상 수신 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110318

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110616

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110920

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20111018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120502

R150 Certificate of patent or registration of utility model

Ref document number: 4990762

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250