JP2015015745A - データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法 - Google Patents

データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法 Download PDF

Info

Publication number
JP2015015745A
JP2015015745A JP2014177628A JP2014177628A JP2015015745A JP 2015015745 A JP2015015745 A JP 2015015745A JP 2014177628 A JP2014177628 A JP 2014177628A JP 2014177628 A JP2014177628 A JP 2014177628A JP 2015015745 A JP2015015745 A JP 2015015745A
Authority
JP
Japan
Prior art keywords
data
delay
digital service
delay amount
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014177628A
Other languages
English (en)
Other versions
JP2015015745A5 (ja
JP5806770B2 (ja
Inventor
ライエンデッカー フィリップ
Leyendecker Philip
ライエンデッカー フィリップ
ツヴィング ライナー
Zwilling Rainer
ツヴィング ライナー
アベラル フランク
Franck Abelard
アベラル フランク
モルヴァン パトリック
Patrick Morvan
モルヴァン パトリック
デゼル セバスティアン
Desert Sebastien
デゼル セバスティアン
ドワイヤン ディディエ
Didier Doyen
ドワイヤン ディディエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2015015745A publication Critical patent/JP2015015745A/ja
Publication of JP2015015745A5 publication Critical patent/JP2015015745A5/ja
Application granted granted Critical
Publication of JP5806770B2 publication Critical patent/JP5806770B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4135Peripherals receiving signals from specially adapted client devices external recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/935Regeneration of digital synchronisation signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal

Abstract

【課題】ユーザに抵抗感を与えないよう、映像と音声の再生の遅れまたは進みの許容域を超えずにサービスの各パートを再生するデータ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法を提供する。
【解決手段】データ再生装置は、ディジタルサービスソース装置から到来したディジタルサービスの少なくとも一部を形成するデータを受信する受信手段と、受信されたデータの少なくとも一部を処理する処理手段と、ディジタルサービスの少なくとも一部の出力を再生する再生手段とを有しており、ここで、データの処理および再生にかかる時間が再生データの出力に遅延が発生する。通信手段は発生した遅延量をソース装置に知らせる。
【選択図】図2

Description

本発明は、ディジタルサービスの各パートを同期させる装置および方法に関する。例えば本発明は、オーディオビジュアルディジタルサービスのオーディオ/ビジュアル同期に関連する。
多年にわたってスクリーン関連技術はCRTスクリーンを基礎としてきた。これは純粋にアナログの技術である。1990年代から、画像システムにおいて、カメラで画像信号を記録し、これを例えば動き補償を用いた100Hzのスクリーンで表示するなど、ディジタル技術が広汎に用いられるようになった。最初、これらの新技術においてビデオ画像に有意な遅延量を導入したものはなかった。オーディオ/ビジュアル同期(以下ではA/V同期と略す)は、デコーダから供給されたオーディオストリームおよびビデオストリームがオーディオビジュアル再生装置で即時に再生されるものとの仮定に基づいてデコーダによって行われていた。デコーダでは、A/V同期の原理は、MPEGエンコーダに包含されている"プログラムクロックリファレンス"および"プレゼンテーションタイムスタンプ"などのパケット内のタイムマーカを用いて、共通の時間参照子に対してビデオおよびオーディオを提示するものである。ISO/IEC13818-1規格のAppendixDには"LIPSYNC"と称されるこうしたA/V同期の詳細が説明されている。こんにちのデコーダのA/V同期モジュールのチューニングプロシージャは、テストMPEGストリームから導出されたオーディオビデオパケットを復号化し、応答時間を即時であると見なして、これを再生装置、例えばCRTTVで提示するものである。同様にDVDプレーヤにおいても、A/V同期はプレーヤそのものにおいて処理され、プレーヤ出力のオーディオストリームとビデオストリームとの同期が保証されている。
最近のスクリーン技術の進歩により、市販されている新たなスクリーンおよび多少とも複雑なオーディオビジュアル再生装置は次のようなものになっている。a)オーディオ信号が復号化形式(例えばPCMフォーマット)または符号化形式(例えばドルビーディジタル)で供給されるオーディオビジュアル再生装置、例えば"ホームシネマ"装置。b)幾つかの国々で主流となりつつある高解像度TV(以下ではHDTVと略す)。これは例えばコスト低減のためのMPEG4技術とともに消費者市場に現れた。複数の高解像度フォーマット(以下ではHDフォーマットと略す)が標準解像度フォーマット(以下ではSDフォーマットと略す)と共存している。HDフォーマットはスクリーンでのビデオ画像の表示前に膨大なビデオ処理を要求するので、遅延が発生する。c)多数のスクリーン技術、例えばLCD,LCOS,DLP,プラズマなどのスクリーンがHDフォーマットおよびSDフォーマットの双方に対して利用可能である。これらの種々のスクリーンは自身のビデオプロセッサに最適なレンダリングを要求するので、遅延が発生する。
これまでのオーディオビジュアルシステムについての研究から、人間はA/Vの位相ずれに敏感であることがわかっている。ベル研究所で1940年に行われた研究によれば、100msより大きいオーディオ遅れまたは35msより大きいオーディオ進みは視聴に困難を生ずることが判明した。実生活においても人間はふつうオーディオ進みに対するよりオーディオ遅れに対するほうが寛容である。なぜならスクリーンに表示されるものを見ないうちに音を聞くのは不自然だからである。したがって、ITU規格では、オーディオビジュアルシステム全般にわたって許容可能なA/V同期エラーと許容不能なA/V同期エラーとが共通のルールとして定められている。1993年のITU規格[DOC11/59]によれば、感知可能域は100msより大きい遅れおよび20msより大きい進みと定義された。また抵抗発生域は160msより大きい遅れおよび40msより大きい進みと定義された。しかし1998年のITU規格では、特別な理由もないのに、感知可能域の定義が125msより大きい遅れおよび45msより大きい進みと緩められた。また抵抗発生域の定義は185msより大きい遅れおよび90msより大きい進みとされた。これらの範囲はITU-R BT 1359-1規格に定義されている。
ディジタルTV規格開発のための国際機関であるATSC("Advanced Television System Committee")は、変更された規格が不適切であり、ベル研究所での研究に沿っていないと指摘している。ここでは同期エラーは[−90ms,+30ms]内にとどめ、しかもオーディオビジュアルシステムにおいて、取得側で[−45ms,+15ms]、エンコーダ・デコーダ・TV側で[−45ms,+15ms]となるように分散すべきであることが提案されている。
こんにち、ビデオ再生装置、例えばLCDスクリーンでは、ビデオ処理装置で数10ミリ秒、しばしば100ミリ秒近くになる遅延が測定されている。発生する遅延は装置ごとに、画像フォーマットにしたがって、例えばインタレース画像(例えばSDで576i25,HDで1080i25)であるかプログレッシブ画像(例えばSDで576p25,HDで720p50)であるかによって、大きく変化する。特にスクリーンがデインタレース機能に対して適合化される場合にはそれが顕著である。当該の処理には画像メモリ、例えばFIFO、SDRAMなどが要求されるが、これによりオーディオ信号の遅延に比べてビデオ信号の遅延が増大する。このことはオーディオ信号が対応するビデオ信号にしばしば先行するということを意味する。実用上、オーディオ再生装置は通常の使用状況では大きな遅延を発生しない。遅延が発生するのはサウンドエフェクトが加えられるときである。この場合の遅延はユーザに許容可能な範囲にとどまる。
CRTスクリーンとは異なり、現在用いられている新しいフラットパネルスクリーンでは応答は即時には行われない。種々のコンポーネントまたは種々のモジュールが遅延を発生するからである。図1には従来技術のオーディオビジュアル再生装置1、例えばフラットパネルTVが示されており、そこにはブロック10,11,12として種々のモジュールが存在している。この再生装置はスクリーン12としてのビデオ再生装置および外部スピーカまたはビルトインスピーカ13としてのオーディオ再生装置を含んでいる。ビデオ再生装置の従来のモジュール、例えばチューナ、PALデコーダ、A/Dコンバータなどについては周知であるので詳細には説明しない。モジュール10,11,12は固定またはフレームごとに可変のビデオ遅延を発生する。こうした遅延は処理の態様およびスクリーンタイプにしたがって変化する。これらの遅延が補償されないと、定義された許容可能域を超えるA/V同期エラーが発生し、ユーザに認知されてしまう。
最初のデインタレーサ/フォーマットコントローラ10はインタレース画像をプログレッシブ画像へ変換し、入力信号の解像度をスクリーンの解像度へ、例えば1920×1080iから1280×720pへ適合させる。このブロックではフレームメモリSDRAMまたはDDRAMが用いられており、インタレース50Hzまたはプログレッシブ60Hzのビデオフォーマットにしたがって可変の遅延Dが生じる。
次のスクリーンコントローラ11はプログレッシブ画像をスクリーンに対して互換性を有するフォーマットへ変換する。このコントローラはスクリーンをアドレシングし、画像品質の増大処理を行う。ここではスクリーンタイプに依存する遅延Dがしばしば発生する。つまり、LCD(Liquid Crytal Display)‐LCOS(Liquid Crystal on Silicon)スクリーンでは、次のようなプロセスで遅延が発生すると考えられる。
・グレーレベルごとの切り換えが必要とされるとき液晶の応答時間を高めるためのオーバードライブ。この演算にはフレームメモリが使用され、固定の遅延Rc_lcd_overdrivingが生じる。
・大面積のフリッカ効果を低減するために3バルブLCOSで常用されるフレームコピー。この演算にもフレームメモリが使用され、固定の遅延Rc_lcos_doubleが生じる。
DLPTM(Digital Light Processing)‐LCOSでは、次のようなプロセスで遅延が発生すると考えられる。
・連続色への変換。この演算にはフレームメモリが使用され、固定の遅延Rc_dlp‐lcos_sequentialが生じる。
・連続ビット平面で行われるDLPスクリーンアドレシング。この演算は固定の遅延RC_dlp_bitplaneを生じる。
プラズマスクリーンでは、次のようなプロセスで遅延が発生すると考えられる。
・連続サブスキャニング演算によるスクリーンアドレシング。これにより遅延Rc_plasma_bitplaneが生じる。
・偽輪郭効果およびぼやけ効果を低減するための動き補償。この演算にはフレームメモリが使用され、固定の遅延Rc_plasma_artefactが生じる。
有機発光ダイオードOLEDのスクリーンでも同様の遅延が発生する。
さらにスクリーン12そのものも遅延を有する。LCD‐LCOSスクリーンの発光は液晶に印加される電圧を変調することにより得られる。DMDTM(Digital Micromirror Device)では、光はマイクロミラーのピボット制御によってバイナリ変調される。プラズマパネルでは、光はガス励起によってバイナリ変調される。したがって光は変調に対して遅延をともなって応答する。この遅延は主としてスクリーンのコンポーネントの物理特性、例えば液晶特性、ガス特性などに依存する。さらに、シーケンシャルメモリを備えたDLP‐LCOSのように、付加的な遅延を誘発する内部メモリを組み込んだスクリーンも存在する。したがってスクリーンそのものもタイプに直接に関連した遅延Dを有することになる。
LCD‐LCOSスクリーンは特に次のような遅延を有する。
・スクリーンが行ごとにアドレシングされるので、最後の行は第1の行から1フレーム期間後にリフレッシュされることになる。このアドレシング演算は固定の遅延Re_lcd_addressingを生じる。
・液晶は変調電圧を印加してからセットアップまでに所定の時間を要する。この必要時間は遅延とセットアップ時間とに区別される。この2つの時間は先行フレームと現在フレームとのあいだのグレーレベル遷移に依存する。この2つの時間は可変の遅延Re_lcd_liquid−crystalとなる。
他のタイプのスクリーン、例えばプラズマパネル,DLP,OLEDは他のタイプの遅延を有する。
プラズマパネルは特に次のような遅延を有する。
・パネル内に封入されているガスがビデオコンテンツに応じた応答時間を有するため、可変の遅延Re_plasma_gasが生じる。
DLPTMスクリーンは特に次のような遅延を有する。
・このディスプレイは内部メモリを含み、これに対してサブスキャニング形式でアドレシングする。これにより固定の遅延Re_dlp_addressingが生じる。
DMDTMはきわめて迅速な応答時間を有する。このデバイスは特に遅延を有さない。
下に掲げた表には種々のタイプのスクリーンでの種々の遅延の例がまとめてある。表において、Tはフレーム期間(20ms/50Hz,16.7ms/60Hz)を表している。
Figure 2015015745
スクリーンに使用されている技術に応じて、画像の遅延は、画像の重要性にかかわらずコンテンツ例えばグレーレベルにしたがって変化し、固定またはフレームごとに可変となる。こうした遅延はビデオフォーマットに依存しても変化する。TVまたはDVDでは、4つのフォーマット、すなわち、50Hzインタレース入力、50Hzプログレッシブ入力、60Hzインタレース入力、60Hzプログレッシブ入力が存在する。
オーディオストリームとビデオストリームとのあいだの遅延は使用されるオーディオフォーマット、例えばMPEG1,MPEG2レイヤ1,MPEG2レイヤ2,DOLBYAC−3に依存する。この遅延はユーザに大きな抵抗感を与えるトレランス外A/V同期エラー、言い換えれば許容域を超えるA/V同期エラーを引き起こす。
上述した分析は、ユーザの認識の快適性を高め、ビデオストリームおよびオーディオストリームを再生する際の遅れまたは進みを定義された許容域内にとどめるために、オーディオストリームとビデオストリームとを同期させる必要があることを示している。より一般的に云えば、ユーザに抵抗感を与えないよう、遅れまたは進みの許容域を超えずにサービスの各パートを再生するには、ディジタルサービスの各パートを同期させなければならない。
本発明の課題は従来技術の欠点を克服することである。このために、本発明では、種々の処理および装置そのものによって引き起こされた遅延を考慮に入れ、これをディジタルサービスの少なくとも一部に適用してディジタルサービスの各パートを同期させる装置および方法を提供する。そのねらいは、ユーザに抵抗感を与える許容域からの逸脱を回避することにある。
本発明は第1に、ディジタルサービスソース装置から到来したディジタルサービスの少なくとも一部を形成するデータを受信する受信手段と、受信データの少なくとも一部を処理する処理手段と、ディジタルサービスの少なくとも一部の出力を再生する再生手段とを有しており、ここで、データの処理および再生にかかる時間が再生データの出力に遅延を発生する、データ再生装置に関する。本発明によれば、データ再生装置はさらに、発生した遅延量をディジタルサービスソース装置に知らせる通信手段を有する。
本発明の有利な実施形態によれば、再生装置はTVであり、ディジタルサービスはオーディオビジュアルサービスであり、処理データは複数のフレームとして編成されたビデオデータである。さらに、ディジタルサービスの少なくとも一部を出力する再生手段の1つはスクリーンであり、有利にはLCDスクリーン、OLEDスクリーンまたはDLPスクリーンなどのフラットパネルスクリーンである。
本発明の有利な別の実施形態によれば、受信データの少なくとも一部を処理する処理手段の1つはデインタレーサである。
有利には、再生装置は遅延の値を記憶する不揮発性メモリを含む。特に有利には、不揮発性メモリはEPROMである。
本発明の別の有利な実施形態によれば、遅延の値はEDIDデスクリプタの形式で提示される。
有利には、発生した遅延量をディジタルサービスソース装置へ知らせる通信手段はDDCプロトコルまたはCECプロトコルを用いたリンクを含む。デコーダはDDCリンクを介してEDIDデスクリプタの形式で記憶された遅延の値を取得する。
本発明は、第2に、ディジタルサービスの第1パートを形成するデータを出力する第1の出力手段と、ディジタルサービスの第2パートを形成するデータを出力する第2の出力手段と、ディジタルサービスの第1パートを形成するデータを再生するデータ再生装置と通信する通信手段とを有する、ディジタルサービスソース装置に関する。本発明によれば、ディジタルサービスソース装置にはさらに、ディジタルサービスの第2パートを形成する出力データにプログラマブル遅延量を加える印加手段と、ディジタルサービスの第1パートを形成するデータを再生するデータ再生装置から遅延量インジケータを受信する受信手段と、受信された遅延量インジケータにしたがってプログラマブル遅延量を加えるプログラミング手段とが設けられている。
本発明の有利な実施形態によれば、ディジタルサービスソース装置はディジタルデコーダである。本発明の別の有利な実施形態によれば、ディジタルサービスソース装置はDVDプレーヤである。
本発明の1つの実施形態によれば、ディジタルサービスの第1パートを形成するデータはビデオデータであり、ディジタルサービスの第2パートを形成するデータはオーディオデータである。
本発明の別の実施形態によれば、ディジタルサービスの第1パートを形成するデータもディジタルサービスの第2パートを形成するデータもビデオデータである。
有利には、プログラマブル遅延量の印加手段により、再生手段の要素、すなわちビデオデータのデインタレーサ、フォーマットコントローラ、スクリーンコントローラおよびスクリーンのうち1つまたは複数のものに起因する遅延量が補償される。
本発明の有利な別の実施形態によれば、プログラマブル遅延量の印加手段は、ディジタルサービスの第2パートを形成するデータを受信された遅延量インジケータにしたがって再記憶するまで一時記憶するメモリを含む。
本発明は第3に、ディジタルサービスの第1パートを形成するデータを出力する第1の出力手段、ディジタルサービスの第2パートを形成するデータを出力する第2の出力手段、ディジタルサービスの第1パートを形成するデータを再生するデータ再生装置と通信する通信手段、および、ディジタルサービスの第2パートを形成する出力データにプログラマブル遅延量を加える印加手段を有するディジタルサービスソース装置と、ディジタルサービスソース装置から到来したディジタルサービスの少なくとも一部を形成するデータを受信する受信手段、および、ディジタルサービスの少なくとも一部を再生するために受信データの少なくとも一部を処理する処理手段を有する少なくとも1つのデータ再生装置とを含むシステムでディジタルサービスの2つのパートを同期させる方法に関する。本発明の方法は、データ再生装置からディジタルサービスの少なくとも第1パートを形成する受信データを処理および再生する際に発生した合計遅延量をソース装置へ送信するステップと、および、受信された遅延量インジケータを用いてディジタルサービスの第2パートを形成するデータの出力を遅延させるためにソース装置側でプログラマブル遅延量をプログラミングするステップとを有する。
本発明の有利な実施形態によれば、遅延の一部はスクリーン特性に起因しており、液晶スクリーンの場合、連続する2つのフレーム間のピクセルごとのグレーレベル差を計算するステップ、ピクセルごとに計算されたグレーレベル差から連続する2つのフレーム間のピクセルごとの応答時間を予測するステップ、全ピクセルについての遅延のヒストグラムを形成するステップ、および、このヒストグラムから平均遅延を計算するステップにしたがって、スクリーン特性に起因する遅延量がフレームごとに予測される。
本発明の実施形態によれば、ディジタルサービスの第1パートを形成するデータはビデオデータであり、ディジタルサービスの第2パートを形成するデータはオーディオデータである。
本発明の別の実施形態によれば、ディジタルサービスの第1パートを形成するデータもディジタルサービスの第2パートを形成するデータもビデオデータである。
従来技術によるフラットパネルTVの概略図である。 内部オーディオ再生装置を用いた本発明のオーディオビジュアルサービスの受信再生装置を示す図である。 外部オーディオ再生装置を用いた本発明のオーディオビジュアルサービスの受信再生装置を示す図である。 ソース側で補償された遅延を予測する本発明のオーディオビジュアルサービスの受信再生装置を示す図である。 遅延を予測および補償する受信装置を備えた本発明のオーディオビジュアルサービスの受信再生装置を示す図である。 遅延を予測および補償する再生装置を備えた本発明のオーディオビジュアルサービスの受信再生装置を示す図である。 本発明により液晶スクリーンの遅延を予測する方法を示す図である。 種々のグレーレベル遷移に対する液晶の応答時間を表すチャートを示す図である。 本発明によるマニュアル式遅延量選択方法を示す図である。 種々のビデオフォーマットに対する遅延量の選択方法を示す図である。 本発明によるマニュアル式遅延量予測装置を示す図である。 本発明によるセミオートマティック式遅延量予測装置を示す図である。 本発明によるセミオートマティック式遅延量予測方法を示す図である。 外部オーディオ再生装置および2つの遅延モジュールを含む受信装置を用いた本発明のオーディオビジュアルサービスの受信再生装置を示す図である。 2つのビデオ再生装置に接続された受信装置を用いた本発明のオーディオビジュアルサービスの受信再生装置を示す図である。
以下に本発明を図示の有利な実施例に則して詳細に説明する。ただし本発明はこれらの実施例に限定されるものではない。図1には従来技術によるフラットパネルTVの概略図が示されており、これについては既に説明した。図2には内部オーディオ再生装置を用いた本発明のオーディオビジュアルサービスの受信再生装置が示されている。図3には外部オーディオ再生装置を用いた本発明のオーディオビジュアルサービスの受信再生装置が示されている。図4にはソース側で補償された遅延を予測する本発明のオーディオビジュアルサービスの受信再生装置が示されている。図5には遅延を予測および補償する受信装置を備えた本発明のオーディオビジュアルサービスの受信再生装置が示されている。図6には遅延を予測および補償する再生装置を備えた本発明のオーディオビジュアルサービスの受信再生装置が示されている。図7には本発明により液晶スクリーンの遅延を予測する方法が示されている。図8には種々のグレーレベル遷移に対する液晶の応答時間を表すチャートが示されている。図9には本発明によるマニュアル式遅延量選択方法が示されている。図10には種々のビデオフォーマットに対する遅延量の選択方法が示されている。図11には本発明によるマニュアル式遅延量予測装置が示されている。図12には本発明によるセミオートマティック式遅延量予測装置が示されている。図13には本発明によるセミオートマティック式遅延量予測方法が示されている。図14には外部オーディオ再生装置および2つの遅延モジュールを含む受信装置を用いた本発明のオーディオビジュアルサービスの受信再生装置が示されている。図15には2つのビデオ再生装置に接続された受信装置を用いた本発明のオーディオビジュアルサービスの受信再生装置が示されている。
本発明の実施例をオーディオビジュアルディジタルサービスに則して説明する。A/Vソースはここではデコーダとするが、他のタイプのA/Vソース、例えばDVDプレーヤであってもよい。オーディオビジュアル再生装置はここではスクリーンおよび音声出力部すなわちビルトインスピーカを備えたTVとするが、これも他のタイプのオーディオビジュアル再生装置、例えばコンピュータであってよい。オーディオ再生装置はここでは1つまたは複数のスピーカに接続されたアンプ、例えばホームシネマ装置のオーディオアンプを含み、TVに外付け可能な装置とするが、これも他のタイプのオーディオ再生装置であってよい。
デインタレーサ回路は同相を保つためにビデオ入力と同じ遅延を加えられた補償用オーディオ入力を有する。しかしユーザが外部のオーディオ再生装置、例えばホームシネマ装置からの音声の利用を選択した場合、遅延補償は行われない。したがってA/V信号のソースであるディジタルデコーダにA/V同期モジュールを配置するのが自然であると思われるが、そのためには市販されているA/V機器と互換性を有するようにしなければならない。本発明の基本方式の1つとして、TVの入力側のビデオ信号とスクリーンで表示されるビデオ信号とのあいだの遅延の値をデコーダへ知らせる自動手段がTVに設けられる。
図2,図3にはオーディオビジュアルディジタルサービスを受信して表示する装置の2つの実施例が示されている。装置の主要要素だけを図示してある。図2にはディジタルデコーダ20を含んだオーディオビジュアルサービス装置が示されており、このディジタルデコーダはリンク220,221,222を介してTV21に接続されている。デコーダ20は入力側で符号化オーディオビジュアルストリーム22、例えばMPEG符号化ストリームを受信する。このA/Vストリーム22はデマルチプレクサ204によりデマルチプレクスされ、少なくとも1つのオーディオ信号および少なくとも1つのビデオ信号となる。ビデオ信号はビデオデコーダ200によって復号化される。オーディオ信号はオーディオデコーダ201によって復号化される。2つのストリームは2つのデコーダ200,201と通信するA/V同期モジュール202により同期される。A/V同期モジュール202はさらに処理ユニット203に接続されている。ビデオデコーダ200はDVI/HDMI(登録商標)リンク(Digital Video Interface/High Definition Multimedia Interface link)220を介してTV21へリンクされている。より詳細に云えば、ビデオデコーダ200はTV21のスクリーン処理モジュール210にリンクされている。このスクリーン処理モジュール210はスクリーン211に接続されている。またオーディオデコーダはリンク222を介してTV21のオーディオ再生装置212へリンクされている。A/V同期モジュール202は処理ユニット203に接続されており、この処理ユニットは例えばスクリーン関連データを取得するためのDDC(Display Data Channel)通信プロトコルを用いたI2Cバス221を介して不揮発性メモリ、例えばTV21のEPROMであるEDID(Extended Display Identification Data)メモリ213にリンクされている。
図3には、外部のオーディオ再生装置31(例えばホームシネマ装置のアンプ)によってオーディオストリームを再生する同様の装置が示されている。このオーディオ再生装置31はスピーカ33にリンクされたオーディオアンプ310を含む。デコーダ30は図2のデコーダ20と同様の要素、例えばオーディオデコーダ、ビデオデコーダ、デマルチプレクサ、A/V同期モジュールなどを有し、これらには図2と同様の参照番号を付してある。デコーダ30はプログラマブルオーディオ遅延モジュール300,ビデオフォーマットマネージャ301およびHDMIインタフェース302を含む。このデコーダはTV32にリンクされている。TVはビデオ処理モジュール320およびこれに接続されたスクリーン321を有する。デコーダはリンク340、例えばSPDIFインタフェース(Sony/Philips Digital Interface)を介して外部のオーディオ再生装置31にリンクされており、DVI/HDMIリンク341を介してTV32にリンクされている。図2,図3の2つの手段の目的は、モジュール210,320でのビデオ処理、例えばデインタレーシング、フォーマット変換、画像品質増大などに起因する遅延Ddc(ここでDdc=D+D)、および/または、スクリーン211,321、例えば液晶の応答時間に起因する遅延Dを補償することである。遅延Dはそれ自体が上掲の表に定義された複数の遅延の和である。以下の説明では、合計遅延をD、つまりD=Ddc+Dとする。DdcおよびDは時間的に固定または可変である。例えば液晶スクリーンでは遅延Dが応答時間に応じてフレームごとに変化する。スクリーンが遅延を発生しない場合、D=Ddcである。同様にDdcもゼロとなりうる。
本発明によれば、少なくとも1つのプログラマブル遅延量Dがオーディオ信号に印加される。これは圧縮形式で記憶されても復号化形式で記憶されてもよい。遅延量Dはプログラマブルオーディオ遅延モジュール300においてオーディオ信号に印加される。本発明の変形例によれば、遅延量は直接にデコーダ内のA/V同期モジュール202においてオーディオ信号に印加される。デコーダはプログラマブルオーディオ遅延モジュール300またはA/V同期モジュール202において適切な遅延量Dを用いて、ビデオ処理および/またはスクリーン210,320で生じた遅延を補償する。
本発明によれば、TV21,32で生じる遅延Dは、ビデオフォーマットマネージャ301によって管理されているビデオ入力のフォーマットに依存して変化しうる。したがって、遅延がビデオフォーマットに依存する場合、プログラマブルオーディオ遅延モジュール300またはA/V同期モジュール202において、ビデオフォーマットが変化するたびに新たな遅延量Dがプログラミングされる。この遅延はビデオフォーマットXに関連するので、遅延Dとする。プログラマブル遅延量は入力ビデオフォーマットから独立に演算された合計値Dであってもよい。
本発明の手段の特徴は、例えば種々のビデオフォーマットに起因する遅延Dを表すパラメータ、または入力ビデオフォーマットから独立した合計遅延Dによって、DVI/HDMI制御プロトコルを高めることにある。こうしたDVI/HDMI制御プロトコルにより、デコーダの特性および機能に関する情報をスクリーンで共有することができる。このプロトコルにしたがって、ビデオソースはDDCチャネル221を用いてTV21,32内の不揮発性メモリ213から、例えば同期信号の解像度、極性、比色分析データなどを読み出す。これらのデータはEIA/CEA-861Bに定義されたEDIDデスクリプタを用いて表される。EDIDデスクリプタとしてスクリーンメーカがEPROMであるEDIDメモリ213内にプログラミングしたものを取得して利用してもよい。
本発明では、TV情報の遅延特性、すなわちTVのディジタルビデオ処理による遅延Ddc,スクリーンの応答時間による遅延D,またはその双方による遅延DまたはDを記憶するために、既に標準化された情報のほか、EDIDデスクリプタを用いる。本発明によって得られる各TV21,32の遅延情報はTVの不揮発性メモリ213に記憶される。この情報は前述した4つのビデオフォーマット、すなわち50Hzインタレース入力、50Hzプログレッシブ入力、60Hzインタレース入力および60Hzプログレッシブ入力に相応する4つの遅延Dを含む。また他のビデオフォーマットに関する遅延を記憶することもできる。
本発明によれば、デコーダはA/V同期モジュール202またはプログラマブルオーディオ遅延モジュール300でオーディオストリームとビデオストリームとを同期するためにこれらの値を取得する。遅延Ddcおよび遅延Dに関する情報はTV21,32のメーカから供給され、電子情報としてTV21,32からデコーダ20へ送信されてもよい。合計遅延情報DまたはDはデコーダのスイッチオン時に移し替えられなければならない。この情報の移し替えは、付加的に、必要に応じてまたはデコーダへの要求に応じてチャネル変更の際に行うこともできる。
DDCチャネルを利用する手段に代えて、HDMIのCEC(Consumer Electronics Control)インタラクティブインターチェンジプロトコルを利用してもよい。
図4には本発明の1つの実施例が示されている。デコーダ20は図2に則して説明したものと同じであるから、ここで再度の説明はしない。TV41でも図2のTV21と同様の要素には相応の参照番号を付してあるので、これらについても詳細には説明しない。TV41は遅延Dを予測する遅延予測モジュール410を含む。実際に、スクリーンのタイプに応じて時間的に可変の遅延を発生するTVに対して、当該の遅延を予測しなければならない。予測される遅延Dは種々のビデオ処理、例えばデインタレーシングに起因する遅延Ddcに加算される。合計遅延Dの値はEPROMであるEDIDメモリ411に記憶され、デコーダ20内のA/V同期モジュール202またはプログラマブルオーディオ遅延モジュール300によって使用される。したがってデコーダはDDCリンク221を介してこの遅延の値を取得し、これを用いてオーディオストリームとビデオストリームとを同期する。種々の遅延Ddc,Dを個別にEDIDメモリに記憶すれば、デコーダはDDCリンク221を介してこれらの遅延を取得することができる。スクリーンタイプに起因する可変の遅延Dを予測するための遅延予測方法については後に液晶スクリーンに則して説明する。
図5に示されている別の実施例では、スクリーンに起因する遅延Dがデコーダ50の処理ユニット内に配置された遅延予測モジュール500において予測される。相応の参照番号の付された要素は前出の要素と同様であるので、詳細には説明しない。本発明によれば、スクリーンのEPROMであるEDIDメモリに記憶すべきデスクリプタが定義される。このデータは遅延予測に必要なものであり、例えば液晶スクリーンのメーカから提供された図8のようなチャートである。デコーダはDDCリンク221を介して当該のデータを取得し、遅延予測モジュール500において平均遅延を予測する。この予測方法については後述する。
前述した手段の利点は、TVと外部のオーディオ再生装置31(例えばHiFiシステム、ホームシネマ装置など)とが利用される場合に、オーディオストリームおよびビデオストリームが同期されるということである。
図6に示されている別の実施例では、スクリーンに起因する遅延Dが前述の場合と同様にTV61の遅延予測モジュール410において予測される。ただし同期は直接にTVにおいて実行される。このとき、TV内のメモリ610はオーディオデータのバッファリングに用いられ、平均遅延にしたがってユーザに対してオーディオデータを再生する。平均遅延の予測方法については後述する。
図7には、液晶スクリーンに起因する遅延Dの予測装置7が示されている。この予測装置はフレームメモリ71および遅延計算モジュール70を含む。フレームメモリ71は入力画像videotNを1フレームvideotN−1ずつ遅延させるために用いられる。予測装置7はエンハンスメント回路のフレームメモリ71を使用することができる。遅延計算モジュール70は、ピクセルごとに、連続する2つのフレーム間のグレーレベル差を計算する。計算の際に、このモジュールは、液晶スクリーンのメーカから提供された図8のようなチャートを用いる。このチャートは種々のグレーレベル遷移に対する応答時間を表している。これによりピクセルごとに2つのフレーム間の応答時間が予測される。全ピクセルについてヒストグラムが形成され、例えば所定の応答時間を有するピクセルの数を考慮して加重平均を計算することにより平均遅延Dが予測され、この値がA/V同期モジュールによって用いられる。遅延Dの予測が図5のようにデコーダ内で行われる場合、前述したチャートはEPROMであるEDIDメモリに記憶され、DDCリンク221を介してデコーダに受け取られる。このとき、遅延予測装置7はリンク72を介してEDIDデータを取得する。
以下に示す手段は、ビデオ処理およびスクリーンによって生じる遅延パラメータDをビデオソースへ知らせるマニュアル式またはセミオートマティック式手段の実施例である。これらの手段は特にA/Vソースとビデオ再生装置とのあいだにHDMIリンクが存在しない場合に利用される。
図9にはユーザがメニューを用いて遅延パラメータを選択できるようにしたマニュアル式チューニング方法が示されている。相応の選択装置は図11に示されている。当該の選択方法はメーカから遅延情報が得られない場合に有効である。この場合、デコーダ110はユーザが手動で精細に遅延を同期できるA/Vシーケンスを形成する。本発明によれば、ステップ91で、デコーダ110は適切なビデオフォーマットX、例えば50Hzインタレースビデオフォーマットへの切り換えを行う。ステップ92で、ユーザ115は当該のフォーマットに対する遅延量Dの値をメニューから選択する。この値はデコーダ内のプログラマブルオーディオ遅延モジュール300またはA/V同期モジュール202にプログラミングされている。ステップ93で、デコーダは選択された遅延の値を用いて同期されたA/Vシーケンス111を送信する。こうしてビデオ画像がスクリーン112に表示される。同期されたオーディオ信号はオーディオアンプ113によって増幅され、スピーカ114を介して音声が再生される。ユーザはスクリーン112での画像再生およびスピーカ114での音声再生を視聴して同期の品質を判断することができる。ステップ94でユーザはメニューを用いて行われた同期が充分であるか否かをデコーダに伝える。充分でない場合には、新たな遅延の値Dが得られるまで上述のステップが反復される。同期が充分であった場合には、選択は終了され、この遅延の値Dがデコーダ内のプログラマブルオーディオ遅延モジュール300またはA/V同期モジュール202に記憶される。
この演算は全てのビデオフォーマットに対して反復され、オーディオストリームに印加すべきそれぞれの遅延量が求められる。そのための方法が図10に示されている。50Hzインタレースビデオフォーマットに関する遅延D25i,50Hzプログレッシブビデオフォーマットに関する遅延D50p,60Hzインタレースビデオフォーマットに関する遅延D30i,60Hzプログレッシブビデオフォーマットに関する遅延D60pがそれぞれステップ101,102,103,104で求められ、図9の方法にしたがって選択される。
別の実施例として、例えばメーカから遅延データが供給されていて既知となっている場合、ユーザはメニューを用い、デコーダのプログラマブルオーディオ遅延モジュール300またはA/V同期モジュール202において種々のビデオフォーマットに対する遅延Dの値を手動で印加することができる。例えば種々の値をディジタルサービスソース装置のインストールの際に入力してもよい。
図12に示されている装置によれば、スクリーンに固定されたプローブ122が用いられ、スクリーンに表示されている画像の特性が検出され、その情報がデコーダへ返送される。このような遅延Dのセミオートマティック式予測方法が図13に示されている。
図13の方法によれば、デコーダ120がまず一連のブラック画像(グレーレベルの低い画像)130を形成し、次に1つのホワイト画像(グレーレベルの高い画像)131を形成し、さらに再び一連のブラック画像132を形成して、これらをTV121へ送信する。このとき、フェーズ133で第1のブラック画像のシリーズがスクリーンに表示され、次いでフェーズ134でホワイト画像134が表示され、さらにフェーズ135で第2のブラック画像のシリーズが表示される。プローブ122はスクリーン上のホワイト画像を検出し、デコーダ120へ瞬時メッセージを送信して、フェーズ134でホワイト画像が表示されていることを知らせる。デコーダ120はホワイト画像がデコーダから送信された時点138からホワイト画像がTV121のスクリーンに表示された時点139までの時間を計算する。プローブ122は典型的には光強度に感応するデバイスであり、例えばスクリーンの左上角またはスクリーンの中央に配置される。このデバイスはさらにスクリーンの限定された領域の光強度を瞬時に評価することもできる。プローブ122は2つの論理ステータスを有する。第1のステータス136は光強度のレベルが所定の閾値よりも低い状態、すなわち、ブラック画像のシリーズが表示されている状態である。第2のステータス137は光強度のレベルが所定の閾値よりも高い状態、すなわち、ホワイト画像のシリーズが表示されている状態である。当該の閾値は、ブラック画像が表示されたときにプローブが第1のステータスを検出し、ホワイト画像が表示されたときにプローブが第2のステータスを検出するように定められている。ブラック画像は低い光強度の画像によって置換することができ、ホワイト画像は高い光強度の画像によって置換することができる。プローブに必要とされるのは一方から他方への遷移を検出する能力のみである。論理ステータスは2値の電気信号へ翻訳される。この電気信号はデコーダによって取得される。デコーダはホワイト画像のスクリーンへの送信が開始された時点138およびプローブが第1のステータスから第2のステータスへの遷移を検出した時点139を記憶する。2つのタイムマーカのあいだの時間D140がビデオ処理およびスクリーンによって生じた遅延を表している。この演算は全ビデオフォーマットに対する遅延量Dのセットが得られるようにビデオフォーマットごとに反復される。この方法は、メニューが使用されず、ユーザはプローブをデコーダに接続してスクリーンに適用し、プロセスを手動で開始するのみであるので、セミオートマティック式と云える。
またスクリーンのいずれかの位置に黒四角領域を有するブルースクリーンを用いることもできる。プローブ122はこの黒四角領域の上に配置され、光強度の変化を検出するためにホワイト画像が当該の黒四角領域へ送信される。この場合、スクリーン上のプローブの位置が既知であるので、全ピクセルを同時に再生しないスクリーンの遅延、例えばスクリーンのスキャニング時の遅延がいっそう正確に測定される。
本発明の別の実施例が図14に示されている。図2,図3と共通する要素には相応の参照番号を付してあるので、詳細には説明しない。デコーダ140は付加的なプログラマブルオーディオ遅延モジュール141を含む。この第2のプログラマブルオーディオ遅延モジュール141は同じ再生装置142、例えばTVで再生されるオーディオストリームとビデオストリームとを同期させるために用いられる。TV142はビデオ遅延Ddcを発生するビデオ処理モジュール320を含む。またTV142はオーディオストリームにオーディオ遅延Dtaを発生するオーディオ処理モジュール144を含む。このオーディオ処理モジュール144はTVのビルトインスピーカ151に接続されている。ビルトインスピーカ151で再生されるオーディオストリームとスクリーン321で再生されるビデオストリームとを同期させるために、第2のプログラマブルオーディオ遅延モジュール141はデコーダのオーディオストリーム出力に遅延量Ddc‐Dtaを加える。この実施例では、EDIDテーブルに、再生装置でビデオフォーマットすなわち50Hzインタレース入力、50Hzプログレッシブ入力、60Hzインタレース入力および60Hzプログレッシブ入力に依存して生じたビデオ遅延Ddcに関連する4つのパラメータと、4つのビデオフォーマットに対するオーディオ処理で生じたオーディオ遅延Dtaに関連する4つのパラメータとが加算される。遅延の値は0ms〜255msで変化する値を表すために1byteで符号化される。したがって、オーディオストリームが外部装置31、例えばSPDIFで再生される場合、ソース側ではプログラマブルオーディオ遅延モジュール300で遅延量Ddcがデコーダ201の出力に加えられる。オーディオストリームがHDMI再生装置、例えばTV142で再生される場合、ソース側でプログラマブルオーディオ遅延モジュール141を介して遅延量Ddc‐Dtaをオーディオストリームに加える。この遅延量はHDMI装置142の種々の処理によって生じるビデオ遅延およびオーディオ遅延を考慮している。
別の実施例が図15に示されている。図2,図3と共通する要素には相応の参照番号を付してあるので、詳細には説明しない。デコーダ150は2つの異なる部屋に置かれた2つのTV152,155に接続されている。TV152はオーディオ出力に対し、例えばSPDIFインタフェースを介して、ホームシネマ装置31にリンクされている。別の部屋に置かれたTV155は主としてスクリーン157を有し、例えばスカートまたはアナログRFのリンク162を介して、オーディオストリームおよびビデオストリームを受信する。TV152はビデオ遅延Ddcを発生するビデオ処理モジュール153とスクリーン154とを含む。TV155は一緒に送信されてくるオーディオストリームおよびビデオストリームの同期を保持する。本発明によれば、ビデオ出力に同期された単独のオーディオ出力を有する装置が提案される。本発明のこの手段では、デコーダ内で、図3に則して説明したように、補償のための遅延量をオーディオストリームに加えることにより、オーディオストリームと第1のビデオ出力158とが同期される。ここでは、オーディオ出力に加えられるのと同じ遅延量D=Ddcを第2のビデオ出力159に加える第2のプログラマブルビデオ遅延モジュール161が設けられている。これにより第2のビデオ出力159とオーディオ出力160とが同期される。この手段により、特に、第2のTV155が別の部屋に置かれていても、2つのビデオ出力158,159に対して同一のオーディオ出力160を用いることができる。
本発明をDVIおよびHDMIの通信プロトコルに利用する例を説明したが、デコーダ内の遅延データまたは遅延を計算するためのデータ(例えば遅延チャート)をやり取りするものであれば、将来開発される制御プロトコルにおいても利用可能である。
スクリーンで遅延が生じており、一方オーディオパートは瞬時処理に関連しているディジタルサービスのケースにおいて、本発明をオーディオストリームおよびビデオストリームの同期の実施例に則して説明した。本発明は一般に、サービスの各パートが種々の再生装置によって個別に処理され、それぞれ固有の遅延を発生するディジタルサービス再生装置であれば、いずれのタイプのものにも適用可能である。ここで、再生装置の固有の遅延をソース装置へ送信する機能により、サービス全体の良好な再生のために、ディジタルサービスの全てのパートを同期させることができる。

Claims (8)

  1. ディジタルサービスソース装置を供給源として供給される少なくとも1つのディジタルサービスに対応するデータの少なくとも一部を再生するデータ再生装置(21,32,41,51,61,142,152)であって、
    前記ディジタルサービスの第1パートを形成する第1のデータを受信する第1の受信手段と、
    前記第1の受信されたデータを処理する第1の処理手段(210,320,153)と、
    前記第1の処理されたデータの出力を再生する第1の再生手段(211,321,154)と、
    前記ディジタルサービスの第2パートを形成する第2のデータを受信する第2の受信手段と、
    前記第2の受信されたデータを処理する第2の処理手段(144)と、
    前記第2の処理されたデータの出力を再生する第2の再生手段(151)と、
    を備え、
    さらに、前記第1の受信されたデータの処理および/または再生にかかる時間によって前記第1の再生されたデータの出力に生じた遅延である第1の遅延と、前記第2の受信されたデータの処理および/または再生にかかる時間によって前記第2の再生されたデータの出力に生じた遅延である第2の遅延とを前記ディジタルサービスソース装置に通知する通信手段(213,221,341)を備え、
    前記第1の遅延と前記第2の遅延が前記第1のデータのフォーマットに応じて変化する、前記データ再生装置。
  2. 前記第1の遅延の少なくとも2つの既定の値を記憶する記憶部をさらに備え、
    前記第1の受信されたデータがビデオデータであり、
    前記少なくとも2つの既定の値の各々が既定のビデオデータフォーマットに関連するものである、請求項1に記載のデータ再生装置。
  3. 前記第2の受信されたデータがオーディオデータであり、
    前記記憶部が前記第2の遅延の少なくとも2つの既定の値を記憶し、該値の各々が既定のビデオデータフォーマットに関連するものである、請求項1または2に記載のデータ再生装置。
  4. ディジタルサービスソース装置(20,30,50,140,150)であって、
    ディジタルサービスの第1パートを形成するデータである第1のデータを出力する第1の出力手段(200)と、
    前記ディジタルサービスの第2パートを形成するデータである第2のデータを出力する第2の出力手段(201)と、
    を備え、
    さらに、少なくとも前記第1のデータを再生する再生装置から前記第1のデータに関する第1の遅延量インジケータを受信する受信手段(302)と、
    受信された前記第1の遅延量インジケータにしたがって前記ディジタルサービスの前記第2パートを形成する前記出力されたデータにプログラマブル遅延量を印加する遅延量印加手段(202,300,150)と
    を備えており、
    前記受信手段(302)が、さらに前記再生装置から前記第2のデータに関する第2の遅延量インジケータを受信し、
    前記遅延量印加手段(202,300,150)が、受信された前記第1の遅延量インジケータおよび前記第2の遅延量インジケータにしたがって、前記ディジタルサービスの前記第2パートを形成する前記出力されたデータにプログラマブル遅延量を印加し、
    前記第1の遅延と前記第2の遅延が前記第1のデータのフォーマットに応じて変化する、前記ディジタルサービスソース装置。
  5. 前記遅延量印加手段(202,300,150)が、受信された前記第1の遅延量インジケータと前記第2の遅延量インジケータとの差に等しいプログラマブル遅延量を前記ディジタルサービスの前記第2パートを形成する前記出力されたデータに印加する、請求項4に記載のディジタルサービスソース装置。
  6. 少なくとも1つのディジタルサービスに対応するデータの少なくとも一部を再生する方法であって、
    ディジタルサービスの第1パートを形成する第1のデータを受信するステップと、
    前記第1の受信されたデータを処理するステップと、
    前記第1の処理されたデータの出力を再生するステップと、
    前記ディジタルサービスの第2パートを形成する第2のデータを受信するステップと、
    前記第2の受信されたデータを処理するステップと、
    前記第2の処理されたデータの出力を再生するステップと
    を有し、
    さらに、前記第1の受信されたデータの処理および/または再生にかかる時間によって前記第1の再生されたデータの出力に生じた遅延である第1の遅延と、前記第2の受信されたデータの処理および/または再生にかかる時間によって前記第2の再生されたデータの出力に生じた遅延である第2の遅延とを通知するステップを有し、
    前記第1の遅延と前記第2の遅延が前記第1のデータのフォーマットに応じて変化する、前記方法。
  7. 少なくとも1つのディジタルサービスに対応するデータを送信する方法であって、
    前記ディジタルサービスの第1パートを形成するデータである第1のデータを出力するステップと、
    前記ディジタルサービスの第2パートを形成するデータである第2のデータを出力するステップと、
    前記第1のデータの処理および/または再生の際に生じた第1の遅延に関する第1の遅延量インジケータを受信するステップと、
    前記第2のデータの処理および/または再生の際に生じた第2の遅延に関する第2の遅延量インジケータを受信するステップと、
    受信された前記第1の遅延量インジケータと前記第2の遅延量インジケータとにしたがって前記ディジタルサービスの前記第2パートを形成する前記出力されたデータにプログラマブル遅延量を印加するステップと
    を有し、
    前記第1の遅延と前記第2の遅延が前記第1のデータのフォーマットに応じて変化する、前記方法。
  8. 前記プログラマブル遅延量が、受信された前記第1の遅延量インジケータと前記第2の遅延量インジケータとの差に等しい、請求項7に記載の方法。
JP2014177628A 2004-11-16 2014-09-02 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法 Expired - Fee Related JP5806770B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
EP04292712.9 2004-11-16
FR0412169 2004-11-16
FR0412169 2004-11-16
EP04292712 2004-11-16
EP05100072A EP1657929A1 (fr) 2004-11-16 2005-01-07 Dispositif et méthode de synchronisation de différentes parties d'un service numérique
EP05100072.7 2005-01-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011232795A Division JP5789797B2 (ja) 2004-11-16 2011-10-24 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015070902A Division JP5806785B2 (ja) 2004-11-16 2015-03-31 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法

Publications (3)

Publication Number Publication Date
JP2015015745A true JP2015015745A (ja) 2015-01-22
JP2015015745A5 JP2015015745A5 (ja) 2015-05-07
JP5806770B2 JP5806770B2 (ja) 2015-11-10

Family

ID=35708683

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2007541917A Expired - Fee Related JP5384006B2 (ja) 2004-11-16 2005-11-08 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法
JP2011232795A Expired - Fee Related JP5789797B2 (ja) 2004-11-16 2011-10-24 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法
JP2014177628A Expired - Fee Related JP5806770B2 (ja) 2004-11-16 2014-09-02 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法
JP2015070902A Expired - Fee Related JP5806785B2 (ja) 2004-11-16 2015-03-31 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2007541917A Expired - Fee Related JP5384006B2 (ja) 2004-11-16 2005-11-08 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法
JP2011232795A Expired - Fee Related JP5789797B2 (ja) 2004-11-16 2011-10-24 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015070902A Expired - Fee Related JP5806785B2 (ja) 2004-11-16 2015-03-31 データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法

Country Status (7)

Country Link
US (4) US8606070B2 (ja)
EP (2) EP1657929A1 (ja)
JP (4) JP5384006B2 (ja)
KR (2) KR101287728B1 (ja)
CN (2) CN102291523B (ja)
ES (1) ES2719735T3 (ja)
WO (1) WO2006053847A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063392A (ja) * 2015-09-25 2017-03-30 ブラザー工業株式会社 映像処理装置及び映像処理システム

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8284955B2 (en) 2006-02-07 2012-10-09 Bongiovi Acoustics Llc System and method for digital signal processing
US9281794B1 (en) 2004-08-10 2016-03-08 Bongiovi Acoustics Llc. System and method for digital signal processing
US9413321B2 (en) 2004-08-10 2016-08-09 Bongiovi Acoustics Llc System and method for digital signal processing
US11431312B2 (en) 2004-08-10 2022-08-30 Bongiovi Acoustics Llc System and method for digital signal processing
US10158337B2 (en) 2004-08-10 2018-12-18 Bongiovi Acoustics Llc System and method for digital signal processing
US10848118B2 (en) 2004-08-10 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique
US8451375B2 (en) * 2005-04-28 2013-05-28 Panasonic Corporation Lip-sync correcting device and lip-sync correcting method
US10069471B2 (en) 2006-02-07 2018-09-04 Bongiovi Acoustics Llc System and method for digital signal processing
US9615189B2 (en) 2014-08-08 2017-04-04 Bongiovi Acoustics Llc Artificial ear apparatus and associated methods for generating a head related audio transfer function
US9348904B2 (en) 2006-02-07 2016-05-24 Bongiovi Acoustics Llc. System and method for digital signal processing
US10848867B2 (en) 2006-02-07 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US10701505B2 (en) 2006-02-07 2020-06-30 Bongiovi Acoustics Llc. System, method, and apparatus for generating and digitally processing a head related audio transfer function
US11202161B2 (en) 2006-02-07 2021-12-14 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
US9195433B2 (en) 2006-02-07 2015-11-24 Bongiovi Acoustics Llc In-line signal processor
JP4575324B2 (ja) * 2006-03-29 2010-11-04 株式会社東芝 Av装置及びその制御方法
EP2071849A4 (en) * 2006-11-07 2010-08-04 Sony Corp RECEIVER, DELAYED INFORMATION PROCESS FOR RECEIVERS, AUDIO OUTPUT DEVICE AND DELAY CONTROL PROCEDURE FOR AUDIO OUTPUT DEVICES
KR101306706B1 (ko) * 2006-11-09 2013-09-11 엘지전자 주식회사 디지털 티브이와 연결된 외부기기 자동 설정 장치 및 방법
JP4360400B2 (ja) * 2006-12-05 2009-11-11 セイコーエプソン株式会社 コンテンツ再生システムおよびこれに用いられる再生装置、並びにコンテンツ再生方法
JP4814803B2 (ja) * 2007-01-12 2011-11-16 富士通株式会社 コンピュータと家電によるリモコン信号を用いた双方向制御装置
KR101416249B1 (ko) * 2007-08-01 2014-07-07 삼성전자 주식회사 신호처리장치 및 그 제어방법
BRPI0816903A2 (pt) * 2007-09-21 2015-03-17 Thomson Licensing Aparelho e método para a sincronização de sinais observáveis por usuário
JP5242111B2 (ja) * 2007-10-02 2013-07-24 株式会社ソニー・コンピュータエンタテインメント 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法
JP2009124223A (ja) * 2007-11-12 2009-06-04 Sharp Corp Avシステム
KR101450100B1 (ko) 2007-11-22 2014-10-15 삼성전자주식회사 멀티미디어기기 및 그의 동기설정방법
KR20080011457A (ko) 2008-01-15 2008-02-04 주식회사 엔터기술 음성 또는 영상신호의 딜레이 컨트롤 기능을 가지는노래반주기 및 그의 컨트롤 방법
US8947870B2 (en) 2008-03-17 2015-02-03 Cby Holdings, Llc Sliding and rotating apparatus and device having same
US8692937B2 (en) * 2010-02-25 2014-04-08 Silicon Image, Inc. Video frame synchronization
CN102413335A (zh) * 2010-09-20 2012-04-11 深圳Tcl新技术有限公司 一种手动调节节目音画同步的装置及方法
WO2012047304A1 (en) * 2010-10-04 2012-04-12 Vidyo, Inc. Delay aware rate control in the context of hierarchical p picture coding
JP2012119924A (ja) * 2010-11-30 2012-06-21 Toshiba Corp 映像表示装置及び映像表示方法、音声再生装置及び音声再生方法、映像音声同期制御システム
JP5768383B2 (ja) * 2011-01-24 2015-08-26 セイコーエプソン株式会社 画像表示装置および画像表示方法
US8913104B2 (en) * 2011-05-24 2014-12-16 Bose Corporation Audio synchronization for two dimensional and three dimensional video signals
CN104871550B (zh) * 2012-08-01 2018-06-22 汤姆逊许可公司 用于使音频延时适应于画面帧速率的方法和装置
WO2014033570A1 (en) * 2012-08-28 2014-03-06 Koninklijke Philips N.V. Audio forwarding device and corresponding method.
US9344828B2 (en) 2012-12-21 2016-05-17 Bongiovi Acoustics Llc. System and method for digital signal processing
DE102013200171A1 (de) * 2013-01-09 2014-07-10 Lufthansa Technik Ag Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System
US9264004B2 (en) 2013-06-12 2016-02-16 Bongiovi Acoustics Llc System and method for narrow bandwidth digital signal processing
US9398394B2 (en) 2013-06-12 2016-07-19 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9883318B2 (en) 2013-06-12 2018-01-30 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9906858B2 (en) 2013-10-22 2018-02-27 Bongiovi Acoustics Llc System and method for digital signal processing
US9397629B2 (en) 2013-10-22 2016-07-19 Bongiovi Acoustics Llc System and method for digital signal processing
US20150146099A1 (en) * 2013-11-25 2015-05-28 Anthony Bongiovi In-line signal processor
US10820883B2 (en) 2014-04-16 2020-11-03 Bongiovi Acoustics Llc Noise reduction assembly for auscultation of a body
US10639000B2 (en) 2014-04-16 2020-05-05 Bongiovi Acoustics Llc Device for wide-band auscultation
US9615813B2 (en) 2014-04-16 2017-04-11 Bongiovi Acoustics Llc. Device for wide-band auscultation
WO2015187631A1 (en) 2014-06-02 2015-12-10 Tethis, Inc. Modified biopolymers and methods of producing and using the same
US9811459B1 (en) * 2014-06-16 2017-11-07 Amazon Technologies, Inc. Data storage optimization for non-volatile memory
US9564146B2 (en) 2014-08-01 2017-02-07 Bongiovi Acoustics Llc System and method for digital signal processing in deep diving environment
US9638672B2 (en) 2015-03-06 2017-05-02 Bongiovi Acoustics Llc System and method for acquiring acoustic information from a resonating body
CN104902317A (zh) * 2015-05-27 2015-09-09 青岛海信电器股份有限公司 音视频同步方法及装置
JP6632864B2 (ja) * 2015-10-27 2020-01-22 シナプティクス・ジャパン合同会社 表示ドライバ及び表示装置
US9906867B2 (en) 2015-11-16 2018-02-27 Bongiovi Acoustics Llc Surface acoustic transducer
US9621994B1 (en) 2015-11-16 2017-04-11 Bongiovi Acoustics Llc Surface acoustic transducer
EP3380577A4 (en) 2015-11-23 2019-04-17 Tethis, Inc. COATED PARTICLES AND METHODS OF PRODUCTION AND USE
DE102016201680A1 (de) 2016-02-04 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum synchronen Wiedergeben von Audiosignalen und Videosignalen
JP2019004401A (ja) * 2017-06-19 2019-01-10 セイコーエプソン株式会社 プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法
EP3776528A4 (en) 2018-04-11 2022-01-05 Bongiovi Acoustics LLC AUDIO ENHANCED HEARING PROTECTION SYSTEM
WO2020028833A1 (en) 2018-08-02 2020-02-06 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10834296B2 (en) * 2018-09-12 2020-11-10 Roku, Inc. Dynamically adjusting video to improve synchronization with audio
CN109587546B (zh) * 2018-11-27 2020-09-22 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质
CN116389794A (zh) * 2019-02-20 2023-07-04 华为技术有限公司 用于启用超高清联盟指定参考模式(uhda-srm)的技术
US11032447B2 (en) * 2019-07-08 2021-06-08 Sling Media Pvt. Ltd. Method and system for automatically synchronizing audio-video inputs in a multi camera environment
US11323766B2 (en) * 2019-10-03 2022-05-03 Dolby International Ab Method and device for providing audio/video content to a rendering device
KR102618617B1 (ko) * 2021-03-09 2023-12-27 주식회사 케이티 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136138A (ja) * 1999-11-05 2001-05-18 Toshiba Corp デジタル映像・デジタル音声伝送方法
JP2002290932A (ja) * 2001-03-27 2002-10-04 Toshiba Corp デジタル放送受信装置とその制御方法
JP2002344898A (ja) * 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
JP2003520006A (ja) * 2000-01-14 2003-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 相互接続装置のための待ち時間処理
JP2004282667A (ja) * 2003-03-19 2004-10-07 Matsushita Electric Ind Co Ltd 再生同期ずれ補正機能を備えた送信機及び受信機、並びにそれらを有する伝送装置
JP5384006B2 (ja) * 2004-11-16 2014-01-08 トムソン ライセンシング データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997003508A1 (fr) * 1995-07-13 1997-01-30 Sony Corporation Procede, appareil et systeme de transmission de donnees
JPH09128330A (ja) * 1995-11-06 1997-05-16 Sony Corp 映像表示装置
US5570372A (en) * 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
JPH113565A (ja) * 1997-06-11 1999-01-06 Hitachi Ltd データ記録再生方法及びその装置
DE19930824C2 (de) * 1999-07-03 2001-05-31 Grundig Ag Bild- und Tonwiedergabegerät und Verfahren für dessen Betrieb
US6778493B1 (en) * 2000-02-07 2004-08-17 Sharp Laboratories Of America, Inc. Real-time media content synchronization and transmission in packet network apparatus and method
FR2850820B1 (fr) * 2003-01-31 2005-06-03 Thomson Licensing Sa Dispositif et procede de synchronisation en lecture de donnees video et de donnees annexes et produits associes
US8290353B2 (en) * 2003-02-27 2012-10-16 Panasonic Corporation Data processing device and method
US20070223874A1 (en) * 2004-04-07 2007-09-27 Koninklijke Philips Electronics, N.V. Video-Audio Synchronization
JP4427733B2 (ja) 2004-07-16 2010-03-10 ソニー株式会社 映像音声処理システム、アンプ装置および音声遅延処置方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136138A (ja) * 1999-11-05 2001-05-18 Toshiba Corp デジタル映像・デジタル音声伝送方法
JP2003520006A (ja) * 2000-01-14 2003-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 相互接続装置のための待ち時間処理
JP2002290932A (ja) * 2001-03-27 2002-10-04 Toshiba Corp デジタル放送受信装置とその制御方法
JP2002344898A (ja) * 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
JP2004282667A (ja) * 2003-03-19 2004-10-07 Matsushita Electric Ind Co Ltd 再生同期ずれ補正機能を備えた送信機及び受信機、並びにそれらを有する伝送装置
JP5384006B2 (ja) * 2004-11-16 2014-01-08 トムソン ライセンシング データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017063392A (ja) * 2015-09-25 2017-03-30 ブラザー工業株式会社 映像処理装置及び映像処理システム

Also Published As

Publication number Publication date
JP2015149752A (ja) 2015-08-20
US20080138032A1 (en) 2008-06-12
JP2008521302A (ja) 2008-06-19
JP5806785B2 (ja) 2015-11-10
EP1813116B1 (en) 2019-02-06
US9826126B2 (en) 2017-11-21
KR101287728B1 (ko) 2013-07-19
CN102291523A (zh) 2011-12-21
JP5384006B2 (ja) 2014-01-08
JP5789797B2 (ja) 2015-10-07
WO2006053847A1 (en) 2006-05-26
US9509887B2 (en) 2016-11-29
US8903217B2 (en) 2014-12-02
KR101291933B1 (ko) 2013-07-31
US20170064155A1 (en) 2017-03-02
JP5806770B2 (ja) 2015-11-10
EP1657929A1 (fr) 2006-05-17
US20130242191A1 (en) 2013-09-19
EP1813116A1 (en) 2007-08-01
KR20120097537A (ko) 2012-09-04
KR20070084235A (ko) 2007-08-24
CN101088292A (zh) 2007-12-12
US20140341525A1 (en) 2014-11-20
CN101088292B (zh) 2012-02-08
US8606070B2 (en) 2013-12-10
JP2012090271A (ja) 2012-05-10
CN102291523B (zh) 2015-08-19
ES2719735T3 (es) 2019-07-12

Similar Documents

Publication Publication Date Title
JP5806785B2 (ja) データ再生装置、ディジタルサービスソース装置、および、ディジタルサービスの2つの部分を同期させる方法
US9247289B2 (en) Reproducing apparatus, display apparatus, reproducing method, and display method
US7511763B2 (en) Video-audio processor system, amplifier device, and audio delay processing method
US20040136686A1 (en) Conversion of frame rate according to image data
US20100188566A1 (en) Video/audio signal input/output device, video/audio reproduction device, video/audio device network and signal reproducing method
US7268820B2 (en) Video signal conversion apparatus delivering enhanced display quality for video signals from film and video sources
WO2007015920A2 (en) Video delay stabilization system and method
JP4036059B2 (ja) Dvdプレーヤを内蔵した表示装置
KR100487396B1 (ko) 영화 모드를 지원하는 디지털 티브이 시스템 및 영화 모드지원 방법
JP4928666B2 (ja) 24Hzソース・ビデオ表示のためのフォーマット及びフレーム・レート変換
KR20110009021A (ko) 디스플레이 장치 및 그 디스플레이 방법
JP2004297823A (ja) 信号伝達システム
KR20100074873A (ko) 디스플레이장치 및 그의 제어 방법

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150224

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150316

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20150527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150904

R150 Certificate of patent or registration of utility model

Ref document number: 5806770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees