JP4359024B2 - Synchronous control method and apparatus, synchronous playback apparatus and television receiver using the same - Google Patents

Synchronous control method and apparatus, synchronous playback apparatus and television receiver using the same Download PDF

Info

Publication number
JP4359024B2
JP4359024B2 JP2002167734A JP2002167734A JP4359024B2 JP 4359024 B2 JP4359024 B2 JP 4359024B2 JP 2002167734 A JP2002167734 A JP 2002167734A JP 2002167734 A JP2002167734 A JP 2002167734A JP 4359024 B2 JP4359024 B2 JP 4359024B2
Authority
JP
Japan
Prior art keywords
time stamp
stream
synchronization
pts
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002167734A
Other languages
Japanese (ja)
Other versions
JP2004015553A (en
Inventor
茂之 岡田
英樹 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002167734A priority Critical patent/JP4359024B2/en
Publication of JP2004015553A publication Critical patent/JP2004015553A/en
Application granted granted Critical
Publication of JP4359024B2 publication Critical patent/JP4359024B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、画像情報と音声情報を含むストリームを復号するときの画像と音声の同期技術に関する。さらにこの同期技術を有する再生装置、テレビジョン受信装置に関する。
【0002】
【従来の技術】
大量の情報を高速に処理するためには、データの圧縮・伸長技術が不可欠である。この技術としてMPEG(Moving Picture Expert Group)方式が挙げられる。MPEGは3つのパートから構成されている。「MPEGシステムパート」は、画像データと音声データの多重化構造等を規定する。「MPEGビデオパート」は、画像データの高能率符号化方式等を規定する。「MPEGオーディオパート」は、音声データの高能率符号化方式等を規定する。さらにMPEGは、主として適応領域に応じてMPEG1、MPEG2、MPEG4などに分類される。
【0003】
MPEGにおける符号化から復号までの流れは以下の通りである。MPEGシステム符号化器(以下、符号化器)は、画像データと音声データ間の連係を保ちながらそれぞれMPEGビデオパートとMPEGオーディオパートに準拠して符号化を行い、MPEGビデオストリーム(以下、画像ストリーム)とMPEGオーディオストリーム(以下、音声ストリーム)を生成する。次に、マルチプレクサは、MPEGシステムパートに準拠して画像ストリームと音声ストリームの時分割多重化を行い、ひとつのMPEGシステムストリーム(以下、システムストリーム)を作成する。このシステムストリームは、伝送媒体を介して伝送されるか、または記録媒体に記録される。
デマルチプレクサは、システムストリームを画像ストリームと音声ストリームに分離する。次に、MPEGシステム復号器(以下、復号器)は、各ストリームを個別に復号して、画像データと音声データを生成する。画像データはディスプレイへ出力され、音声データはD/Aコンバータ及び低周波増幅器を介してスピーカへ出力される。
【0004】
復号器では、画像データと音声データの同期再生に関して、「リップシンク」を考慮する必要がある。リップシンクとは、ディスプレイに映し出されている画像と音声の同期がとれていることである。画像と音声にずれが生じ、その差が人間の感覚の検知限界以上になると、聴覚者は違和感を覚える。
画像データと音声データを同期再生するために、通常、復号器はシステムストリーム中のタイムスタンプを使用する。MPEGシステムにおいて、このタイムスタンプには、一般にPTS(Presentation Time Stamp)とDTS(Decoding Time Stamp)の2種類がある。PTSは、再生出力の時刻を管理するための情報であり、通常90kHzのクロックで計測した値が32ビット長で表される。復号器では、PTSと基準クロックであるSTC(System Time Clock)が一致したときに、各ストリームを復号し、再生出力を生成する。一方、DTSは復号開始時刻を管理するための情報である。DTSはその値がPTSと異なる場合のみ付加される。なお、STCは、システムストリーム中のSCR(System Clock Reference)を使用して、符号化器が意図した値にセットおよび校正される。
【0005】
従来の復号器では一般に、画像ストリームは、SCRと画像用PTS(以下、PTS−V)によって与えられたタイミングで復号される。また音声ストリームは、SCRと音声用PTS(以下、PTS−A)によって与えられたタイミングで復号される。
【0006】
【発明が解決しようとする課題】
上述の通り、復号器で画像データと音声データの同期再生を行うために、一般には、システムストリーム中のタイムスタンプが使用される。この場合、符号器で付加されるタイムスタンプの精度はリップシンクのずれを生じない程度の正確性を必要とする。しかし、実際には符号化器の設計や部品精度その他の事情により、精度の悪いタイムスタンプも存在する。さらに、ひとつのシステムストリームは多数の番組で構成されているが、番組ごとに符号化器または編集方法が異なるため、システムストリームには千差万別の精度を持つタイムスタンプが含まれる。
【0007】
本発明者はこうした状況下、以下の課題を認識するに至った。タイムスタンプによる同期を厳密に運用し、画像と音声のタイムスタンプが少しでもずれれば即座に再同期させるとすると、タイムスタンプの精度の悪いストリームでは、そのタイムスタンプをもとに判断する限り画像と音声のずれが大きいため、頻繁にこれらの再同期が行わる。そのため、再同期によって画像や音声のスキップやリピートが多く生じ、再生される画像の動きや音声がかえって不自然なものになるという課題があった。また、タイムスタンプによる同期を粗く運用し、画像と音声のタイムスタンプが大きくずれたときのみ再同期させるとすると、タイムスタンプの精度の良いストリームでも画像と音声のタイムスタンプの同期が不十分になるため、再生された画像と音声にずれが生じるという課題があった。
【0008】
本発明はこれらの課題を解決するためになされたものであり、その目的は、タイムスタンプの精度に対して適応的な同期処理を行うことである。すなわち、タイムスタンプが高精度の場合、タイムスタンプを有効利用して正確に画像と音声の同期をとることである。一方、タイムスタンプが低精度の場合、あまり有効でないタイムスタンプへの依存を減らし、画像と音声の再同期を減少させることである。
【0009】
【課題を解決するための手段】
本発明のある態様は、同期制御装置に関する。この装置は、取得したストリームに含まれるタイムスタンプと所定の基準となるタイムスタンプの時間差の追跡結果により前記時間差のばらつきを測定し、前記測定結果をもとに、ストリームに含まれるタイムスタンプの精度を判定し、この判定結果に応じて時間差に関する許容値を設定するタイムスタンプ精度判定部と、許容値と時間差の比較結果をもとに、ストリームに含まれるタイムスタンプと基準となるタイムスタンプの同期の処理を行う同期処理部とを含む。
「タイムスタンプの精度」とは、符号化器で付加されるタイムスタンプの値に含まれる誤差の程度を意味する。この誤差が大きい場合、タイムスタンプのタイミングをもとに復号しても、再生された画像と音声にずれが生じる。
「同期」とは、本来再生時における画像と音声のタイミングが一致していることである。ここでは、それを実現する技術に関連して、複数種のタイムスタンプが示すタイミングやそのタイムスタンプを生成するもとになったクロックの周波数が概略一致していることも含むものとする。
「ストリームに含まれるタイムスタンプ」とは、ストリーム中に存在する情報に対するタイムスタンプであり、例えば画像や音声に関するタイムスタンプである。
「基準となるタイムスタンプ」には、ストリームに含まれるタイムスタンプと当該装置で生成されるタイムスタンプが含まれる。
「時間差に関する許容値」とは、例えば、タイムスタンプの精度が悪くなればその範囲が大きくなり、またタイムスタンプの精度が良くなればその範囲が小さくなる性質を有する値である。
この装置によれば、ストリームに含まれるタイムスタンプの精度を判定し、その結果にあわせて処理を変更するため、タイムスタンプの精度に応じた適応的な同期処理が可能である。
【0010】
タイムスタンプ精度判定部は、ストリームに含まれるタイムスタンプと所定の基準となるタイムスタンプの時間差が単調増加または単調減少した場合に、ストリームに含まれるタイムスタンプの精度の判定を中止し、ストリームに含まれるタイムスタンプと基準となるタイムスタンプが同期していないと予備的に判断してもよい。その結果、後述のごとく必要に応じて装置内部のクロック周波数を調整してもよい
【0011】
単調増加または単調減少」とは、ある値が一定時間の間連続して増加または減少する状態を意味するが、ここではさらに巨視的に増加または減少する状態も含むものとする。このとき、微視的な変化を無視してもよい
【0012】
この装置によれば、ストリームに含まれるタイムスタンプの精度の判定結果として、ストリームに含まれるタイムスタンプと基準となるタイムスタンプの時間差に関する許容値を設定し、後の処理をこの許容値にもとづいて行わせる。この許容値はタイムスタンプの精度の変化に追従して変化するため、タイムスタンプの精度に応じた適応的な同期処理が可能である。
【0013】
同期処理部は、時間差が許容値よりも小さい場合に、ストリームに含まれるタイムスタンプと基準となるタイムスタンプが同期していると判断してもよい。また、許容値が所定の値より大きい場合に、ストリームに含まれるタイムスタンプの進行速度の平均値をもとに同期を制御してもよい。
「タイムスタンプの進行速度」とは、タイムスタンプの値の時間変化率である。これは、ふたつの基準時間t1とt2におけるタイムスタンプの値をそれぞれTS(t1)とTS(t2)とした場合、TS(t2)−TS(t1)をt2−t1で除算して求められる。
【0014】
基準となるタイムスタンプは当該装置にて局所的に生成されたものであってもよい。その場合、基準となるタイムスタンプは、ストリームに含まれているタイムスタンプではなく、当該装置で生成されているため、一定のタイミングで処理することができる。
【0016】
本発明のさらに別の態様は、同期再生装置に関する。この装置は、同期制御装置と、ストリームを取得し、同期制御装置に備えられた同期処理部による処理結果を受けてストリームを復号する復号部とを含む。
「復号部」とは、符号化された信号を符号化される前の信号に変換する部分であるが、ここでは復号のために必要なタイミング同期、クロック生成などの処理を行う部分も含むものとする。この装置によれば、タイムスタンプの精度に応じた適応的な同期処理のもと復号が行われるので、自然な画像と音声の再生が可能である。
【0017】
本発明のさらに別の態様は、テレビジョン受信装置に関する。受信した放送波を復調してストリームを生成する受信ブロックと、同期再生装置と、復号部により復号されたストリームをもとに音声を出力する音声出力部と、復号部により復号されたストリームをもとに画像を表示する画像表示部とを含む。
「放送波」とは、放送衛星、通信衛星、地上波テレビジョン送信装置などが送信する画像、音声、文字などの情報の伝送を目的とした電波を意味するが、ここではさらに無線回線における電波だけでなく有線回線を伝達する信号も含むものとする。
この装置によれば、タイムスタンプの精度に応じた適応的な同期処理のもと復号が行われるので、自然な画像と音声の再生が可能なテレビジョン受信装置を実現できる。
【0018】
同期処理部は、ストリームに含まれるタイムスタンプと基準となるタイムスタンプが同期していないと判断した場合に、ストリームに含まれる画像の出力を制御することにより同期を制御してもよい。タイムスタンプ精度判定部または同期処理部は、ストリームに含まれるタイムスタンプと基準となるタイムスタンプが同期していないと判断した場合に、ストリームに含まれるタイムスタンプをもとに出力を制御してもよい。タイムスタンプ精度判定部または同期処理部は、ストリームに含まれるタイムスタンプと基準となるタイムスタンプが同期していないと判断した場合に、送信側と受信側のクロックタイミングを同期させてもよい。
【0019】
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
【0020】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
(実施の形態1)
図1は、実施の形態1に係る同期再生装置100の構成図である。同期再生装置100は、タイムスタンプ抽出部10、復号器16、同期制御装置200を有する。また同期制御装置200は、タイムスタンプ精度判定部12、同期処理部14を有する。
【0021】
タイムスタンプ抽出部10は、入力されたシステムストリームからタイムスタンプを選択する。図2は、システムストリームの一例である。ひとつのシステムストリームには画像ストリームと音声ストリームが多重化されており、ヘッダHおよびパケットV1、V2、A1、V3、A2・・・を含む。ここで、V1、V2等は画像ストリームを構成するパケットであり、A1、A2等は音声ストリームを構成するパケットである。ここでは、V1とA1の先頭にPTS−VとPTS−Aが付加されている。図1のタイムスタンプ抽出部10はタイムスタンプ精度判定部12と同期処理部14へPTS−Vを出力する。
【0022】
タイムスタンプ精度判定部12は、PTS−Vと復号器16で生成されたタイムスタンプ(以下、自走TS)の時間差をもとにPTS−Vの精度の判定結果としてPTS−Vと自走TSの時間差に関する許容値を出力する。ここで、自走TSとは、システムストリームから得た情報とSTCから生成されるタイムスタンプである。システムストリームから得た情報とは、例えば画像ならば30枚/秒、音声ならば44.1kHzなどである。PTS−Vと自走TSの時間差とPTS−Vの精度の関係は図7に示される。図は2種類のPTS−Vと自走TSの時間差を○印と×印で示す。図中の○印の各点は、×印の各点と比較してばらつきが小さく、時間差0付近に存在する。このとき、○印で表されたPTS−Vの精度は、×印で表されたものより一般に高いといえる。なぜなら、一般に正確なタイミングを有するSTCと既知の情報から生成される自走TSに近いタイムスタンプを有するからである。さらに図1のタイムスタンプ精度判定部12は、図7に示されるこれらのデータをもとにPTS−Vと自走TSの時間差に関する許容値(以下、許容時間差)を設定し、これを許容時間差情報70として同期処理部14へ出力する。この設定方法は後述する。
【0023】
同期処理部14は、PTS−Vと自走TSの時間差を許容時間差と比較する。これらの時間差が許容時間差の範囲内にある場合、PTS−Vと自走TSの同期のずれは無視できるものとし、復号器16へは何の情報も出力しない。一方、PTS−Vと自走TSの時間差が許容時間差の上限値よりも大きい場合、PTS−Vと自走TSの同期のずれが大きく、画像データの出力が遅れているものとし、復号器16へ復号時に画像データをスキップする指示の情報を出力する。また、一方、PTS−Vと自走TSの時間差が許容時間差の下限値よりも小さい場合、画像データの出力が進んでいるものとし、復号器16へ復号時に画像データをリピートする指示の情報を出力する。ここで一般に、音声データは画像データよりスキップやリピートなどのタイミング調整によって不自然感が大きくなるため、音声データのタイミング調整は行わないものとしている。そのため、PTS−Aと自走TSのずれは基本的に無視している。
【0024】
復号器16は、画像ストリームと音声ストリームをそれぞれ画像データと音声データに復号する。最初のシステムストリームが入力されたときに、その中のPTS−VとPTS−Aより画像データと音声データの出力を同期させる。その後は、自走TSにより与えられたタイミングで復号を行う。同期処理部14からスキップ・リピート情報72の指示を受けた場合、復号器16はそれに従って画像データをスキップまたはリピートし、画像データと音声データの同期を維持する。最終的に復号器16は、復号された画像データと音声データを出力する。
【0025】
図3は、画像ストリームの同期制御処理の手順を示す図である。復号器16は、PTS−VとPTS−Aを使用して画像データ出力と音声データ出力を同期させる(S10)。タイムスタンプ精度判定部12は、PTS−Vと自走TSの時間差から許容時間差を設定する(S12)。同期処理部14は、PTS−Vと自走TSの時間差が許容時間差の範囲にあるか否かを判定し、その結果に応じた処理を行う(S14)。以上の処理は、画像ストリームが終了するまで繰り返し行われる(S16のN)。これより許容時間差の値は逐次更新される。
【0026】
図4は、精度判定処理(S12)の手順を示す図である。タイムスタンプ精度判定部12は、PTS−Vと自走TSの時間差を計算する(S20)。この値が図8のように、単調増加あるいは単調減少する場合(S22のY)、復号器16において再びPTS−VとPTS−Aを使用して画像データ出力と音声データ出力を再同期させる(S24)。精度を判定する以前に、PTS−Vと自走TSが同期していないと考えられるからである。一方、単調増加あるいは単調減少しない場合(S22のN)、PTS−Vと自走TSの時間差からPTS−Vの精度に対応した許容時間差を設定する(S26)。図9は、PTS−Vと自走TSの時間差対時間を示す図である。この図の中で許容時間差は最小値T1と最大値T2の幅を有する。T1とT2の値は、例えば、それまで測定した時間差の最小値と最大値の80%値であってもよいし、すべての時間差から統計的に導出した値であってもよい。T1とT2は許容時間差情報70として、同期処理部14に出力される(S28)。
【0027】
図5は、同期判定処理(S14)の手順を示す図である。同期処理部14は、PTS−Vと自走TSの時間差Tを計算する(S30)。タイムスタンプ精度判定部12から許容時間差を示すT1とT2を入力する(S32)。時間差TをT1およびT2と比較する。その結果、TがT1<T<T2となる値であれば、PTS−Vと自走TSの同期のずれは無視できるものとする(S34のY)。一方、T>T2またはT<T1の場合(S34のN)、前者では、画像データの出力が遅れているものとし、復号器16へ復号時に画像データをスキップする指示の情報をスキップ・リピート情報72として出力する。また、後者では、画像データの出力が進んでいるものとし、復号器16へ復号時に画像データをリピートする指示の情報をスキップ・リピート情報72として出力する(S36)。
【0028】
同期処理部14は、画像データのスキップとリピートによって、自走TSがPTS−Vに一致するように処理を行う。例えば、PTS−Vと自走TSの時間差の間に表示される画像データをスキップしたり、PTS−Vと自走TSの時間差の間で同一の画像データをリピートして表示する指示をする。しかし、PTS−Vの精度が悪い場合、自走TSをPTS−Vに一致させても再生される画像と音声にずれが生じる可能性がある。PTS−V自体の誤差が大きいと考えられるためである。この場合、自走TSをPTS−Vではなく、PTS−Vの進行速度の平均値から決定される値に一致させるよう処理を行う。この値は、図10において点線で示される。この点線は、プロットされた各点の平均的な値を示し、例えば各点の最小二乗法により求められる。この点線を時間で微分したものが、PTS−Vの進行速度の平均値である。
【0029】
上記のPTS−Vの精度が悪いとの判断は、同期処理部の中の比較部(図示せず)によって、例えば、T2とT1の差とあらかじめ定められている値との比較によりなされる。また、上記のPTS−Vの進行速度の平均値から決定される値は、同期処理部の中の計算部(図示せず)によって、計算される。
【0030】
図6は、音声ストリームの同期制御処理の手順を示す図である。復号器16は、PTS−AとPTS−Vを使用して音声データ出力と画像データ出力を同期させる(S40)。その後、復号器16は、音声ストリームが記録されているバッファの状態を確認する(S42)。このバッファは、例えば、メインメモリやハードディスクである。このバッファがオーバーフローまたはアンダーフローしている場合(S44のY)、S40と同様にPTS−AとPTS−Vを使用して音声データ出力と画像データ出力を再同期させる(S46)。バッファがオーバーフローしている場合は、音声データの出力が遅れ、アンダーフローしている場合は、音声データの出力が進んでいると考えられるからである。以上の処理は、音声ストリームが終了するまで繰り返し行わる(S48のN)。この処理は、バッファにおける音声ストリームの記録量を監視しているだけのため、容易に実施できる。
【0031】
このように本実施の形態によれば、タイムスタンプの精度に応じて適応的に許容時間差を決定し、それをもとに画像データと音声データの同期を判定しているため、タイムスタンプの精度に対して最適な同期処理を行うことができる。すなわち、タイムスタンプの精度が良ければ、許容時間差の範囲を狭くし、正確に画像と音声を同期させる。タイムスタンプの精度が悪ければ、許容時間差の範囲を広くし、画像と音声の再同期を減少させる。また基準となるタイムスタンプを復号器内部で一般に精度の高いSTCと既知の情報から生成しているため、安定した動作が可能である。さらに、システムストリームに含まれるタイムスタンプの精度が悪い場合、基準タイムスタンプがタイムスタンプの進行速度の平均値から決定される値に一致するように、データのスキップとリピートする時間を調節していることから、システムストリームに含まれるタイムスタンプの誤差の影響を軽減することが可能である。
【0032】
(実施の形態2)
図11は、実施の形態2に係る同期再生装置110の構成図である。同期再生装置110は、タイムスタンプ抽出部10、復号器16、同期制御装置200、システムクロック同期処理部18を有する。このうち、タイムスタンプ抽出部10、復号器16、同期制御装置200は図1と同一である。図12はシステムクロック同期処理部18の構成図である。システムクロック同期処理部18は、クロックデータ抽出部60、減算器62、LPF(ローパスフィルタ:Low Pass Filter)64、VCXO(電圧制御水晶発振器:VoltageControlled Crystal Oscillator)66、カウンタ68を有する。
【0033】
システムクロック同期処理部18は、復号器における基準クロックSTC74を符号化器が意図した値にセットおよび校正し、出力する。自走TSは復号器16でこのSTC74をもとに、例えば分周により生成される。また、システムクロック同期処理部18は、図に示されていないがタイムスタンプ精度判定部12からの指示により、PTS−Vと自走TSの時間差が単調増加または単調減少する場合に、STC74の再同期を行う。
【0034】
クロックデータ抽出部60は、入力されたシステムストリームからSCRを選択する。減算器62は、SCRとSTC74の差を計算する。LPF64はこの差の高周波の雑音成分を除去する。その結果は電圧値で表され、符号化器と復号器のSTCの差に比例する。
VCXO66は、電圧値に応じた周波数の信号を発振する。この信号は、カウンタ68によりSTC74に変換される。STC74は、例えば、MPEG1で90kHz、MPEG2で27MHzである。STC74は復号器16に入力され、自走TSが生成される。
【0035】
図8に示すようなPTS−Vと自走TSの時間差が単調増加あるいは単調減少する場合、これらの周波数自体が一致していない可能性がある。そのとき、図11のシステムクロック同期処理部18でSTC74を再同期させ、PTS−Vと自走TSの周波数を一致させることが、有効であると考えられる。なぜなら、あるタイミングでPTS−Vと自走TSを同期させても、これらの周波数が一致していないので、次第に同期もずれるからである。図4のS24のステップで以上の処理が行われる。
このように本実施の形態によれば、基準タイムスタンプとシステムストリーム中のタイムスタンプの周波数を同期させることが可能である。
【0036】
(実施の形態3)
図13は、実施の形態3に係る同期再生装置120の構成図である。同期再生装置120は、タイムスタンプ抽出部20、復号器22、同期制御装置210を有する。また、同期制御装置210はタイムスタンプ精度判定部12、同期処理部14を有する。
【0037】
タイムスタンプ抽出部20は、入力されたシステムストリームからPTS−AとPTS−Vを選択し、これらを同期制御装置210に出力する。
同期制御装置210におけるタイムスタンプ精度判定部12と同期処理部14は、図1と同一である。しかし、タイムスタンプ精度判定部12と同期処理部14は共にPTS−Vと自走TSの時間差でなく、PTS−VとPTS−Aの時間差を計算し、この値をもとに、図4と図5に示す精度判定処理と同期判定処理を行う。
復号器22は、図1と同様に、画像ストリームと音声ストリームをそれぞれ画像データと音声データに復号する。復号処理は、自走TSまたはPTS−Aのタイミングで行われる。
【0038】
このように本実施の形態によれば、時間差を計算するときの基準タイムスタンプにPTS−Aを使用しているため、PTS−VとPTS−Aの時間差の検出が確実である。さらに、PTS−VとPTS−Aの時間差から許容時間差を決定し、それをもとに画像データと音声データの同期を判定しているため、タイムスタンプの精度に対して適応的に同期処理を行うことができる。
【0039】
(実施の形態4)
図14は、実施の形態4に係る同期再生装置130の構成図である。同期再生装置130は、音声タイムスタンプ抽出部24、画像タイムスタンプ抽出部26、音声同期制御装置220、画像同期制御装置230、復号器16を有する。また、音声同期制御装置220は音声タイムスタンプ精度判定部28、音声同期処理部30を有し、画像同期制御装置230は画像タイムスタンプ精度判定部32、画像同期処理部34を有する。このうち復号器16は、図1と同一であり、画像タイムスタンプ抽出部26、画像タイムスタンプ精度判定部32、画像同期処理部34は図1のタイムスタンプ抽出部10、タイムスタンプ精度判定部12、同期処理部14と名称は異なるが同一である。ここで図14は、図1と異なり、同期制御装置200を画像ストリームだけでなく音声ストリームにも適用している。
【0040】
音声タイムスタンプ抽出部24は、入力されたシステムストリームからPTS−Aを選択し、音声タイムスタンプ精度判定部28と音声同期処理部30に出力する。
音声タイムスタンプ精度判定部28と音声同期処理部30は、図1のタイムスタンプ精度判定部12と同期処理部14と同様の処理を行う。しかし、これらは共にPTS−Vと自走TSの時間差でなく、PTS−Aと自走TSの時間差を計算し、この値をもとに、図4と図5に示す精度判定処理と同期判定処理を行う。
復号器16は音声ストリームと画像ストリームを復号し、音声データと画像データを出力する。このとき、音声データに対しても音声同期処理部30からの指示にもとづきスキップとリピート処理を施す。
【0041】
このように本実施の形態によれば、音声データについてもPTS−Aの精度に応じて適応的に許容時間差を決定し、それをもとに画像データと音声データの同期を判定しているため、音声データもタイムスタンプの精度に対して最適な同期処理を行うことができる。
【0042】
(実施の形態5)
図15は、実施の形態5に係るテレビジョン受信装置150の構成図である。テレビジョン受信装置150は、アンテナ48、受信ブロック40、処理ブロック42、再生ブロック44を有する。受信ブロック40は、チューナ46を有する。処理ブロック42はCPU50、メモリ52、同期再生装置100を有する。再生ブロック44は音声出力部54、スピーカ58、表示装置56を有する。ここで、処理ブロック42における同期再生装置100は図1と同一である。
【0043】
受信ブロック40は、アンテナ48を介して放送波を受信する。受信ブロック40に含まれるチューナ46は受信した放送波の中からユーザが選んだチャネルに対して復調を施す。この復調は、例えば、放送衛星を使ったデジタル放送において8PSKである。復調で得られたシステムストリームは、処理ブロック42に出力される。
処理ブロック42の同期再生装置100はCPU50およびメモリ52と連携し、放送局で符号化され送信された画像及び音声ストリームを復号する。同期再生装置100の動作は前述の通りである。同期再生装置100は復号された音声データを音声出力部54へ、復号された画像データを表示装置56へ出力する。
音声出力部54は、入力された音声データに所定の処理を施し、最終的に音声をスピーカ58へ出力する。また、表示装置56は、入力された画像データに所定の処理を施し、最終的に画像をモニタ等へ出力する。
このように本実施の形態によれば、タイムスタンプの精度に対して最適な同期処理を行う機能を有するテレビジョン受信装置を実現することが可能である。
【0044】
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そうした変形例をいくつか説明する。
【0045】
実施の形態1では、精度判定処理において許容時間差を逐次更新している。しかし、許容時間差は所定の値を固定的に使用してもよい。例えば、最初に決定されたものを使用することである。要は、同期しているか否かの判断基準がタイムスタンプの精度に対応して定められればよい。
【0046】
実施の形態1では、精度判定処理の先頭においてPTS−Vと自走TSの時間差が単調増加あるいは単調減少する場合に、PTS−VとPTS−Aを使用して画像データ出力と音声データ出力を再同期させている。しかし、単調増加あるいは単調減少する場合に限られず、所定の関数に従う場合に、再同期を行ってもよい。さらにこれらの処理を処理の先頭以外で行ってもよい。要は、PTS−Vと自走TSの周波数が一致していないことが検出できればよい。
【0047】
実施の形態1では、同期判定処理部においてPTS−Vと自走TSの時間差と許容時間差を比較してこれらが同期しているかを判断している。しかし、この判断条件に別の条件が付加されてもよい。複数回の比較結果をもとになされてもよい。例えば、所定回数の時間差が連続して許容時間差の上限値より大きくなった場合に、同期していないと判断してもよい。要は、特定の基準により同期しているか否かの判断がされればよい。
実施の形態1では、画像と音声の同期を判断するために、PTSを使用している。しかし、これはPTSでなくてもよい。例えば、DTSでよい。要は、画像と音声を再生するタイミングが分かればよい。
【0048】
実施の形態4では、音声データの出力における同期処理を画像データと同一のものとしている。しかし、これらは完全に同一である必要はない。例えば、音声データの許容時間差に重み付けを行い、この範囲を測定結果よりも広げることによって、音声データはスキップおよびリピートされにくくしてもよい。要は、自然に画像と音声が再生されればよい。結果として、より自然な再生が実現する。
【0049】
【発明の効果】
本発明によれば、タイムスタンプの精度に対して適応的な同期処理を行うことができる。すなわち、タイムスタンプが高精度の場合、タイムスタンプを有効利用して正確に画像と音声の同期をとることができる。一方、タイムスタンプが低精度の場合、あまり有効でないタイムスタンプへの依存を減らし、画像と音声の再同期を減少させることができる。
【図面の簡単な説明】
【図1】 実施の形態1に係る同期再生装置を示す図である。
【図2】 図1の装置に入力されるシステムストリームを示す図である。
【図3】 図1の装置による画像ストリームの同期制御処理の手順を示すフローチャートである。
【図4】 図3の手順における精度判定処理の手順を示すフローチャートである。
【図5】 図3の手順における同期判定処理の手順を示すフローチャートである。
【図6】 図1の装置による音声ストリームの同期制御処理の手順を示すフローチャートである。
【図7】 図1の装置におけるPTS−Vと自走TSの時間差とPTS−Vの精度の関係を示す図である。
【図8】 図1の装置におけるPTS−Vと自走TSの時間差が単調増加していることを示す図である。
【図9】 図1の装置における許容時間差を示す図である。
【図10】 図1の装置におけるタイムスタンプの進行速度の平均値を示す図である。
【図11】 実施の形態2に係る同期再生装置を示す図である。
【図12】 図11の装置におけるシステムクロック同期処理部を示す図である。
【図13】 実施の形態3に係る同期再生装置を示す図である。
【図14】 実施の形態4に係る同期再生装置を示す図である。
【図15】 実施の形態5に係るテレビジョン受信装置を示す図である。
【符号の説明】
10 タイムスタンプ抽出部、 12 タイムスタンプ精度判定部、 14 同期処理部、 16 復号器、 18 システムクロック同期処理部、 20 タイムスタンプ抽出部、22 復号器、 24 音声タイムスタンプ抽出部、 26 画像タイムスタンプ抽出部、 28 音声タイムスタンプ精度判定部、 30 音声同期処理部、 32 画像タイムスタンプ精度判定部、 34 画像同期処理部、 40 受信ブロック、 42 処理ブロック、 44 再生ブロック、 46 チューナ、 48 アンテナ、 50 CPU、 52 メモリ、 54 音声出力部、 56 表示装置、 58 スピーカ、 60 クロックデータ抽出部、 62 減算器、 64 LPF、 66 VCXO、 68カウンタ、 70 許容時間差情報、 72 スキップ・リピート情報、 74 STC、 100 同期再生装置、 110 同期再生装置、 120 同期再生装置、 130 同期再生装置、 150 テレビジョン受信装置、 200 同期制御装置、 210 同期制御装置、 220 音声同期制御装置、230 画像同期制御装置。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for synchronizing an image and audio when decoding a stream including image information and audio information. Furthermore, the present invention relates to a reproducing apparatus and a television receiving apparatus having this synchronization technique.
[0002]
[Prior art]
Data compression / decompression technology is indispensable for processing a large amount of information at high speed. As this technique, there is an MPEG (Moving Picture Expert Group) system. MPEG consists of three parts. The “MPEG system part” defines a multiplexing structure of image data and audio data. “MPEG video part” defines a high-efficiency encoding method of image data. “MPEG audio part” defines a high-efficiency encoding method for audio data. Furthermore, MPEG is classified into MPEG1, MPEG2, MPEG4, etc. mainly according to the application area.
[0003]
The flow from encoding to decoding in MPEG is as follows. An MPEG system encoder (hereinafter referred to as an encoder) performs encoding according to an MPEG video part and an MPEG audio part while maintaining linkage between image data and audio data, respectively, and MPEG video stream (hereinafter referred to as an image stream). ) And an MPEG audio stream (hereinafter referred to as an audio stream). Next, the multiplexer performs time division multiplexing of the image stream and the audio stream in accordance with the MPEG system part to create one MPEG system stream (hereinafter, system stream). This system stream is transmitted via a transmission medium or recorded on a recording medium.
The demultiplexer separates the system stream into an image stream and an audio stream. Next, an MPEG system decoder (hereinafter referred to as a decoder) decodes each stream individually to generate image data and audio data. Image data is output to a display, and audio data is output to a speaker via a D / A converter and a low frequency amplifier.
[0004]
In the decoder, it is necessary to consider “lip sync” regarding synchronous reproduction of image data and audio data. The lip sync means that the image and sound shown on the display are synchronized. When there is a gap between the image and the sound and the difference exceeds the human detection limit, the listener feels uncomfortable.
In order to reproduce image data and audio data synchronously, a decoder normally uses a time stamp in the system stream. In an MPEG system, there are generally two types of time stamps, PTS (Presentation Time Stamp) and DTS (Decoding Time Stamp). The PTS is information for managing the time of reproduction output, and a value measured with a clock of 90 kHz is usually represented by a 32-bit length. In the decoder, when the PTS and STC (System Time Clock) which is a reference clock match, each stream is decoded and a reproduction output is generated. On the other hand, DTS is information for managing the decoding start time. The DTS is added only when the value is different from the PTS. The STC is set and calibrated to a value intended by the encoder using an SCR (System Clock Reference) in the system stream.
[0005]
In a conventional decoder, an image stream is generally decoded at a timing given by an SCR and an image PTS (hereinafter PTS-V). The audio stream is decoded at a timing given by the SCR and the audio PTS (hereinafter referred to as PTS-A).
[0006]
[Problems to be solved by the invention]
As described above, in order to perform synchronous reproduction of image data and audio data by a decoder, a time stamp in a system stream is generally used. In this case, the accuracy of the time stamp added by the encoder needs to be accurate enough not to cause a lip sync shift. However, there are actually time stamps with inaccuracy due to the design of the encoder, component accuracy, and other circumstances. Furthermore, although one system stream is composed of a large number of programs, since the encoder or editing method differs for each program, the system stream includes time stamps having various accuracy.
[0007]
Under such circumstances, the present inventor has come to recognize the following problems. If the synchronization with the time stamp is strictly operated and if the time stamp of the image and the sound is even slightly shifted, it is immediately re-synchronized. Since there is a large difference in voice, these re-synchronizations are frequently performed. For this reason, many skips and repeats of images and sounds occur due to re-synchronization, and there has been a problem that the motion and sounds of the reproduced images become rather unnatural. In addition, if the synchronization by time stamp is coarsely operated and resynchronization is performed only when the time stamp of the image and the audio is greatly shifted, the synchronization of the time stamp of the image and the audio becomes insufficient even in a stream having a good time stamp accuracy. For this reason, there has been a problem that a difference between the reproduced image and the sound occurs.
[0008]
The present invention has been made to solve these problems, and an object thereof is to perform an adaptive synchronization process with respect to the accuracy of the time stamp. That is, when the time stamp is highly accurate, the time stamp is effectively used to accurately synchronize the image and the sound. On the other hand, if the time stamp is of low accuracy, the dependency on the less effective time stamp is reduced and the resynchronization of the image and the sound is reduced.
[0009]
[Means for Solving the Problems]
  One embodiment of the present invention relates to a synchronous control device. This device uses the time difference between the time stamp included in the acquired stream and the predetermined reference time stamp.Measure the variation of the time difference according to the tracking result,Based on the measurement result, the accuracy of the time stamp included in the stream is determined, and based on the result of the comparison between the allowable value and the time difference, the time stamp accuracy determination unit sets the allowable value related to the time difference according to the determination result. A synchronization processing unit that performs processing for synchronizing the time stamp included in the stream and the reference time stamp.
  “Time stamp accuracy” means the degree of error included in the time stamp value added by the encoder. If this error is large, even if decoding is performed based on the timing of the time stamp, there is a difference between the reproduced image and sound.
  “Synchronization” means that the timing of the image and the sound at the time of reproduction is consistent. Here, in relation to the technology for realizing this, it is assumed that the timings indicated by a plurality of types of time stamps and the frequency of the clock from which the time stamps are generated substantially match.
  The “time stamp included in the stream” is a time stamp for information existing in the stream, for example, a time stamp for an image or sound.
  The “reference time stamp” includes a time stamp included in the stream and a time stamp generated by the apparatus.
  The “allowable value relating to time difference” is a value having a property that, for example, the range becomes larger when the accuracy of the time stamp becomes worse, and the range becomes smaller when the accuracy of the time stamp becomes better.
  According to this apparatus, since the accuracy of the time stamp included in the stream is determined and the processing is changed according to the result, adaptive synchronization processing according to the accuracy of the time stamp is possible.
[0010]
  The time stamp accuracy determination unit stops determining the accuracy of the time stamp included in the stream and includes it in the stream when the time difference between the time stamp included in the stream and the predetermined reference time stamp monotonously increases or decreases monotonously. A preliminary determination may be made that the time stamp to be used and the reference time stamp are not synchronized. As a result, the clock frequency inside the apparatus may be adjusted as necessary as described later..
[0011]
  "“Monotone increase or monotonic decrease” means a state in which a certain value continuously increases or decreases for a certain period of time, but here also includes a state in which the value increases or decreases macroscopically. At this time, microscopic changes may be ignored..
[0012]
According to this apparatus, as a determination result of the accuracy of the time stamp included in the stream, an allowable value related to the time difference between the time stamp included in the stream and the reference time stamp is set, and subsequent processing is performed based on the allowable value. Let it be done. Since this allowable value changes following the change in the accuracy of the time stamp, an adaptive synchronization process according to the accuracy of the time stamp is possible.
[0013]
The synchronization processing unit may determine that the time stamp included in the stream and the reference time stamp are synchronized when the time difference is smaller than the allowable value. Further, when the allowable value is larger than a predetermined value, the synchronization may be controlled based on the average value of the time stamp progress rates included in the stream.
The “time stamp progress rate” is the time change rate of the time stamp value. This is obtained by dividing TS (t2) -TS (t1) by t2-t1, where TS (t1) and TS (t2) are the time stamp values at the two reference times t1 and t2, respectively.
[0014]
The reference time stamp may be generated locally by the apparatus. In this case, the reference time stamp is not the time stamp included in the stream, but is generated by the apparatus, and can be processed at a fixed timing.
[0016]
Yet another embodiment of the present invention relates to a synchronous playback device. This apparatus includes a synchronization control device and a decoding unit that acquires a stream and receives a processing result from a synchronization processing unit provided in the synchronization control device, and decodes the stream.
The “decoding unit” is a part that converts an encoded signal into a signal before being encoded, but here also includes a part that performs processing such as timing synchronization and clock generation necessary for decoding. . According to this apparatus, decoding is performed under an adaptive synchronization process according to the accuracy of the time stamp, so that it is possible to reproduce natural images and sounds.
[0017]
Yet another embodiment of the present invention relates to a television receiver. A reception block that demodulates the received broadcast wave to generate a stream, a synchronous playback device, an audio output unit that outputs audio based on the stream decoded by the decoding unit, and a stream that is decoded by the decoding unit And an image display unit for displaying an image.
“Broadcast wave” means a radio wave for the purpose of transmitting information such as images, sounds, and characters transmitted by broadcast satellites, communication satellites, terrestrial television transmitters, etc. In addition to signals transmitted over wired lines.
According to this apparatus, since decoding is performed under an adaptive synchronization process according to the accuracy of the time stamp, a television receiving apparatus capable of reproducing natural images and sounds can be realized.
[0018]
When the synchronization processing unit determines that the time stamp included in the stream and the reference time stamp are not synchronized, the synchronization processing unit may control the synchronization by controlling the output of the image included in the stream. When the time stamp accuracy determination unit or the synchronization processing unit determines that the time stamp included in the stream is not synchronized with the reference time stamp, the time stamp accuracy determination unit or the synchronization processing unit may control output based on the time stamp included in the stream. Good. The time stamp accuracy determination unit or the synchronization processing unit may synchronize the clock timings of the transmission side and the reception side when determining that the time stamp included in the stream and the reference time stamp are not synchronized.
[0019]
It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a configuration diagram of a synchronized playback device 100 according to the first embodiment. The synchronized playback apparatus 100 includes a time stamp extraction unit 10, a decoder 16, and a synchronization control apparatus 200. The synchronization control device 200 includes a time stamp accuracy determination unit 12 and a synchronization processing unit 14.
[0021]
The time stamp extraction unit 10 selects a time stamp from the input system stream. FIG. 2 is an example of a system stream. An image stream and an audio stream are multiplexed in one system stream, and includes a header H and packets V1, V2, A1, V3, A2,. Here, V1, V2, etc. are packets constituting the image stream, and A1, A2, etc. are packets constituting the audio stream. Here, PTS-V and PTS-A are added to the heads of V1 and A1. The time stamp extraction unit 10 of FIG. 1 outputs the PTS-V to the time stamp accuracy determination unit 12 and the synchronization processing unit 14.
[0022]
The time stamp accuracy determination unit 12 uses the time difference between the PTS-V and the time stamp (hereinafter referred to as a free-running TS) generated by the decoder 16 as a determination result of the accuracy of the PTS-V and the free-running TS. Outputs the tolerance for the time difference. Here, the self-running TS is information obtained from the system stream and a time stamp generated from the STC. The information obtained from the system stream is, for example, 30 images / second for images and 44.1 kHz for audio. The relationship between the time difference between the PTS-V and the free-running TS and the accuracy of the PTS-V is shown in FIG. In the figure, the time difference between the two types of PTS-V and the free-running TS is indicated by ◯ and X. Each point marked with a circle in the figure has a smaller variation than each point marked with a cross, and exists near a time difference of zero. At this time, it can be said that the accuracy of the PTS-V represented by a circle is generally higher than that represented by a cross. This is because it generally has a time stamp close to a self-running TS generated from STC having accurate timing and known information. Further, the time stamp accuracy determination unit 12 in FIG. 1 sets an allowable value (hereinafter referred to as an allowable time difference) regarding the time difference between the PTS-V and the self-running TS based on these data shown in FIG. Information 70 is output to the synchronization processing unit 14. This setting method will be described later.
[0023]
The synchronization processing unit 14 compares the time difference between the PTS-V and the free-running TS with the allowable time difference. If these time differences are within the allowable time difference range, the synchronization deviation between the PTS-V and the free-running TS can be ignored, and no information is output to the decoder 16. On the other hand, when the time difference between the PTS-V and the free-running TS is larger than the upper limit value of the allowable time difference, it is assumed that the synchronization difference between the PTS-V and the free-running TS is large and the output of the image data is delayed. Outputs instruction information for skipping image data during decoding. On the other hand, when the time difference between the PTS-V and the free-running TS is smaller than the lower limit value of the allowable time difference, it is assumed that the output of the image data has progressed, and the decoder 16 is instructed to repeat the image data at the time of decoding. Output. Here, in general, the audio data is more unnatural than image data due to timing adjustment such as skip or repeat, and therefore the timing adjustment of the audio data is not performed. Therefore, the difference between PTS-A and free-running TS is basically ignored.
[0024]
The decoder 16 decodes the image stream and the audio stream into image data and audio data, respectively. When the first system stream is input, the output of image data and audio data is synchronized by PTS-V and PTS-A therein. Thereafter, decoding is performed at the timing given by the free-running TS. When receiving the instruction of the skip / repeat information 72 from the synchronization processing unit 14, the decoder 16 skips or repeats the image data accordingly, and maintains the synchronization between the image data and the audio data. Finally, the decoder 16 outputs the decoded image data and audio data.
[0025]
FIG. 3 is a diagram illustrating a procedure of image stream synchronization control processing. The decoder 16 synchronizes image data output and audio data output using PTS-V and PTS-A (S10). The time stamp accuracy determination unit 12 sets an allowable time difference from the time difference between the PTS-V and the self-running TS (S12). The synchronization processing unit 14 determines whether or not the time difference between the PTS-V and the self-running TS is within the allowable time difference range, and performs processing according to the result (S14). The above processing is repeated until the image stream ends (N in S16). Thus, the value of the allowable time difference is sequentially updated.
[0026]
FIG. 4 is a diagram illustrating a procedure of the accuracy determination process (S12). The time stamp accuracy determination unit 12 calculates the time difference between the PTS-V and the free-running TS (S20). When this value monotonously increases or monotonously decreases as shown in FIG. 8 (Y in S22), the decoder 16 uses PTS-V and PTS-A again to resynchronize the image data output and audio data output ( S24). This is because it is considered that the PTS-V and the free-running TS are not synchronized before the accuracy is determined. On the other hand, if it does not monotonously increase or decrease monotonously (N in S22), an allowable time difference corresponding to the accuracy of PTS-V is set from the time difference between PTS-V and the free-running TS (S26). FIG. 9 is a diagram illustrating the time difference between PTS-V and the free-running TS versus time. In this figure, the allowable time difference has a width of a minimum value T1 and a maximum value T2. The values of T1 and T2 may be, for example, 80% of the minimum and maximum time differences measured so far, or may be values derived statistically from all time differences. T1 and T2 are output to the synchronization processing unit 14 as the allowable time difference information 70 (S28).
[0027]
FIG. 5 is a diagram showing the procedure of the synchronization determination process (S14). The synchronization processing unit 14 calculates a time difference T between the PTS-V and the free-running TS (S30). T1 and T2 indicating an allowable time difference are input from the time stamp accuracy determination unit 12 (S32). The time difference T is compared with T1 and T2. As a result, if T is a value satisfying T1 <T <T2, the shift in synchronization between PTS-V and the free-running TS can be ignored (Y in S34). On the other hand, if T> T2 or T <T1 (N in S34), it is assumed that the output of the image data is delayed in the former, and information on an instruction to skip the image data at the time of decoding to the decoder 16 is skip / repeat information. 72 is output. In the latter case, it is assumed that the output of the image data has progressed, and information on an instruction to repeat the image data at the time of decoding is output to the decoder 16 as the skip / repeat information 72 (S36).
[0028]
The synchronization processing unit 14 performs processing so that the free-running TS matches the PTS-V by skipping and repeating image data. For example, an instruction is given to skip image data displayed between the time differences between the PTS-V and the free-running TS or to repeat and display the same image data between the time differences between the PTS-V and the free-running TS. However, when the accuracy of the PTS-V is poor, there is a possibility that the reproduced image and the sound may be shifted even if the self-running TS matches the PTS-V. This is because the error of PTS-V itself is considered large. In this case, processing is performed so that the self-running TS matches not the PTS-V but the value determined from the average value of the traveling speed of the PTS-V. This value is indicated by a dotted line in FIG. The dotted line indicates an average value of each plotted point, and is obtained by, for example, the least square method of each point. A value obtained by differentiating the dotted line with respect to time is an average value of the traveling speed of the PTS-V.
[0029]
The determination that the accuracy of the PTS-V is bad is made by, for example, comparing a difference between T2 and T1 with a predetermined value by a comparison unit (not shown) in the synchronization processing unit. Further, a value determined from the average value of the traveling speed of the PTS-V is calculated by a calculation unit (not shown) in the synchronization processing unit.
[0030]
FIG. 6 is a diagram illustrating a procedure of audio stream synchronization control processing. The decoder 16 synchronizes the audio data output and the image data output using the PTS-A and the PTS-V (S40). Thereafter, the decoder 16 confirms the state of the buffer in which the audio stream is recorded (S42). This buffer is, for example, a main memory or a hard disk. If this buffer overflows or underflows (Y in S44), the audio data output and the image data output are resynchronized using PTS-A and PTS-V as in S40 (S46). This is because the output of audio data is delayed when the buffer overflows, and the output of audio data is considered advanced when the buffer is underflowing. The above processing is repeated until the audio stream ends (N in S48). This process can be easily performed because only the recording amount of the audio stream in the buffer is monitored.
[0031]
As described above, according to the present embodiment, the allowable time difference is adaptively determined according to the accuracy of the time stamp, and the synchronization between the image data and the audio data is determined based on the time difference. Can be optimally synchronized. That is, if the accuracy of the time stamp is good, the range of the allowable time difference is narrowed, and the image and the sound are accurately synchronized. If the accuracy of the time stamp is bad, the range of the allowable time difference is widened and the resynchronization of the image and the sound is reduced. In addition, since the reference time stamp is generally generated from the highly accurate STC and known information inside the decoder, stable operation is possible. In addition, when the accuracy of the time stamp included in the system stream is poor, the data skip and repeat times are adjusted so that the reference time stamp matches the value determined from the average value of the time stamp progress rate. Therefore, it is possible to reduce the influence of the error of the time stamp included in the system stream.
[0032]
(Embodiment 2)
FIG. 11 is a configuration diagram of the synchronized playback device 110 according to the second embodiment. The synchronous reproduction device 110 includes a time stamp extraction unit 10, a decoder 16, a synchronization control device 200, and a system clock synchronization processing unit 18. Among these, the time stamp extraction unit 10, the decoder 16, and the synchronization control device 200 are the same as those in FIG. FIG. 12 is a configuration diagram of the system clock synchronization processing unit 18. The system clock synchronization processing unit 18 includes a clock data extraction unit 60, a subtractor 62, an LPF (Low Pass Filter) 64, a VCXO (Voltage Controlled Crystal Oscillator) 66, and a counter 68.
[0033]
The system clock synchronization processing unit 18 sets and calibrates the reference clock STC74 in the decoder to a value intended by the encoder, and outputs it. The free-running TS is generated by the decoder 16 based on the STC 74, for example, by frequency division. Although not shown in the figure, the system clock synchronization processing unit 18 restarts the STC 74 when the time difference between the PTS-V and the free-running TS monotonously increases or monotonously decreases according to an instruction from the time stamp accuracy determination unit 12. Synchronize.
[0034]
The clock data extraction unit 60 selects an SCR from the input system stream. The subtractor 62 calculates the difference between the SCR and the STC 74. The LPF 64 removes the high frequency noise component of this difference. The result is expressed as a voltage value and is proportional to the STC difference between the encoder and the decoder.
The VCXO 66 oscillates a signal having a frequency corresponding to the voltage value. This signal is converted into STC 74 by the counter 68. The STC 74 is, for example, 90 kHz for MPEG1 and 27 MHz for MPEG2. The STC 74 is input to the decoder 16 to generate a free-running TS.
[0035]
When the time difference between the PTS-V and the free-running TS as shown in FIG. 8 monotonously increases or monotonously decreases, there is a possibility that these frequencies themselves do not match. At that time, it is considered effective to resynchronize the STC 74 by the system clock synchronization processing unit 18 in FIG. 11 so that the frequencies of the PTS-V and the free-running TS match. This is because even if the PTS-V and the free-running TS are synchronized at a certain timing, these frequencies do not match, so the synchronization gradually shifts. The above processing is performed in step S24 of FIG.
Thus, according to the present embodiment, it is possible to synchronize the frequency of the reference time stamp and the time stamp in the system stream.
[0036]
(Embodiment 3)
FIG. 13 is a configuration diagram of the synchronized playback device 120 according to the third embodiment. The synchronized playback device 120 includes a time stamp extraction unit 20, a decoder 22, and a synchronization control device 210. In addition, the synchronization control device 210 includes a time stamp accuracy determination unit 12 and a synchronization processing unit 14.
[0037]
The time stamp extraction unit 20 selects PTS-A and PTS-V from the input system stream and outputs them to the synchronization control device 210.
The time stamp accuracy determination unit 12 and the synchronization processing unit 14 in the synchronization control device 210 are the same as those in FIG. However, both the time stamp accuracy determination unit 12 and the synchronization processing unit 14 calculate the time difference between the PTS-V and the PTS-A, not the time difference between the PTS-V and the free-running TS, and based on this value, FIG. The accuracy determination process and the synchronization determination process shown in FIG. 5 are performed.
Similarly to FIG. 1, the decoder 22 decodes the image stream and the audio stream into image data and audio data, respectively. The decoding process is performed at the timing of the free-running TS or PTS-A.
[0038]
As described above, according to the present embodiment, since the PTS-A is used as the reference time stamp when calculating the time difference, the time difference between the PTS-V and the PTS-A is reliably detected. Further, since the allowable time difference is determined from the time difference between PTS-V and PTS-A, and the synchronization between the image data and the audio data is determined based on the time difference, the synchronization process is adaptively performed with respect to the accuracy of the time stamp. It can be carried out.
[0039]
(Embodiment 4)
FIG. 14 is a configuration diagram of the synchronized playback device 130 according to the fourth embodiment. The synchronized playback device 130 includes an audio time stamp extraction unit 24, an image time stamp extraction unit 26, an audio synchronization control device 220, an image synchronization control device 230, and a decoder 16. The audio synchronization control device 220 includes an audio time stamp accuracy determination unit 28 and an audio synchronization processing unit 30, and the image synchronization control device 230 includes an image time stamp accuracy determination unit 32 and an image synchronization processing unit 34. Among them, the decoder 16 is the same as that in FIG. 1, and the image time stamp extraction unit 26, the image time stamp accuracy determination unit 32, and the image synchronization processing unit 34 are the time stamp extraction unit 10 and the time stamp accuracy determination unit 12 in FIG. The name is the same as the synchronization processing unit 14 although the name is different. 14 differs from FIG. 1 in that the synchronization control apparatus 200 is applied not only to the image stream but also to the audio stream.
[0040]
The audio time stamp extraction unit 24 selects PTS-A from the input system stream and outputs it to the audio time stamp accuracy determination unit 28 and the audio synchronization processing unit 30.
The audio time stamp accuracy determination unit 28 and the audio synchronization processing unit 30 perform the same processing as the time stamp accuracy determination unit 12 and the synchronization processing unit 14 of FIG. However, both of these calculate not the time difference between PTS-V and the free-running TS, but the time difference between PTS-A and the free-running TS, and based on this value, the accuracy determination process and the synchronization determination shown in FIGS. Process.
The decoder 16 decodes the audio stream and the image stream, and outputs the audio data and the image data. At this time, the skip and repeat processing is performed on the audio data based on the instruction from the audio synchronization processing unit 30.
[0041]
As described above, according to the present embodiment, also for audio data, an allowable time difference is adaptively determined according to the accuracy of PTS-A, and synchronization of image data and audio data is determined based on the time difference. The audio data can also be optimally synchronized with respect to the accuracy of the time stamp.
[0042]
(Embodiment 5)
FIG. 15 is a configuration diagram of the television receiver 150 according to the fifth embodiment. The television receiver 150 includes an antenna 48, a reception block 40, a processing block 42, and a reproduction block 44. The reception block 40 has a tuner 46. The processing block 42 includes a CPU 50, a memory 52, and a synchronous playback device 100. The reproduction block 44 includes an audio output unit 54, a speaker 58, and a display device 56. Here, the synchronized playback apparatus 100 in the processing block 42 is the same as in FIG.
[0043]
The reception block 40 receives broadcast waves via the antenna 48. A tuner 46 included in the reception block 40 demodulates the channel selected by the user from the received broadcast waves. This demodulation is, for example, 8PSK in digital broadcasting using a broadcasting satellite. The system stream obtained by the demodulation is output to the processing block 42.
The synchronized playback device 100 in the processing block 42 cooperates with the CPU 50 and the memory 52 to decode the image and audio stream encoded and transmitted by the broadcasting station. The operation of the synchronized playback apparatus 100 is as described above. The synchronized playback device 100 outputs the decoded audio data to the audio output unit 54 and the decoded image data to the display device 56.
The audio output unit 54 performs predetermined processing on the input audio data and finally outputs the audio to the speaker 58. The display device 56 performs predetermined processing on the input image data, and finally outputs the image to a monitor or the like.
As described above, according to the present embodiment, it is possible to realize a television receiver having a function of performing an optimal synchronization process with respect to the accuracy of time stamps.
[0044]
The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there. Several such variations are described.
[0045]
In the first embodiment, the allowable time difference is sequentially updated in the accuracy determination process. However, a predetermined value may be used as the allowable time difference. For example, use the first determined one. In short, the criteria for determining whether or not they are synchronized may be determined corresponding to the accuracy of the time stamp.
[0046]
In the first embodiment, when the time difference between the PTS-V and the free-running TS monotonously increases or decreases monotonically at the beginning of the accuracy determination process, image data output and audio data output are performed using the PTS-V and PTS-A. Resynchronizing. However, the present invention is not limited to monotonically increasing or monotonically decreasing, and resynchronization may be performed when a predetermined function is followed. Further, these processes may be performed at other than the beginning of the process. In short, it is only necessary to detect that the frequencies of the PTS-V and the free-running TS do not match.
[0047]
In the first embodiment, the synchronization determination processing unit compares the time difference between the PTS-V and the free-running TS and the allowable time difference to determine whether they are synchronized. However, another condition may be added to this determination condition. You may make based on the comparison result of multiple times. For example, when the predetermined number of time differences continuously become larger than the upper limit value of the allowable time difference, it may be determined that they are not synchronized. In short, it may be determined whether or not the synchronization is made according to a specific standard.
In the first embodiment, PTS is used to determine synchronization between an image and sound. However, this may not be PTS. For example, DTS may be used. In short, it is only necessary to know the timing for reproducing images and sounds.
[0048]
In the fourth embodiment, the synchronization process for outputting audio data is the same as that for image data. However, they need not be identical. For example, the audio data may be made difficult to be skipped and repeated by weighting the allowable time difference of the audio data and expanding this range beyond the measurement result. In short, it is only necessary that images and sounds are reproduced naturally. As a result, more natural reproduction is realized.
[0049]
【The invention's effect】
According to the present invention, it is possible to perform an adaptive synchronization process with respect to the accuracy of the time stamp. That is, when the time stamp is highly accurate, the time stamp can be effectively used to accurately synchronize the image and the sound. On the other hand, when the time stamp has low accuracy, it is possible to reduce the dependency on the time stamp that is not so effective and to reduce the resynchronization of the image and the sound.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a synchronized playback device according to a first embodiment.
FIG. 2 is a diagram showing a system stream input to the apparatus of FIG. 1;
FIG. 3 is a flowchart illustrating a procedure of image stream synchronization control processing by the apparatus of FIG. 1;
4 is a flowchart showing a procedure of accuracy determination processing in the procedure of FIG. 3;
FIG. 5 is a flowchart showing a procedure of synchronization determination processing in the procedure of FIG. 3;
6 is a flowchart showing a procedure of audio stream synchronization control processing by the apparatus of FIG. 1; FIG.
7 is a diagram showing the relationship between the time difference between PTS-V and free-running TS and the accuracy of PTS-V in the apparatus of FIG.
8 is a diagram showing that the time difference between the PTS-V and the free-running TS in the apparatus of FIG. 1 monotonously increases.
FIG. 9 is a diagram showing an allowable time difference in the apparatus of FIG. 1;
FIG. 10 is a diagram showing an average value of time stamp progress speeds in the apparatus of FIG. 1;
FIG. 11 shows a synchronized playback apparatus according to Embodiment 2;
12 is a diagram showing a system clock synchronization processing unit in the apparatus of FIG.
FIG. 13 is a diagram illustrating a synchronized playback device according to a third embodiment.
FIG. 14 shows a synchronized playback apparatus according to Embodiment 4;
15 is a diagram showing a television receiver according to a fifth embodiment. FIG.
[Explanation of symbols]
10 time stamp extraction unit, 12 time stamp accuracy determination unit, 14 synchronization processing unit, 16 decoder, 18 system clock synchronization processing unit, 20 time stamp extraction unit, 22 decoder, 24 audio time stamp extraction unit, 26 image time stamp Extraction unit, 28 audio time stamp accuracy determination unit, 30 audio synchronization processing unit, 32 image time stamp accuracy determination unit, 34 image synchronization processing unit, 40 reception block, 42 processing block, 44 playback block, 46 tuner, 48 antenna, 50 CPU, 52 memory, 54 audio output unit, 56 display device, 58 speaker, 60 clock data extraction unit, 62 subtractor, 64 LPF, 66 VCXO, 68 counter, 70 allowable time difference information, 72 skip repeat Information, 74 STC, 100 synchronized playback device, 110 synchronized playback device, 120 synchronized playback device, 130 synchronized playback device, 150 television receiver, 200 synchronization control device, 210 synchronization control device, 220 audio synchronization control device, 230 image synchronization Control device.

Claims (7)

取得したストリームに含まれるタイムスタンプと所定の基準となるタイムスタンプの時間差の追跡結果により前記時間差のばらつきを測定し、前記測定結果をもとに、前記ストリームに含まれるタイムスタンプの精度を判定し、前記判定結果に応じて前記時間差に関する許容値を設定するタイムスタンプ精度判定部と、
前記許容値と前記時間差の比較結果をもとに、前記ストリームに含まれるタイムスタンプと前記基準となるタイムスタンプの同期の処理を行う同期処理部と、
を含むことを特徴とする同期制御装置。
The variation in the time difference is measured based on the tracking result of the time difference between the time stamp included in the acquired stream and the predetermined reference time stamp, and the accuracy of the time stamp included in the stream is determined based on the measurement result. A time stamp accuracy determining unit that sets an allowable value related to the time difference according to the determination result;
Based on a comparison result between the allowable value and the time difference, a synchronization processing unit that performs a process of synchronizing the time stamp included in the stream and the reference time stamp;
A synchronous control device comprising:
前記タイムスタンプ精度判定部は、前記ストリームに含まれるタイムスタンプと前記基準となるタイムスタンプの時間差が単調増加または単調減少した場合に、前記ストリームに含まれるタイムスタンプの精度の判定を中止し、前記ストリームに含まれるタイムスタンプと前記基準となるタイムスタンプが同期していないと予備的に判断することを特徴とする請求項1に記載の同期制御装置。  The time stamp accuracy determination unit, when the time difference between the time stamp included in the stream and the reference time stamp monotonically increases or decreases monotonously, stops determining the accuracy of the time stamp included in the stream, 2. The synchronization control apparatus according to claim 1, wherein the synchronization control apparatus preliminarily determines that the time stamp included in the stream and the reference time stamp are not synchronized. 前記同期処理部は、前記時間差が前記許容値よりも小さい場合に、前記ストリームに含まれるタイムスタンプと前記基準となるタイムスタンプが同期していると判断することを特徴とする請求項2に記載の同期制御装置。  3. The synchronization processing unit according to claim 2, wherein the time stamp included in the stream and the reference time stamp are synchronized when the time difference is smaller than the allowable value. Synchronous control device. 前記同期処理部は、前記許容値が所定の値より大きい場合に、前記ストリームに含まれるタイムスタンプの進行速度の平均値をもとに同期を制御することを特徴とする請求項2または3のいずれかに記載の同期制御装置。  4. The synchronization processing unit according to claim 2, wherein the synchronization processing unit controls synchronization based on an average value of advancing speed of time stamps included in the stream when the allowable value is larger than a predetermined value. The synchronous control apparatus in any one. 前記基準となるタイムスタンプは当該装置にて局所的に生成されたものであることを特徴とする請求項1から4のいずれかに記載の同期制御装置。  5. The synchronization control apparatus according to claim 1, wherein the reference time stamp is generated locally by the apparatus. 請求項1から5のいずれかに記載された同期制御装置と、
前記ストリームを取得し、前記同期制御装置に備えられた前記同期処理部による処理結果を受けて前記ストリームを復号する復号部と、
を含むことを特徴とする同期再生装置。
A synchronous control device according to any one of claims 1 to 5;
A decoding unit that acquires the stream and receives the processing result of the synchronization processing unit provided in the synchronization control device, and decodes the stream;
A synchronous playback device comprising:
受信した放送波を復調してストリームを生成する受信ブロックと、
請求項6に記載された同期再生装置と、
前記復号部により復号されたストリームをもとに音声を出力する音声出力部と、
前記復号部により復号されたストリームをもとに画像を表示する画像表示部と、
を含むことを特徴とするテレビジョン受信装置。
A receiving block that demodulates the received broadcast wave to generate a stream;
A synchronized playback device according to claim 6;
An audio output unit that outputs audio based on the stream decoded by the decoding unit;
An image display unit for displaying an image based on the stream decoded by the decoding unit;
The television receiver characterized by including.
JP2002167734A 2002-06-07 2002-06-07 Synchronous control method and apparatus, synchronous playback apparatus and television receiver using the same Expired - Fee Related JP4359024B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002167734A JP4359024B2 (en) 2002-06-07 2002-06-07 Synchronous control method and apparatus, synchronous playback apparatus and television receiver using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002167734A JP4359024B2 (en) 2002-06-07 2002-06-07 Synchronous control method and apparatus, synchronous playback apparatus and television receiver using the same

Publications (2)

Publication Number Publication Date
JP2004015553A JP2004015553A (en) 2004-01-15
JP4359024B2 true JP4359024B2 (en) 2009-11-04

Family

ID=30434894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002167734A Expired - Fee Related JP4359024B2 (en) 2002-06-07 2002-06-07 Synchronous control method and apparatus, synchronous playback apparatus and television receiver using the same

Country Status (1)

Country Link
JP (1) JP4359024B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4439468B2 (en) * 2003-03-19 2010-03-24 パナソニック株式会社 Data processing device
EP1786209B1 (en) * 2004-09-02 2019-11-20 Sony Corporation Content receiver, video-audio output timing control method, and content providing system
JP2006157729A (en) 2004-11-30 2006-06-15 Toshiba Corp Reproduction apparatus and reproduction method
JP4765475B2 (en) 2005-08-17 2011-09-07 ソニー株式会社 Information signal processing apparatus and processing method
CN102067595B (en) * 2009-03-16 2013-07-24 松下电器产业株式会社 Audio-visual communication apparatus and communication method of same
CN102368835A (en) * 2011-06-28 2012-03-07 上海盈方微电子有限公司 Audio and video Seek synchronization strategy
JP6550867B2 (en) * 2014-04-03 2019-07-31 富士電機株式会社 Data management system with time stamp, its device, and program
CN111611252B (en) * 2020-04-01 2023-07-18 石化盈科信息技术有限责任公司 Monitoring, device, equipment and storage medium for safety data in data synchronization process

Also Published As

Publication number Publication date
JP2004015553A (en) 2004-01-15

Similar Documents

Publication Publication Date Title
JP3698376B2 (en) Synchronous playback device
JP3629253B2 (en) Audio reproduction device and audio reproduction control method used in the same
JP4182437B2 (en) Audio video synchronization system and monitor device
US7711244B2 (en) Video/audio synchronizing apparatus
JP2004208308A (en) Method and apparatus for synchronizing reproduction of audio frame and/or video frame, video driver circuit, and decoder box
US8842218B2 (en) Video/audio data output device and method
US8526501B2 (en) Decoder and decoding method based on video and audio time information
US20070091935A1 (en) Reference clock recovery circuit and data receiving apparatus
JP2009272945A (en) Synchronous reproduction apparatus
KR20060125678A (en) Buffer management system, digital audio receiver, headphones, loudspeaker, method of buffer management
JP2007274607A (en) Digital signal processor and data stream processing method
US20080013512A1 (en) Wireless Communication System
JP4359024B2 (en) Synchronous control method and apparatus, synchronous playback apparatus and television receiver using the same
JP3676631B2 (en) Video / audio synchronized playback device
US20080307470A1 (en) Control method for an information processing device
JP3906712B2 (en) Data stream processing device
KR20070104131A (en) Method and apparatus for compensating of audio/video synchronization
JP2006254298A (en) Device and method for moving picture reproduction
JP2007201983A (en) Broadcast station synchronization method, and control apparatus
JP4096915B2 (en) Digital information reproducing apparatus and method
JP2002204404A (en) Synchronizing device and method, digital broadcast receiver
KR20120065260A (en) Apparatus and method for receiving broadcasting
JP4197078B2 (en) Video / audio partial reproduction method and receiver in storage type digital broadcasting
KR100499519B1 (en) Method for Controlling Audio Lip-Synchronization
JP2002281498A (en) Reception reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090714

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090807

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4359024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees