JP4439468B2 - データ処理装置 - Google Patents

データ処理装置 Download PDF

Info

Publication number
JP4439468B2
JP4439468B2 JP2005503643A JP2005503643A JP4439468B2 JP 4439468 B2 JP4439468 B2 JP 4439468B2 JP 2005503643 A JP2005503643 A JP 2005503643A JP 2005503643 A JP2005503643 A JP 2005503643A JP 4439468 B2 JP4439468 B2 JP 4439468B2
Authority
JP
Japan
Prior art keywords
data
time
audio
difference value
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005503643A
Other languages
English (en)
Other versions
JPWO2004084553A1 (ja
Inventor
慎一 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2004084553A1 publication Critical patent/JPWO2004084553A1/ja
Application granted granted Critical
Publication of JP4439468B2 publication Critical patent/JP4439468B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、圧縮符号化されたオーディオデータおよびビデオデータを復号化して、音声および映像を再生する技術に関する。
近年、長時間の映像(ビデオ)および音声(オーディオ)の各データを圧縮符号化してデータ量を抑え、記録媒体に記録する手法の開発が進んでいる。国際標準化機構(ISO)においては、国際電気標準会議(IEC)のMPEG(Moving Picture Image Coding Experts Group)によるオーディオおよびビデオの符号化方式の標準化が行われている。例えば「ISO/IEC 13818-2」においてビデオの圧縮方式が規定され、「ISO/IEC 13818-3」でオーディオの圧縮方式が規定され、「ISO/IEC 13818-1」でこれらを統合化する方式が規定されている。最後に掲げた方式は、MPEGシステム規格として知られている。このような圧縮符号化技術を利用することにより、映画等の長時間のビデオおよびオーディオに関するデータストリーム(MPEGシステムストリーム)を、高品質を保ちつつ、1枚の記録媒体(例えば、光ディスク)に記録することが可能になっている。
さらに、記録媒体へ記録する方式についても標準化が進んでいる。例えば、DVD規格(DVD Specification for Read-Only Disc Version 1.0)が知られている。また、ビデオおよびオーディオのデータを記録媒体に記録するための規格として、1999年9月にはDVDビデオレコーディング(DVD Video Recording)規格(DVD Specifications for Rewritable/Re-recordable Discs)が規定されている。
次に、記録媒体に記録されたデータストリームから、ビデオおよびオーディオを同期させて再生する処理を説明する。図1は、システムストリームを再生可能な従来の再生装置10の機能ブロックの構成を示す。ここでは、システムストリームはプログラムストリームであり、システム時刻基準SCRの情報を含むとする。
再生装置10は、AVパーサ1、ビデオデコーダ2、オーディオデコーダ3およびSTCレジスタ4を含む。
AVパーサ1は外部からシステムストリームを受け取り、そのシステムストリームをオーディオおよびビデオの各データに分離する(以下、オーディオに関するデータストリームをオーディオストリームといい、ビデオに関するデータストリームをビデオストリームという)。AVパーサ1は、システムストリームからシステム時刻基準SCR、オーディオの再生時刻情報(APTS)およびビデオの再生時刻情報(VPTS)を抽出する。AVパーサ1は、システム時刻基準SCRに基づいて、STCレジスタ4に基準値を設定する。そして、AVパーサ1は、ビデオストリームおよびVPTSをビデオデコーダ2に出力し。オーディオストリームおよびAPTSをオーディオデコーダ3に出力する。STCレジスタ4は、基準値に基づいて同期信号STCを生成する。
ビデオデコーダ2は、同期信号STCおよびビデオの復号時刻情報(VDTS)にしたがってビデオストリームを復号化し、復号化したビデオデータを同期信号STCとVPTSとが一致したタイミングで出力する。例えばビデオでは、NTSC方式の場合には約16.7ミリ秒に相当する間隔で再生時刻情報VPTSが付加されている。これは、フィールド画像の表示タイミングに合わせているからである。なお、NTSC方式では、ビデオは1秒に30フレームが表示され、かつ、1フレームが2フィールドから構成されているため、1フィールドは約16.7ミリごとに書き換えられている。
オーディオデコーダ3は、同期信号STCおよびオーディオの復号時刻情報(ADTS)にしたがってビデオストリームを復号化し、復号化したオーディオデータを同期信号STCとAPTSとが一致したタイミングで出力する。例えば、再生時刻情報APTSは、1オーディオフレームの再生タイミング(約32ミリ秒)に相当する間隔で付加されている。
以上の処理により、システムストリーム製作者がエンコード時に意図したタイミングでオーディオおよびビデオの同期再生が実現される。
上述の例は、システム時刻基準SCRに基づいて同期信号STCが生成されるとした。これは、デジタル放送をリアルタイムで受信して再生する場合において、送信側と受信側のクロックを同期させる必要があるときにも同様である(ただし、デジタル放送がトランスポートストリームを利用する場合にはプログラム時刻基準PCRが用いられる)。
一方、光ディスク等の記録媒体に既に記録されているシステムストリームを読み出してビデオおよびオーディオを再生する場合には、必ずしもシステム時刻基準SCRを用いてエンコード時のクロックを再現する必要はない。例えば、オーディオのAPTSを用いて同期信号STCを設定してもよい。そこで、そのような再生例を図2を参照しながら説明する。
図2は、従来の再生装置20の機能ブロックの構成を示す。再生装置20は記録媒体に記録されたシステムストリームに基づいてオーディオストリームおよびビデオストリームを復号化し、オーディオの再生時刻情報(APTS)に基づいてビデオを出力してオーディオと同期させる。再生装置20は、例えば、日本国特開平10−136308号公報において開示されている。
AV分離部12は、データ記録装置11に格納された、デジタルエンコードされたシステムストリームを読み出し、多重化されて記録されているオーディオデータとビデオデータを分離する。
ビデオ処理部13は、ビデオデータを復号化し、その際に得られたビデオヘッダ情報を遅延検出部16に送る。ヘッダ情報にはビデオの再生時刻情報VPTSが記述されている。さらに、ビデオ処理部13は、再生の開始から現在までに再生したビデオデータの積算フレーム数をビデオフレームカウンタ18へ保存する。オーディオ処理部14は、オーディオデータを復号化するとともに、その際に得られたオーディオヘッダ情報をクロック生成部17に送る。ヘッダ情報にはオーディオの再生時刻情報VPTSが記述されている。さらに、オーディオ処理部14は、オーディオ再生の開始から現在までに再生したオーディオデータの積算データ量をオーディオデータカウンタ19へ保存する。
クロック生成部17は、オーディオデータカウンタ19に保存されている積算データ量と、オーディオ処理部14より得たオーディオヘッダ情報に基づいて、オーディオの再生経過時間として示される基準時刻を算出する。遅延検出部16は、クロック生成部17から得られた基準時刻の情報およびビデオ処理部13から受け取ったビデオヘッダ情報に基づいて、本来出力すべきビデオデータの理想フレーム数を算出する。遅延検出部16は、理想フレーム数と、ビデオフレームカウンタで得られた実フレーム数を比較し、オーディオの再生に対するビデオの再生の進捗を検出する。
遅延検出部16によってビデオ出力がオーディオ出力より遅れていると検出されると、コマ落とし制御部15は、出力しないフレーム(コマ落としフレーム)を決定してその情報をAV分離部12およびビデオ処理部13に伝える。ビデオ処理部13は、コマ落としフレームの出力をスキップしてその後続のフレームを出力する。これにより、ビデオの遅延が1フレームの表示時間相当分(例えば、NTSCの場合は33ミリ秒)だけ解消され、オーディオ出力に対する遅れが解消される。再生装置20は、上述の手法により、オーディオおよびビデオの同期再生を実現する。
オーディオの再生に対するビデオの再生の関係は以下のとおりである。製作者がエンコード時に意図したタイミングでビデオおよびオーディオが再生されている状態を理想状態とする。一般に、オーディオの再生を基準にしてビデオが理想状態から−50ミリ秒〜+30ミリ秒の範囲で再生されると、人間はオーディオとビデオが同期していると感じる。そこで、オーディオ再生時刻に対してビデオ再生時刻がこの許容範囲に入っている場合には、ビデオ出力はオーディオ出力より遅れていないと判断し、許容範囲に入っていない場合には、遅れていると判断すればよい。
しかしながら、従来の再生装置において、オーディオの再生経過時間を基準にしてビデオを再生すると、以下のような問題が生じる。
すなわち、従来の再生装置は、オーディオおよびビデオが同期して再生されているか否かの判定において、オーディオとビデオのずれが許容範囲内にあるにもかかわらず、その許容範囲を超えていると誤まって判定するおそれがある。
例えば、オーディオに対してビデオが許容範囲内の20ミリ秒遅れて再生されているとする。上述のように、オーディオのフレームには約32ミリ秒ごとにAPTSが付加されており、ビデオのフィールドには約16.7ミリ秒ごとにVPTSが付加されている。そのため、APTSに対してVPTSを比較するタイミングによっては、ビデオはオーディオよりも最大52ミリ秒ずれて再生されてしまう。特に、VPTSとAPTSを比較するタイミングをVPTSの更新直後に限定すると、ビデオはオーディオに対して+20ミリ秒〜+52ミリ秒遅れて再生される。よって、+30ミリ秒〜+52ミリ秒の遅れに対しては、視聴者にはビデオとオーディオとがずれて再生されているという違和感を与える。
また、従来の再生装置では、オーディオの再生がビデオの再生よりも先に終了するとそれ以後はビデオの再生を継続することができない。これは、オーディオの再生が終了するとオーディオの再生経過時間の進行が停止し、オーディオがビデオを再生するための時間基準として機能しなくなるからである。特に、システムストリームにはオーディオデータおよびビデオデータが混在しており、かつ、オーディオデータおよびビデオデータの再生時刻が同じとは限らない。よって、データの読み出しを終了した時点で得られているオーディオデータおよびビデオデータの再生終了時刻が異なり、オーディオの再生がビデオの再生よりも先に終了することがあるため、不都合を生じる。
本発明の目的は、オーディオの再生時間を基準としてビデオの再生を行った場合において、オーディオとビデオとを確実に同期させることである。また、本発明の他の目的は、オーディオの再生がビデオよりも先に終了した場合であってもビデオを継続して再生することである。
本発明によるデータ処理装置は、データストリームを受け取って、前記データストリームから複数のピクチャのデータを含むビデオデータ、各ピクチャの再生時刻を規定する第1時刻情報、複数のオーディオフレームのデータを含むオーディオデータおよび各オーディオフレームの再生時刻を規定する第2時刻情報を分離するパーサと、前記複数のピクチャおよび前記複数のオーディオフレームを再生するために、前記ビデオデータおよび前記オーディオデータを出力する出力部と、所定の基準時刻からの経過時間をカウントする基準レジスタと、前記各ピクチャの出力時に、前記各ピクチャの第1時刻情報と前記経過時間との差分値を計算し、第1差分値として保持する第1差分レジスタと、前記各オーディオフレームの出力時に、前記各オーディオフレームの第2時刻情報と前記経過時間との差分値を計算し、第2差分値として格納する第2差分レジスタと、前記第2差分値に対する前記第1差分値の大きさに応じて、前記ビデオデータの出力を制御する制御部とを備えている。
前記基準レジスタは、前記オーディオデータの出力開始時刻を前記所定の基準時刻として経過時間をカウントしてもよい。
前記制御部は、前記第2差分値が、前記第1差分値と第1所定値 との和よりも大きい場合には、前記出力部に対してその時点で出力されているピクチャのビデオデータを再度出力させてもよい。
前記制御部は、前記第2差分値が、前記第1差分値と第2所定値 との差よりも小さい場合には、前記出力部に対してピクチャのビデオデータの出力をスキップさせてもよい。
前記制御部は、再生のポーズの指示を受け取ると、前記第1時刻情報および前記第2時刻情報に基づいて前記ビデオデータの出力を制御してもよい。
前記制御部は、前記再生のポーズを解除する指示を受け取ると、前記第2時刻情報が前記第1時刻情報と第3所定値との和よりも大きい場合には、前記出力部に対して前記オーディオデータを前記ビデオデータよりも先に出力させてもよい。
前記制御部は、前記再生のポーズを解除する指示を受け取ると、前記第2時刻情報が前記第1時刻情報と第4所定値との差よりも小さい場合には、前記出力部に対して前記ビデオデータをオーディオデータよりも先に出力させてもよい。
前記制御部は、前記再生のポーズを解除する指示を受け取ると、前記出力部に対して前記ビデオデータとオーディオデータとを同時に出力させてもよい。
本発明によるデータ処理方法は、データストリームを受け取るステップと、前記データストリームから複数のピクチャのデータを含むビデオデータ、各ピクチャの再生時刻を規定する第1時刻情報、複数のオーディオフレームのデータを含むオーディオデータおよび各オーディオフレームの再生時刻を規定する第2時刻情報を分離するステップと、前記複数のピクチャおよび前記複数のオーディオフレームを再生するために、前記ビデオデータおよび前記オーディオデータを出力するステップと、所定の基準時刻からの経過時間をカウントするステップと、前記各ピクチャの出力時に、前記各ピクチャの第1時刻情報と前記経過時間との差分値を計算し、第1差分値として保持するステップと、前記各オーディオフレームの出力時に、前記各オーディオフレームの第2時刻情報と前記経過時間との差分値を計算し、第2差分値として格納するステップと、前記第2差分値に対する前記第1差分値の大きさに応じて、前記ビデオデータの出力を制御するステップとを包含する。
前記経過時間をカウントするステップは、前記オーディオデータの出力開始時刻を前記所定の基準時刻として経過時間をカウントしてもよい。
前記第2差分値が、前記第1差分値と第1所定値との和よりも大きい場合には、前記出力するステップは、その時点で出力されているピクチャのビデオデータを再度出力してもよい。
前記第2差分値が、前記第1差分値と第2所定値との差よりも小さい場合には、前記出力するステップは、ピクチャのビデオデータの出力をスキップしてもよい。
前記データ処理方法は、再生のポーズの指示を受け取るステップをさらに包含してもよく、前記出力するステップは、前記指示に応答して、前記第1時刻情報および前記第2時刻情報に基づいて前記ビデオデータの出力を制御してもよい。
前記データ処理方法は、再生のポーズの指示を受け取るステップをさらに包含してもよく、前記出力するステップは、前記指示に応答して、前記第2時刻情報が前記第1時刻情報と第3所定値との和よりも大きい場合には、前記オーディオデータを前記ビデオデータよりも先に出力してもよい。
前記データ処理方法は、再生のポーズの指示を受け取るステップをさらに包含してもよく、前記出力するステップは、前記指示に応答して、前記第2時刻情報が前記第1時刻情報と第4所定値との差よりも小さい場合には、前記ビデオデータをオーディオデータよりも先に出力してもよい。
前記データ処理方法は、再生のポーズの指示を受け取るステップをさらに包含してもよく、前記出力するステップは、前記指示に応答して、前記ビデオデータとオーディオデータとを同時に出力してもよい。
本発明によるデータ処理プログラムは、コンピュータにより実行可能である。コンピュータが実装されたデータ処理装置は、このプログラムにしたがって、以下の手順を実行する。すなわち、データストリームを受け取るステップと、前記データストリームから複数のピクチャのデータを含むビデオデータ、各ピクチャの再生時刻を規定する第1時刻情報、複数のオーディオフレームのデータを含むオーディオデータおよび各オーディオフレームの再生時刻を規定する第2時刻情報を分離するステップと、前記複数のピクチャおよび前記複数のオーディオフレームを再生するために、前記ビデオデータおよび前記オーディオデータを出力するステップと、所定の基準時刻からの経過時間をカウントするステップと、前記各ピクチャの出力時に、前記各ピクチャの第1時刻情報と前記経過時間との差分値を計算し、第1差分値として保持するステップと、前記各オーディオフレームの出力時に、前記各オーディオフレームの第2時刻情報と前記経過時間との差分値を計算し、第2差分値として格納するステップと、前記第2差分値に対する前記第1差分値の大きさに応じて、前記ビデオデータの出力を制御するステップとを実行する。
本発明によれば、APTS差分レジスタとVPTS差分レジスタを利用してオーディオとビデオの出力の進捗状態を比較することにより、確実にオーディオとビデオの同期を取ることができる。さらに、オーディオデータがビデオデータよりも先に途切れても、オーディオを基準にビデオの出力を継続させることが可能になる。さらに、APTSレジスタを備えることにより、ポーズ中にもオーディオとビデオの出力の進捗具合を比較するとともに、ポーズの解除後にもオーディオとビデオの同期をとることができる。これにより、視聴者にとって違和感のない再生を実現できる装置を提供できる。
以下では、まずデータストリームのデータ構造を説明し、その後、そのデータストリームを処理の対象とする本実施形態によるデータ処理装置を説明する。
図3は、DVDビデオレコーディング規格に準拠したMPEG2プログラムストリーム30のデータ構造を示す(以下、このストリームを「データストリーム30」と記述する)。
データストリーム30は、複数のビデオオブジェクト(Video OBject;VOB)#1、#2、・・・、#kを含んでいる。例えば、データストリーム30がカムコーダで撮影されたコンテンツとすると、各VOBは、ユーザが録画を開始してから録画を停止するまでの1回の録画動作によって生成された動画データが格納されている。
各VOBは、複数のVOBユニット(Video OBject unit;VOBU)#1、#2、・・・、#nを含んでいる。各VOBUは、主として、ビデオの再生時間にして0.4秒から1秒までの範囲内のビデオデータを含むデータ単位である。
以下、図3において最初に配置されたVOBU#1とその次に配置されたVOBU#2を例にして、VOBUのデータ構造を説明する。
VOBU#1は、MPEGプログラムストリームの下位階層であるパックが複数集まって構成されている。データストリーム30内の各パックのデータ長(パック長)は一定(2キロバイト(2048バイト))である。VOBUの先頭には、図1に“R”で示されるリアルタイムインフォメーションパック(RDIパック)11が配置されている。RDIパック31の後には、“V”で示されるビデオパック(ビデオパック32等)および“A”で示されるオーディオパック(オーディオパック33等)が複数含まれている。なお、各VOBUのデータサイズは、再生時間が同じであってもビデオデータが可変ビットレートであれば最大記録再生レート以下の範囲で変動し、ビデオデータが固定ビットレートであればほぼ一定である。
各パックは以下の情報を格納している。RDIパック31は、データストリーム30の再生を制御するために用いられる情報、例えばVOBUの再生タイミングを示す情報や、データストリーム30のコピーを制御するための情報を格納している。ビデオパック32は、MPEG2圧縮符号化されたビデオデータを格納している。オーディオパック33は、例えばMPEG2−オーディオ規格によって圧縮されたオーディオデータを格納している。
VOBU#2もまた、複数のパックから構成されている。VOBU#2の先頭には、RDIパック34が配置され、その後、ビデオパック35およびオーディオパック36等が複数配置されている。各パックに格納される情報の内容はVOBU#1と同様である。
ビデオおよびオーディオの復号化および再生は、アクセスユニットと呼ばれる単位を基準として行われる。アクセスユニットは、例えば、ビデオでは1ビデオフレーム、オーディオでは1オーディオフレームである。MPEGシステム規格では、このアクセスユニットごとに復号化および再生のタイミングを指定するタイムスタンプが付加される。すなわち、いつ復号化すべきかを示す時刻情報DTS(Decoding Time Stamp)およびいつ再生すべきかを示す時刻情報PTS(Presentation Time Stamp)の2種類である。
一般に、データストリーム30を含むMPEGシステム規格のシステムストリームを再生可能な再生装置は、その内部で同期信号STC(System Time Clock)を生成し、復号器(デコーダ)の動作タイミングの基準として用いている。同期信号STCは、システムストリームがプログラムストリームの場合にはそのストリーム中に付加されたシステム時刻基準SCR(System Clock Reference)値に基づいて生成され、また、システムストリームがトランスポートストリームの場合にはそのストリーム中に付加されたプログラム時刻基準PCR(Program Clock Reference)値に基づいて生成される。
再生装置のデコーダは、同期信号STCが示す時刻と復号時刻情報DTSとが一致したとき、そのDTSが付加されたアクセスユニットをデコードする。その後、デコーダは、同期信号STCが示す時刻と再生時刻情報PTSとが一致したとき、そのPTSが付加されたアクセスユニットを出力する。これにより、データストリーム30の製作者が意図したタイミングでビデオおよびオーディオが同期して再生される。
次に、ビデオパックのデータ構造を説明する。図4は、ビデオパック32のデータ構造を示す。ビデオパック32は、ビデオパケット41およびパディングパケット42を含む。なお、パディングパケット42はデータパックのパック長を調整するために設けられたパケットであるため、パック長を調整する必要がないときは存在しない。このときは、ビデオパック32にはビデオパケット41のみが含まれる。
ビデオパケット41は、先頭から順に、14バイトのパックヘッダ(Pack_H)、24バイトのシステムヘッダ(system_H)、パケットヘッダ(Packet_H)41aおよびペイロードを有する。パックヘッダには、パックの種類(ここではビデオパケット)を特定する情報が記述される。システムヘッダは、VOBUの先頭のパックに必ず付加される。パケットヘッダ41aは後に詳述する。ペイロードには、圧縮符号化されたビデオデータが記述される。
一方、パディングパケット42は、パケットヘッダ(Packet_H)42aおよびパディングデータ42bを有する。パケットヘッダ42aには、パディングパケットであることを特定する情報の他に、5および6バイト目のフィールド(PES_packet_length)においてパディングパケット42aのデータ長(バイト長)が記述される。パディングデータ42bには、予め定められた値が格納される。この値は、例えば、意味を持たない値“0xFF”(16進数)の羅列であり、上述のようにビデオパック32のパック長を2048バイトに調整するために必要なデータ量だけ配置される。
次に、ビデオパケット41のパケットヘッダ41aのデータ構造を説明する。パケットヘッダ41aは、パケット長フィールド43、フラグフィールド44およびヘッダデータ長フィールド45を有する。さらに、パケットヘッダ41aには、時間フラグフィールド44aおよびPES拡張フラグフィールド44bの値に応じて、追加のフィールド46が設けられることがある。
パケット長フィールド43には、そのフィールド以降からそのビデオパケット41の最後までのパケット長(バイト長)が記述される。よって、パディングパケット42が存在するときにはビデオパケット41のパケット長は短くなり、パケット長フィールド43に記述されるパケット長の値は小さくなる。続いて、フラグフィールド44は、時間フラグフィールド44a(PTS_DTS_flag)、PES拡張フラグフィールド(PES_extension_flag)44b等を含む。時間フラグフィールド44aには、後述するプレゼンテーションタイムスタンプ(PTS)およびでコーディングタイムスタンプ(DTS)の有無を示すフラグが記述される。また、PES拡張フラグフィールド44bには、後述するPES拡張フィールドの有無を示すフラグが記述される。ヘッダデータ長フィールド45には、追加のフィールド46およびスタッフィングバイトフィールド49のフィールド長の和が格納される。
次に、追加のフィールド46を説明する。例えば、時間フラグフィールド44aがPTSおよびDTSを有することを示すときは、フィールド46として各5バイトのPTS/DTSフィールド47が設けられる。PTSは映像データの表示時間情報であり、DTS情報は復号のための時間情報である。時間フラグフィールド44aの値に応じて、いずれか一方のフィールドが設けられる。
また、追加のフィールド46としてPES拡張フィールド48が設けられることもある。PES拡張フィールド48にはプログラムストリーム30の復号に必要な情報、例えば復号用のデータバッファの容量等が記述される。
PES拡張フィールド48は、データストリーム30では各VOBUにおいて最初に現れるビデオパックおよびオーディオパックに設けられる。PES拡張フィールド48は、例えばPES拡張フラグフィールド44bが1のときに存在し、0のときは存在しない。
パケットヘッダ41aには、スタッフィングバイトフィールド49が設けられることがある。スタッフィングバイトフィールド49には、パック長を調整するためのスタッフィングバイトが格納される。スタッフィングバイトは、意味を持たない“0xFF”(16進数)等のバイトデータである。スタッフィングバイトフィールド49とパディングパケット42とは、パック長を調整するための同じ目的で設けられる。よって、DVDビデオ規格のスタッフィングバイトは7バイト以下という条件、および、スタッフィングバイト49とパディングパケット42は同一のパック内に共存できないという条件が定められている。図4に示す例では、ビデオパック32にはパディングパケット42が存在しているため、スタッフィングバイトフィールド49は0バイトであり存在しない。
なお、図4ではビデオパックのデータ構造を示したが、オーディオパックのデータ構造も同様である。「ビデオパケット」を「オーディオパケット」に読み替え、ペイロードに格納される「ビデオデータ」を「オーディオデータ」に読み替えればよい。よって、オーディオパケットのパケットヘッダ41aには、追加のフィールド46にPTS/DTSフィールド47が記述され、その再生(出力)のタイミングを示すPTSまたはDTSが記述される。なお、以下では、オーディオの再生時刻情報(PTS)は「APTS」と記す。そして、ビデオの再生時刻情報(PTS)は「VPTS」と記す。
次に、図5を参照しながら、データ処理装置を説明する。図5は、本実施形態によるデータ処理装置50の機能ブロックの構成を示す。本実施形態では、データ処理装置50はオーディオフレームの再生時刻を基準としてビデオフレームの出力のタイミングを管理している。したがって、図1に示す再生装置10のように、STCレジスタ4によってビデオおよびオーディオの出力が管理されている処理とは異なっている点に留意されたい。なお、本明細書では、ビデオおよびオーディオのフレームデータを出力した時刻と、そのフレームが再生されて映像として表示され、音声として出力される時刻とは同じであるとする。
データ処理装置50の動作の概要は以下のとおりである。まず、データ処理装置50は、データストリーム30を記録媒体から読み出し、複数のピクチャのデータを含む圧縮符号化されたビデオデータ、各ピクチャのVPTS、複数のフレームのデータを含むオーディオデータおよび各フレームのAPTSを分離する。そして、データ処理装置50は、複数のピクチャおよび複数のフレームを再生するために、ビデオデータおよびオーディオデータを復号化する。
この処理と併せて、データ処理装置50は、基準時刻からの経過時間(例えばオーディオの再生開始時刻)をカウントし、各ピクチャの出力時には各ピクチャのVPTSと経過時間との差分値を計算し、各オーディオフレームの出力時には各オーディオフレームのAPTSと経過時間との差分値を計算する。そして、ビデオおよびオーディオの各差分値の大きさに応じてビデオデータの再生出力を制御する。例えば、ビデオの差分値がオーディオの差分値よりも所定値以上大きくなったときは、ビデオの一枚のピクチャの出力をスキップする。なお、ピクチャは、フレームおよびフィールドの両方を表す概念である。
以下、データ処理装置50の各構成要素を説明し、その後、データ処理装置50の動作を説明する。
データ処理装置50は、光ピックアップ51と、再生処理部52と、AVパーサ53と、基準カウンタレジスタ54と、AV同期制御部55と、VPTSレジスタ56と、VPTS差分レジスタ57と、APTSレジスタ58と、APTS差分レジスタ59と、ビデオデコーダ60と、オーディオデコーダ61とを有する。
光ピックアップ51は、記録媒体からデータストリーム30を読み出す。記録媒体は、例えばDVD、BD(Blu−ray Disc)等の光ディスクである。再生処理部52は、アナログ信号として得られたデータストリーム30をデジタル化して出力する。
AVパーサ53は、データストリーム30をビデオストリームとオーディオストリームに分離する。また、AVパーサ53は、システムストリームからSCRを抽出し、さらに、データストリーム30のビデオパック32、35等に含まれているビデオ再生時刻情報VPTS、および、オーディオパック33、36等に含まれているオーディオ再生時刻情報APTSを抽出する。
ビデオデコーダ60は、ビデオストリームを復号化してビデオデータを生成する。具体的には、ビデオデコーダ60は、時刻情報DTSによって示される値と、後述の基準カウンタレジスタ54によって示される基準カウンタ値とが一致しまたは所定の差が生じたときに、そのDTSが付加されたピクチャデータを復号化する。そして、VPTS値と基準カウンタ値とが一致しまたは所定の差が生じたときに、そのPTSが付加されたピクチャデータを出力する。また、ビデオデコーダ60は、フレームの出力をスキップする指示を受け取ると、その次のフレームの出力をスキップして後続のフレームから再び出力を開始する。
オーディオデコーダ61は、オーディオストリームをデコードしてオーディオデータを生成する。オーディオデコーダ61は、オーディオフレームデータを復号化し、オーディオデータを出力する。
基準カウンタレジスタ54は、オーディオデータの出力タイミングを基準として、換言すれば、再生の基準時間と同じ早さで経過時間をカウントする。経過時間は、例えば90kHzの精度で表されるとする。この精度により、ビデオフレームやオーディオフレームより充分に短い時間間隔で基準時間を更新できる。
VPTSレジスタ56は、ビデオの再生時間に対応するVPTSを保持する。VPTS差分レジスタ57は、VPTSレジスタ56が保持するVPTS値と基準カウンタレジスタ54の値の差分値(VPTS差分値)を保持する。APTSレジスタ58は、オーディオの再生時間に対応するAPTSを保持する。APTS差分レジスタ59は、APTSレジスタ58と基準カウンタレジスタ54の差分値(APTS差分値)を保持する。上述したVPTSレジスタ56、VPTS差分レジスタ57、APTSレジスタ58およびAPTS差分レジスタ59の各レジスタは、ある値を受け取ると、次の値が入力されるまでその値を保持している。
AV同期制御部55は、VPTS差分レジスタ57の値とAPTS差分レジスタ58の値とを比較して、ビデオデコーダ60を制御してビデオデータの再生出力を調整する。これにより、オーディオに対してビデオを同期させている。
ここで、ビデオデコーダ60の動作およびオーディオデコーダ61の動作を具体的に説明する。図6は、ビデオデコーダの処理の手順を示す。ビデオデコーダ60は、ステップS61において出力すべきビデオフレームを特定する指示をAV同期制御部55から受け取ると、ステップS62においてそのフレームを復号化して出力する。次に、ステップS63において、ビデオデコーダ60は出力したビデオフレームに対応するVPTS値をVPTSレジスタ56に書き込む。そして、ステップS64において、ビデオデコーダ60はVPTSレジスタ56に保持された値から、基準カウンタレジスタ54がその時点で有するカウンタ値を減算し、得られたVPTS差分値をVPTS差分レジスタ57に書き込む。ビデオデコーダ60のこのような動作により、VPTSレジスタ56およびVPTS差分レジスタ57に保持されている値がそれぞれ更新される。
なお、VPTSレジスタ56およびVPTS差分レジスタ57への書き込みをビデオ出力の前に行ってもよい。また、出力時に、1フレーム先のVPTS値を用いてVPTSレジスタ56およびVPTS差分レジスタ57の値を更新してもよい。
次に、図7は、オーディオデコーダ61の処理の手順を示す。ステップS71において、オーディオデコーダ61は、オーディオストリームを復号化して出力する。次に、ステップS72において、オーディオデコーダ61は、オーディオフレームに対応するAPTSの値をAPTSレジスタに書き込む。そして、ステップS73において、オーディオデコーダ61はAPTSレジスタ58に保持された値から、基準カウンタレジスタ54がその時点で有するカウンタ値を減算し、得られたAPTS差分値をAPTS差分レジスタ59に書き込む。
なお、APTSレジスタ58およびAPTS差分レジスタ59への書き込みを、オーディオ出力の前に行ってもよい。また、出力時に、1オーディオフレーム(32ミリ秒)先のAPTS値を用いて、APTSレジスタ58およびAPTS差分レジスタ59の値を更新してもよい。
次に、データ処理装置50の処理を説明する。図8は、データ処理装置50の処理の手順を示す。まずステップS81において、光ピックアップ51が光ディスクからデータストリームを読み出し、再生処理部52がデジタル化処理を行う。そして、ステップS82において、AVパーサ53は、読み出したデータストリーム30からビデオストリームとVPTSおよびオーディオストリームとAPTSを分離する。
ステップS83において、ビデオデコーダ60は、ビデオフレームを出力するとともに、そのVPTS値をVPTSレジスタ56に書き込み、そのVPTS差分値をVPTS差分レジスタ57に書き込む。次に、ステップS84において、オーディオデコーダ61はオーディオフレームを出力するとともに、そのAPTS値をAPTSレジスタ58に書き込み、そのAPTS差分値をAPTS差分レジスタ59に書き込む。
続いて、ステップS85において、AV同期制御部55はVPTS差分レジスタ57に保持されているVPTS差分値と、APTS差分レジスタ59に保持されているAPTS差分値とを比較する。
ステップS85の比較の意味を図9を参照しながら説明する。図9は、VPTSレジスタ56、VPTS差分レジスタ57、APTSレジスタ58、APTS差分レジスタ59においてそれぞれ保持された値の変遷を示すグラフである。このグラフは、オーディオに対してビデオが20ミリ秒進んだ状態で同期して出力を継続している場合の例である。
本実施形態では、APTS値は32ミリ秒ごとに離散的に増加し、VPTS値は16.7ミリ秒ごとに離散的に増加する。図9では、APTSおよびAPTS差分値が更新されるタイミングを“●”によって示し、VPTSおよびVPTS差分値が更新されるタイミングを“▲”によって示している。これらのタイミングにおいて、オーディオフレームおよびビデオフレームが出力されている。なお、基準カウンタは、説明の便宜上、APTSの再生開始時において−50ミリ秒からカウントを開始しているが、再生開始時における開始カウント値は任意である。
先に述べたように、APTSレジスタ58およびVPTSレジスタ56は次の値が入力されるまでは前の値を保持しているため、APTSレジスタ58およびVPTSレジスタ56が保持する値のグラフは階段状(ステップ状)になる。よって、APTS値とVPTS値との差は、その差を計算するタイミングによって大きく変化してしまう。よって、この差に基づいてオーディオとビデオとの同期を確認することは妥当ではない。
オーディオフレームおよびビデオフレームは、APTS値およびVPTS値が基準カウンタ値と一致しまたは所定の差が生じたときに出力されている。図9に示す例では、−50ミリ秒の差が生じたときに出力されている。よって、オーディオフレームの再生時刻に基づいて基準カウンタ値を生成している本実施形態の条件の下では、APTS値と基準カウンタ値との差分値(APTS差分値)を計算すると常に一定になる。これはAPTS差分のグラフに示すとおりである。
一方、VPTS値と基準カウンタ値との差分値(VPTS差分値)は、ビデオフレームの出力が遅すぎず、かつ、早すぎない場合には、一定になる。例えば、オーディオに対して−50ミリ秒〜+30ミリ秒の範囲でビデオが出力されると、概ね一定になる。これはVPTS差分のグラフに示すとおりである。このときは、視聴者はビデオがオーディオに同期していると感じる。ただし、その範囲を超えてビデオフレームが遅れて出力されるとVPTS差分値は小さくなり、進むと大きくなる。
よって、APTS差分値とVPTS差分値とを比較すれば、その比較を行うタイミングに依存することなく、正確にオーディオフレームの出力に対するビデオフレームの出力の遅れを特定できる。
再び図8を参照する。ステップS85における比較の結果、VPTS差分値がAPTS差分値よりも所定時間α(例えばα=30ミリ秒)以上大きければステップS86に進み、そうでなければステップS87に進む。
ステップS86では、ビデオフレームが早く出力されているため、AV同期制御部55からの指示に基づいて、ビデオデコーダ60は現在のビデオフレームを再度出力する。これにより、ビデオフレームの出力がポーズされてオーディオフレームの出力がビデオフレームの出力に追いつくことになり、オーディオとビデオの同期が実現される。その後、処理はステップS89に進む。
ステップS87では、VPTS差分値がAPTS差分値−所定時間β(例えばβ=50ミリ秒)よりも小さいか否かが判断される。小さい場合にはステップS88に進み、小さくない場合にはVPTS差分値がAPTS差分値と概ね等しいことを意味する。この後処理はステップS89に進む。
ステップS88では、AV同期制御部55からの指示に基づいて、ビデオデコーダ60は1ビデオフレームをスキップし後続のビデオフレームを出力する。これにより、ビデオフレームの出力がオーディオフレームの出力に追いつくことになりオーディオとビデオの同期が実現される。
ステップS89では、AV同期制御部55はビデオフレームが残っているか否かを判断する。残っている場合にはステップS83以降の処理を繰り返し、残っていない場合には処理を終了する。
次に、図10を参照しながら、オーディオフレームの出力がビデオフレームの出力よりも先に終了した場合の処理を説明する。
図10は、オーディオフレームの出力がビデオフレームの出力よりも先に終了したときの、各種レジスタ56、57、58および59においてそれぞれ保持された値の変遷を示すグラフである。時刻t=t1においてオーディオフレームの出力が終了し、出力が途切れているとする。時刻t=t1以降はAPTSの更新はないため、APTSレジスタの値が増加しなくなることに留意されたい。仮に、APTSレジスタ58の値を基準にビデオを同期させるとすると、点線で示したVPTS(1)のようにビデオの出力も進まなくなる。
しかし、APTS差分レジスタ57およびVPTS差分レジスタ59を利用すると、オーディオデータが途切れてもAPTS差分レジスタの値は同じ値が継続して出力されるため、オーディオの出力が継続している場合と同じ状態を維持できる。よって、先に説明したと同じ処理によってビデオフレームの出力を確実に継続することができる。このときのVPTSレジスタ56の値をVPTS(2)として示す。
次に、図11を参照しながら、オーディオおよびビデオの再生が視聴者からの指示等に基づいてポーズされた場合の処理を説明する。図11は、再生をポーズさせたときの、各種レジスタ56、57、58および59においてそれぞれ保持された値の変遷を示すグラフである。時刻t=t3において再生がポーズされたとする。時刻t=t3以降のポーズ期間中は、ビデオは同じフレームの出力を繰り返す。そのため、VPTSレジスタ56には、ポーズ直前の時刻におけるVPTS値と同じ値が入力され続ける。また、VPTS値が一定で、かつ基準カウンタ値は増加するため、VPTS差分レジスタ57に入力されるVPTS差分値は徐々に階段状に減少する。一方、オーディオは出力を停止する。よって、APTS値およびAPTS差分値は、ポーズされた時刻t=t3の直前の時刻t=t2において更新されたAPTS値およびAPTS差分値が保持される。APTS差分値とVPTS差分値とを比較すると、ポーズ期間中はその差は大きくなり続ける。その結果、正常な表示であるにもかかわらず、AV同期制御部55はビデオフレームの再生が遅れていると誤って認識してしまい、誤動作を招く。
そこで、この場合には、AV同期制御部55は、APTSレジスタ58内のAPTS値と、VPTSレジスタ56内のVPTS値とを利用してビデオフレームの出力を継続すればよい。すなわち、APTSレジスタ58内のAPTS値、および、VPTSレジスタ56内のVPTS値は全く同じ値をとりつづけるため、ポーズ期間中はその差も一定である。よって、この差に基づけば、AV同期制御部55はビデオフレームの再生タイミングがずれていると判断することもない。ビデオフレームの出力タイミングは、NTSC方式によれば、ポーズされた時刻t=t3の直前に表示されたフレームを基準として1/29.97秒(約1/30秒)ごとである。なお、インターレースで表示される場合には、出力タイミングは、直前に表示された2枚のフィールドを59.94秒(約1/60秒)ごとである。なお、これらのタイミングの決定にあたっては、APTSレジスタ58内のAPTS値は特に利用されない。
その後、ポーズが解除されたときは、データ処理装置50は、図12に示すように処理して、オーディオとビデオの同期を取ることができる。図12は、再生ポーズが解除されたときのデータ処理装置50の処理の手順を示す。まず、ステップS120において、AV同期制御部55は視聴者等からポーズ解除の指示を受け取る。そして、ステップS121において、VPTS値がAPTS値+所定時間γ(例えばγ=30ミリ秒)よりも大きければステップS122に進み、そうでなければステップS123に進む。ステップS122において、AV同期制御部55はまずオーディオ再生のポーズを解除し、その後、ビデオ再生のポーズを解除する。オーディオ再生のポーズを先に解除することにより、オーディオフレームの出力がビデオフレームの出力に追いつくことになり、オーディオとビデオの同期が実現される。その後、図12の処理は終了し、図8に示す処理へと移る。
ステップS123において、VPTS値がAPTS値−所定時間δ(例えばδ=50ミリ秒)よりも小さいか否かが判断される。小さい場合にはステップS124に進み、小さくない場合にはステップS125に進む。
ステップS124では、AV同期制御部55はビデオ再生のポーズを解除し、その後、オーディオ再生のポーズを解除する。これにより、ビデオフレームの出力がオーディオフレームの出力に追いつくことになりオーディオとビデオの同期が実現される。その後、図12の処理は終了し、図8に示す処理へと移る。
ステップS125では、ビデオ再生のポーズとオーディオ再生のポーズとを同時に解除する。そして図12の処理は終了し、図8に示す処理へと移る。なお、VPTS差分レジスタと基準カウンタレジスタを加算した値と、APTSレジスタとを比較してオーディオとビデオの同期を取ることも可能である。
なお、VPTS差分レジスタ57と基準カウンタレジスタ54のみでは、現在出力中のフレームを特定することが困難であるが、VPTSレジスタ56を備えることにより、出力されているビデオフレームを容易に特定することができる。
以上、本発明の実施形態によるデータ処理装置50を説明した。データ処理装置50は、図5に示す構成の他に、例えば図13に示す構成をとることもできる。図13は、データ処理装置の他の構成例を示す。AV同期制御部55の機能は、再生処理プログラム130に基づいて動作する汎用CPU131によって実現され、光ピックアップ51、再生処理部52およびAV同期制御部55を除くデータ処理装置の構成要素が、1つのデコーダチップ131によって実現されている。なお、光ピックアップ51および再生処理部52の図示は省略している。
再生処理プログラム130は、図8および図12に示す手順に従ってデータ処理装置を動作させるように記述され、汎用CPU131によって実行される。AV同期処理部55の機能がCPUがソフトウェアを実行することによって実現される場合には、AV同期制御部55の処理に対するリアルタイム要求を低くすることができるという利点が存在する。すなわち、汎用CPU131は上述した処理に加えて、当然に他の処理、例えば光ピックアップ51の移動処理、再生処理部52における2値化処理等を実行する必要がある。図8および図12における処理は、VPTS差分値とAPTS差分値との比較演算等のタイミングの制約はなく、いつ行っても正確な同期を実現できるため、汎用CPU131の動作に関するスケジューリングに対する制限は少なくなる。この利点は、従来の再生装置20等において、同期の精度を向上するために汎用CPU131に対してPTS更新を厳密なタイミングで実行させなければならない場合と比較すると、顕著である。
本発明によれば、APTS差分レジスタとVPTS差分レジスタを利用してオーディオとビデオの出力の進捗状態を比較することにより、確実にオーディオとビデオの同期を取ることができる。さらに、オーディオデータがビデオデータよりも先に途切れても、オーディオを基準にビデオの出力を継続させることが可能になる。さらに、APTSレジスタを備えることにより、ポーズ中にもオーディオとビデオの出力の進捗具合を比較するとともに、ポーズの解除後にもオーディオとビデオの同期をとることができる。これにより、視聴者にとって違和感のない再生を実現できる装置を提供できる。
システムストリームを再生可能な従来の再生装置10の機能ブロックの構成を示す図である。 従来の再生装置20の機能ブロックの構成を示す。 DVDビデオレコーディング規格に準拠したMPEG2プログラムストリーム30のデータ構造を示す図である。 ビデオパック32のデータ構造を示す図である。 本実施形態によるデータ処理装置50の機能ブロックの構成を示す。 ビデオデコーダの処理の手順を示すフローチャートである。 オーディオデコーダ61の処理の手順を示すフローチャートである。 データ処理装置50の処理の手順を示すフローチャートである。 VPTSレジスタ56、VPTS差分レジスタ57、APTSレジスタ58、APTS差分レジスタ59においてそれぞれ保持された値の変遷を示すグラフである。 オーディオフレームの出力がビデオフレームの出力よりも先に終了したときの、各種レジスタ56、57、58および59においてそれぞれ保持された値の変遷を示すグラフである。 再生をポーズさせたときの、各種レジスタ56、57、58および59においてそれぞれ保持された値の変遷を示すグラフである。 再生ポーズ時のデータ処理装置50の処理の手順を示すフローチャートである。 データ処理装置の他の構成例を示すブロック図である。

Claims (20)

  1. データストリームを受け取って、前記データストリームから複数のピクチャのデータを含むビデオデータ、各ピクチャの再生時刻を規定する第1時刻情報、複数のオーディオフレームのデータを含むオーディオデータおよび各オーディオフレームの再生時刻を規定する第2時刻情報を分離するパーサと、
    前記複数のピクチャおよび前記複数のオーディオフレームを再生するために、前記ビデオデータおよび前記オーディオデータを出力する出力部と、
    所定の基準時刻からの経過時間をカウントする基準レジスタと、
    前記各ピクチャの出力時に、前記各ピクチャの第1時刻情報と前記経過時間との差分値を計算し、第1差分値として保持する第1差分レジスタと、
    前記各オーディオフレームの出力時に、前記各オーディオフレームの第2時刻情報と前記経過時間との差分値を計算し、第2差分値として格納する第2差分レジスタと、
    前記第2差分値に対する前記第1差分値の大きさに応じて、前記ビデオデータの出力を制御する制御部と
    を備えたデータ処理装置。
  2. 前記基準レジスタは、前記オーディオデータの出力開始時刻を前記所定の基準時刻として経過時間をカウントする、請求項1に記載のデータ処理装置。
  3. 前記制御部は、前記第差分値が、前記第差分値と第1所定値との和よりも大きい場合には、前記出力部に対してその時点で出力されているピクチャのビデオデータを再度出力させる、請求項1に記載のデータ処理装置。
  4. 前記制御部は、前記第差分値が、前記第差分値と第2所定値との差よりも小さい場合には、前記出力部に対してピクチャのビデオデータの出力をスキップさせる、請求項1に記載のデータ処理装置。
  5. 前記制御部は、再生のポーズの指示を受け取ると、前記第1時刻情報および前記第2時刻情報に基づいて前記ビデオデータの出力を制御する、請求項1に記載のデータ処理装置。
  6. 前記制御部は、前記再生のポーズを解除する指示を受け取ると、前記第時刻情報が前記第時刻情報と第3所定値との和よりも大きい場合には、前記出力部に対して前記オーディオデータを前記ビデオデータよりも先に出力させる、請求項5に記載のデータ処理装置。
  7. 前記制御部は、前記再生のポーズを解除する指示を受け取ると、前記第時刻情報が前記第時刻情報と第4所定値との差よりも小さい場合には、前記出力部に対して前記ビデオデータをオーディオデータよりも先に出力させる、請求項5に記載のデータ処理装置。
  8. 前記制御部は、前記再生のポーズを解除する指示を受け取ると、前記出力部に対して前記ビデオデータとオーディオデータとを同時に出力させる、請求項5に記載のデータ処理装置。
  9. データストリームを受け取るステップと、
    前記データストリームから複数のピクチャのデータを含むビデオデータ、各ピクチャの再生時刻を規定する第1時刻情報、複数のオーディオフレームのデータを含むオーディオデータおよび各オーディオフレームの再生時刻を規定する第2時刻情報を分離するステップと、
    前記複数のピクチャおよび前記複数のオーディオフレームを再生するために、前記ビデオデータおよび前記オーディオデータを出力するステップと、
    所定の基準時刻からの経過時間をカウントするステップと、
    前記各ピクチャの出力時に、前記各ピクチャの第1時刻情報と前記経過時間との差分値を計算し、第1差分値として保持するステップと、
    前記各オーディオフレームの出力時に、前記各オーディオフレームの第2時刻情報と前記経過時間との差分値を計算し、第2差分値として格納するステップと、
    前記第2差分値に対する前記第1差分値の大きさに応じて、前記ビデオデータの出力を制御するステップと
    を包含するデータ処理方法。
  10. 前記経過時間をカウントするステップは、前記オーディオデータの出力開始時刻を前記所定の基準時刻として経過時間をカウントする、請求項9に記載のデータ処理方法。
  11. 前記第差分値が、前記第差分値と第1所定値との和よりも大きい場合には、前記出力するステップは、その時点で出力されているピクチャのビデオデータを再度出力する、請求項9に記載のデータ処理方法。
  12. 前記第差分値が、前記第差分値と第2所定値との差よりも小さい場合には、前記出力するステップは、ピクチャのビデオデータの出力をスキップする、請求項9に記載のデータ処理方法。
  13. 再生のポーズの指示を受け取るステップをさらに包含し、
    前記出力するステップは、前記指示に応答して、前記第1時刻情報および前記第2時刻情報に基づいて前記ビデオデータの出力を制御する、請求項9に記載のデータ処理方法。
  14. 再生のポーズを解除する指示を受け取るステップをさらに包含し、
    前記出力するステップは、前記指示に応答して、前記第時刻情報が前記第時刻情報と第3所定値との和よりも大きい場合には、前記オーディオデータを前記ビデオデータよりも先に出力する、請求項13に記載のデータ処理方法。
  15. 再生のポーズを解除する指示を受け取るステップをさらに包含し、
    前記出力するステップは、前記指示に応答して、前記第時刻情報が前記第時刻情報と第4所定値との差よりも小さい場合には、前記ビデオデータをオーディオデータよりも先に出力する、請求項13に記載のデータ処理方法。
  16. 再生のポーズを解除する指示を受け取るステップをさらに包含し、
    前記出力するステップは、前記指示に応答して、前記ビデオデータとオーディオデータとを同時に出力する、請求項13に記載のデータ処理方法。
  17. データ処理装置において実行されるコンピュータプログラムであって、
    前記データ処理装置のコンピュータに、
    データストリームを受け取るステップと、
    前記データストリームから複数のピクチャのデータを含むビデオデータ、各ピクチャの再生時刻を規定する第1時刻情報、複数のオーディオフレームのデータを含むオーディオデータおよび各オーディオフレームの再生時刻を規定する第2時刻情報を分離するステップと、
    前記複数のピクチャおよび前記複数のオーディオフレームを再生するために、前記ビデオデータおよび前記オーディオデータを出力するステップと、
    所定の基準時刻からの経過時間をカウントするステップと、
    前記各ピクチャの出力時に、前記各ピクチャの第1時刻情報と前記経過時間との差分値を計算し、第1差分値として保持するステップと、
    前記各オーディオフレームの出力時に、前記各オーディオフレームの第2時刻情報と前記経過時間との差分値を計算し、第2差分値として格納するステップと、
    前記第2差分値に対する前記第1差分値の大きさに応じて、前記ビデオデータの出力を制御するステップと
    を実行させるコンピュータプログラム。
  18. 前記経過時間をカウントするステップは、前記オーディオデータの出力開始時刻を前記所定の基準時刻として経過時間をカウントする、請求項17に記載のコンピュータプログラム。
  19. 前記第差分値が、前記第差分値と第1所定値との和よりも大きい場合には、前記出力するステップは、その時点で出力されているピクチャのビデオデータを再度出力する、請求項17に記載のコンピュータプログラム。
  20. 前記第差分値が、前記第差分値と第2所定値との差よりも小さい場合には、前記出力するステップは、ピクチャのビデオデータの出力をスキップする、請求項17に記載のコンピュータプログラム。
JP2005503643A 2003-03-19 2004-02-27 データ処理装置 Expired - Fee Related JP4439468B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003075669 2003-03-19
JP2003075669 2003-03-19
PCT/JP2004/002424 WO2004084553A1 (ja) 2003-03-19 2004-02-27 データ処理装置

Publications (2)

Publication Number Publication Date
JPWO2004084553A1 JPWO2004084553A1 (ja) 2006-06-29
JP4439468B2 true JP4439468B2 (ja) 2010-03-24

Family

ID=33027868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005503643A Expired - Fee Related JP4439468B2 (ja) 2003-03-19 2004-02-27 データ処理装置

Country Status (6)

Country Link
US (1) US7567746B2 (ja)
EP (1) EP1615433A4 (ja)
JP (1) JP4439468B2 (ja)
KR (1) KR100705887B1 (ja)
CN (1) CN100536555C (ja)
WO (1) WO2004084553A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8868772B2 (en) * 2004-04-30 2014-10-21 Echostar Technologies L.L.C. Apparatus, system, and method for adaptive-rate shifting of streaming content
US7818444B2 (en) 2004-04-30 2010-10-19 Move Networks, Inc. Apparatus, system, and method for multi-bitrate content streaming
US7471337B2 (en) * 2004-06-09 2008-12-30 Lsi Corporation Method of audio-video synchronization
JPWO2006064689A1 (ja) * 2004-12-16 2008-06-12 松下電器産業株式会社 無線通信システム
KR100639110B1 (ko) * 2005-09-09 2006-10-31 주식회사 코아로직 프레임 단위로 이루어진 오디오 스트림 데이터의 시간정보산출방법
JP4777224B2 (ja) * 2006-12-01 2011-09-21 三菱電機株式会社 データ再生装置及びデータ再生方法
US20080178243A1 (en) * 2007-01-19 2008-07-24 Suiwu Dong Multimedia client/server system with audio synchronization and methods for use therewith
JP4935655B2 (ja) * 2007-12-07 2012-05-23 富士通東芝モバイルコミュニケーションズ株式会社 再生装置および分離回路
US20100091188A1 (en) * 2008-07-11 2010-04-15 Stmicroelectronics Pvt. Ltd. Synchronization of secondary decoded media streams with a primary media stream
CN101340591B (zh) * 2008-08-11 2011-04-06 华为终端有限公司 解码系统中接收视音频数据的处理方法及装置
JP5476981B2 (ja) * 2009-12-25 2014-04-23 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
JP5483082B2 (ja) * 2010-01-06 2014-05-07 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
JP5476997B2 (ja) * 2010-01-06 2014-04-23 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
JP5483081B2 (ja) * 2010-01-06 2014-05-07 ソニー株式会社 受信装置及び方法、プログラム、並びに受信システム
US8682139B2 (en) * 2011-05-02 2014-03-25 Netflix, Inc. L-cut stream startup
JP5778478B2 (ja) * 2011-05-23 2015-09-16 ルネサスエレクトロニクス株式会社 データ処理システム
JP6521330B2 (ja) * 2014-08-29 2019-05-29 ソニー株式会社 受信装置、及び、受信方法
US10158905B2 (en) * 2016-09-14 2018-12-18 Dts, Inc. Systems and methods for wirelessly transmitting audio synchronously with rendering of video

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5598352A (en) * 1994-09-30 1997-01-28 Cirrus Logic, Inc. Method and apparatus for audio and video synchronizing in MPEG playback systems
US5771075A (en) * 1994-12-08 1998-06-23 Lg Electronics Inc. Audio/video synchronizer
JP3154905B2 (ja) * 1994-12-13 2001-04-09 株式会社東芝 映像/音声記録再生装置
JPH09284759A (ja) * 1996-04-11 1997-10-31 Fujitsu Ltd タイミング制御回路
JP3063824B2 (ja) 1996-10-29 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置
JP3063841B2 (ja) * 1997-11-26 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置
JP3166755B2 (ja) * 1999-02-16 2001-05-14 日本電気株式会社 映像/音声再生装置
US6583821B1 (en) * 1999-07-16 2003-06-24 Thomson Licensing S.A. Synchronizing apparatus for a compressed audio/video signal receiver
JP3676631B2 (ja) 1999-10-29 2005-07-27 松下電器産業株式会社 映像音声同期再生装置
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
JP4359024B2 (ja) * 2002-06-07 2009-11-04 三洋電機株式会社 同期制御方法と装置およびそれを用いた同期再生装置およびテレビジョン受信装置
JP4602089B2 (ja) * 2002-12-04 2010-12-22 エヌエックスピー ビー ヴィ 音声/映像同期の自動検査方法

Also Published As

Publication number Publication date
CN1723704A (zh) 2006-01-18
WO2004084553A1 (ja) 2004-09-30
JPWO2004084553A1 (ja) 2006-06-29
EP1615433A4 (en) 2010-05-26
US20060168524A1 (en) 2006-07-27
CN100536555C (zh) 2009-09-02
KR100705887B1 (ko) 2007-04-09
EP1615433A1 (en) 2006-01-11
US7567746B2 (en) 2009-07-28
KR20050086444A (ko) 2005-08-30

Similar Documents

Publication Publication Date Title
JP4439468B2 (ja) データ処理装置
KR100865826B1 (ko) 정보 기록 매체 및 데이터 재생 장치
KR100825548B1 (ko) 정보 기록 매체, 데이터 분별 장치, 및 데이터 재생 장치
KR100711328B1 (ko) 데이터 처리 장치 및 방법
JP5059301B2 (ja) 同期再生装置および同期再生方法
JP2004350251A (ja) 記録方法、記録装置、記録媒体、再生方法、再生装置および撮像装置
JP4775208B2 (ja) 再生方法、再生プログラムおよび再生装置
US6339675B1 (en) Synchronization lag control apparatus and method
JPWO2005015907A1 (ja) データ処理装置
JP4779981B2 (ja) デジタル映像情報データ生成装置、デジタル映像情報記録装置、デジタル映像情報再生装置、及びデジタル映像情報データ生成方法
KR100656159B1 (ko) 광디스크 재생방법
US20170372752A1 (en) Recording medium, playback method, and playback device
US6816444B1 (en) Method and apparatus for digital information processing
JP3592906B2 (ja) データ処理同期装置
JP2006352587A (ja) 情報処理装置
JP3579386B2 (ja) フォーマット変換装置及びフォーマット変換方法
US20070031125A1 (en) Data processing device and data processing method
JP3975503B2 (ja) 情報再生装置及び再生方法
JP2004253052A (ja) 情報記録媒体、情報記録装置
JP2008166965A (ja) 圧縮データ転送装置および圧縮データ転送方法
KR100233654B1 (ko) 광디스크 재생기기에서 불량 디스크 처리장치 및 처리방법
US20070297765A1 (en) Reproducing apparatus for multiple AV streams and reproducing method for the same
JP2008219921A (ja) 記録装置、記録方法、撮像装置および撮像方法
JP2006254475A (ja) 撮像装置および撮像方法
JP2004180206A (ja) 再生装置、コンテンツ及びコンテンツ再生プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140115

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees