JPWO2004077825A1 - データ処理装置および方法 - Google Patents

データ処理装置および方法 Download PDF

Info

Publication number
JPWO2004077825A1
JPWO2004077825A1 JP2005502885A JP2005502885A JPWO2004077825A1 JP WO2004077825 A1 JPWO2004077825 A1 JP WO2004077825A1 JP 2005502885 A JP2005502885 A JP 2005502885A JP 2005502885 A JP2005502885 A JP 2005502885A JP WO2004077825 A1 JPWO2004077825 A1 JP WO2004077825A1
Authority
JP
Japan
Prior art keywords
data
audio
time
video
delay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005502885A
Other languages
English (en)
Other versions
JP4536653B2 (ja
Inventor
和生 藤本
和生 藤本
晋司 小島
晋司 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2004077825A1 publication Critical patent/JPWO2004077825A1/ja
Application granted granted Critical
Publication of JP4536653B2 publication Critical patent/JP4536653B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

データ処理装置は、圧縮符号化されたビデオコンテンツに関する第1データ、第1データの再生時刻を規定する第1時刻情報、ビデオコンテンツと異なるコンテンツに関する第2データおよび第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取る受信部と、データストリームから、第1データ、第1時刻情報、第2データおよび第2時刻情報を抽出する分離部と、第1データをデコードして、第1時刻情報に基づいて出力する第1デコード部と、第2時刻情報に基づいて第2データを出力する第2デコード部とを有している。データ処理装置は、さらに、第1時刻情報および第2時刻情報が第1データおよび第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持し、かつ、遅延情報に基づいて第2時刻情報を修正し、第2データの再生時刻を遅延させる遅延設定部を備えている。

Description

本発明は、圧縮符号化されたオーディオデータおよびビデオデータを再生する際に、オーディオとビデオとを同期して再生する装置および方法に関する。
従来、圧縮符号化されて記録されたビデオ信号およびオーディオ信号をCD−ROM、DVD−ROM、ハードディスク等の記録媒体から読み出し、デコード(伸張)して出力するデータ再生装置が知られている。データ再生装置が伸張されたデータをその装置に接続されたモニタ、音響スピーカ等に送ることにより、ビデオおよびオーディオの再生が実現される。
圧縮符号化に関しては、多くの規格が規定されている。例えばMPEG(Motion Picture Experts Group)は、ビデオ信号およびオーディオ信号の両方を圧縮符号化する規格として知られている。MPEG規格では、ビデオ信号が表すビデオおよびオーディオ信号が表すオーディオが同期して再生されることを保証するために、オーディオ信号およびビデオ信号のそれぞれに再生されるべき時刻を表す時刻情報が付加される。これにより、伸張時にはシステム機器が有するシステム時刻基準参照値に対し、これらの時刻情報を参照してオーディオ信号とビデオ信号とを同期させて再生することができる。
以下、従来の同期方法を説明する。例えば、日本国特開平6−233269号公報に記載された技術によれば、まず、再生装置はオーディオおよびビデオのいずれか一方が伸張処理を終了したときの時刻と、他方の伸張処理が終了したときの時刻との差分を検出する。そして、検出された差分値に基づいて、再生装置は圧縮データの転送タイミング、伸張回路の起動タイミングおよびビデオの表示タイミングを変更し、オーディオとビデオを同期させて、モニタ、音響スピーカ等の外部機器に出力している。
しかし、上述の再生装置は、その内部でオーディオとビデオとを同期させて外部機器に出力しているため、外部機器においてビデオおよびオーディオの一方に処理を加えて遅延が発生すると他方と同期して再生できないという問題が生じていた。
例えば、テレビ等の映像表示機器が外部機器であるとき、映像表示機器においてインターレース/プログレッシブ変換、NTSC/PAL変換等の変換処理や、ユーザからの指示によるビデオの拡大・縮小の画像処理を行うと、処理に時間を要するためオーディオ再生がビデオ再生よりも先行してしまう。例えば、出力画面を拡大する画像処理を想定すると、元の出力画面データから補間データを作成するために演算処理が必要である。そして、なめらかな動画を作り出すために、時間的に前後する複数の出力フレームや出力フィールド単位のフィルタ演算が必要になる。また、複数の入力ストリームを独立して伸張できる回路等から出力された2以上のビデオを合成する処理を想定すると、全てのビデオを同期させるために、特定のストリームのビデオ出力を遅延させなければならない場合がある。さらに、シアターシステム等のように、ビデオ信号を一旦光信号等に変換して伝送するときにも、ビデオ信号の変換に時間を要する場合もある。
上述の1つまたは2つ以上の演算処理等には、数ミリ秒から数十ミリ秒の時間を要する場合がある。オーディオ再生がビデオ再生よりも一定時間(概ね30ミリ秒)以上先行すると、映像中の人物の口の動きと音声とのずれが目立ち、視聴者に違和感を与える。従来の再生装置は外部機器の処理に起因するビデオおよびオーディオの再生タイミングのずれを想定していないため、外部機器においてさらに時間を要する処理を行うとさらにビデオおよびオーディオの再生タイミングがずれてしまう。
なお、外部機器にオーディオ再生を遅延させるバッファを設け、オーディオと画像処理後のビデオとを同期して再生することは可能である。しかし、外部機器に出力されたビデオデータおよびオーディオデータには再生タイミングを指示する時刻情報は存在しないため、外部機器において出力タイミングを独自に決定することになってしまい妥当ではない。また、バッファを設けるという手法はバッファを持たない現存の外部機器には適用できないため、根本的な解決法とはいえない。
本発明は、以上のような課題を解決するためになされたもので、その目的は、外部接続機器の差、処理種別等によってビデオの遅延量が異なる場合においても、当初意図されたとおりにオーディオとビデオとを同期して再生することである。
本発明によるデータ処理装置は、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取る受信部と、前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出する分離部と、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第1デコード部と、前記第2時刻情報に基づいて前記第2データを出力する第2デコード部とを有している。データ処理装置は、さらに、前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持し、かつ、前記遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させる遅延設定部を備えている。
前記第2データのコンテンツは圧縮符号化されており、前記第2デコード部は前記第2データを復号し、前記第2デコード部は復号された前記第2データを格納する内部バッファを有していてもよい。
前記第2データのコンテンツは圧縮符号化されており、前記データ処理装置は、圧縮符号化された前記第2データを格納するデータバッファをさらに備え、前記データバッファは、修正後の第2時刻情報によって規定される再生時刻の前に前記圧縮符号化された前記第2データを取り出し、前記第2デコード部に出力してもよい。
前記受信部は前記データストリームを継続的に受け取り、前記データバッファは前記第2データを順次格納する。前記データバッファの容量は、修正前の第2時刻情報によって規定される再生時刻の到達前までに受け取る前記第2データのデータ量と、前記再生時刻の遅延量に応じた時間の経過までに受け取る前記第2データのデータ量との和以上であってもよい。
前記データ処理装置は、前記第2データが格納された前記データバッファ内の位置を示すアドレス情報と、前記第2データに対応する修正前の第2時刻情報との対応関係を規定するテーブルを管理する管理部をさらに備えていてもよい。
前記管理部は、一部の前記第2データについて前記テーブルを管理してもよい。
前記受信部は、オーディオおよび字幕の少なくとも一方に関する前記第2データを有するデータストリームを受け取ってもよい。
前記遅延設定部は、ユーザから前記遅延量を特定する値を受け取って、前記遅延情報として保持してもよい。
前記遅延設定部は、予め定められた値を前記遅延情報として保持してもよい。
前記遅延設定部は、再生時刻の遅延量を30ミリ秒以上の値として規定した遅延情報を保持してもよい。
前記データ処理装置は、接続先の機器に前記第1データを送出するとともに、前記機器を特定することが可能な固有情報を前記機器から受け取るトランスミッタをさらに備えている。前記トランスミッタは、前記固有情報に基づいて前記機器において実行される前記第1データに関するビデオ処理の所要時間を特定し、前記遅延設定部は、特定された前記所要時間の値を前記遅延量として遅延情報を保持してもよい。
前記第1デコード部および前記第2デコード部は、単一のデコード回路として実装されてもよい。
本発明によるデータ処理方法は、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取るステップと、前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出するステップと、前記第1データをデコードして、前記第1時刻情報に基づいて出力するステップとを包含している。さらにデータ処理方法は、前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持するステップと、前記遅延情報に基づいて前記第2時刻情報を修正して前記第2データの再生時刻を遅延させるステップと、前記第2時刻情報に基づいて前記第2データを出力するステップとを包含する。
前記第2データのコンテンツは圧縮符号化されており、前記第2データを出力するステップは、前記第2データを復号し、復号された前記第2データをデータバッファに格納した後に出力してもよい。
前記第2データのコンテンツは圧縮符号化されており、前記データ処理方法は、圧縮符号化された前記第2データをデータバッファに格納するステップと、修正後の第2時刻情報によって規定される再生時刻の前に、格納された前記第2データを前記データバッファから取り出すステップとをさらに包含する。前記第2データを出力するステップは、前記データバッファから取り出された前記第2データを出力してもよい。
前記受信するステップは、前記データストリームを継続的に受信し、前記第2データを格納するステップは前記第2データを前記データバッファに順次格納する。前記データバッファの容量は、修正前の第2時刻情報によって規定される再生時刻の到達前までに受け取る前記第2データのデータ量と、前記再生時刻の遅延量に応じた時間の経過までに受け取る前記第2データのデータ量との和以上であってもよい。
前記データ処理方法は、前記第2データが格納された前記データバッファ内の位置を示すアドレス情報と、前記第2データに対応する修正前の第2時刻情報との対応関係を規定するテーブルを管理するステップをさらに包含してもよい。
前記管理するステップは、一部の前記第2データについて、前記テーブルを管理してもよい。
前記受信するステップは、オーディオおよび字幕の少なくとも一方に関する前記第2データを有するデータストリームを受け取ってもよい。
前記遅延させるステップは、ユーザから前記遅延量を特定する値を受け取って、前記遅延情報として保持してもよい。
前記遅延させるステップは、予め定められた値を前記遅延情報として保持してもよい。
前記遅延させるステップは、前記再生時刻の遅延量を30ミリ秒以上に規定した遅延情報を保持してもよい。
前記データ処理方法は、接続先の機器に前記第1データを送出するステップと、前記機器を特定することが可能な固有情報を前記機器から受け取るステップと、前記固有情報に基づいて、前記機器において実行される前記第1データに関するビデオ処理の所要時間を特定するステップとをさらに包含する。前記遅延させるステップは、特定された前記所要時間の値を遅延情報として保持してもよい。
本発明によるコンピュータプログラムは、データ処理装置のコンピュータにおいて実行される。前記プログラムにしたがってコンピュータが実行するデータ処理方法は、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取るステップと、前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出するステップと、前記第1データをデコードして、前記第1時刻情報に基づいて出力するステップとを包含している。さらに、このコンピュータが実行するデータ処理方法は、前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持するステップと、前記遅延情報に基づいて前記第2時刻情報を修正して前記第2データの再生時刻を遅延させるステップと、前記第2時刻情報に基づいて前記第2データを出力するステップとを包含する。
図1は、MPEG2プログラムストリーム10のデータ構造を示す図である。
図2は、オーディオパック40のデータ構造を示す図である。
図3は、データ処理装置100と、データ処理装置100に接続された映像音響機器120を示す図である。
図4は、デコード部60の詳細な機能ブロックの構成を示す図である。
図5は、PTSを用いてビデオとオーディオとの同期再生を実現する再生タイミングを示す図である。
図6は、本実施形態によるデコード部60の処理手順を示すフローチャートである。
図7(a)は、オーディオ再生管理部7において生成されるテーブルの構成を示す図である。
図7(b)は、オーディオバッファ部6に格納されたオーディオデータのデータ配置と、オーディオアドレス情報によって参照されるデータ位置の関係を示す図である。
図8(a)は、オーディオ遅延設定部9の操作部の例を示す図である。
図8(b)は、遅延時間の設定画面の例を示す図である。
図9は、オーディオバッファ部6の構成の例を示す図である。
図10(a)は間引き前のオーディオ再生管理部7のテーブル7aの構成を示す図である。
図10(b)は間引き後のオーディオ再生管理部7のテーブル7bの構成を示す図である。
図11は、ビデオ処理を行う処理回路を搭載したビデオ出力部12の機能ブロックの構成を示す図である。
図12は、データ処理装置100と映像音響機器120との接続およびそれらの間で授受されるデータの種類を示す図である図である。
以下では、まずデータストリームのデータ構造を説明し、その後、そのデータストリームを利用して本発明の処理を行うデータ処理装置の構成および動作を説明する。
図1は、MPEG2プログラムストリーム10のデータ構造を示す。MPEG2プログラムストリーム10(以下「データストリーム10」と称する)は、DVDビデオ規格に準拠したデータ構造を有している。データストリーム10は、ビデオのコンテンツに関するビデオデータと、オーディオのコンテンツに関するオーディオデータとが含まれている。以下では、ビデオデータおよびオーディオデータが含まれているとして説明するが、これら以外にも、データストリーム10には字幕データ等が含まれていてもよい。
データストリーム10は、複数のビデオオブジェクトユニット(Video OBject;VOB)#1、#2、・・・、#kを含んでいる。各VOBは、複数のVOBユニット(Video OBject unit;VOBU)#1、#2、・・・、#nを含んでいる。各VOBUは、映像の再生時間にして0.4秒から1秒程度のデータを含むデータ単位である。以下、VOBU#1および#2を例にして、VOBUのデータ構造を説明する。なお、以下で用いられる「再生」という語は、特に明示しない限り、ビデオコンテンツや字幕等のビデオに関しては表示機器(テレビ等)に映し出されることをいい、オーディオに関しては出力機器(スピーカ等)から音として出力されることをいうとする。
VOBU#1は、複数のパックから構成されている。データストリーム10内の各パックのデータ長(パック長)は一定(2キロバイト(2048バイト))である。VOBUの先頭には、図1に“N”で示されるナビゲーションパック(ナビパック)20が配置されている。ナビパック20の後には、“V”で示されるビデオパック(ビデオパック30等)および“A”で示されるオーディオパック(オーディオパック40等)が複数含まれている。
各パックは以下の情報を格納している。すなわち、ナビパック20は、データストリーム10内のビデオ、オーディオ等の再生を制御するために用いられる情報、例えばVOBUの再生タイミングを示す情報等を格納している。ビデオパック30は、MPEG2圧縮符号化されたビデオデータを格納している。オーディオパック40は、例えばMPEG2−オーディオ規格によって圧縮符号化されたオーディオデータを格納している。近接するビデオパック30およびオーディオパック40には、例えば、同期して再生されるビデオデータおよびオーディオデータが格納されているが、それらの配置(順序)は任意である。
VOBU#2もまた、複数のパックから構成されている。VOBU#2の先頭には、ナビパック20が配置され、その後、ビデオパック30およびオーディオパック40等が複数配置されている。各パックに格納される情報の内容はVOBU#1と同様である。
次に、図2を参照しながらオーディオパック40のデータ構造を説明する。図2は、オーディオパック40のデータ構造を示す。オーディオパック40は、オーディオパケット41およびパディングパケット42を含む。なお、パディングパケット42はデータパックのパック長を調整するために設けられたパケットであるため、パック長を調整する必要がないときは存在しない。このときは、オーディオパック40にはオーディオパケット41のみが含まれる。
オーディオパケット41は、先頭から順に、14バイトのパックヘッダ(Pack_H)、24バイトのシステムヘッダ(system_H)、パケットヘッダ(Packet_H)41aおよびペイロードを有する。
パックヘッダには、パックの種類(ここではオーディオパケット)を特定する情報が記述される。パックの開始コードに続いて、基準時間情報であるSCR(System Clock Reference;システム時刻基準参照値)が記述されている。SCRは、ストリームをデコードする際に、復号器側の動作時刻の基準となる同期信号STC(System Time Clock;システム時刻基準)の値を符号器側が意図した値に設定し、または、その値に修正するための情報である。SCRは基本的にどのパケットヘッダにも付加される。SCRは、90kHzのクロックで計測した値であり、33ビット長で表されている。システムヘッダは、VOBUの先頭のパックに必ず付加される。パケットヘッダ41aは後に詳述する。ペイロードには、圧縮符号化されたビデオデータが記述される。
オーディオパック40には、パック長を調整する目的で、パックヘッダ42とパディングデータ42bとを有するパディングパケット42が設けられる。所定の条件のもとでは、パディングパケット42を設けることに代えて、パケットヘッダ41a内にスタッフィングバイトフィールド49が設けられる。両者は同一のパック内には共存しない。図2に示す例では、オーディオパック40にはパディングパケット42が存在しているため、スタッフィングバイトフィールド49は0バイトであり存在しない。
次に、オーディオパケット41のパケットヘッダ41aのデータ構造を説明する。パケットヘッダ41aは、パケット長フィールド43、フラグフィールド44およびヘッダデータ長フィールド45を有する。さらに、パケットヘッダ41aには、時間フラグフィールド44aおよびPES拡張フラグフィールド44bの値に応じて、追加のフィールド46が設けられることがある。
パケット長フィールド43には、そのフィールド以降からそのオーディオパケット41の最後までのパケット長(バイト長)が記述される。続いて、フラグフィールド44は、時間フラグフィールド44a(PTS_DTS_flag)、PES拡張フラグフィールド(PES_extension_flag)44b等を含む。時間フラグフィールド44aには、後述するプレゼンテーションタイムスタンプ(PTS)またはデコーディングタイムスタンプ(DTS)の有無を示すフラグが記述される。また、PES拡張フラグフィールド44bには、PES拡張フィールド48の有無を示すフラグが記述される。ヘッダデータ長フィールド45には、追加のフィールド46およびスタッフィングバイトフィールド49のフィールド長の和が格納される。
次に、追加のフィールド46を説明する。MPEGでは、ビデオおよびオーディオの同期再生を実現するために、ビデオとオーディオの各アクセスユニットと呼ばれるデコードの単位ごと(ビデオは1フレーム、オーディオは1オーディオフレーム)に、いつ再生すべきかの時刻を管理するためのタイムスタンプ値が付加されている。このタイムスタンプ値は、PTS(Presentation Time Stamp)と呼ばれ、オーディオ用はオーディオPTS(以下「APTS」と記述する)およびビデオ用はビデオPTS(以下「VPTS」と記述する)が規定されている。
PTSが上述のシステム時刻基準STCに一致したときに、そのPTSが付加されたアクセスユニットが再生のために出力される。PTSの精度は、SCRと同様、90kHzのクロックで計測した値であり、33ビット長で表されている。90kHzで計測する理由は、NTSC、PALの両方のビデオ方式のフレーム周波数の公倍数であることと、オーディオの1サンプル周期よりも高い精度を得るためである。
一方、圧縮データをどのような順序でデコードすべきかを示すタイムスタンプ情報が付加されている。このタイムスタンプ値は、デコーディングタイムスタンプ(DTS)と呼ばれる。
フィールド46に各5バイトのPTS/DTSフィールド47が設けられているときは、時間フラグフィールド44aはPTSおよびDTSを有することを示している。時間フラグフィールド44aの値に応じて、いずれか一方のフィールドが設けられる。また、追加のフィールド46としてPES拡張フィールド48が設けられることもある。PES拡張フィールド48にはプログラムストリーム10のデコードに必要な情報、例えばデコード用のデータバッファの容量等が記述される。
なお、図2ではオーディオパックのデータ構造を示したが、ビデオパックのデータ構造も同様である。「オーディオパケット」を「ビデオパケット」に読み替え、ペイロードに格納される「オーディオデータ」を「ビデオデータ」に読み替えればよい。ビデオパケットにも、上述したPTSおよびDTSが同じデータ構造で記述されており、デコードタイミングおよび再生タイミングが規定される。
次に、図3および図4を参照しながら、本実施形態によるデータ処理装置100の構成および動作を説明する。図3は、データ処理装置100と、データ処理装置100に接続された映像音響機器120を示す。データ処理装置100は、DVD−ROM等の光ディスク110から光ピックアップを介してデータストリーム10を読み出す。再生処理部50は、アナログ波形として読み出されたデータストリーム10に2値化処理等を行って、デジタルデータストリームとして出力する。MPEG2−PSデコード部60(以下「デコード部60」と記述する)は、このストリームをビデオデータおよびオーディオデータに分離し、各々をデコードして映像音響機器120に出力する。
データ処理装置100は、DVDプレーヤ、DVDレコーダ、PC等であるが、光ディスク110に代えてハードディスクを用いたときはハードディスクレコーダである。または、アンテナ等を介してデジタル放送のデータストリーム10を受け取るときには、データ処理装置100はセットトップボックス、デジタル衛星放送受像機等として実現される。一方、映像音響機器120は、例えばTV等のモニタ出力機器、オーディオ出力アンプ、AVセレクタ機能を有するAVアンプ等のインタフェース機器である。図3では1つの映像音響機器120が示されているが、映像を表示する機器、音声等を出力する機器等が複数存在していてもよい。
本実施形態によるデータ処理装置100の特徴のひとつは、映像音響機器120において行われる種々の演算処理等により、本来同期して再生すべきビデオおよびオーディオがずれて再生されてしまう場合に、先行する出力を遅延して出力することにある。例えば、映像音響機器120においてビデオデータのインターレース/プログレッシブ変換を行うためにビデオデータの再生がオーディオの再生よりも遅延してしまう場合に、ビデオデータの再生時刻の遅延量相当時間だけ、先行するオーディオデータを遅延して出力する。これにより、ビデオデータとオーディオデータとの同期再生が可能になる。なお、オーディオデータの遅延出力は、オーディオデータの再生時刻を規定するPTSを修正することによって実現される。遅延量は、予想される時間、ユーザによって設定された時間、映像音響機器120を特定して判断することができる映像音響機器120におけるビデオ処理の所要時間等に基づいて設定される。
上述のデータ処理装置100の特徴は、主としてデータ処理装置100のデコード部60によって実現される。以下、デコード部60を詳細に説明する。
図4は、デコード部60の詳細な機能ブロックの構成を示す。デコード部60は、システムデコード部1と、ビデオバッファ部2と、ビデオ再生管理部3と、システム時刻基準参照部4と、ビデオデコード部5と、オーディオバッファ部6と、オーディオ再生管理部7と、オーディオデコード部8と、オーディオ遅延設定部9とを有する。
システムデコード部1は、データストリーム10から、デジタル圧縮符号化されたオーディオおよびビデオデータを分離して抽出するとともに、ビデオパックに付加されたPTSをビデオ再生時刻情報として抽出し、オーディオパックに付加されたPTSをオーディオ再生時刻情報として抽出する。
まず、ビデオ処理に関する構成要素を説明する。ビデオバッファ部2は、システムデコーダ部1によって分離されたビデオデータを格納する。ビデオ再生管理部3は、ビデオバッファ部2に格納されたビデオデータとビデオ再生時刻情報を関連づけたテーブルを生成し、管理する。
ビデオデコード部5は、圧縮符号化されたビデオデータの属性情報(ビデオヘッダ情報)を解析するとともに、ビデオバッファ部2に格納されているビデオデータをビデオ再生時刻情報に従ってデコードする。ビデオデコード部5にはフレームバッファ部11およびビデオ出力部12が設けられている。フレームバッファ部11は、デコードしたビデオデータを格納する。ビデオ出力部12は、デコード部60からその外部へビデオデータを出力する。このビデオデータは、さらにデータ処理装置100に接続された映像音響機器120に出力される。
次に、オーディオ処理に関する構成要素を説明する。オーディオバッファ部6は、システムデコード部1によって分離されたオーディオデータを格納することができる半導体メモリである。そのバッファサイズは、取り扱う符号化オーディオデータの圧縮率等によって異なり、例えば数キロバイトから数十キロバイト程度である。オーディオ再生管理部7は、オーディオバッファ部6に格納されたオーディオデータとオーディオ再生時刻情報を関連づけるテーブルを生成し、管理する。このテーブルは後に図7(a)および(b)を参照しながら詳述する。
オーディオ遅延設定部9は、オーディオの再生時刻の遅延量を規定する遅延情報を保持し、かつ、遅延情報に基づいてオーディオの再生時刻情報を修正して、その再生時刻を遅延させる。オーディオ遅延設定部9は、例えば遅延情報を保持するメモリ(図示せず)を有しており、映像音響機器120の処理に鑑みて想定される時間が予め設定されている。そしてさらに、ユーザによって設定された数ミリ秒単位またはビデオフレーム単位の遅延時間に関する情報も保持できる。これにより、映像音響機器120において発生する処理遅延に応じた微調整が可能になる。
オーディオデコード部8は、圧縮符号化されたオーディオデータの属性情報(オーディオヘッダ情報)を解析するとともに、オーディオバッファ部6に格納されているオーディオデータをオーディオ再生時刻情報に従ってデコードする。オーディオデコード部8にはPCMバッファ部13およびオーディオ出力部14が設けられている。PCMバッファ部13は、デコードしたオーディオデータを格納する。オーディオ出力部14は、デコード部60からその外部へオーディオデータを出力する。このオーディオデータは、さらにデータ処理装置100に接続された映像音響機器120に出力される。
なお、上述のビデオデコード部5およびオーディオデコード部8は、デコードする点において同じ機能を有する。したがって、それぞれの機能を実現できる限り、1つの半導体集積回路等として実装してもよい。例えば図4は、ビデオデコード部5およびオーディオデコード部8を有するデコーダチップ15を示している。
次に、ビデオ出力部12およびオーディオ出力部14から出力されるビデオデータおよびオーディオデータを、同期して再生するための構成を説明する。デコードタイミングおよび再生タイミングは、システム時刻基準参照部4によって実現される。システム時刻基準参照部4は、MPEGシステムのデータ処理装置100の内部においてシステム時刻基準STCを生成する。データ処理装置100側でSTCを生成するためには、DVDディスク等で使用されるプログラムストリーム(PS)に規定されるSCRの値を用いる。上述のように、SCRはパックヘッダに記述されている。なお、入力されるデータストリームがBSデジタル放送で使用されるトランスポートストリーム(TS)のときは、PCR(Program Clock Reference:プログラム時刻基準参照値)が用いられる。
システム時刻基準参照部4は、ビデオデータの最終バイトの到着時(再生処理部50からのデータ受け取り時)に、SCRの値と同じ値がシステム時刻基準STCとして設定され、STCが基準時刻とされる。さらに、このSTCの値と、PLL(位相ロックループ)回路(図示せず)とを組み合わせることにより、デコード部60の基準時刻用システムクロックと完全に周波数が一致したSTCにすることができる。システム時刻基準STCのシステムクロックの周波数は27MHzである。このSTCからカウンタ等により分周することにより、各PTS(周波数:90kHz)が参照される。
データ処理装置100が従来の処理を行う場合には、ビデオデコード部5は、システム時刻基準STCがVPTSに一致したときそのPTSが付加されていたアクセスユニットを出力し再生させる。またオーディオデコード部8は、STCがAPTSに一致したときにそのPTSが付加されていたアクセスユニットを出力し再生させる。PTSの周波数は90kHzであるから、この精度の範囲内で、STCとVPTSおよびAPTSとの同期をとれるようにビデオデータおよびオーディオデータの各々をデコードする。これにより、ビデオおよびオーディオの同期再生を実現できる。
一方、本実施形態による処理によれば、映像音響機器120におけるビデオ処理の遅延を考慮した上で、データ処理装置100はビデオおよびオーディオの同期再生を実現する。以下、図5を参照しながらその概略を説明し、その後、図6を参照しながらその動作を実現するための処理の手順を説明する。
図5は、PTSを用いてビデオとオーディオとの同期再生を実現する再生タイミングを示す。再生時刻情報が示すタイミングが4段に分けて記載されている。
1段目は、データストリーム10に規定されていたビデオ再生時刻情報(VPTS)のタイミングを示す。データストリーム10を生成したエンコーダ(図示せず)は、時刻tv1、tv2、・・・において、ビデオが再生されることを意図して圧縮符号化を行っている。時刻tv1とtv2との間隔は、例えば、NTSC方式であれば33ミリ秒のn倍(n:自然数)(30Hz)、PAL方式であれば40ミリ秒のn倍(n:自然数)(25Hz)である。
次に、3段目はデータストリーム10のオーディオの再生タイミングを示す。オーディオについてもビデオと同様に、エンコーダ(図示せず)は、時刻tA1、tA2、・・・において、オーディオが再生されることを意図して圧縮符号化を行っている。時刻tA1とtA2との間隔は、例えば、AAC(Advanced Audio Coding)方式では21.12ミリ秒のn倍(n:自然数)である。
一方、図5の2段目は、映像音響機器120におけるビデオ処理によって遅延したビデオの再生タイミングを示す。例えば、最初に表示されるビデオについてみると、ビデオ処理に起因する遅延により、本来時刻tv1で表示されるはずの映像が、時刻tv1より後の時刻tp1において再生されている。その時間差をΔtとする。
次に、4段目は、本実施形態のオーディオ遅延設定部9が元の再生時刻情報(APTS)を修正した後の、オーディオの再生タイミングを示す。オーディオ遅延設定部9は、時刻tv1において再生されるべきことを示すオーディオの再生時刻情報(APTS)を、ビデオが映像音響機器120において遅延する時間(Δt)だけずらした時刻情報(NAPTS)に修正し、オーディオの再生時刻を遅延させている。この結果、ビデオデータは1段目のタイミング(時刻tv1、tv2、・・・)においてビデオ出力部12から出力され、2段目のタイミング(時刻tp1、tp2、・・・)において再生され、オーディオデータは3段目のタイミングにおいてオーディオ出力部14から出力され、4段目のタイミング(時刻TNA1、TNA2、・・・)において再生される。ビデオの処理によって遅延した時間Δtだけオーディオの再生時間をずらすことにより、エンコード時に想定されていた再生タイミングでビデオおよびオーディオを再生できる。よって、同期再生が意図されていたビデオおよびオーディオに対しても、想定されていたとおりの同期再生を実現できる。
なお、ビデオおよびオーディオの「同期再生」とは、ビデオの再生タイミングがオーディオの再生タイミングに対して、一定の時間範囲(例えば50ミリ秒先行から30ミリ秒遅延の間)に入っていることをいう。ビデオおよびオーディオのPTSが一致している場合に限られるものではない。
ビデオとオーディオとが時間にして30ミリ秒以上のずれると、視聴者に違和感を与える場合がある。したがって、VPTSが、NAPTSに対して50ミリ秒先行(さらに厳密には30ミリ秒先行)から、30ミリ秒遅延までの間にあわせれば、実際の視聴において視聴者にとっては同期再生されているといえる。
図6は、本実施形態によるデコード部60の処理手順を示す。まずステップS101において、システムデコード部1は、符号化データストリームを符号化ビデオデータおよび符号化オーディオデータに分離し、ステップS102において、符号化データ(ビデオ/オーディオ)から、符号化フレームデータおよび再生時刻情報(VPTS/APTS)を抽出する。ビデオおよびオーディオの各符号化フレームデータは、それぞれビデオバッファ部2およびオーディオバッファ部6に格納され、再生時刻情報(VPTS/APTS)はビデオ再生管理部3およびオーディオ再生管理部7に送られる。
図7(a)は、オーディオ再生管理部7において生成されるテーブルの構成を示す。このテーブルは、オーディオバッファ部6に格納されたオーディオデータとオーディオ再生時刻情報とを関連づける。まず、オーディオ再生管理部7は、例えばAPTSごとにスロットという単位に分割する。そして、各スロットとオーディオアドレス情報とを対応付ける。オーディオアドレス情報は、対応するスロットに再生される、オーディオバッファ部6に格納されたオーディオデータの先頭アドレスを参照する。図7(b)は、オーディオバッファ部6に格納されたオーディオデータのデータ配置と、オーディオアドレス情報によって参照されるデータ位置の関係を示す。
再び図6を参照する。ステップS103において、ビデオデコード部5およびオーディオデコード部8は、VPTS/APTSがシステム時刻基準STCに達する前に、ビデオ/オーディオの符号化フレームデータをデコードし、ステップS104において、デコードされたビデオ/オーディオデータをフレームバッファ部11およびPCMバッファ部13に格納する。
次にステップS105において、オーディオ遅延設定部9は、予め設定された遅延時間に対応するPTS値ΔtをAPTSの値に加算し、新たなオーディオ再生時刻情報NAPTS値を求める(NAPTS=APTS+Δt)。以上の処理によって、オーディオの再生時刻情報(APTS)を修正した新たな再生時刻情報(NAPTS)が得られる。
本実施形態では、遅延時間はユーザによって予め設定されているとする。図8(a)はオーディオ遅延設定部9の操作部の例を示す。ユーザが初期設定画面において図8(a)に示す項目選択キーを操作すると、音声の遅延時間を設定できるモードに移行する。図8(b)は音声の遅延時間を設定する際の画面の例を示す。ユーザが操作部を介して画面上のハイライト91を「手動」にあわせ、決定キーを押下すると、手動による遅延時間の設定モードに移行する。ユーザが遅延量の表示窓93を見ながら図8(a)の「設定1」と示される上方向ボタンを押下すると画面上の増加ボタン92aがハイライトされ遅延量が増加する。逆に、「設定2」と示される下方向ボタンを押下すると、画面上の減少ボタン92bがハイライトされ遅延量が減少する。図8では、遅延させたい時間が“60ms”に設定されている。PTS値Δtは設定された遅延時間に基づいて得ることができる。設定された時間がt(ms)のとき、PTS値Δt=90.9tまたは91tとなる。
次にステップS106において、ビデオデコード部5は、システム時刻基準STCがVPTSに達したか否かを判断する。達していれば、ステップS107においてビデオ出力部12はフレームバッファからビデオデータを出力する。達していなければ、達するまで待つ。次に、ステップS108において、オーディオデコード部8は、STCがNAPTSに達したか否かを判断する。「達した」とは、STCがNAPTSに一致したとき、またはSTCがNAPTSを超過したときを示す。達していれば、ステップS109において、オーディオ出力部14はPCMバッファからビデオデータを出力する。達していなければ、達するまで待つ。
そして、ステップS110において、ビデオデコード部5およびオーディオデコード部8はデコードが終了したか否かを判断する。終了したときは処理を終了し、していなければステップS101に戻って処理を継続する。なお、ユーザから再生の停止が指示された場合にも処理は終了する。
以上、本実施形態によるデータ処理装置100の動作(特にデコード部60の動作)を説明した。
上述した説明では、圧縮符号化されたオーディオデータをデコードした後PCMデータをバッファするとした。しかし、それに代えて、デコード部60がデコードする前のオーディオバッファ部6に、オーディオデータをバッファすることも好ましい。デコードされたPCMデータより、デコード前の圧縮符号化された状態のオーディオデータの方がデータ量が小さく、オーディオバッファ部6等のバッファサイズが少なくてすむからである。具体的には、オーディオの符号化フレームデータがオーディオバッファ部6に格納された後、予め設定された遅延時間に対応するPTS値Δtをオーディオの再生時刻(APTS)の値に加算してNAPTS値を求めればよい(NAPTS=APTS+Δt)。これは、図6のステップS102の後、ステップS103の前に、ステップS105の処理を行うことに相当する。その他の処理は図6に示すとおりである。
図9は、オーディオバッファ部6の構成の例を示す。オーディオバッファ部6には、オーディオ遅延がない場合において符号化オーディオデータが格納される標準バッファ6aと、オーディオ遅延がある場合において追加の符号化オーディオデータが格納される追加バッファ6bとが設けられる。追加バッファ6bが設けられる理由は、オーディオ遅延がある場合には、従来の処理によればAPTSによって示された時刻に出力されているはずのオーディオデータが、本実施形態による処理ではNAPTSになるまで出力されないため、時間にしてΔt(=NAPTS−APTS)の間に読み込まれたデータをさらに格納するバッファ容量が必要になるからである。
よって、オーディオバッファ部6に必要なバッファ容量は、当初のAPTSによって規定される再生時刻の到達前までに受け取る符号化オーディオデータのデータ量と、再生時刻の遅延量(Δt)に応じた時間の経過までに受け取る符号化オーディオデータのデータ量との和以上である。前者は標準バッファ6aにより、後者は追加バッファ6bにより確保される。
例えば、追加バッファ6bに最大100ミリ秒のデータを追加的に格納できる追加バッファ6bが必要である場合を考える。これは、遅延時間が最大100ミリ秒の場合に相当し、ビデオではNTSC方式出力のときのビデオ約3フレームの表示時間に相当する。この場合に必要な追加バッファ6bの容量は、BSデジタル放送で使用されているオーディオ圧縮フォーマットのAAC方式では約22キロバイトである(1チャンネルあたり288キロビット秒として6チャンネル分のデータ量を算出した)。この容量は、デコード後のPCMデータを追加的に保存するときの容量の数分の1である。
なお、オーディオバッファ部6に格納される符号化オーディオフレームデータのデータ量が増加するため、オーディオ再生管理部7のテーブルサイズを増加させなければならない点にも留意しなければならない。
ただし、オーディオ再生管理部7に全てのオーディオの再生時刻情報(APTS)を格納せず、一部を間引いてテーブルを構成すれば、テーブルサイズの増加を防ぐことができる。図10(a)は間引き前のオーディオ再生管理部7のテーブル7aの構成を示し、図10(b)は間引き後のオーディオ再生管理部7のテーブル7bの構成を示す。テーブル7bは、テーブル7aの奇数番目の再生時刻情報(APTS)を間引いて生成されている。オーディオ再生管理部7がリアルタイムでテーブル7bを生成するときは、1つおきにの再生時刻情報(APTS)およびその対応アドレス情報の関係を記述すればよい。これによりテーブル7bのデータ量はテーブル7aのデータ量の半分になる。換言すれば、同じテーブルサイズであれば、テーブル7bはテーブル7aの倍のオーディオデータを管理できる。なお、再生時刻情報(APTS)およびその対応アドレス情報を間引くことにより、同期に必要なAPTS情報が減少するため、同期させる頻度は減少するが、管理すべきデータのデータ量が増加しても確実にビデオとオーディオの再生を同期させることができる。
本実施形態では、ビデオデコード部5およびオーディオデコード部8は、圧縮符号化されたビデオデータおよびオーディオデータをデコードして、フレームバッファ部11およびPCMバッファ部13に保持しておくとした。しかし、例えばDVDにはリニアPCMデータがオーディオデータとして含まれている場合には、デコード動作は不要である。リニアPCMデータは符号化はされているが圧縮はされていないからである。ただし、オーディオデータがリニアPCMデータであっても、ストリームに含まれる同期情報に従ってビデオと同期して再生されるため、先の説明をそのまま適用できる。また、データ処理装置100が光出力端子からドルビーデジタル等の符号化ストリームをそのまま出力する場合には、ストリームバッファ(図示せず)に一旦蓄えて、STCを参照し、NAPTSがSTCに達した時点で、オーディオ出力部14から出力すればよい。
次に、オーディオの遅延を発生させる映像音響機器120のビデオ処理の具体例を説明する。想定されるビデオ処理は、
(1)毎秒24フレームのフィルム素材から毎秒30フレームのビデオ素材への変換処理、
(2)インターレース走査・プログレッシブ走査間の変換処理、標準画質(Standard Definition;SD)のD1規格信号・高精細画質(High Definition;HD)のD3規格信号間の変換処理、NTSC方式・PAL方式間の変換処理
(3)ユーザからの指示等に基づく映像の拡大、縮小、編集処理
(4)複数の映像の合成処理
等である。上述の処理が不要な通常の再生時には、オーディオデータを遅延して出力する必要はない。しかし、ビデオ処理のオン/オフによって遅延が発生しうるため、遅延量の設定およびその設定に基づくオーディオデータの遅延出力が必要になる。
そのようなときは、オーディオ遅延設定部9に遅延時間が異なる複数の遅延情報を設け、行われる処理種別に応じて対応付けておくことが好ましい。例えば、映像音響機器120で実行される画像処理の種別をユーザが入力すると、その種別応じて遅延時間を変えるようにデコード部60を構成すればよい。
次に、オーディオデータの再生時間を遅延させる遅延時間を求め、その時間をオーディオ遅延設定部9において自動的に設定するための第1〜第3の設定手法を説明する。
まず第1の手法は以下のとおりである。データ処理装置100において、ビデオ信号にあらかじめ特定パターンの信号が含まれている同期検証用テストストリーム等をデコードし、映像音響機器120に送る。そして、映像音響機器120においてビデオ処理された後の表示された映像をキャプチャし、その遅延時間を測定する。得られた遅延時間をオーディオ遅延設定部9に設定することにより、遅延時間が設定できる。これらの処理を自動化することによりオーディオの再生遅延時間を自動的に設定できる。なお、遅延時間は、映像音響機器120における各信号処理モードの各々について遅延時間を測定し、遅延時間を設定してもよい。テストストリームは、放送系から入力されてもよいし、テストディスクまたはデータ処理装置100内のメモリ等から読み出されてもよい。なお、入力がテストストリームではなく、あらかじめデコードされたビデオデータを出力するようなテストパターンであってもよい。これは、デコードした後のビデオ処理での遅延を測定すればよいためである。
続いて、遅延時間を自動的に設定する第2の手法を説明する。第2の手法では、オーディオとの同期を阻害するビデオ処理の遅延原因(1)〜(4)の処理を、映像音響機器120ではなく、ビデオデコード部5のビデオ出力部12が行う。ビデオ出力部12がそのようなビデオ処理を行うことにより、デコード部60はビデオ処理に起因する遅延時間を把握することができ、その結果、オーディオ遅延設定部9はリアルタイムで遅延量を変更できる。また、映像音響機器120におけるビデオ処理も必要なくなるので、その負荷が軽減できる。
図11は、ビデオ処理を行う処理回路を搭載したビデオ出力部12の機能ブロックの構成を示す。ビデオ出力部12は、フレームバッファ部11からデコードされたフレームデータを受け取り、所定のビデオ処理を行ったビデオデータを出力する。ビデオ出力部12は、IP変換部71と、フォーマット変換部72と、拡大縮小部73と、他画面合成部74と、GUI重畳部75と、出力部76とを有する。これらの構成要素に関連して、ビデオデコード部5には外部映像入力部77およびGUIデータ生成部78とが別途設けられる。
IP変換部71は、インターレース走査・プログレッシブ走査間の変換処理を行う。フォーマット変換部72は、480iビデオ信号・1080iビデオ信号間の変換処理およびNTSC方式・PAL方式間の変換処理を行う。拡大縮小部73は、ユーザからの指示等に基づく映像の拡大、縮小、編集処理を行う。他画面合成部74は、デコードされたビデオと外部映像入力部77から入力されるビデオとを合成する。GUI重畳部75は、これまでの処理によって得られたビデオに、GUIデータ生成部78によって生成されたGUIデータを重畳する。そして出力部76は、最終的に得られたビデオデータを出力する。この出力は、映像音響機器120に送られる。ビデオデコード部5は、ビデオデータが得られたときの時刻をSTCに基づいて取得し、そのビデオデータのVPTSと比較することによって、遅延時間を特定することができる。
さらに、遅延時間を自動的に設定する第3の手法を説明する。第3の手法では、データ処理装置100と映像音響機器120とが互いに通信して、データ処理装置100が映像音響機器120において行われるビデオ処理の種別を特定する。これにより、データ処理装置100のデコード部60は、ビデオ処理に起因する遅延時間を予め特定できる。
以下、具体的に説明する。図12は、データ処理装置100と映像音響機器120との接続およびそれらの間で授受されるデータの種類を示す。図12の例では、HDMI規格に従ってデータが授受される。まずHDMIトランスミッタ80は、映像音響機器120のHDMIレシーバ130に対して、映像音響機器120を特定する情報(機器固有情報)を求める制御コマンドを送信する。HDMIレシーバ130は、その制御コマンドに基づいて、自己の装置の機器IDを機器固有情報としてHDMIトランスミッタ80に送信する。機器IDは、例えば映像音響機器120内のROM131にメーカー固有情報(Vendor Specific Data)として格納されており、メーカー名、機種名等を特定することができる。
HDMIトランスミッタ80は、機器IDを受け取ってデコード部60に出力する。デコード部60は、機器IDを受け取ると、内部メモリまたは外部のメモリカード等に規定されたテーブルを参照する。テーブルには、機器IDと遅延設定との対応が記述されている。デコード部60は、機器IDおよびそのテーブルに基づいて、映像音響機器120が実行するビデオ処理に起因する遅延時間を得ることができる。これにより、その遅延時間をオーディオ遅延設定部9に設定できる。なお、図12は、MPEG2プログラムストリームをデコードするデータ処理装置100を利用する場合の例であるが、デコードの対象はこのストリームに限られない。例えば、受信され、記録されたデジタル放送のMPEG2トランスポートストリームもデコードの対象になる。デコード部60はストリームの種類に応じたデコードを行うように構成されればよい。
ここまでは、システム時刻基準参照値SCRを基準としてシステム時刻基準STCを生成し、そのSTCに基づいて、ビデオの再生時間を規定するVPTSおよび遅延させたオーディオの再生時間を規定するNAPTSを生成し、ビデオおよびオーディオを同期して再生させるとして説明した。しかし、さらにVPTSに基づいてオーディオを再生することもできるし、NAPTSに基づいてビデオを再生することもできる。
光ディスク110に記録した符号化コンテンツを再生する場合、符号化コンテンツ等を編集し、編集点でのビデオを途切れなく再生する場合には、ビデオの再生時間を基準とした時間管理が有効である。これは、VPTSを基準としてNAPTSを管理することを意味する。本明細書では、VPTSを基準としてNAPTSを管理することをビデオマスターと呼ぶ。システム時刻基準参照部4は、SCRに基づいて生成したSTCではなく、VPTSに基づいてSTCを生成し、かつNAPTSが規定精度以内におさまるようにオーディオデコードを実施する。そして、NAPTSによって規定される時刻がVPTSによって規定される時刻を超えるまでのオーディオデータの再生をスキップすることによって、ビデオとオーディオとを同期して再生する。デコード部60のシステム時刻基準参照部4は、VPTSによって規定される再生時刻とNAPTSによって規定される時刻とが一定の許容範囲内に入ったことを確認した後、ビデオマスターに基づいて時間を管理して再生すればシームレスな編集再生を実現することができる。
例えば、ビデオデータの一部を削除した後で削除部分の前後にわたってシームレスに映像を再生したい場合には、削除位置直後のビデオデータに基づいて映像を表示するとともに、削除位置直前のビデオデータのVPTSから生成したSTC値を、削除位置直後のビデオデータのVPTSから生成したSTC値に変更する。そして、オーディオ出力をミュートして再度、遅延量を変更したビデオおよびオーディオの再生同期を取り直すことによってオーディオデコードを再開する。これにより、編集点の前後でもビデオマスターとしたSTC値の変更が行われ、編集点の再生時に再生された映像がフリーズする等の不自然な再生がなくなる。なおこの場合にも、オーディオ遅延分のオーディオバッファ部6の容量の増加、および、オーディオ再生時刻情報管理部7のテーブルサイズの増加は必要になる。
一方、光ディスク110に記録した符号化コンテンツを再生するとき、オーディオを途切れなく再生する場合には、オーディオの再生時間NAPTSを基準とした時間管理が有効である。これは、NAPTSを基準としてVPTSを同期させることを意味する。本明細書では、NAPTSを基準としてVPTSを管理することをオーディオマスターと呼ぶ。システム時刻基準参照部4は、SCRに基づいて生成したSTCではなく、NAPTSに基づいてSTCを生成し、かつ、VPTSが規定精度以内におさまるようにビデオデコードを実施する。そして、適当な出力映像のスキップまたは同じ画面の複数回出力によってオーディオをビデオと同期して再生する。オーディオの再生時間NAPTSによって規定される時刻をオーディオマスターとしたときでも、オーディオ遅延を考慮して出力しているため、オーディオを遅延したビデオと同期して再生することができる。なおこの場合にも、オーディオ遅延分のオーディオバッファ部6の容量の増加、および、オーディオ再生時刻情報管理部7のテーブルサイズの増加は必要になる。
例えば、出力音声または音楽等を途切れることなく再生したいとき(早送りやコマ送り再生時)においてオーディオの連続性を保つためには、ビデオの再生が長すぎる、または短すぎる場合がある。その場合には、同じ画面を何度も繰り返し表示し、または、特定数フレームをスキップする等の処理を行う。
オーディオ遅延設定部9において遅延時間の設定を変更する際には、一旦オーディオ出力をフェードアウトもしくはミュート設定して、音量を下げる。そして遅延設定を変更後、ミュート解除もしくは、フェードインを実行し、元の音量に復帰させればよい。
図1に示すデータストリーム10にはオーディオデータとビデオデータとが混在しており、図4に示すシステムデコード部1においてそれらを分離するとして説明した。しかし、オーディオデータおよびビデオデータは独立した別個のストリームとして含まれていてもよい。例えば、ビデオカメラ等で撮影したオーディオデータおよびビデオデータをPCで編集して、ビデオのエレメンタリストリームとオーディオのエレメンタリストリームとにわけてデータ処理装置100に入力してもよい。ビデオデータの再生時刻情報およびオーディオデータの再生時刻情報に基づいて、ビデオとオーディオが同期して再生されるのであれば、本発明は適用可能である。
本実施形態は、ビデオとオーディオとを同期して再生するとしたが、これは例である。例えば、DVDに設けられているサブピクチャに関して、そのビデオ処理に基づく再生遅延が発生する場合には、やはりオーディオの再生時刻情報NAPTSを生成して字幕とオーディオとを同期して再生することもできる。また衛星放送を受信し記録した場合のデータ放送の同期についても同様である。映像音響機器120においてビデオとデータの内容との重ね合わせ処理等において処理遅延が発生する場合には、オーディオの再生時刻情報NAPTSを生成して、ビデオ、データの内容およびオーディオを同期して再生することができる。
本実施形態では、APTSにオーディオ遅延Δtに相当するPTSを加算してNAPTSを求めるとしたが、VPTSからΔt相当分を減算してもよい。ただし、VPTSからΔtを減算するだけでなく、システム時刻基準参照値そのものをΔt減算することで、同じ効果が得られる。具体的には、データ処理装置100に、ビデオの再生時刻情報に任意の遅延用設定時間を減算する手段およびシステム時刻基準参照値に任意の遅延用設定時間を減算する手段を設ければよい。これにより、映像音響機器120におけるビデオ処理の遅延を考慮して遅延用設定時間を減算したシステム時刻基準参照値に対して、遅延のために設定時間を減算されたビデオと、オーディオとを同期して再生できる。
また、本実施形態では、画像処理によってビデオがオーディオに遅れて再生されることを想定して説明した。しかし、これとは逆に、データ処理装置100の出力後に行われる各種の音響効果等の処理に起因してオーディオの再生が遅延する場合もある。このときは、ビデオ再生が先行してしまうため、VPTSに遅延時間Δtに相当するPTSを加算した新たなビデオ再生時刻情報NVPTSを求めて、ビデオとオーディオとの再生を同期させればよい。このときは、ビデオバッファ部2およびビデオ再生管理部3のテーブルサイズが増加することになる。
データ処理装置100に設けられた種々のバッファは、その一部または全部が半導体メモリによって構成されていてもよいし、ハードディスク等の記録媒体によって構成されていてもよい。
上述のデータ処理装置10の機能、特にデコード部60の機能は、ソフトウェアを実行することによって実現してもよい。例えば、CPU(図示せず)がコンピュータプログラムを実行することによって、各構成要素の動作を制御してもよい。コンピュータプログラムは、例えば図6に示すフローチャートにしたがった処理をデータストリーム10に実行させるように構成すればよい。
コンピュータプログラムは、光ディスクに代表される光記録媒体、SDメモリカード、EEPROMに代表される半導体記録媒体、フレキシブルディスクに代表される磁気記録媒体等の記録媒体に記録することができる。なお、データ処理装置10は、記録媒体を介してのみならず、インターネット等の電気通信回線を介してもコンピュータプログラムを取得できる。
本発明によれば、ビデオ、オーディオ等を同期して再生することができるデータ処理装置等が提供される。例えば、ビデオ処理に起因してビデオの再生が遅延する場合には、オーディオの再生時刻がビデオの遅延時間相当量だけ遅くなるようにオーディオの再生時刻情報を修正するので、ビデオとオーディオとを同期して再生することができる。
本発明は、圧縮符号化されたオーディオデータおよびビデオデータを再生する際に、オーディオとビデオとを同期して再生する装置および方法に関する。
従来、圧縮符号化されて記録されたビデオ信号およびオーディオ信号をCD−ROM、DVD−ROM、ハードディスク等の記録媒体から読み出し、デコード(伸張)して出力するデータ再生装置が知られている。データ再生装置が伸張されたデータをその装置に接続されたモニタ、音響スピーカ等に送ることにより、ビデオおよびオーディオの再生が実現される。
圧縮符号化に関しては、多くの規格が規定されている。例えばMPEG(Motion Picture Experts Group)は、ビデオ信号およびオーディオ信号の両方を圧縮符号化する規格として知られている。MPEG規格では、ビデオ信号が表すビデオおよびオーディオ信号が表すオーディオが同期して再生されることを保証するために、オーディオ信号およびビデオ信号のそれぞれに再生されるべき時刻を表す時刻情報が付加される。これにより、伸張時にはシステム機器が有するシステム時刻基準参照値に対し、これらの時刻情報を参照してオーディオ信号とビデオ信号とを同期させて再生することができる。
以下、従来の同期方法を説明する。例えば、特許文献1に記載された技術によれば、まず、再生装置はオーディオおよびビデオのいずれか一方が伸張処理を終了したときの時刻と、他方の伸張処理が終了したときの時刻との差分を検出する。そして、検出された差分値に基づいて、再生装置は圧縮データの転送タイミング、伸張回路の起動タイミングおよびビデオの表示タイミングを変更し、オーディオとビデオを同期させて、モニタ、音響スピーカ等の外部機器に出力している。
特開平6−233269号公報
しかし、上述の再生装置は、その内部でオーディオとビデオとを同期させて外部機器に出力しているため、外部機器においてビデオおよびオーディオの一方に処理を加えて遅延が発生すると他方と同期して再生できないという問題が生じていた。
例えば、テレビ等の映像表示機器が外部機器であるとき、映像表示機器においてインターレース/プログレッシブ変換、NTSC/PAL変換等の変換処理や、ユーザからの指示によるビデオの拡大・縮小の画像処理を行うと、処理に時間を要するためオーディオ再生がビデオ再生よりも先行してしまう。例えば、出力画面を拡大する画像処理を想定すると、元の出力画面データから補間データを作成するために演算処理が必要である。そして、なめらかな動画を作り出すために、時間的に前後する複数の出力フレームや出力フィールド単位のフィルタ演算が必要になる。また、複数の入力ストリームを独立して伸張できる回路等から出力された2以上のビデオを合成する処理を想定すると、全てのビデオを同期させるために、特定のストリームのビデオ出力を遅延させなければならない場合がある。さらに、シアターシステム等のように、ビデオ信号を一旦光信号等に変換して伝送するときにも、ビデオ信号の変換に時間を要する場合もある。
上述の1つまたは2つ以上の演算処理等には、数ミリ秒から数十ミリ秒の時間を要する場合がある。オーディオ再生がビデオ再生よりも一定時間(概ね30ミリ秒)以上先行すると、映像中の人物の口の動きと音声とのずれが目立ち、視聴者に違和感を与える。従来の再生装置は外部機器の処理に起因するビデオおよびオーディオの再生タイミングのずれを想定していないため、外部機器においてさらに時間を要する処理を行うとさらにビデオおよびオーディオの再生タイミングがずれてしまう。
なお、外部機器にオーディオ再生を遅延させるバッファを設け、オーディオと画像処理後のビデオとを同期して再生することは可能である。しかし、外部機器に出力されたビデオデータおよびオーディオデータには再生タイミングを指示する時刻情報は存在しないため、外部機器において出力タイミングを独自に決定することになってしまい妥当ではない。また、バッファを設けるという手法はバッファを持たない現存の外部機器には適用できないため、根本的な解決法とはいえない。
本発明は、以上のような課題を解決するためになされたもので、その目的は、外部接続機器の差、処理種別等によってビデオの遅延量が異なる場合においても、当初意図されたとおりにオーディオとビデオとを同期して再生することである。
本発明によるデータ処理装置は、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取る受信部と、前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出する分離部と、前記第1データをデコードして、前記第1時刻情報に基づいて出力する第1デコード部と、前記第2時刻情報に基づいて前記第2データを出力する第2デコード部とを有している。データ処理装置は、さらに、前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持し、かつ、前記遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させる遅延設定部を備えている。
前記第2データのコンテンツは圧縮符号化されており、前記第2デコード部は前記第2データを復号し、前記第2デコード部は復号された前記第2データを格納する内部バッファを有していてもよい。
前記第2データのコンテンツは圧縮符号化されており、前記データ処理装置は、圧縮符号化された前記第2データを格納するデータバッファをさらに備え、前記データバッファは、修正後の第2時刻情報によって規定される再生時刻の前に前記圧縮符号化された前記第2データを取り出し、前記第2デコード部に出力してもよい。
前記受信部は前記データストリームを継続的に受け取り、前記データバッファは前記第2データを順次格納する。前記データバッファの容量は、修正前の第2時刻情報によって規定される再生時刻の到達前までに受け取る前記第2データのデータ量と、前記再生時刻の遅延量に応じた時間の経過までに受け取る前記第2データのデータ量との和以上であってもよい。
前記データ処理装置は、前記第2データが格納された前記データバッファ内の位置を示すアドレス情報と、前記第2データに対応する修正前の第2時刻情報との対応関係を規定するテーブルを管理する管理部をさらに備えていてもよい。
前記管理部は、一部の前記第2データについて前記テーブルを管理してもよい。
前記受信部は、オーディオおよび字幕の少なくとも一方に関する前記第2データを有するデータストリームを受け取ってもよい。
前記遅延設定部は、ユーザから前記遅延量を特定する値を受け取って、前記遅延情報として保持してもよい。
前記遅延設定部は、予め定められた値を前記遅延情報として保持してもよい。
前記遅延設定部は、再生時刻の遅延量を30ミリ秒以上の値として規定した遅延情報を保持してもよい。
前記データ処理装置は、接続先の機器に前記第1データを送出するとともに、前記機器を特定することが可能な固有情報を前記機器から受け取るトランスミッタをさらに備えている。前記トランスミッタは、前記固有情報に基づいて前記機器において実行される前記第1データに関するビデオ処理の所要時間を特定し、前記遅延設定部は、特定された前記所要時間の値を前記遅延量として遅延情報を保持してもよい。
前記第1デコード部および前記第2デコード部は、単一のデコード回路として実装されてもよい。
本発明によるデータ処理方法は、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取るステップと、前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出するステップと、前記第1データをデコードして、前記第1時刻情報に基づいて出力するステップとを包含している。さらにデータ処理方法は、前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持するステップと、前記遅延情報に基づいて前記第2時刻情報を修正して前記第2データの再生時刻を遅延させるステップと、前記第2時刻情報に基づいて前記第2データを出力するステップとを包含する。
前記第2データのコンテンツは圧縮符号化されており、前記第2データを出力するステップは、前記第2データを復号し、復号された前記第2データをデータバッファに格納した後に出力してもよい。
前記第2データのコンテンツは圧縮符号化されており、前記データ処理方法は、圧縮符号化された前記第2データをデータバッファに格納するステップと、修正後の第2時刻情報によって規定される再生時刻の前に、格納された前記第2データを前記データバッファから取り出すステップとをさらに包含する。前記第2データを出力するステップは、前記データバッファから取り出された前記第2データを出力してもよい。
前記受信するステップは、前記データストリームを継続的に受信し、前記第2データを格納するステップは前記第2データを前記データバッファに順次格納する。前記データバッファの容量は、修正前の第2時刻情報によって規定される再生時刻の到達前までに受け取る前記第2データのデータ量と、前記再生時刻の遅延量に応じた時間の経過までに受け取る前記第2データのデータ量との和以上であってもよい。
前記データ処理方法は、前記第2データが格納された前記データバッファ内の位置を示すアドレス情報と、前記第2データに対応する修正前の第2時刻情報との対応関係を規定するテーブルを管理するステップをさらに包含してもよい。
前記管理するステップは、一部の前記第2データについて、前記テーブルを管理してもよい。
前記受信するステップは、オーディオおよび字幕の少なくとも一方に関する前記第2データを有するデータストリームを受け取ってもよい。
前記遅延させるステップは、ユーザから前記遅延量を特定する値を受け取って、前記遅延情報として保持してもよい。
前記遅延させるステップは、予め定められた値を前記遅延情報として保持してもよい。
前記遅延させるステップは、前記再生時刻の遅延量を30ミリ秒以上に規定した遅延情報を保持してもよい。
前記データ処理方法は、接続先の機器に前記第1データを送出するステップと、前記機器を特定することが可能な固有情報を前記機器から受け取るステップと、前記固有情報に基づいて、前記機器において実行される前記第1データに関するビデオ処理の所要時間を特定するステップとをさらに包含する。前記遅延させるステップは、特定された前記所要時間の値を遅延情報として保持してもよい。
本発明によるコンピュータプログラムは、データ処理装置のコンピュータにおいて実行される。前記プログラムにしたがってコンピュータが実行するデータ処理方法は、圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取るステップと、前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出するステップと、前記第1データをデコードして、前記第1時刻情報に基づいて出力するステップとを包含している。さらに、このコンピュータが実行するデータ処理方法は、前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持するステップと、前記遅延情報に基づいて前記第2時刻情報を修正して前記第2データの再生時刻を遅延させるステップと、前記第2時刻情報に基づいて前記第2データを出力するステップとを包含する。
本発明によれば、ビデオ、オーディオ等を同期して再生することができるデータ処理装置等が提供される。例えば、ビデオ処理に起因してビデオの再生が遅延する場合には、オーディオの再生時刻がビデオの遅延時間相当量だけ遅くなるようにオーディオの再生時刻情報を修正するので、ビデオとオーディオとを同期して再生することができる。
以下では、まずデータストリームのデータ構造を説明し、その後、そのデータストリームを利用して本発明の処理を行うデータ処理装置の構成および動作を説明する。
図1は、MPEG2プログラムストリーム10のデータ構造を示す。MPEG2プログラムストリーム10(以下「データストリーム10」と称する)は、DVDビデオ規格に準拠したデータ構造を有している。データストリーム10は、ビデオのコンテンツに関するビデオデータと、オーディオのコンテンツに関するオーディオデータとが含まれている。以下では、ビデオデータおよびオーディオデータが含まれているとして説明するが、これら以外にも、データストリーム10には字幕データ等が含まれていてもよい。
データストリーム10は、複数のビデオオブジェクトユニット(Video OBject;VOB)#1、#2、・・・、#kを含んでいる。各VOBは、複数のVOBユニット(Video OBject unit;VOBU)#1、#2、・・・、#nを含んでいる。各VOBUは、映像の再生時間にして0.4秒から1秒程度のデータを含むデータ単位である。以下、VOBU#1および#2を例にして、VOBUのデータ構造を説明する。なお、以下で用いられる「再生」という語は、特に明示しない限り、ビデオコンテンツや字幕等のビデオに関しては表示機器(テレビ等)に映し出されることをいい、オーディオに関しては出力機器(スピーカ等)から音として出力されることをいうとする。
VOBU#1は、複数のパックから構成されている。データストリーム10内の各パックのデータ長(パック長)は一定(2キロバイト(2048バイト))である。VOBUの先頭には、図1に“N”で示されるナビゲーションパック(ナビパック)20が配置されている。ナビパック20の後には、“V”で示されるビデオパック(ビデオパック30等)および“A”で示されるオーディオパック(オーディオパック40等)が複数含まれている。
各パックは以下の情報を格納している。すなわち、ナビパック20は、データストリーム10内のビデオ、オーディオ等の再生を制御するために用いられる情報、例えばVOBUの再生タイミングを示す情報等を格納している。ビデオパック30は、MPEG2圧縮符号化されたビデオデータを格納している。オーディオパック40は、例えばMPEG2−オーディオ規格によって圧縮符号化されたオーディオデータを格納している。近接するビデオパック30およびオーディオパック40には、例えば、同期して再生されるビデオデータおよびオーディオデータが格納されているが、それらの配置(順序)は任意である。
VOBU#2もまた、複数のパックから構成されている。VOBU#2の先頭には、ナビパック20が配置され、その後、ビデオパック30およびオーディオパック40等が複数配置されている。各パックに格納される情報の内容はVOBU#1と同様である。
次に、図2を参照しながらオーディオパック40のデータ構造を説明する。図2は、オーディオパック40のデータ構造を示す。オーディオパック40は、オーディオパケット41およびパディングパケット42を含む。なお、パディングパケット42はデータパックのパック長を調整するために設けられたパケットであるため、パック長を調整する必要がないときは存在しない。このときは、オーディオパック40にはオーディオパケット41のみが含まれる。
オーディオパケット41は、先頭から順に、14バイトのパックヘッダ(Pack_H)、24バイトのシステムヘッダ(system_H)、パケットヘッダ(Packet_H)41aおよびペイロードを有する。
パックヘッダには、パックの種類(ここではオーディオパケット)を特定する情報が記述される。パックの開始コードに続いて、基準時間情報であるSCR(System Clock Reference;システム時刻基準参照値)が記述されている。SCRは、ストリームをデコードする際に、復号器側の動作時刻の基準となる同期信号STC(System Time Clock;システム時刻基準)の値を符号器側が意図した値に設定し、または、その値に修正するための情報である。SCRは基本的にどのパケットヘッダにも付加される。SCRは、90kHzのクロックで計測した値であり、33ビット長で表されている。システムヘッダは、VOBUの先頭のパックに必ず付加される。パケットヘッダ41aは後に詳述する。ペイロードには、圧縮符号化されたビデオデータが記述される。
オーディオパック40には、パック長を調整する目的で、パックヘッダ42とパディングデータ42bとを有するパディングパケット42が設けられる。所定の条件のもとでは、パディングパケット42を設けることに代えて、パケットヘッダ41a内にスタッフィングバイトフィールド49が設けられる。両者は同一のパック内には共存しない。図2に示す例では、オーディオパック40にはパディングパケット42が存在しているため、スタッフィングバイトフィールド49は0バイトであり存在しない。
次に、オーディオパケット41のパケットヘッダ41aのデータ構造を説明する。パケットヘッダ41aは、パケット長フィールド43、フラグフィールド44およびヘッダデータ長フィールド45を有する。さらに、パケットヘッダ41aには、時間フラグフィールド44aおよびPES拡張フラグフィールド44bの値に応じて、追加のフィールド46が設けられることがある。
パケット長フィールド43には、そのフィールド以降からそのオーディオパケット41の最後までのパケット長(バイト長)が記述される。続いて、フラグフィールド44は、時間フラグフィールド44a(PTS_DTS_flag)、PES拡張フラグフィールド(PES_extension_flag)44b等を含む。時間フラグフィールド44aには、後述するプレゼンテーションタイムスタンプ(PTS)またはデコーディングタイムスタンプ(DTS)の有無を示すフラグが記述される。また、PES拡張フラグフィールド44bには、PES拡張フィールド48の有無を示すフラグが記述される。ヘッダデータ長フィールド45には、追加のフィールド46およびスタッフィングバイトフィールド49のフィールド長の和が格納される。
次に、追加のフィールド46を説明する。MPEGでは、ビデオおよびオーディオの同期再生を実現するために、ビデオとオーディオの各アクセスユニットと呼ばれるデコードの単位ごと(ビデオは1フレーム、オーディオは1オーディオフレーム)に、いつ再生すべきかの時刻を管理するためのタイムスタンプ値が付加されている。このタイムスタンプ値は、PTS(Presentation Time Stamp)と呼ばれ、オーディオ用はオーディオPTS(以下「APTS」と記述する)およびビデオ用はビデオPTS(以下「VPTS」と記述する)が規定されている。
PTSが上述のシステム時刻基準STCに一致したときに、そのPTSが付加されたアクセスユニットが再生のために出力される。PTSの精度は、SCRと同様、90kHzのクロックで計測した値であり、33ビット長で表されている。90kHzで計測する理由は、NTSC、PALの両方のビデオ方式のフレーム周波数の公倍数であることと、オーディオの1サンプル周期よりも高い精度を得るためである。
一方、圧縮データをどのような順序でデコードすべきかを示すタイムスタンプ情報が付加されている。このタイムスタンプ値は、デコーディングタイムスタンプ(DTS)と呼ばれる。
フィールド46に各5バイトのPTS/DTSフィールド47が設けられているときは、時間フラグフィールド44aはPTSおよびDTSを有することを示している。時間フラグフィールド44aの値に応じて、いずれか一方のフィールドが設けられる。また、追加のフィールド46としてPES拡張フィールド48が設けられることもある。PES拡張フィールド48にはプログラムストリーム10のデコードに必要な情報、例えばデコード用のデータバッファの容量等が記述される。
なお、図2ではオーディオパックのデータ構造を示したが、ビデオパックのデータ構造も同様である。「オーディオパケット」を「ビデオパケット」に読み替え、ペイロードに格納される「オーディオデータ」を「ビデオデータ」に読み替えればよい。ビデオパケットにも、上述したPTSおよびDTSが同じデータ構造で記述されており、デコードタイミングおよび再生タイミングが規定される。
次に、図3および図4を参照しながら、本実施形態によるデータ処理装置100の構成および動作を説明する。図3は、データ処理装置100と、データ処理装置100に接続された映像音響機器120を示す。データ処理装置100は、DVD−ROM等の光ディスク110から光ピックアップを介してデータストリーム10を読み出す。再生処理部50は、アナログ波形として読み出されたデータストリーム10に2値化処理等を行って、デジタルデータストリームとして出力する。MPEG2−PSデコード部60(以下「デコード部60」と記述する)は、このストリームをビデオデータおよびオーディオデータに分離し、各々をデコードして映像音響機器120に出力する。
データ処理装置100は、DVDプレーヤ、DVDレコーダ、PC等であるが、光ディスク110に代えてハードディスクを用いたときはハードディスクレコーダである。または、アンテナ等を介してデジタル放送のデータストリーム10を受け取るときには、データ処理装置100はセットトップボックス、デジタル衛星放送受像機等として実現される。一方、映像音響機器120は、例えばTV等のモニタ出力機器、オーディオ出力アンプ、AVセレクタ機能を有するAVアンプ等のインタフェース機器である。図3では1つの映像音響機器120が示されているが、映像を表示する機器、音声等を出力する機器等が複数存在していてもよい。
本実施形態によるデータ処理装置100の特徴のひとつは、映像音響機器120において行われる種々の演算処理等により、本来同期して再生すべきビデオおよびオーディオがずれて再生されてしまう場合に、先行する出力を遅延して出力することにある。例えば、映像音響機器120においてビデオデータのインターレース/プログレッシブ変換を行うためにビデオデータの再生がオーディオの再生よりも遅延してしまう場合に、ビデオデータの再生時刻の遅延量相当時間だけ、先行するオーディオデータを遅延して出力する。これにより、ビデオデータとオーディオデータとの同期再生が可能になる。なお、オーディオデータの遅延出力は、オーディオデータの再生時刻を規定するPTSを修正することによって実現される。遅延量は、予想される時間、ユーザによって設定された時間、映像音響機器120を特定して判断することができる映像音響機器120におけるビデオ処理の所要時間等に基づいて設定される。
上述のデータ処理装置100の特徴は、主としてデータ処理装置100のデコード部60によって実現される。以下、デコード部60を詳細に説明する。
図4は、デコード部60の詳細な機能ブロックの構成を示す。デコード部60は、システムデコード部1と、ビデオバッファ部2と、ビデオ再生管理部3と、システム時刻基準参照部4と、ビデオデコード部5と、オーディオバッファ部6と、オーディオ再生管理部7と、オーディオデコード部8と、オーディオ遅延設定部9とを有する。
システムデコード部1は、データストリーム10から、デジタル圧縮符号化されたオーディオおよびビデオデータを分離して抽出するとともに、ビデオパックに付加されたPTSをビデオ再生時刻情報として抽出し、オーディオパックに付加されたPTSをオーディオ再生時刻情報として抽出する。
まず、ビデオ処理に関する構成要素を説明する。ビデオバッファ部2は、システムデコーダ部1によって分離されたビデオデータを格納する。ビデオ再生管理部3は、ビデオバッファ部2に格納されたビデオデータとビデオ再生時刻情報を関連づけたテーブルを生成し、管理する。
ビデオデコード部5は、圧縮符号化されたビデオデータの属性情報(ビデオヘッダ情報)を解析するとともに、ビデオバッファ部2に格納されているビデオデータをビデオ再生時刻情報に従ってデコードする。ビデオデコード部5にはフレームバッファ部11およびビデオ出力部12が設けられている。フレームバッファ部11は、デコードしたビデオデータを格納する。ビデオ出力部12は、デコード部60からその外部へビデオデータを出力する。このビデオデータは、さらにデータ処理装置100に接続された映像音響機器120に出力される。
次に、オーディオ処理に関する構成要素を説明する。オーディオバッファ部6は、システムデコード部1によって分離されたオーディオデータを格納することができる半導体メモリである。そのバッファサイズは、取り扱う符号化オーディオデータの圧縮率等によって異なり、例えば数キロバイトから数十キロバイト程度である。オーディオ再生管理部7は、オーディオバッファ部6に格納されたオーディオデータとオーディオ再生時刻情報を関連づけるテーブルを生成し、管理する。このテーブルは後に図7(a)および(b)を参照しながら詳述する。
オーディオ遅延設定部9は、オーディオの再生時刻の遅延量を規定する遅延情報を保持し、かつ、遅延情報に基づいてオーディオの再生時刻情報を修正して、その再生時刻を遅延させる。オーディオ遅延設定部9は、例えば遅延情報を保持するメモリ(図示せず)を有しており、映像音響機器120の処理に鑑みて想定される時間が予め設定されている。そしてさらに、ユーザによって設定された数ミリ秒単位またはビデオフレーム単位の遅延時間に関する情報も保持できる。これにより、映像音響機器120において発生する処理遅延に応じた微調整が可能になる。
オーディオデコード部8は、圧縮符号化されたオーディオデータの属性情報(オーディオヘッダ情報)を解析するとともに、オーディオバッファ部6に格納されているオーディオデータをオーディオ再生時刻情報に従ってデコードする。オーディオデコード部8にはPCMバッファ部13およびオーディオ出力部14が設けられている。PCMバッファ部13は、デコードしたオーディオデータを格納する。オーディオ出力部14は、デコード部60からその外部へオーディオデータを出力する。このオーディオデータは、さらにデータ処理装置100に接続された映像音響機器120に出力される。
なお、上述のビデオデコード部5およびオーディオデコード部8は、デコードする点において同じ機能を有する。したがって、それぞれの機能を実現できる限り、1つの半導体集積回路等として実装してもよい。例えば図4は、ビデオデコード部5およびオーディオデコード部8を有するデコーダチップ15を示している。
次に、ビデオ出力部12およびオーディオ出力部14から出力されるビデオデータおよびオーディオデータを、同期して再生するための構成を説明する。デコードタイミングおよび再生タイミングは、システム時刻基準参照部4によって実現される。システム時刻基準参照部4は、MPEGシステムのデータ処理装置100の内部においてシステム時刻基準STCを生成する。データ処理装置100側でSTCを生成するためには、DVDディスク等で使用されるプログラムストリーム(PS)に規定されるSCRの値を用いる。上述のように、SCRはパックヘッダに記述されている。なお、入力されるデータストリームがBSデジタル放送で使用されるトランスポートストリーム(TS)のときは、PCR(Program Clock Reference:プログラム時刻基準参照値)が用いられる。
システム時刻基準参照部4は、ビデオデータの最終バイトの到着時(再生処理部50からのデータ受け取り時)に、SCRの値と同じ値がシステム時刻基準STCとして設定され、STCが基準時刻とされる。さらに、このSTCの値と、PLL(位相ロックループ)回路(図示せず)とを組み合わせることにより、デコード部60の基準時刻用システムクロックと完全に周波数が一致したSTCにすることができる。システム時刻基準STCのシステムクロックの周波数は27MHzである。このSTCからカウンタ等により分周することにより、各PTS(周波数:90kHz)が参照される。
データ処理装置100が従来の処理を行う場合には、ビデオデコード部5は、システム時刻基準STCがVPTSに一致したときそのPTSが付加されていたアクセスユニットを出力し再生させる。またオーディオデコード部8は、STCがAPTSに一致したときにそのPTSが付加されていたアクセスユニットを出力し再生させる。PTSの周波数は90kHzであるから、この精度の範囲内で、STCとVPTSおよびAPTSとの同期をとれるようにビデオデータおよびオーディオデータの各々をデコードする。これにより、ビデオおよびオーディオの同期再生を実現できる。
一方、本実施形態による処理によれば、映像音響機器120におけるビデオ処理の遅延を考慮した上で、データ処理装置100はビデオおよびオーディオの同期再生を実現する。以下、図5を参照しながらその概略を説明し、その後、図6を参照しながらその動作を実現するための処理の手順を説明する。
図5は、PTSを用いてビデオとオーディオとの同期再生を実現する再生タイミングを示す。再生時刻情報が示すタイミングが4段に分けて記載されている。
1段目は、データストリーム10に規定されていたビデオ再生時刻情報(VPTS)のタイミングを示す。データストリーム10を生成したエンコーダ(図示せず)は、時刻tv1、tv2、・・・において、ビデオが再生されることを意図して圧縮符号化を行っている。時刻tv1とtv2との間隔は、例えば、NTSC方式であれば33ミリ秒のn倍(n:自然数)(30Hz)、PAL方式であれば40ミリ秒のn倍(n:自然数)(25Hz)である。
次に、3段目はデータストリーム10のオーディオの再生タイミングを示す。オーディオについてもビデオと同様に、エンコーダ(図示せず)は、時刻tA1、tA2、・・・において、オーディオが再生されることを意図して圧縮符号化を行っている。時刻tA1とtA2との間隔は、例えば、AAC(Advanced Audio Coding)方式では21.12ミリ秒のn倍(n:自然数)である。
一方、図5の2段目は、映像音響機器120におけるビデオ処理によって遅延したビデオの再生タイミングを示す。例えば、最初に表示されるビデオについてみると、ビデオ処理に起因する遅延により、本来時刻tv1で表示されるはずの映像が、時刻tv1より後の時刻tp1において再生されている。その時間差をΔtとする。
次に、4段目は、本実施形態のオーディオ遅延設定部9が元の再生時刻情報(APTS)を修正した後の、オーディオの再生タイミングを示す。オーディオ遅延設定部9は、時刻tv1において再生されるべきことを示すオーディオの再生時刻情報(APTS)を、ビデオが映像音響機器120において遅延する時間(Δt)だけずらした時刻情報(NAPTS)に修正し、オーディオの再生時刻を遅延させている。この結果、ビデオデータは1段目のタイミング(時刻tv1、tv2、・・・)においてビデオ出力部12から出力され、2段目のタイミング(時刻tp1、tp2、・・・)において再生され、オーディオデータは3段目のタイミングにおいてオーディオ出力部14から出力され、4段目のタイミング(時刻TNA1、TNA2、・・・)において再生される。ビデオの処理によって遅延した時間Δtだけオーディオの再生時間をずらすことにより、エンコード時に想定されていた再生タイミングでビデオおよびオーディオを再生できる。よって、同期再生が意図されていたビデオおよびオーディオに対しても、想定されていたとおりの同期再生を実現できる。
なお、ビデオおよびオーディオの「同期再生」とは、ビデオの再生タイミングがオーディオの再生タイミングに対して、一定の時間範囲(例えば50ミリ秒先行から30ミリ秒遅延の間)に入っていることをいう。ビデオおよびオーディオのPTSが一致している場合に限られるものではない。
ビデオとオーディオとが時間にして30ミリ秒以上のずれると、視聴者に違和感を与える場合がある。したがって、VPTSが、NAPTSに対して50ミリ秒先行(さらに厳密には30ミリ秒先行)から、30ミリ秒遅延までの間にあわせれば、実際の視聴において視聴者にとっては同期再生されているといえる。
図6は、本実施形態によるデコード部60の処理手順を示す。まずステップS101において、システムデコード部1は、符号化データストリームを符号化ビデオデータおよび符号化オーディオデータに分離し、ステップS102において、符号化データ(ビデオ/オーディオ)から、符号化フレームデータおよび再生時刻情報(VPTS/APTS)を抽出する。ビデオおよびオーディオの各符号化フレームデータは、それぞれビデオバッファ部2およびオーディオバッファ部6に格納され、再生時刻情報(VPTS/APTS)はビデオ再生管理部3およびオーディオ再生管理部7に送られる。
図7(a)は、オーディオ再生管理部7において生成されるテーブルの構成を示す。このテーブルは、オーディオバッファ部6に格納されたオーディオデータとオーディオ再生時刻情報とを関連づける。まず、オーディオ再生管理部7は、例えばAPTSごとにスロットという単位に分割する。そして、各スロットとオーディオアドレス情報とを対応付ける。オーディオアドレス情報は、対応するスロットに再生される、オーディオバッファ部6に格納されたオーディオデータの先頭アドレスを参照する。図7(b)は、オーディオバッファ部6に格納されたオーディオデータのデータ配置と、オーディオアドレス情報によって参照されるデータ位置の関係を示す。
再び図6を参照する。ステップS103において、ビデオデコード部5およびオーディオデコード部8は、VPTS/APTSがシステム時刻基準STCに達する前に、ビデオ/オーディオの符号化フレームデータをデコードし、ステップS104において、デコードされたビデオ/オーディオデータをフレームバッファ部11およびPCMバッファ部13に格納する。
次にステップS105において、オーディオ遅延設定部9は、予め設定された遅延時間に対応するPTS値ΔtをAPTSの値に加算し、新たなオーディオ再生時刻情報NAPTS値を求める(NAPTS=APTS+Δt)。以上の処理によって、オーディオの再生時刻情報(APTS)を修正した新たな再生時刻情報(NAPTS)が得られる。
本実施形態では、遅延時間はユーザによって予め設定されているとする。図8(a)はオーディオ遅延設定部9の操作部の例を示す。ユーザが初期設定画面において図8(a)に示す項目選択キーを操作すると、音声の遅延時間を設定できるモードに移行する。図8(b)は音声の遅延時間を設定する際の画面の例を示す。ユーザが操作部を介して画面上のハイライト91を「手動」にあわせ、決定キーを押下すると、手動による遅延時間の設定モードに移行する。ユーザが遅延量の表示窓93を見ながら図8(a)の「設定1」と示される上方向ボタンを押下すると画面上の増加ボタン92aがハイライトされ遅延量が増加する。逆に、「設定2」と示される下方向ボタンを押下すると、画面上の減少ボタン92bがハイライトされ遅延量が減少する。図8では、遅延させたい時間が“60ms”に設定されている。PTS値Δtは設定された遅延時間に基づいて得ることができる。設定された時間がt(ms)のとき、PTS値Δt=90.9tまたは91tとなる。
次にステップS106において、ビデオデコード部5は、システム時刻基準STCがVPTSに達したか否かを判断する。達していれば、ステップS107においてビデオ出力部12はフレームバッファからビデオデータを出力する。達していなければ、達するまで待つ。次に、ステップS108において、オーディオデコード部8は、STCがNAPTSに達したか否かを判断する。「達した」とは、STCがNAPTSに一致したとき、またはSTCがNAPTSを超過したときを示す。達していれば、ステップS109において、オーディオ出力部14はPCMバッファからビデオデータを出力する。達していなければ、達するまで待つ。
そして、ステップS110において、ビデオデコード部5およびオーディオデコード部8はデコードが終了したか否かを判断する。終了したときは処理を終了し、していなければステップS101に戻って処理を継続する。なお、ユーザから再生の停止が指示された場合にも処理は終了する。
以上、本実施形態によるデータ処理装置100の動作(特にデコード部60の動作)を説明した。
上述した説明では、圧縮符号化されたオーディオデータをデコードした後PCMデータをバッファするとした。しかし、それに代えて、デコード部60がデコードする前のオーディオバッファ部6に、オーディオデータをバッファすることも好ましい。デコードされたPCMデータより、デコード前の圧縮符号化された状態のオーディオデータの方がデータ量が小さく、オーディオバッファ部6等のバッファサイズが少なくてすむからである。具体的には、オーディオの符号化フレームデータがオーディオバッファ部6に格納された後、予め設定された遅延時間に対応するPTS値Δtをオーディオの再生時刻(APTS)の値に加算してNAPTS値を求めればよい(NAPTS=APTS+Δt)。これは、図6のステップS102の後、ステップS103の前に、ステップS105の処理を行うことに相当する。その他の処理は図6に示すとおりである。
図9は、オーディオバッファ部6の構成の例を示す。オーディオバッファ部6には、オーディオ遅延がない場合において符号化オーディオデータが格納される標準バッファ6aと、オーディオ遅延がある場合において追加の符号化オーディオデータが格納される追加バッファ6bとが設けられる。追加バッファ6bが設けられる理由は、オーディオ遅延がある場合には、従来の処理によればAPTSによって示された時刻に出力されているはずのオーディオデータが、本実施形態による処理ではNAPTSになるまで出力されないため、時間にしてΔt(=NAPTS−APTS)の間に読み込まれたデータをさらに格納するバッファ容量が必要になるからである。
よって、オーディオバッファ部6に必要なバッファ容量は、当初のAPTSによって規定される再生時刻の到達前までに受け取る符号化オーディオデータのデータ量と、再生時刻の遅延量(Δt)に応じた時間の経過までに受け取る符号化オーディオデータのデータ量との和以上である。前者は標準バッファ6aにより、後者は追加バッファ6bにより確保される。
例えば、追加バッファ6bに最大100ミリ秒のデータを追加的に格納できる追加バッファ6bが必要である場合を考える。これは、遅延時間が最大100ミリ秒の場合に相当し、ビデオではNTSC方式出力のときのビデオ約3フレームの表示時間に相当する。この場合に必要な追加バッファ6bの容量は、BSデジタル放送で使用されているオーディオ圧縮フォーマットのAAC方式では約22キロバイトである(1チャンネルあたり288キロビット秒として6チャンネル分のデータ量を算出した)。この容量は、デコード後のPCMデータを追加的に保存するときの容量の数分の1である。
なお、オーディオバッファ部6に格納される符号化オーディオフレームデータのデータ量が増加するため、オーディオ再生管理部7のテーブルサイズを増加させなければならない点にも留意しなければならない。
ただし、オーディオ再生管理部7に全てのオーディオの再生時刻情報(APTS)を格納せず、一部を間引いてテーブルを構成すれば、テーブルサイズの増加を防ぐことができる。図10(a)は間引き前のオーディオ再生管理部7のテーブル7aの構成を示し、図10(b)は間引き後のオーディオ再生管理部7のテーブル7bの構成を示す。テーブル7bは、テーブル7aの奇数番目の再生時刻情報(APTS)を間引いて生成されている。オーディオ再生管理部7がリアルタイムでテーブル7bを生成するときは、1つおきにの再生時刻情報(APTS)およびその対応アドレス情報の関係を記述すればよい。これによりテーブル7bのデータ量はテーブル7aのデータ量の半分になる。換言すれば、同じテーブルサイズであれば、テーブル7bはテーブル7aの倍のオーディオデータを管理できる。なお、再生時刻情報(APTS)およびその対応アドレス情報を間引くことにより、同期に必要なAPTS情報が減少するため、同期させる頻度は減少するが、管理すべきデータのデータ量が増加しても確実にビデオとオーディオの再生を同期させることができる。
本実施形態では、ビデオデコード部5およびオーディオデコード部8は、圧縮符号化されたビデオデータおよびオーディオデータをデコードして、フレームバッファ部11およびPCMバッファ部13に保持しておくとした。しかし、例えばDVDにはリニアPCMデータがオーディオデータとして含まれている場合には、デコード動作は不要である。リニアPCMデータは符号化はされているが圧縮はされていないからである。ただし、オーディオデータがリニアPCMデータであっても、ストリームに含まれる同期情報に従ってビデオと同期して再生されるため、先の説明をそのまま適用できる。また、データ処理装置100が光出力端子からドルビーデジタル等の符号化ストリームをそのまま出力する場合には、ストリームバッファ(図示せず)に一旦蓄えて、STCを参照し、NAPTSがSTCに達した時点で、オーディオ出力部14から出力すればよい。
次に、オーディオの遅延を発生させる映像音響機器120のビデオ処理の具体例を説明する。想定されるビデオ処理は、
(1)毎秒24フレームのフィルム素材から毎秒30フレームのビデオ素材への変換処理、
(2)インターレース走査・プログレッシブ走査間の変換処理、標準画質(Standard Definition;SD)のD1規格信号・高精細画質(High Definition;HD)のD3規格信号間の変換処理、NTSC方式・PAL方式間の変換処理
(3)ユーザからの指示等に基づく映像の拡大、縮小、編集処理
(4)複数の映像の合成処理
等である。上述の処理が不要な通常の再生時には、オーディオデータを遅延して出力する必要はない。しかし、ビデオ処理のオン/オフによって遅延が発生しうるため、遅延量の設定およびその設定に基づくオーディオデータの遅延出力が必要になる。
そのようなときは、オーディオ遅延設定部9に遅延時間が異なる複数の遅延情報を設け、行われる処理種別に応じて対応付けておくことが好ましい。例えば、映像音響機器120で実行される画像処理の種別をユーザが入力すると、その種別応じて遅延時間を変えるようにデコード部60を構成すればよい。
次に、オーディオデータの再生時間を遅延させる遅延時間を求め、その時間をオーディオ遅延設定部9において自動的に設定するための第1〜第3の設定手法を説明する。
まず第1の手法は以下のとおりである。データ処理装置100において、ビデオ信号にあらかじめ特定パターンの信号が含まれている同期検証用テストストリーム等をデコードし、映像音響機器120に送る。そして、映像音響機器120においてビデオ処理された後の表示された映像をキャプチャし、その遅延時間を測定する。得られた遅延時間をオーディオ遅延設定部9に設定することにより、遅延時間が設定できる。これらの処理を自動化することによりオーディオの再生遅延時間を自動的に設定できる。なお、遅延時間は、映像音響機器120における各信号処理モードの各々について遅延時間を測定し、遅延時間を設定してもよい。テストストリームは、放送系から入力されてもよいし、テストディスクまたはデータ処理装置100内のメモリ等から読み出されてもよい。なお、入力がテストストリームではなく、あらかじめデコードされたビデオデータを出力するようなテストパターンであってもよい。これは、デコードした後のビデオ処理での遅延を測定すればよいためである。
続いて、遅延時間を自動的に設定する第2の手法を説明する。第2の手法では、オーディオとの同期を阻害するビデオ処理の遅延原因(1)〜(4)の処理を、映像音響機器120ではなく、ビデオデコード部5のビデオ出力部12が行う。ビデオ出力部12がそのようなビデオ処理を行うことにより、デコード部60はビデオ処理に起因する遅延時間を把握することができ、その結果、オーディオ遅延設定部9はリアルタイムで遅延量を変更できる。また、映像音響機器120におけるビデオ処理も必要なくなるので、その負荷が軽減できる。
図11は、ビデオ処理を行う処理回路を搭載したビデオ出力部12の機能ブロックの構成を示す。ビデオ出力部12は、フレームバッファ部11からデコードされたフレームデータを受け取り、所定のビデオ処理を行ったビデオデータを出力する。ビデオ出力部12は、IP変換部71と、フォーマット変換部72と、拡大縮小部73と、他画面合成部74と、GUI重畳部75と、出力部76とを有する。これらの構成要素に関連して、ビデオデコード部5には外部映像入力部77およびGUIデータ生成部78とが別途設けられる。
IP変換部71は、インターレース走査・プログレッシブ走査間の変換処理を行う。フォーマット変換部72は、480iビデオ信号・1080iビデオ信号間の変換処理およびNTSC方式・PAL方式間の変換処理を行う。拡大縮小部73は、ユーザからの指示等に基づく映像の拡大、縮小、編集処理を行う。他画面合成部74は、デコードされたビデオと外部映像入力部77から入力されるビデオとを合成する。GUI重畳部75は、これまでの処理によって得られたビデオに、GUIデータ生成部78によって生成されたGUIデータを重畳する。そして出力部76は、最終的に得られたビデオデータを出力する。この出力は、映像音響機器120に送られる。ビデオデコード部5は、ビデオデータが得られたときの時刻をSTCに基づいて取得し、そのビデオデータのVPTSと比較することによって、遅延時間を特定することができる。
さらに、遅延時間を自動的に設定する第3の手法を説明する。第3の手法では、データ処理装置100と映像音響機器120とが互いに通信して、データ処理装置100が映像音響機器120において行われるビデオ処理の種別を特定する。これにより、データ処理装置100のデコード部60は、ビデオ処理に起因する遅延時間を予め特定できる。
以下、具体的に説明する。図12は、データ処理装置100と映像音響機器120との接続およびそれらの間で授受されるデータの種類を示す。図12の例では、HDMI規格に従ってデータが授受される。まずHDMIトランスミッタ80は、映像音響機器120のHDMIレシーバ130に対して、映像音響機器120を特定する情報(機器固有情報)を求める制御コマンドを送信する。HDMIレシーバ130は、その制御コマンドに基づいて、自己の装置の機器IDを機器固有情報としてHDMIトランスミッタ80に送信する。機器IDは、例えば映像音響機器120内のROM131にメーカー固有情報(Vendor Specific Data)として格納されており、メーカー名、機種名等を特定することができる。
HDMIトランスミッタ80は、機器IDを受け取ってデコード部60に出力する。デコード部60は、機器IDを受け取ると、内部メモリまたは外部のメモリカード等に規定されたテーブルを参照する。テーブルには、機器IDと遅延設定との対応が記述されている。デコード部60は、機器IDおよびそのテーブルに基づいて、映像音響機器120が実行するビデオ処理に起因する遅延時間を得ることができる。これにより、その遅延時間をオーディオ遅延設定部9に設定できる。なお、図12は、MPEG2プログラムストリームをデコードするデータ処理装置100を利用する場合の例であるが、デコードの対象はこのストリームに限られない。例えば、受信され、記録されたデジタル放送のMPEG2トランスポートストリームもデコードの対象になる。デコード部60はストリームの種類に応じたデコードを行うように構成されればよい。
ここまでは、システム時刻基準参照値SCRを基準としてシステム時刻基準STCを生成し、そのSTCに基づいて、ビデオの再生時間を規定するVPTSおよび遅延させたオーディオの再生時間を規定するNAPTSを生成し、ビデオおよびオーディオを同期して再生させるとして説明した。しかし、さらにVPTSに基づいてオーディオを再生することもできるし、NAPTSに基づいてビデオを再生することもできる。
光ディスク110に記録した符号化コンテンツを再生する場合、符号化コンテンツ等を編集し、編集点でのビデオを途切れなく再生する場合には、ビデオの再生時間を基準とした時間管理が有効である。これは、VPTSを基準としてNAPTSを管理することを意味する。本明細書では、VPTSを基準としてNAPTSを管理することをビデオマスターと呼ぶ。システム時刻基準参照部4は、SCRに基づいて生成したSTCではなく、VPTSに基づいてSTCを生成し、かつNAPTSが規定精度以内におさまるようにオーディオデコードを実施する。そして、NAPTSによって規定される時刻がVPTSによって規定される時刻を超えるまでのオーディオデータの再生をスキップすることによって、ビデオとオーディオとを同期して再生する。デコード部60のシステム時刻基準参照部4は、VPTSによって規定される再生時刻とNAPTSによって規定される時刻とが一定の許容範囲内に入ったことを確認した後、ビデオマスターに基づいて時間を管理して再生すればシームレスな編集再生を実現することができる。
例えば、ビデオデータの一部を削除した後で削除部分の前後にわたってシームレスに映像を再生したい場合には、削除位置直後のビデオデータに基づいて映像を表示するとともに、削除位置直前のビデオデータのVPTSから生成したSTC値を、削除位置直後のビデオデータのVPTSから生成したSTC値に変更する。そして、オーディオ出力をミュートして再度、遅延量を変更したビデオおよびオーディオの再生同期を取り直すことによってオーディオデコードを再開する。これにより、編集点の前後でもビデオマスターとしたSTC値の変更が行われ、編集点の再生時に再生された映像がフリーズする等の不自然な再生がなくなる。なおこの場合にも、オーディオ遅延分のオーディオバッファ部6の容量の増加、および、オーディオ再生時刻情報管理部7のテーブルサイズの増加は必要になる。
一方、光ディスク110に記録した符号化コンテンツを再生するとき、オーディオを途切れなく再生する場合には、オーディオの再生時間NAPTSを基準とした時間管理が有効である。これは、NAPTSを基準としてVPTSを同期させることを意味する。本明細書では、NAPTSを基準としてVPTSを管理することをオーディオマスターと呼ぶ。システム時刻基準参照部4は、SCRに基づいて生成したSTCではなく、NAPTSに基づいてSTCを生成し、かつ、VPTSが規定精度以内におさまるようにビデオデコードを実施する。そして、適当な出力映像のスキップまたは同じ画面の複数回出力によってオーディオをビデオと同期して再生する。オーディオの再生時間NAPTSによって規定される時刻をオーディオマスターとしたときでも、オーディオ遅延を考慮して出力しているため、オーディオを遅延したビデオと同期して再生することができる。なおこの場合にも、オーディオ遅延分のオーディオバッファ部6の容量の増加、および、オーディオ再生時刻情報管理部7のテーブルサイズの増加は必要になる。
例えば、出力音声または音楽等を途切れることなく再生したいとき(早送りやコマ送り再生時)においてオーディオの連続性を保つためには、ビデオの再生が長すぎる、または短すぎる場合がある。その場合には、同じ画面を何度も繰り返し表示し、または、特定数フレームをスキップする等の処理を行う。
オーディオ遅延設定部9において遅延時間の設定を変更する際には、一旦オーディオ出力をフェードアウトもしくはミュート設定して、音量を下げる。そして遅延設定を変更後、ミュート解除もしくは、フェードインを実行し、元の音量に復帰させればよい。
図1に示すデータストリーム10にはオーディオデータとビデオデータとが混在しており、図4に示すシステムデコード部1においてそれらを分離するとして説明した。しかし、オーディオデータおよびビデオデータは独立した別個のストリームとして含まれていてもよい。例えば、ビデオカメラ等で撮影したオーディオデータおよびビデオデータをPCで編集して、ビデオのエレメンタリストリームとオーディオのエレメンタリストリームとにわけてデータ処理装置100に入力してもよい。ビデオデータの再生時刻情報およびオーディオデータの再生時刻情報に基づいて、ビデオとオーディオが同期して再生されるのであれば、本発明は適用可能である。
本実施形態は、ビデオとオーディオとを同期して再生するとしたが、これは例である。例えば、DVDに設けられているサブピクチャに関して、そのビデオ処理に基づく再生遅延が発生する場合には、やはりオーディオの再生時刻情報NAPTSを生成して字幕とオーディオとを同期して再生することもできる。また衛星放送を受信し記録した場合のデータ放送の同期についても同様である。映像音響機器120においてビデオとデータの内容との重ね合わせ処理等において処理遅延が発生する場合には、オーディオの再生時刻情報NAPTSを生成して、ビデオ、データの内容およびオーディオを同期して再生することができる。
本実施形態では、APTSにオーディオ遅延Δtに相当するPTSを加算してNAPTSを求めるとしたが、VPTSからΔt相当分を減算してもよい。ただし、VPTSからΔtを減算するだけでなく、システム時刻基準参照値そのものをΔt減算することで、同じ効果が得られる。具体的には、データ処理装置100に、ビデオの再生時刻情報に任意の遅延用設定時間を減算する手段およびシステム時刻基準参照値に任意の遅延用設定時間を減算する手段を設ければよい。これにより、映像音響機器120におけるビデオ処理の遅延を考慮して遅延用設定時間を減算したシステム時刻基準参照値に対して、遅延のために設定時間を減算されたビデオと、オーディオとを同期して再生できる。
また、本実施形態では、画像処理によってビデオがオーディオに遅れて再生されることを想定して説明した。しかし、これとは逆に、データ処理装置100の出力後に行われる各種の音響効果等の処理に起因してオーディオの再生が遅延する場合もある。このときは、ビデオ再生が先行してしまうため、VPTSに遅延時間Δtに相当するPTSを加算した新たなビデオ再生時刻情報NVPTSを求めて、ビデオとオーディオとの再生を同期させればよい。このときは、ビデオバッファ部2およびビデオ再生管理部3のテーブルサイズが増加することになる。
データ処理装置100に設けられた種々のバッファは、その一部または全部が半導体メモリによって構成されていてもよいし、ハードディスク等の記録媒体によって構成されていてもよい。
上述のデータ処理装置10の機能、特にデコード部60の機能は、ソフトウェアを実行することによって実現してもよい。例えば、CPU(図示せず)がコンピュータプログラムを実行することによって、各構成要素の動作を制御してもよい。コンピュータプログラムは、例えば図6に示すフローチャートにしたがった処理をデータストリーム10に実行させるように構成すればよい。
コンピュータプログラムは、光ディスクに代表される光記録媒体、SDメモリカード、EEPROMに代表される半導体記録媒体、フレキシブルディスクに代表される磁気記録媒体等の記録媒体に記録することができる。なお、データ処理装置10は、記録媒体を介してのみならず、インターネット等の電気通信回線を介してもコンピュータプログラムを取得できる。
本発明によれば、ビデオ、オーディオ等を同期して再生することができるデータ処理装置等が提供される。例えば、ビデオ処理に起因してビデオの再生が遅延する場合には、オーディオの再生時刻がビデオの遅延時間相当量だけ遅くなるようにオーディオの再生時刻情報を修正するので、ビデオとオーディオとを同期して再生することができる。
MPEG2プログラムストリーム10のデータ構造を示す図である。 オーディオパック40のデータ構造を示す図である。 データ処理装置100と、データ処理装置100に接続された映像音響機器120を示す図である。 デコード部60の詳細な機能ブロックの構成を示す図である。 PTSを用いてビデオとオーディオとの同期再生を実現する再生タイミングを示す図である。 本実施形態によるデコード部60の処理手順を示すフローチャートである。 (a)は、オーディオ再生管理部7において生成されるテーブルの構成を示す図であり、(b)は、オーディオバッファ部6に格納されたオーディオデータのデータ配置と、オーディオアドレス情報によって参照されるデータ位置の関係を示す図である。 (a)は、オーディオ遅延設定部9の操作部の例を示す図であり、(b)は、遅延時間の設定画面の例を示す図である。 オーディオバッファ部6の構成の例を示す図である。 (a)は間引き前のオーディオ再生管理部7のテーブル7aの構成を示す図であり、(b)は間引き後のオーディオ再生管理部7のテーブル7bの構成を示す図である。 ビデオ処理を行う処理回路を搭載したビデオ出力部12の機能ブロックの構成を示す図である。 データ処理装置100と映像音響機器120との接続およびそれらの間で授受されるデータの種類を示す図である。

Claims (20)

  1. 圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取る受信部と、
    前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出する分離部と、
    前記第1データをデコードして、前記第1時刻情報に基づいて出力する第1デコード部と、
    前記第2時刻情報に基づいて前記第2データを出力する第2デコード部と
    を有するデータ処理装置であって、
    前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、再生時刻の遅延量を規定する遅延情報を保持し、かつ、前記遅延情報に基づいて前記第2時刻情報を修正し、前記第2データの再生時刻を遅延させる遅延設定部をさらに備えたデータ処理装置。
  2. 前記第2データのコンテンツは圧縮符号化されており、
    前記第2デコード部は前記第2データを復号し、前記第2デコード部は復号された前記第2データを格納する内部バッファを有する、請求項1に記載のデータ処理装置。
  3. 前記第2データのコンテンツは圧縮符号化されており、
    圧縮符号化された前記第2データを格納するデータバッファをさらに備え、
    前記データバッファは、修正後の第2時刻情報によって規定される再生時刻の前に前記圧縮符号化された前記第2データを取り出し、前記第2デコード部に出力する、請求項2に記載のデータ処理装置。
  4. 前記受信部は前記データストリームを継続的に受け取り、前記データバッファは前記第2データを順次格納し、
    前記データバッファの容量は、修正前の第2時刻情報によって規定される再生時刻の到達前までに受け取る前記第2データのデータ量と、前記再生時刻の遅延量に応じた時間の経過までに受け取る前記第2データのデータ量との和以上である、請求項3に記載のデータ処理装置。
  5. 前記第2データが格納された前記データバッファ内の位置を示すアドレス情報と、前記第2データに対応する修正前の第2時刻情報との対応関係を規定するテーブルを管理する管理部をさらに備えた、請求項4に記載のデータ処理装置。
  6. 前記管理部は、一部の前記第2データについて、前記テーブルを管理する、請求項5に記載のデータ処理装置。
  7. 前記受信部は、オーディオおよび字幕の少なくとも一方に関する前記第2データを有するデータストリームを受け取る、請求項1に記載のデータ処理装置。
  8. 前記遅延設定部は、ユーザから前記遅延量を特定する値を受け取って、前記遅延情報として保持する、請求項1に記載のデータ処理装置。
  9. 前記遅延設定部は、予め定められた値を前記遅延情報として保持する、請求項1に記載のデータ処理装置。
  10. 前記遅延設定部は、再生時刻の遅延量を30ミリ秒以上の値として規定した遅延情報を保持する、請求項9に記載のデータ処理装置。
  11. 接続先の機器に前記第1データを送出するとともに、前記機器を特定することが可能な固有情報を前記機器から受け取るトランスミッタをさらに備え、
    前記トランスミッタは、前記固有情報に基づいて前記機器において実行される前記第1データに関するビデオ処理の所要時間を特定し、
    前記遅延設定部は、特定された前記所要時間の値を前記遅延量として遅延情報を保持する、請求項1に記載のデータ処理装置。
  12. 前記第1デコード部および前記第2デコード部は、単一のデコード回路として実装される、請求項1に記載のデータ処理装置。
  13. 圧縮符号化されたビデオコンテンツに関する第1データ、前記第1データの再生時刻を規定する第1時刻情報、前記ビデオコンテンツと異なるコンテンツに関する第2データおよび前記第2データの再生時刻を規定する第2時刻情報を有するデータストリームを受け取るステップと、
    前記データストリームから、前記第1データ、前記第1時刻情報、前記第2データおよび前記第2時刻情報を抽出するステップと、
    前記第1データをデコードして、前記第1時刻情報に基づいて出力するステップと
    を包含するデータ処理方法であって、
    前記第1時刻情報および前記第2時刻情報が前記第1データおよび前記第2データを同期して再生する時刻を規定している場合において、
    再生時刻の遅延量を規定する遅延情報を保持するステップと、
    前記遅延情報に基づいて前記第2時刻情報を修正して前記第2データの再生時刻を遅延させるステップと、
    前記第2時刻情報に基づいて前記第2データを出力するステップと
    を包含する、データ処理方法。
  14. 前記第2データのコンテンツは圧縮符号化されており、
    前記第2データを出力するステップは、前記第2データを復号し、復号された前記第2データをデータバッファに格納した後に出力する、請求項13に記載のデータ処理方法。
  15. 前記第2データのコンテンツは圧縮符号化されており、
    圧縮符号化された前記第2データをデータバッファに格納するステップと、
    修正後の第2時刻情報によって規定される再生時刻の前に、格納された前記第2データを前記データバッファから取り出すステップとをさらに包含し、
    前記第2データを出力するステップは、前記データバッファから取り出された前記第2データを出力する、請求項14に記載のデータ処理方法。
  16. 前記受信するステップは、前記データストリームを継続的に受信し、前記第2データを格納するステップは前記第2データを前記データバッファに順次格納し、
    前記データバッファの容量は、修正前の第2時刻情報によって規定される再生時刻の到達前までに受け取る前記第2データのデータ量と、前記再生時刻の遅延量に応じた時間の経過までに受け取る前記第2データのデータ量との和以上である、請求項15に記載のデータ処理方法。
  17. 前記第2データが格納された前記データバッファ内の位置を示すアドレス情報と、前記第2データに対応する修正前の第2時刻情報との対応関係を規定するテーブルを管理するステップをさらに包含する、請求項16に記載のデータ処理方法。
  18. 前記受信するステップは、オーディオおよび字幕の少なくとも一方に関する前記第2データを有するデータストリームを受け取る、請求項13に記載のデータ処理方法。
  19. 前記遅延させるステップは、ユーザから前記遅延量を特定する値を受け取って、前記遅延情報として保持する、請求項13に記載のデータ処理方法。
  20. 前記遅延させるステップは、予め定められた値を前記遅延情報として保持する、請求項13に記載のデータ処理方法。
JP2005502885A 2003-02-27 2004-02-24 データ処理装置および方法 Expired - Lifetime JP4536653B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003050856 2003-02-27
JP2003050856 2003-02-27
PCT/JP2004/002152 WO2004077825A1 (ja) 2003-02-27 2004-02-24 データ処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2004077825A1 true JPWO2004077825A1 (ja) 2006-06-08
JP4536653B2 JP4536653B2 (ja) 2010-09-01

Family

ID=32923357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005502885A Expired - Lifetime JP4536653B2 (ja) 2003-02-27 2004-02-24 データ処理装置および方法

Country Status (6)

Country Link
US (1) US8290353B2 (ja)
EP (1) EP1603336B1 (ja)
JP (1) JP4536653B2 (ja)
KR (1) KR100711328B1 (ja)
CN (1) CN1723703B (ja)
WO (1) WO2004077825A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101036389B (zh) * 2004-09-02 2012-05-02 索尼株式会社 内容接收器、视频/音频输出定时控制方法和内容提供系统
JP4270084B2 (ja) 2004-09-14 2009-05-27 株式会社日立製作所 記録再生装置
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique
JP4660184B2 (ja) * 2004-12-27 2011-03-30 株式会社東芝 信号中継装置及び信号中継方法
KR100652956B1 (ko) * 2005-01-14 2006-12-01 삼성전자주식회사 비디오 수신지연 알림방법 및 이를 적용한 방송수신장치
CN101171838B (zh) 2005-04-28 2011-06-01 松下电器产业株式会社 口形同步修正装置及口形同步修正方法
US20070127909A1 (en) 2005-08-25 2007-06-07 Craig Mowry System and apparatus for increasing quality and efficiency of film capture and methods of use thereof
JP4991129B2 (ja) 2005-07-19 2012-08-01 Necディスプレイソリューションズ株式会社 映像音声再生装置および映像音声再生方法
JP4674520B2 (ja) * 2005-10-11 2011-04-20 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20080005350A1 (en) * 2006-06-05 2008-01-03 Oleg Logvinov System and method for synchronized content rendering in a multi-node network
US8539105B2 (en) * 2006-06-05 2013-09-17 Stmicroelectronics, Inc. System and method for synchronized content rendering in a multi-node network
US9083994B2 (en) * 2006-09-26 2015-07-14 Qualcomm Incorporated Method and system for error robust audio playback time stamp reporting
JP5366827B2 (ja) * 2007-12-19 2013-12-11 パナソニック株式会社 映像音響出力システム
KR100916505B1 (ko) * 2008-02-20 2009-09-08 한국전자통신연구원 정상 재생 타임을 이용한 스케일러블 비디오 코딩 정보와어드밴스드 오디오 코딩 정보의 동기화 지원 방법 및 장치
JP2009253744A (ja) * 2008-04-08 2009-10-29 Mitsubishi Electric Corp 符号化装置、復号装置及び映像音声伝送システム
US8539301B2 (en) * 2009-10-21 2013-09-17 Nec Laboratories America, Inc. Message-wise unequal error protection
JP2011188244A (ja) * 2010-03-09 2011-09-22 Sharp Corp 映像コンテンツ再生装置、その制御方法、プログラム、及び記録媒体
US10326978B2 (en) 2010-06-30 2019-06-18 Warner Bros. Entertainment Inc. Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning
US8755432B2 (en) 2010-06-30 2014-06-17 Warner Bros. Entertainment Inc. Method and apparatus for generating 3D audio positioning using dynamically optimized audio 3D space perception cues
US9591374B2 (en) 2010-06-30 2017-03-07 Warner Bros. Entertainment Inc. Method and apparatus for generating encoded content using dynamically optimized conversion for 3D movies
KR20120074059A (ko) * 2010-12-27 2012-07-05 삼성전자주식회사 오디오 데이터 출력 방법 및 장치
US20130132521A1 (en) * 2011-11-23 2013-05-23 General Instrument Corporation Presenting alternative media content based on environmental factors
WO2013112637A1 (en) * 2012-01-24 2013-08-01 Tooyah, Inc. System and method for maintaining integrity of audio data in a multiplexed audio/video stream over a low-latency network connection
JP2015012557A (ja) * 2013-07-02 2015-01-19 日本電気株式会社 映像音声処理装置、映像音声処理システム、映像音声同期方法、プログラム
US10051294B2 (en) * 2015-03-31 2018-08-14 Avago Technologies General Ip (Singapore) Pte. Ltd. Compressed video buffering
US10158905B2 (en) * 2016-09-14 2018-12-18 Dts, Inc. Systems and methods for wirelessly transmitting audio synchronously with rendering of video
CA3151412A1 (en) * 2019-09-17 2021-03-25 Carl Adrian Woffenden System and method for talking avatar
JP7365212B2 (ja) * 2019-12-03 2023-10-19 株式会社ソニー・インタラクティブエンタテインメント 動画再生装置、動画再生システム、および動画再生方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676471A (ja) * 1992-08-27 1994-03-18 Sony Corp データ再生システム
JPH07307933A (ja) * 1994-05-12 1995-11-21 Canon Inc マルチメディア通信端末
JPH09205618A (ja) * 1996-01-29 1997-08-05 Mitsubishi Electric Corp 動画像音声伸張再生装置および動画像音声同期制御器
JPH10511238A (ja) * 1994-12-14 1998-10-27 サーラス ロジック インコーポレイテッド 再生システムのための同期方法及び装置
JP2001028738A (ja) * 1999-07-14 2001-01-30 Hitachi Ltd 放送データ送受信システム及びこれに使用する送信装置並びにその受信装置
JP2001128167A (ja) * 1999-10-29 2001-05-11 Sharp Corp デジタルavシステム
JP2002101395A (ja) * 2000-09-21 2002-04-05 Sony Corp 多重化装置及び方法、並びに、復号装置及び方法
JP2003244658A (ja) * 2002-02-19 2003-08-29 Sharp Corp 映像/音声再生装置
JP2003284010A (ja) * 2002-03-26 2003-10-03 Mitsubishi Electric Corp 符号化装置及びメディアデータ同期方法
JP2003348489A (ja) * 2002-05-29 2003-12-05 Sony Corp 放送受信機

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5241389A (en) * 1991-07-29 1993-08-31 Intelligent Resources Integrated Systems, Inc. Video display system providing for synchronization of multiple video data streams
JP2500579B2 (ja) 1993-02-03 1996-05-29 日本電気株式会社 映像音声同期システム
CA2107727C (en) * 1992-10-07 1999-06-01 Hiroaki Ueda Synchronous compression and reconstruction system
US5594660A (en) 1994-09-30 1997-01-14 Cirrus Logic, Inc. Programmable audio-video synchronization method and apparatus for multimedia systems
EP2175665B1 (en) * 1996-12-04 2012-11-21 Panasonic Corporation Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
US6262776B1 (en) * 1996-12-13 2001-07-17 Microsoft Corporation System and method for maintaining synchronization between audio and video
EP1300850A3 (en) * 1997-09-17 2004-06-09 Matsushita Electric Industrial Co., Ltd. Video data editing apparatus, optical disc for use a recording medium of a video data editing apparatus, and computer-readable recoding medium storing an editing program
US6285405B1 (en) * 1998-10-14 2001-09-04 Vtel Corporation System and method for synchronizing data signals
DE19930824C2 (de) 1999-07-03 2001-05-31 Grundig Ag Bild- und Tonwiedergabegerät und Verfahren für dessen Betrieb
US7030930B2 (en) * 2001-03-06 2006-04-18 Ati Technologies, Inc. System for digitized audio stream synchronization and method thereof
US6906755B2 (en) * 2002-01-04 2005-06-14 Microsoft Corporation Method and apparatus for synchronizing audio and video data

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0676471A (ja) * 1992-08-27 1994-03-18 Sony Corp データ再生システム
JPH07307933A (ja) * 1994-05-12 1995-11-21 Canon Inc マルチメディア通信端末
JPH10511238A (ja) * 1994-12-14 1998-10-27 サーラス ロジック インコーポレイテッド 再生システムのための同期方法及び装置
JPH09205618A (ja) * 1996-01-29 1997-08-05 Mitsubishi Electric Corp 動画像音声伸張再生装置および動画像音声同期制御器
JP2001028738A (ja) * 1999-07-14 2001-01-30 Hitachi Ltd 放送データ送受信システム及びこれに使用する送信装置並びにその受信装置
JP2001128167A (ja) * 1999-10-29 2001-05-11 Sharp Corp デジタルavシステム
JP2002101395A (ja) * 2000-09-21 2002-04-05 Sony Corp 多重化装置及び方法、並びに、復号装置及び方法
JP2003244658A (ja) * 2002-02-19 2003-08-29 Sharp Corp 映像/音声再生装置
JP2003284010A (ja) * 2002-03-26 2003-10-03 Mitsubishi Electric Corp 符号化装置及びメディアデータ同期方法
JP2003348489A (ja) * 2002-05-29 2003-12-05 Sony Corp 放送受信機

Also Published As

Publication number Publication date
CN1723703B (zh) 2012-05-30
EP1603336A1 (en) 2005-12-07
WO2004077825A1 (ja) 2004-09-10
US20060072399A1 (en) 2006-04-06
US8290353B2 (en) 2012-10-16
JP4536653B2 (ja) 2010-09-01
EP1603336B1 (en) 2017-07-19
KR100711328B1 (ko) 2007-04-27
KR20050056211A (ko) 2005-06-14
CN1723703A (zh) 2006-01-18
EP1603336A4 (en) 2009-06-10

Similar Documents

Publication Publication Date Title
JP4536653B2 (ja) データ処理装置および方法
KR100540645B1 (ko) Dvd 정보 전송 장치 및 그 방법
WO2013136754A1 (ja) 表示装置、及び送信装置
US20010055469A1 (en) Decoder and reproducing unit
WO2005098854A1 (ja) 音声再生装置、音声再生方法及びプログラム
TW200830874A (en) Image information transmission system, image information transmitting apparatus, image information receiving apparatus, image information transmission method, image information transmitting method, and image information receiving method
JP2005278152A (ja) 映像音声再生装置及び映像音声再生方法
JP2006345223A (ja) 記録出力装置及び記録出力方法
JP4257478B2 (ja) 記録再生装置
KR20050052717A (ko) 오디오 원본 보존 트랜스코딩 시스템 및 방법
JP4001814B2 (ja) 音声/映像データ記録再生装置及び方法、ならびに音声/映像データ再生装置及び方法
KR100693233B1 (ko) 데이터 기록 재생 장치
US20060153323A1 (en) Clock generation device and clock generation method
WO2002058384A1 (fr) Appareil et procede de reproduction
JP4096915B2 (ja) デジタル情報再生装置及び方法
JP2006148679A (ja) データ処理装置
US20050069289A1 (en) Transport stream recording/editing device and recording/editing method
JP4285099B2 (ja) データ再生方法及びデータ再生装置
JP2004280994A (ja) データ作成方法及びデータ記録装置
JP3977881B2 (ja) 受信装置
JP2004040579A (ja) デジタル放送受信装置、およびデジタル放送同期再生方法
JP3794146B2 (ja) 情報再生装置および方法、並びに提供媒体
JP3742688B2 (ja) 圧縮映像音声データデコード装置及び圧縮映像音声データデコード方法
JP2006217229A (ja) デジタル放送受信装置
JP2001326908A (ja) 記録再生装置及び記録再生装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4536653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140625

Year of fee payment: 4

EXPY Cancellation because of completion of term