JP3864346B2 - Mpeg再生システムにおいてオーディオとビデオを同期するための方法及び装置 - Google Patents

Mpeg再生システムにおいてオーディオとビデオを同期するための方法及び装置 Download PDF

Info

Publication number
JP3864346B2
JP3864346B2 JP51908496A JP51908496A JP3864346B2 JP 3864346 B2 JP3864346 B2 JP 3864346B2 JP 51908496 A JP51908496 A JP 51908496A JP 51908496 A JP51908496 A JP 51908496A JP 3864346 B2 JP3864346 B2 JP 3864346B2
Authority
JP
Japan
Prior art keywords
audio
video
encoded
time stamp
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP51908496A
Other languages
English (en)
Other versions
JPH10511513A (ja
Inventor
ローゼノウ、マーク、エイ
サーティン、ダーリル
ダウム、ダニエル
オート、ジェフリー、ジー
Original Assignee
サーラス ロジック インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーラス ロジック インコーポレイテッド filed Critical サーラス ロジック インコーポレイテッド
Publication of JPH10511513A publication Critical patent/JPH10511513A/ja
Application granted granted Critical
Publication of JP3864346B2 publication Critical patent/JP3864346B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • H04N9/8216Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal using time division multiplex
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/393Arrangements for updating the contents of the bit-mapped memory
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3036Time code signal
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/66Digital/analogue converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • H04N19/427Display on the fly, e.g. simultaneous writing to and reading from decoding memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4143Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4343Extraction or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/213Read-only discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Description

発明の分野
本発明は、一般的に、マルチメディア・システムの分野に関し、一層詳細には、本発明は、回路がオーディオ再生とビデオ表示との間の同期をとるマルチメディア・パーソナル・コンピュータ(PC)のための同期方法及び回路に関する。本発明は、特に、モーション・ピクチャー・エキスパート・グループ(MPEGI+II)によるデータ圧縮及び伸張標準に適用する。
本発明の背景
パーソナル・コンピュータは、オーディオ及びビデオ情報を含むマルチメディア・ソフトウエア・アプリケーションを動作させるために応用されている。いくつかのマルチメディア仕様委員会は、符号化/圧縮及び復号/伸張の標準化を確立し、若しくは提案している。モーション・ピクチャー・エキスパート・グループによって確立されたMPEGI及びIIは、マルチメディア・PC・ソフトウエア・アプリケーションの分野で最も広く認められている国際標準である。他の標準として、ジョイント・フォトグラフィック・エキスパート・グループによって確立されているJPEG及びモーションJPEGがある。
図1Aは、MPEGアルゴリズムに基づいて圧縮され符号化されたビデオ及び/またはオーディオデータを伸張するMPEGオーディオ及びビデオ復号化システム120を説明している。このシステム・デコーダ110は、散在され圧縮されたビデオ及び/またはオーディオデータを含むことのできる符号化されたMPEGデータ・ストリーム101を読み、ビデオ・プレゼンテーション・タイム・スタンプ(VPTS)104、システム・クロック・リファレンス(SCR)105、及びオーディオ・プレゼンテーション・タイム・スタンプ(APTS)106のようなタイミング情報を発生する。ビデオデコーダ111は、ビデオデータストリーム102を復号化し伸張して、復号化/伸張されたビデオ信号107を発生する。オーディオデコーダ112はオーディオデータ・ストリーム103を復号し伸張して、復号化/伸張されたオーディオ信号108を発生する。復号化/伸張されたオーディオ信号108が、オーディオスピーカ若しくは他のオーディオ発生手段(図示せず)に接続される一方、復号化/伸張されたビデオ信号107は、PCモニタ若しくは他のタイプのディスプレイに接続される。
図1Bは、MPEGに関するISO/IEC11172−1:1993(E)国際標準仕様書の49ページから参考としてここに編入されたものであり、これは、符号化/圧縮データのデータストリームがパケットを用いてどのようなまとまりにされ伝送されるかの詳細な図を示している。データストリーム160は、例えば、ISOレイヤー(層)とパックレイヤーのような異なるレイヤーを持つ。ISOレイヤー内の連続するパッケージ161は、ISOエンドコード164に達するまで伝送される。各パッケージ161は、パック・スタート・コード162及びパックデータ163を有するものとして定義される。パックレイヤーでは、各パッケージ161は、パック開始コード162、システム・クロック・リファレンス117、システムヘッダー180及びデータパケット165〜168を持つものとして定義される。省略符号167は多数のパケットを示している。システム・クロック・リファレンス117は、ビットパターン0010、Xの3ビット185、1のビット・パターン、Yの15ビット186、1のビットパターン、Zの15ビット187、ビットパターン11、マルチプレクサレート188、及びビットパターン1であることが更に定義される。Xの3ビット185、Yの15ビット186及びZの15ビット187は、システム・クロック・リファレンス(SCR)を示す33ビット・パターンを構成する。システム・クロック・リファレンスは、基準とされるシステム時間を示す。
マルチプレクサレート188は、オーディオパケットがどのくらいの間隔でビデオパケットの間に散在されているのかを示す。各パケット165〜168は、パケット166と同じように説明される。パケット166は、3バイトのパケット開始コードプリフィックス170A、1バイトのストリームID170B、2バイトのパッケージ長171、hバイトの他のヘッダーデータ172、及びNバイトのパッケージデータ173を有する。Nバイトのパケットデータ173は、オーディオ若しくはビデオデータを示す。例えば、MPEGI、MPEGII若しくはJPEG等の圧縮/符号化方法を用いる場合においては、データパケットは、適切に符号化される。hバイトの他のヘッダーデータ172は、1から16までのスタッフィングバイト140、コードビット141、基準バッファスケールのための1フラグビット142、13基準バッファサイズビット143、及び何もないか、プレゼンテーション・タイム・スタンプ(PTS)か、デコーディング・タイム・スタンプ(DTS)を持つプレゼンテーション・タイム・スタンプ(PTS)かを夫々示す、1、5または10バイトのタイムスタンプ情報150からなる。
プレゼンテーション・タイム・スタンプは、もし次に続くデータパケット173がオーディオ情報を含むならば、オーディオ・プレゼンテーション・タイム・スタンプとなる。これに代えて、プレゼンテーション・タイム・スタンプは、もし次に続くデータパケット173がビデオ情報を含むなら、ビデオ・プレゼンテーション・タイム・スタンプとなる。これらのどの場合においても、APTSやVPTSは、5バイト、即ち、未使用の7ビットを含む33ビットの情報によって示される。
図3Aは図1Bと比較して符号化/圧縮データストリーム101の簡単化された例315を説明している。このような符号化/圧縮されたデータストリームは、複数の符号化/圧縮されたビデオデータパケット、若しくはブロック及び複数の符号化/圧縮されたオーディオデータパケット、若しくはブロックを含む。MPEGは、ビデオフレーム若しくはピクチャに基いてビデオパケットを符号化/圧縮する。
3つのタイプのビデオフレームが用いられる。イントラ−フレーム、即ち、I−タイプフレームは、それ自身に関する情報を用いて符号化されるビデオデータのフレームを含む。1つの任意の圧縮されていないビデオフレームのみが符号化/圧縮されて、1つの符号化/圧縮されたビデオデータのI−タイプフレームになる。予測フレーム、即ち、P−タイプフレームは、過去の参照フレームから動き補償予測を用いて符号化/圧縮されたフレームのビデオデータを含む。I−タイプやP−タイプのような、以前に符号化/圧縮されたフレームは、ビデオデータの現在の圧縮されていないビデオデータのフレームを符号化/圧縮して、符号化され圧縮されたビデオデータのP−タイプフレームにするために用いられる。双方向フレーム、即ち、B−タイプフレームは、過去及び未来の参照フレーム、または過去、または未来のビデオデータの参照フレームを用いて符号化/圧縮されたフレームのビデオデータを含む。参照フレームはI−タイプフレームかP−タイプフレームのどちらでも良い。
B−タイプフレームは、I−タイプ若しくはP−タイプフレーム、I−タイプとP−タイプの組み合わせ、または複数のフレームにわたって画像内に速い動きがあるときはそのどちらかの間に挿入される。動き補償は、符号化/圧縮及び復号化/伸張での画素値を予測する効率を向上するために、あるフレームから次のフレームまでの動きベクトルの利用を参照する。予測方法は、動きベクトルを用いる。これは、オフセット値と、ビデオデータの任意のフレームを圧縮/符号化若しくは伸張/復号化するために、エラーデータと共に用いられる復号化された画素値を持つビデオデータの過去若しくは未来のフレームに関連しているエラーデータを供給するためである。
画像は可変の解像度を有し、動きを含み、そして、フレームレートはより大きいので、画像を表示するためには、随伴するオーディオを生成するよりもより多くのデータが必要とされる。従って、303〜305のようなビデオデータパケットは、311のようなオーディオデータパケットよりもMPEGデータストリーム内でより頻繁に発生する。ビデオデータパケットの間にオーディオデータパケットのまばらな挿入は、オーディオが再生される前若しくは後にイメージフレームが表示されることを引き起こす。タイムスタンプはオーディオとビデオの同期を容易にするために符号化/圧縮されたデータストリーム中に設けられる。
ビデオ・プレゼンテーション・タイム・スタンプ300〜302は、任意のシステムタイムクロック316の様々なインターバル306〜308で用意される。参照符号310で例示されているオーディオ・プレゼンテーション・タイム・スタンプもまた、MPEGデータストリームの様々なインターバル312で用意される。更に、様々なインターバルで供給されるシステム・クロック・リファレンス(SCR)がある。これらSCR、VPTS及びAPTSの夫々は時間値を示す33ビットの値である。MPEG標準は、MPEGデコーダがビデオ表示シーケンスの開始時刻として33ビットVPTSを用い、オーディオ再生シーケンスの開始時刻として33ビットAPTSを用いることを推奨している。APTS及びVPTSは、あわせてプレゼンテーション・タイム・スタンプ(PTS)と呼ばれる。MPEG標準は、APTS、VPTS及びSCRが少なくとも0.7秒に1度、ビットストリーム中に現れることを要求している。
従来技術においては、33ビットのシステム・クロック・リファレンス(SCR)は、ビデオ再生とオーディオ再生との間のずれを最小限にするためにビデオ及びオーディオ出力の両方に対する基準時間として用いられてきた。SCRはシステムカウンタと呼ばれるカウンタにロードされ、そして90khzのシステムクロック(SCLK)でインクリメントされる。システムカウンタの出力は、オーディオ若しくはビデオ再生にどのくらいの量の同期ずれがあったかを決定するために、ビデオデコーダ111においてVPTSと及びオーディオデコーダ112内においてAPTSと比較される。もし、しきい値レベルに達したら、ビデオはオーディオと正確に同期するためにジャンプする。従って、SCRはビデオ再生とオーディオ再生を再同期させるために用いられる。
いくつかの復号化システムにおいては、ビデオクロック若しくは復号化クロックはSCRを参照することなく生成され、それはロックされていない若しくは基準に合わされていないので、時間ドリフト(進み若しくは遅れ)がビデオ若しくは復号化クロックから得られる合成されたVPTS中に現れる。この時間ドリフトは、1秒若しくは90000システムクロック周期内で、100万で約50の時間誤差を引き起こす。これは実際のVPTS値と44から67μsec異なる合成されたVPTS値に相当する。同期ずれについて修正を行わないシステムにおいては、時間誤差は蓄積し、ビデオイメージをオーディオ再生に対して5から6分毎に1フレーム進ませる若しくは遅れさせる。もしビデオ表示及びオーディオ再生がときどき再同期されないなら、フレームの進み若しくは遅れは更に長期間にわたって蓄積される。
本発明の概要及び目的
本発明は、少なくともオーディオデータパケット、ビデオデータパケット、オーディオ・プレゼンテーション・タイム・スタンプ及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化データストリームからの、オーディオ及びビデオ信号を同期するための装置を含む。システムデコーダは、符号化データストリームを受信し、該データストリームを、少なくともオーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリーム、及び少なくともビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含むビデオデータストリームに分離する。第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器はシステムデコーダに接続され、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在(有無)を検出する。システムタイムクロックカウンタは、第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器に接続され、ロード信号を受信したときにオーディオ・プレゼンテーション・タイム・スタンプをスタートカウントとして受信し、予め決められているクロック周波数に従ってスタートカウントをインクリメントし、システムタイムクロックを出力する。ビデオデコーダは、システムデコーダ及びシステムタイムクロックカウンタに接続され、システムタイムクロック及び符号化ビデオデータストリームを受信し、そしてシステムタイムクロックに同期して符号化ビデオデータストリームを復号化する。オーディオデコーダは、符号化オーディオデータストリームからオーディオデータパケットを受信し、そしてオーディオデータパケットを復号化する。第2のオーディオ・プレゼンテーション・タイム・スタンプ検出器は、オーディオデコーダに接続され、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在(有無)を検出し、そしてそのオーディオ・プレゼンテーション・タイム・スタンプに対応するオーディオパケットが復号化されるときにシステムタイムクロックカウンタにロード信号を出力する。
本発明の目的は、オーディオ及びビデオ信号間の同期を検出するための改良された技術を提供することにある。
本発明のさらなる目的は、改良されたオーディオ及びビデオ同期を提供することにある。
本発明のさらなる目的は、オーディオ/ビデオ同期をとるのに必要な回路の数及び規模を減らすことによってマルチメディアシステムのコストを低くすることにある。
本発明のさらなる目的は、マルチ−スタンダード(standard)なオーディオデコーダを用いるMPEG再生システムを提供することにある。
本発明のさらなる目的は、システムデコーダ及びオーディオデコーダ間の信号線の数が減らされたMPEG再生システムを提供することにある。
本発明のさらなる目的は、種々のフレームレート及びクロックレートを持つマルチメディアシステムによって受信される種々の同期要求を持つ様々なメディアに適応される、マルチメディアシステムにおける順応性のある同期装置を提供することにある。
本発明のさらなる目的は、同期の精度の可変な解像度を有する、マルチメディアシステムにおける順応性のある装置を提供することにある。
【図面の簡単な説明】
図1AはMPEG復号化システムの従来技術のブロック図を示す。
図1Bはオーディオ及びビデオデータのシリアル伝送に関する従来技術の符号化データストリームのフォーマットを示す。
図2は本発明の回路及びアルゴリズムを含むMPEG復号化システムのブロック図を示す。
図3Aは図1Bで説明されたMPEGデータストリームに関する概略波形図及びシステムタイミング図である。
図3Bはどのようにして進んだビデオフレームがオーディオデータと再同期されるのかを示す説明図である。
図3Cはどのようにして遅れたビデオフレームがオーディオデータと再同期されるのかについて示す説明図である。
図4Aは本発明の好ましい形態の論理回路に関する概略ブロックの説明図である。
図4Bは本発明の第2の形態の論理に関する概略ブロックの説明図である。
図4Cは本発明のVidsystデコーダのブロック図である。
図4Dは本発明のオーディオデコーダのブロック図である。
図4Eは図4Dのオーディオデコーダのプログラミングを説明するフローチャートである。
図5Aは本発明の好ましい形態の論理回路の詳細なブロックの説明図である。
図5Bは本発明の第2の形態の論理回路の詳細なブロックの説明図である。
図6は本発明がどのようにしてマルチメディアコンピュータシステム内で使用されるのかを説明する概略システム図である。
図7A〜7Cはグラフィック及び符号化されたデータの転送を合成するための本発明の選択的構成の説明図である。
図8は本発明による、符号化/圧縮されたオーディオ及びビデオデータと復号化/伸張されたビデオデータを記憶するためのフレームバッファメモリの機能及び制御を説明するブロック図である。
図9は選択されたオフセット値と切り捨てのための各ビットに対する個々の時間の2進テーブルの説明図である。
本発明の詳細な説明
図1Aの従来技術においては、ビデオ・プレゼンテーション・タイムスタンプ(VPTS)104は、時間ドリフトを決めるためにSCR105に対して比較された。図2を参照すると、本発明のオーディオデコーダは、オーディオデータストリーム103中のAPTSの存在(有無)を検出し、そのオーディオデータストリームの対応部分が再生されているときに対応するAPフラグ213をセットする。ビデオデータはそしてVidsystデコーダ200内でオーディオ再生と同期される。Vidsystデコーダ200は、モノリシック集積回路から成り、そして少なくとも本発明のアルゴリズム及び回路の一部を含む。
図2は、Vidsystデコーダ200を含むMPEGオーディオ/ビデオデコーダシステムの単純化されたブロック図を示している。図4CはVidsystデコーダ200のブロック図である。Vidsystデコーダ200は、MPEGデータストリーム101を受け取り、データパケットから時間情報(VPTS、SCR、APTS)を分離すると同様にオーディオデータパケットからビデオデータパケットを分離するシステムデコーダ250を含む。ビデオデータパケットはビデオデータストリーム102としてビデオデコーダ251に送られる。ビデオデータストリーム102内のビデオデータパケットは、復号化/伸張されたビデオデータ107を生成するために、ビデオデコーダ251内で復号化され伸張される。
Vidsystデコーダ200のビデオデコーダ251内には、時間ドリフトを修正するためにA/V同期回路(図示せず)が設けられている。A/V同期回路は、もしも時間ドリフトが予め決められた制限値を超えたなら、表示されたビデオイメージとオーディオ再生の再同期をとるために、復号化/伸張ビデオの生成を制御する。
Vidsystデコーダ200内のシステムデコーダ250によって分離されたオーディオデータパケットはオーディオデータストリーム103としてオーディオデコーダ201へ外部的に送られる。オーディオデコーダ201もまた、DSPチップのようなモノリシック集積回路やCristal Semiconductor of Austin、Texas製のCS4920のような専用化されたオーディオデコーダを含む。同期はすべてVidsystデコーダ200によって行われるので、オーディオデコーダ201は同期を提供する必要がない。加えて、繰り返されたり、スキップされたビデオのフレームは、視る人にさほど気づかれるものではないのに対し、繰り返されたり、スキップされたオーディオデータのフレームは容易に聞く人に聞きわけられてしまうので、オーディオ再生を調整することによって同期を提供することは好ましくない。
図3Bと図3Cは、本発明によってビデオ表示がどのようにオーディオ再生に同期されるかを示すものである。図3Bを参照すると、時間上のビデオ表示はビデオデータフレーム(0)320Aからビデオデータフレーム(N+1)320(N+1)までのシーケンスによって示されている。時間上のオーディオ再生はオーディオデータ(0)330Aからオーディオデータ(N+1)330(N+1)までのシーケンスによって示されている。図3Cも同様に説明される。図3Bにおいて、ビデオデータフレームとオーディオデータとの再同期をとるために、ビデオデータフレームはオーディオデータに対して進み、オーディオが追いつくのを許容するためにビデオデータフレームが繰り返される。初めに、ビデオデータフレーム(0)320Aとオーディオデータ(0)330Aが完全に同期していると仮定する。時間が経過してビデオデータフレーム(k)320Kはオーディオデータ(K)330Kに対して進んでいる。一度、進みしきい値−−例えば、1または1.5フレーム−−に達すると、A/V同期回路はビデオフレーム(場合によって半フレーム)が繰り返されるようにする。図3Bにおいては、ビデオデータフレーム(M)320Mがオーディオデータ(M)330Mに1フレーム先行するとき、1フレーム進みしきい値に到達し、リピートビデオフレーム322で示されるように、次のビデオデータフレーム(N)320Nがビデオ表示上で繰り返される。このように、ビデオデータフレーム(N)320Nがオーディオデータ(N)330と再同期される。
図3Cを参照すると、ビデオデータフレームはオーディオデータよりも遅れ、ビデオデータフレームとオーディオデータとの再同期のためにビデオデータフレームはスキップされる。初めに、ビデオデータフレーム(0)321Aはオーディオデータ(0)331Aと完全に同期している。時間が経過してビデオデータフレーム(J)321Jはオーディオデータ(J)331Jに対して遅れている。一度、遅れしきい値−−例えば、1または1.5フレーム−−に達すると、A/V同期回路はビデオフレーム(場合によって半フレーム)がスキップされるようにする。
図3Cにおいては、ビデオデータフレーム(L)320Lがオーディオデータ(N)331Nに1フレーム先行するとき、1フレーム遅れしきい値に到達し、スキップビデオフレーム323で示されるように、次のビデオデータフレーム(M)(図示せず)がビデオ表示上でスキップされる。ビデオデータフレーム(M)の代わりに、オーディオデータ(N)331Nが再生されるときにビデオデータフレーム(N)321Nが表示される。このように、ビデオデータフレーム(N)321Nはオーディオデータ(N)331Nと再同期される。
図3Bと図3Cは1フレーム全部のリピートまたはスキップを示す。1/2フレームのリピートは、フレームの下半分が対応する新しいフレームデータの対応する部分に更新される間、そのフレームの上半分を同じ状態で保持する必要がある。1/2フレームのスキップは、そのフレームの上半分が次のフレームデータの対応する部分に更新されている間、そのフレームの下半分を現在のフレームデータの対応する半分に更新する必要がある。
図3Bと図3Cは単一ビデオデータフレームをリピートするまたはスキップする単なる典型例であり、複数のフレームがスキップされたり繰り返されても良い。もし、オーディオとビデオが1フレーム以上同期が外れていたら、複数のフレームをスキップするかリピートするのが好ましい。ある応用として、オーディオデータが絶えなく再生され聞こえていることを可能にしている限り、ユーザーはビデオデータフレームを停止するかリピートするかを選択してよい。他の場合には、ユーザーは複数のフレームをスキップすることによって早送りしたり、又、多数のビデオデータフレームに渡ってポーズしたり駒送りしたりすることを要求してもよい。何れの場合においても、ノーマル再生を始めたい所望のビデオデータフレームが見つかった時には、オーディオデータをミュートさせ、それからビデオとオーディオトラックとを再同期させるのが望ましい。
MPEG復号化の要求は、スキップされてよい符号化/圧縮ビデオフレームのタイプを限定している。前のI−タイプのフレームからP−タイプのフレームを復号化/伸張するのを可能にするために、普通、I−タイプのフレームの直前の最後のP−タイプフレーム以外は、B−タイプフレームのみスキップされなければならない。
例として、符号化/圧縮されたデータストリームが次のようなフレームシーケンス、I1234567891011・・・Pn-3n-2n-1nであることを考える。ここで、BはB−タイプに符号化されたビデオフレーム、PはP−タイプに符号化されたビデオフレーム、IはI−タイプに符号化されたビデオフレームを表す。予測された又はP−タイプのフレームを復号化するためには、I−タイプのフレームを前もって復号化することが必要である。このように、P4はI1がまず復号化されることを必要とし、符号化/圧縮されたI1フレームはハードウエアによってスキップされてはならない。同様に、フレームP6はフレームP6を復号化/伸張するためにP4が利用可能であることを要求する。従って、P4もスキップされてはならない。フレームB3がP4とI1を必要とするので、B−タイプフレームは符号化中I−タイプとP−タイプまたはその組み合わせの間に挿入され、イメージの正確な再生には必要ではない。例の中のPn-1のようなI−タイプフレームの前の最後のP−タイプフレームは、同様にスキップされてもよい。符号化/圧縮されるために、Pn-1が利用可能であることに依存する未来のフレームは無い。
復号化/伸張されたフレームをスキップするハードウエアはこのような制限は持たないが、より大きなメモリを必要とする。ソフトウエアはフレームタイプを決定するために前もった復号化をすることができるので、符号化/圧縮フレームをスキップするソフトウエア方法は、このような制限を持たない。しかしながら、ソフトウエア方法はハードウエア方法が行うようなリアルタイムの処理を行わない。
ビデオとオーディオとの同期を取るのに、プラスまたはマイナス1/2フレーム又はその複数倍フレームのフレーム同期分解能を提供するのが望ましい。この方法では、1/2フレームの時間ドリフトを持つ符号化/圧縮されたデータを復号化することは、よく同期の取れたビデオイメージとオーディオプレイバックの再生を提供する。説明の目的のために、本発明の動作はMPEGI符号化/圧縮標準を用いて説明される。本発明が、MPEGIIやモーションJPEGのような他の符号化/圧縮標準をサポートするように修正されることは、諒解されよう。
MPEG符号化/圧縮されたビットストリームを圧縮/復号化するために、MPEG標準は、90khzのクロック周波数がシステム基準クロック(SCLK)としてどの復号化回路にも使用されることを推奨している。90khzのシステム基準クロック周波数は11.11マイクロ秒のクロック周期と等価である。ビデオ表示レートやフレームレートは、ある一定期間にモニターやそのようなデバイスに表示されるイメージフレームの数であるが、変化する。人間の目はその平均化の特性からディスプレイをちらちらする動きとは対称的にスムースで普通の動きをしているように見るので、毎秒60フレーム(fps)のフレームレートは時々リアルタイムとして参照する。30fpsのフレームレートは、60fpsのフレームレートよりもスクリーンに表示されるデータが少なくて済むが、それほどスムースでも普通の動きでもなく多少フリッカが現れる。30fpsのフレームレートはCDROMやマルチメディアのアプリケーションに対しては理想的と考えられている−−イメージの質に対するデータの必要量がバランスがとれている。30fpsのフレームレートは表示装置に約33.33ミリ秒毎に1つのイメージフレームを表示することと等価である。1/2フレームの同期の分解能のために、許される時間ドリフトは約33.33ミリ秒の半分、即ち、16.67ミリ秒である。16.67ミリ秒の間に、システムクロック(SCLK)は約1500周期経過している。従って、1/2フレームの分解能の同期は1500SCLKクロック周期以下の時間ドリフトを要求する。同様な理由から、もし60fpsのフレームレートに対して1/2フレームの同期の分解能が望まれた場合には、時間ドリフトは約750SCLKクロック周期であるべきである。もし、30fpsに対しての分解能が2.5フレームならば、許容される時間ドリフトは1500SCLKクロック周期の半分のフレームの時間ドリフトの5倍、即ち、7500SCLKクロック周期であるべきである。同様に、もし30fpsに対する分解能が1フレームであれば、許容される時間ドリフトは1500SCLKクロック周期の半分のフレームの時間ドリフトの2倍、即ち、3000SCLKクロック周期である。従って、30fpsに対しての3フレームの時間ドリフトは9000SCLKクロック周期と等価である。まとめると、30fpsに対する1/2フレーム、1フレーム、2.5フレーム、及び3フレームの時間ドリフトは、それぞれ1500、3000、7500、及び9000SCLKクロック周期である。60fpsに対しては、1/2フレーム、1フレーム、2.5フレーム、及び3フレームの時間ドリフトは、それぞれ750、1500、3750、及び4500SCLKクロック周期である。本発明では、システムクロック(SCLK)は時間ドリフトを決定するのに使用される。
本発明は、同期はずれ状態を決定するためにVPTSとAPTSの差を使用する。図3Aを参照すると、システムクロックタイムライン316はシステムクロックSCLKの増加するクロック周期を示している。MPEGビットストリーム315はMPEGビットストリームの一例を示している。MPEGビットストリーム315内のVPTS(306−308)、APTS312とSCR318の発生のタイミング情報は、SCLKの所定のクロック周期数と一致する。図3Aに示されているように、APTS312の発生からVPTS308の発生には遅延がある。VPTS307とAPTS312の受信の間の遅延に対するSCLKクロック周期の数は、値N314である。APTS312とVPTS308の受信の間の遅延に対するSCLKクロック周期の数は、値M313である。
例えば、図3Aと図4Aを考える。ここで、カウンタ411が値M313をカウントし、レジスタ412が結果的にVPTS308の値を格納する。APTS312が生じると、カウンタ411はVPTS308を受け取る前に生じるSCLKクロック周期の数をカウントする。このように、カウンタ411によってカウントされたカウント値はM313の値を示す。Nの値も同様に図4Aのブロック図によってカウントされる。
APTSとVPTSは33ビットのタイムスタンプ値である。従って、例えば、APTS312は午後2時6分5.110秒というタイムスタンプ値を取り、VPTS308は午後2時6分5.290秒というタイムスタンプ値を取る。この2つのタイムスタンプを比較すると、VPTS308はAPTS312よりも後のタイムスタンプ値をとる。ビデオがオーディオより先行しているか遅れているかを正しく比較するために、APTSは後に生じるVPTSに対して正規化されるか修正されなければならない。従って、遅延値Mは同じ基準フレームを持つためにAPTSに対して加算される必要がある。30fpsで1/2フレーム時間の時間ドリフトのしきい値が約16.67ms、即ち、0.01667秒であることに注意しなければならない。
第1の場合として、Mは0.166の時間値をとると仮定する。MをAPTSに加算すると(APTS+M)=午後2時6分5.176秒になり、これは正規化されたAPTS値である。正規化されたAPTS値の合計を午後2時6分5.290秒のVPTS値と比較すると、ビデオはオーディオに対し0.114秒(即ちVPTS−(APTS+M)=0.114秒)進んでいる。このように、VPTSは正規化されたAPTS、即ち(APTS+M)、より0.114秒大きい。マルチメディアシステムで再生されると、図3Bのフレーム320Nと330Mで示されるように、ビデオのイメージ表示がオーディオ再生に対して進んでしているように、ユーザーはビデオの後のフレームを見、前のビデオに合うオーディオを聞く。そのかわりに、オーディオがビデオに遅れているとも言え、しかしながら、オーディオデータを基準フレームとして使うほうが好ましい。このように、オーディオデータを進めることを許容し、任意のビデオフレームに合わすようにするために、ビデオを減速させるか又はビデオフレームをホールドしリピートすることが望ましい。
第2の場合として、(APTS+M)=午後2時6分5.443秒となるようMは0.333秒の時間値をとると仮定する。(APTS+M)−VPTSを実行することにより、正規化されたAPTSと午後2時6分5.290秒のVPTS値を比較すると、その結果は0.153秒となる。(APTS+M)の値がVPTSの値よりも後のタイムスタンプなので、ビデオはオーディオよりも遅れていることに注意されたい。マルチメディアシステムで再生されると、図3Cのフレーム321Lと331Mで示されるように、ユーザーはビデオの前のフレームを見、ビデオの後のフレームに対するオーディオを聞く。このように、ビデオフレームを進めることを許容し、オーディオと実質的に合わせるために、ビデオのフレームをジャンプさせたりスキップさせたりすることが望ましい。
Nの値は、(VPTS+N)と続くAPTS312との比較を可能にするために、前のVPTS307を同様に正規化する。ビデオがオーディに対して遅れており、時間ドリフトしきい値を超えている場合、ビデオデータのフレームまたはその一部分をスキップさせることによりビデオの表示を実質的にオーディオと合わせることが望ましい。
ビデオ表示がオーディオ再生に対してフレームのごく少しだけ、進んでいたり遅れたりしていることが、気づかれないものである時は、スキップや繰り返しにフレーム全体を使用することは回路の複雑さを低減するために好ましい。
このように、VPTSが正規化されたAPTS値よりも大きいときにVPTS−(APTS+M)の計算が実行され、VPTSが正規化されたAPTS値より小さいときに(APTS+M)−VPTSの計算が実行される。Nが使用される場合、同様に、APTSが正規化されたVPTS値よりも大きいときにAPTS−(VPTS+N)の計算が実行され、APTSが正規化されたVPTS値より小さいときに(VPTS+N)−APTSの計算が実行される。何れの場合でも、これら2つの演算の結果を検出した後に、何フレームまたはフレームのどれくらいの部分ビデオ表示がオーディオ再生に対して進んでいるまたは遅延しているかを決めるのが望ましい。フレームの数は、その計算の結果と予め定められた時間ドリフトしきい値とを比較することにより、決定される。時間ドリフトしきい値は、所望の表示レートでの所定の数のフレームまたはその一部内のSCLKクロック周期の数内のフレーム時間やその一部を示す。特に、プラスとマイナス1/2フレーム時間、1フレーム時間、2と1/2(2.5)フレーム時間、3フレーム時間の時間ドリフトしきい値は興味がそそられるものである。上述したように、30fpsの表示レートの時、1/2フレーム時間は1500SCLKクロック周期と決められ、1フレーム時間は3000SCLKクロック周期であり、2.5フレーム時間は7500SCLKクロック周期で、3フレーム時間9000SCLKクロック周期であった。60fpsの表示レートに対しては、これらの時間ドリフトしきい値は半分にされてそれぞれ750、1500、3750と4500SCLKクロック周期になる。他のしきい値が本発明の精神と範囲から逸脱しないで選択されることが諒解されよう。
図4Aは、様々な時間ドリフトしきい値に対する結果の比較と同様に、VPTSが(APTS+M)より大きい時VPTS−(APTS+M)の、VPTSが(APTS+M)よりも小さい時、(APTS+M)−VPTSの計算を行うための回路の機能的なブロック図を示す。図4Bは、APTSが(VPTS+N)より大きい時APTS−(VPTS+N)の、APTSが(NPTS+N)よりも小さいときに(VPTS+N)−APTSの計算を行うための回路の機能的なブロック図を示す。これらの計算の結果に対する時間ドリフトしきい値の比較において、プラスマイナス3フレーム時間のようなより粗いフレーム時間分解能(時間ドリフトしきい値)は論理的に最初に計算されるべきであり、プラスマイナス1/2フレーム時間のような最も細かいフレーム時間分解能(時間ドリフトしきい値)は最後に計算されるべきである。
図4Aは様々な時間ドリフトしきい値に対する結果の比較と同様に、VPTSが(APTS+M)より大きい時VPTS−(APTS+M)の、VPTSが(APTS+M)よりも小さい時、(APTS+M)−VPTSの計算を行うための回路の機能的なブロック図を示す。図4Bは、APTSが(VPTS+N)より大きい時APTS−(VPTS+N)の、APTSが(NPTS+N)よりも小さいときに(VPTS+N)−APTSの計算を行うための回路の機能的なブロック図を示す。これらの計算の結果に対する時間ドリフトしきい値の比較において、プラスマイナス3フレーム時間のようなより粗いフレーム時間分解能(時間ドリフトしきい値)は論理的に最初に計算されるべきであり、プラスマイナス1/2フレーム時間のような最も細かいフレーム時間分解能(時間ドリフトしきい値)は最後に計算されるべきである。
図4Aを参照すると、APTSが符号化/圧縮されたデータストリーム内に検出されたときには、STCカウンタ411はカウンタ入力402の検出されたAPTSを示す2進値に設定されロードされる。STCカウンタ411がどのようにカウントするかによって、SCLKクロック周波数は分割される。STCカウンタ411が1つずつカウントすると仮定すると、線401の90khzのSCLK周波数は、カウンタクロック入力404に対して同じ周波数を生成する周波数デバイダ410で1つに分割される。STCカウンタ411がインクリメントされるとき、Mに対する値が生成される。VPTSに達すると、検出されたVPTSに対するMの生成は完了され、カウンタ出力405は(APTS+M)の計算を反映する。VPTSが符号化/圧縮されたデータストリーム中に検出されたとき、レジスタ412はレジスタ入力403での検出されたVPTSを示す2進値がロードされる。減算器413は減算器入力405の(APTS+M)の値と減算器入力406のVPTSの値から(APTS+M)−VPTSを計算する。バス407上の減算器413からの結果出力はバス409上に与えられた時間ドリフトしきい値とコンパレータ414によって比較イネーブル入力信号420による適当な時に比較される。上述されたように、次の一連の式が30fpsの表示レートに対してコンパレータ414によって実行されるように、大きな時間ドリフトしきい値が最初に比較される。
もし、(APTS+M)−VPTS<−9000 (A)
なら、ビデオは少なくとも3フレームオーディオに対し進んでおり、ビデオフレームをリピートし、もしそうではなくて、
もし、(APTS+M)−VPTS>9000 (B)
なら、ビデオは少なくとも3フレームオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなければ、次のより細かい分解能のステップを実行する。
もし、(APTS+M)−VPTS<−7500 (C)
なら、ビデオは少なくとも2.5フレーム以上3フレームより少なくオーディオに対して進んでおり、ビデオフレームをリピートし、もしそうではなくて、
もし、(APTS+M)−VPTS>7500 (D)
なら、ビデオは少なくとも2.5フレーム以上3フレームより少なくオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなければ、次のより細かい分解能のステップを実行する。
もし、(APTS+M)−VPTS<−3000 (E)
なら、ビデオは少なくとも1フレーム以上2.5フレームより少なくオーディオに対して進んでおり、ビデオフレームをリピートし、もしそうではなくて、
もし、(APTS+M)−VPTS>3000 (F)
なら、ビデオは少なくとも1フレーム以上2.5フレームより少なくオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなければ、次のより細かい分解能のステップを実行する。
もし、(APTS+M)−VPTS<−1500 (G)
なら、ビデオは少なくとも1/2フレーム以上1フレームより少なくオーディオに対して進んでおり、ビデオフレームをリピートし、もしそうではなくて、
もし、(APTS+M)−VPTS>1500 (H)
なら、ビデオは少なくとも1/2フレーム以上1フレームより少なくオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなければ、次のより細かい分解能のステップを実行し、もしそれ以上細かい分解能のステップが無く、実際の時間ドリフトがプラスマイナス1/2フレームの最後にテストされたフレーム時間より少なくであれば、中止する。
60fpsの表示レートに対しては、時間ドリフトしきい値は同じ結果を決めるために半分にカットされる。例えば、Eq.(A)は次のように変更される:
もし(APTS+M)−VPTS<−4500 (A’)
なら、図4Aに対して一般に、式は一般的に次のように書かれる:
|(APTS+M)−VPTS|<時間ドリフトしきい値 (I)
図4Bに関してこの式は次のように変更される:
|(VPTS+M)−APTS)|<時間ドリフトしきい値 (III)
これらの計算の結果に依存して、オーディオ再生とイメージのビデオ表示は、ビデオフレームまたはその一部をリピートしたりスキップすることによって、またはオーディオデータパケットまたはその一部をスキップしたり遅延させることによって、再同期される。しかしながら、人間はスキップされたりリピートされたオーディオデータに容易に気づく。
オーディオとビデオの再同期を制御する時に、プラスマイナス1/2フレームの時間ドリフトしきい値は、A/V同期回路が振動しフレーム又はその一部を連続的にリピートしたりスキップすることを引き起こすこともありうる。従って、1フレームの時間ドリフト分解能が、最も細かいフレーム時間分解能として好ましい。前記の計算に使用された時間ドリフト分解能は、ビデオイメージ表示とオーディオ再生中のフレームやその一部(1/2フレームのような)のスキップ又はリピートとは同じではない。
図4Bを再び参照すると、VPTSが符号化/圧縮されたデータストリーム内に検出されたときには、STCカウンタ411はカウンタ入力403の検出されたVPTSを示す2進値に設定されロードされる。STCカウンタ411がどのようにカウントするかに依存して、SCLKクロック周波数は分割される。ここで、STCカウンタ411が1つずつカウントする場合を想定すると、線401の90khzのSCLK周波数は、カウンタクロック入力404に対して同じ周波数を生成する周波数周波数デバイダ410で1つに分割される。STCカウンタ411がインクリメントされるとき、Nに対する値が生成される。APTSに達すると、検出されたAPTSに対するNの生成は完了されカウンタ出力405は(VPTS+N)の計算を反映する。APTSが符号化/圧縮されたデータストリーム中に検出されたとき、レジスタ412はレジスタ入力402での検出されたAPTSを示す2進値がロードされる。減算器413は減算器入力405の(VPTS+N)の値と減算器入力406のAPTSの値から(VPTS+N)−APTSを計算する。
バス407上の減算器413からの結果出力は、バス409上に供給された時間ドリフトしきい値とコンパレータ414によって比較イネーブル入力信号420による適当な時に比較される。上述されたように、次の一連の式が30fpsの表示レートに対してコンパレータ414によって実行されるよう、大きな時間ドリフトしきい値が最初に比較される。
もし、(VPTS+N)−APTS<−9000 (K)
なら、ビデオは少なくとも3フレームオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなくて、
もし、(VPTS+N)−APTS>9000 (L)
なら、ビデオは少なくとも3フレームオーディオに対して進んでおり、ビデオフレームをリピートし、もしそうではなければ、次のより細かい分解能のステップを実行する。
もし、(VPTS+N)−APTS<−7500 (M)
なら、ビデオは少なくとも2.5フレーム以上3フレームより少なくオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなくて、
もし、(VPTS+N)−APTS>7500 (N)
なら、ビデオは少なくとも2.5フレーム以上し3フレームより少なくオーディオに対して進んでおり、ビデオフレームをリピートし、もしそうではなければ、次のより細かい分解能のステップを実行する。
もし、(VPTS+N)−APTS<−3000 (O)
なら、ビデオは少なくとも1フレーム以上2.5フレームより少なくオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなくて、
もし、(VPTS+N)−APTS>3000 (P)
なら、ビデオは少なくとも1フレーム以上2.5フレームより少なくオーディオに対して進んでおり、ビデオフレームをリピートし、もしそうではなければ、次のより細かい分解能のステップを実行する。
もし、(VPTS+N)−APTS<−1500 (Q)
なら、ビデオは少なくとも1/2フレーム以上1フレームより少なくオーディオに対して遅れており、ビデオフレームをスキップし、もしそうではなくて、
もし、(VPTS+N)−APTS>1500 (R)
なら、ビデオは少なくとも1/2フレーム以上1フレームより少なくオーディオに対して進んでおり、ビデオフレームをリピートし、もしそうではなければ、次のより細かい分解能のステップを実行し、もしそれ以上細かい分解能のステップが無く、実際の時間ドリフトがプラスマイナス1/2フレームの最後にテストされたフレーム時間より少ない場合、中止する。
今、図4Aと図4Bを参照すると、上述したように、STCカウンタ411がどのようにカウントするかに依存して、SCLKクロック周波数は分割される。もし、STCカウンタ411が2つずつカウントすると、線401の90khzのSCLK周波数は、カウンタクロック入力404に対してSCLKの周波数の1/2を生成する周波数デバイダ410によって2つに分割される。もし、STCカウンタ411が128ずつカウントするとすると、線401上の90khzのSCLK周波数は128、即ち、2m(m=7)で、カウンタクロック入力404に対してSCLKの周波数の1/128を生成する周波数デバイダ410によって分割される。
本発明の機能を実際のハードウエアに変換するために、A/V同期回路が単一のモノリシック集積回路内で機能するための図4A及び図4BのA/V同期回路に対して行われるいくつかの好ましい変更がある。符号化/圧縮されたデータを復号化/伸張されたビデオ及びオーディオデータに伸張し、復号化するために必要とされる時間、スクリーン上にイメージを表示するための時間、及びオーディオデータを再生するための時間と関連するシステムの遅延があるので、ビデオ及びオーディオのシステムの遅延の差異を考慮しなければならない。従って、VPTS若しくはAPTSは、VPTS若しくはAPTSからフレーム時間値を加算又は減算することによって、システムの遅延に対して補正される必要がある。これは次のように式で表される:
VTPS’=VPTS+AVLATENCY(オーディオビデオ遅延) (III)
ここで、AVLATENCY=VLATENCY−ALATENCY
一方、APTSは次のように修正される。
APTS’=APTS+VALATENCY (IV)
ここで、VALATENCY=ALATENCY−VLATENCY
従って、異なるシステムでのAVLATENCY及びVALATENCYの様々な値は、修正されたAPTS、即ち、APTS’又は修正されたVPTS、即ち、VPTS’を得るためにレジスタにロードされ、APTS若しくはVPTSのどちらかに加えられる。AVLATENCYとVALATENCYはあわせて、AVLATENCY若しくは単純にシステム遅延と呼ばれる。30fpsの表示レートについて上に示す(A)乃至(H)の式を再編成及び再公式化する:
もし(APTS+M)−(VPTS’−9000)<0 (1a)
ならばビデオはオーディオに対して少なくとも3フレーム進んでいるので、ビデオフレームを繰り返し、そしてもしそうでないのなら、
もし(VPTS’+9000)−(APTS+M)<0 (2a)
ならばビデオはオーディオに対して少なくとも3フレーム遅れているのでビデオフレームをスキップし、そしてもしそうでないのなら次のより細かい分解能のステップを実行する。
もし(APTS+M)−(VPTS’−7500)<0 (3a)
ならばビデオはオーディオに対して少なくとも2.5フレーム以上3フレームより少なく進んでいるのでビデオフレームを繰り返し、そしてもしそうでないのなら、
もし(VPTS’+7500)−(APTS+M)<0 (4a)
ならばビデオはオーディオに対して少なくとも2.5フレーム以上3フレームより少なく遅れているので、ビデオフレームをスキップし、そしてもしそうでないのなら、より細かい分解能のステップを実行する。
もし(APTS+M)−(VPTS’−3000)<0 (5a)
ならばビデオはオーディオに対して少なくとも1フレーム以上2.5フレームより少なく進んでいるのでビデオフレームを繰り返し、そしてもしそうでないのなら、
もし(VPTS’+3000)−(APTS+M)<0 (6a)
ならばビデオはオーディオに対して少なくとも1フレーム以上2.5フレームより少なく遅れているのでビデオフレームをスキップし、そしてもしそうでないのなら、次のより細かい分解能のステップを実行する。
もし(APTS+M)−(VPTS’−1500)<0 (7a)
ならばビデオはオーディオに対して少なくとも1/2フレーム以上1フレームより少なく進んでいるのでビデオフレームを繰り返し、そしてもしそうでないのなら、
もし(VPTS’+1500)−(APTS+M)<0 (8a)
ならばビデオはオーディオに対して少なくとも1/2フレーム以上1フレームより少なく遅れているのでビデオフレームをスキップし、そしてもしそうでないのなら、次のより細かい分解能のステップを実行し、或いはもしより細かい分解能のステップがなく、そして実際の時間ドリフトがプラスマイナス1/2フレームの最後にテストされたフレーム時間よりも少ない場合には、中止する。
60fpsの表示レートについては、時間しきい値が半分にされるのみならず、AVLATENCYの値によって示される遅延も半分にされる。従って、APTSはAPTS”に修正され、VPTSはVPTS”に修正される。Eq.(1a)−(6a)はEq.(1b)−(8b)に修正される:
(APTS+M)−(VPTS”−4500)<0 (1b)
(VPTS”+4500)−(APTS+M)<0 (2b)
(APTS+M)−(VPTS”−3750)<0 (3b)
(VPTS”+3750)−(APTS+M)<0 (4b)
(APTS+M)−(VPTS”−1500)<0 (5b)
(VPTS”+1500)−(APTS+M)<0 (6b)
(APTS+M)−(VPTS”−750)<0 (7b)
(VPTS”+750)−(APTS+M)<0 (8b)
表示レートが変化すると、時間ドリフトのしきい値及びVPTS’及びAPTS’は式Eq.(1b)−(8b)で変更されるということを注意すべきである。回路規模を縮小するために、時間ドリフトしきい値は、理想的な10進値からここではオフセット値と呼ばれる値までの2進値に丸められる。
タイムスタンプ値は33ビット巾なので、カウンタ及び減算器も同様に33ビット巾でなければならない。これは回路規模やシリコンリアルエステイト(real estate)の使用を増大させるものとして集積回路では好ましくない。その代わりに、33ビット値をより扱いやすい巾に縮めることは好ましい。
MPEG標準で推奨されている好ましいシステムクロック周波数が90khz、即ち、11.11マイクロ秒(μs)だったことを思い出すべきである。周波数デバイダが1(2m=1の場合、m=0)で分割する上述の図4Aのシステムを用いると、各カウンタのカウント値は11.11μsを示す。従って、少なくともAPTS及びVPTSタイムスタンプ値の最下位のビットは同様に11.11μsを示す。2番目のLSBは22.22μsを示し、3番目のLSBは44.44μs、4番目のLSBは88.88μs等である。
30fpsでは、1/2フレーム時間は、およそ16.67ミリ秒となる1500SCLKクロック周期、1フレーム時間は3000SCLK周期、即ち、33.33ミリ秒、2.5フレーム周期は7500SCLK周期、即ち、83.33μsだったことを思い出すべきである。図9は33ビットタイムスタンプの下位18ビットの興味のある時間値のあるパターンについて示している。
1/2、1、2.5及び3フレーム時間の時間ドリフトのしきい値に関しては、プラスマイナス1536、3072、7680及び9216のオフセット比較値は殆ど近似値である。これらの値の選択は、全ての他の上位及び下位ビットが0なので、オフセット比較値の長さをビット9から13に切り捨てることを可能にする。従って、本発明の構成においては、オフセット比較に対してたった5ビット巾の値及び5ビット巾の記憶レジスタが用いられることが必要である。これはEq.(1a)−(8a)を次に示すEq.(9a)−(16a)に夫々変更する:
(APTS+M)−(VPTS’−9216)<0 (9a)
(VPTS’+9216)−(APTS+M)<0 (10a)
(APTS+M)−(VPTS’−7680)<0 (11a)
(VPTS’+7680)−(APTS+M)<0 (12a)
(APTS+M)−(VPTS’−3072)<0 (13a)
(VPTS’+3072)−(APTS+M)<0 (14a)
(APTS+M)−(VPTS’−1536)<0 (15a)
(VPTS’+1536)−(APTS+M)<0 (16a)
60fpsの表示レートでは、1/2、1、2.5及び3フレーム時間の修正された時間ドリフトは、夫々プラスマイナス750、1500、3750及び4500であった。必要とされるビットの数を縮めるために、プラスマイナス768、1536、3840及び4608の値は上のテーブルから置き換えられる。768は、1536に対する値を単にLSBの方向に1ビットシフトすることである2で分割することにより、1536から取り出すことができるということに注意されたい。他の値は、オフセット値の長さを5ビット巾に保持するために、この方法と同様に得ることができる。好ましくは、周波数デバイダは、30fpsの表示レートの、2若しくは1/2倍の表示レートに対してEq.(9a)−(16a)と共に用いられる。Eq.(1b)−(8b)から変更された60fpsの式は:
(APTS+M)−(VPTS”−4608)<0 (9b)
(VPTS”+4608)−(APTS+M)<0 (10b)
(APTS+M)−(VPTS”−3840)<0 (11b)
(VPTS”+3840)−(APTS+M)<0 (12b)
(APTS+M)−(VPTS”−1536)<0 (13b)
(VPTS”+1536)−(APTS+M)<0 (14b)
(APTS+M)−(VPTS”−768)<0 (15b)
(VPTS”+768)−(APTS+M)<0 (16b)
この方法は、30fpsに対するオフセット値をMSBの方向に1ビットシフトすることによって成し遂げられるオフセット値の2倍化によって30fpsの式から15fpsに対する式及び値を生成するために用いられる。一方、オフセット値をシフトしない代わりに、可変周波数デバイダによるシステムクロックの分割は、正確な表示レートに対してEq.(9a)−(16a)を使用する。15fpsに対する結果として生じる式は次に示すようにEq.(9a)−(16a)から変更される。
(APTS+M)−(VPTS’’’−18452)<0 (9c)
(VPTS’’’+18452)−(APTS+M)<0 (10c)
(APTS+M)−(VPTS’’’−15360)<0 (11c)
(VPTS’’’+15360)−(APTS+M)<0 (12c)
(APTS+M)−(VPTS’’’−6144)<0 (13c)
(VPTS’’’+6144)−(APTS+M)<0 (14c)
(APTS+M)−(VPTS’’’−3072)<0 (15c)
(VPTS’’’+3072)−(APTS+M)<0 (16c)
VPTSは、15fpsの表示レートでの適正な遅延に対するEq.(9c)−(16c)で、VPTS’’’に修正されるものとして示される。一方、APTSの値はAPTS’’’に修正される。Eq.(9c)−(16c)に対するオフセット値は、Eq.(9a)−(16a)のそれの2倍であり、そしてEq.(9b)−(16b)に対するオフセット値は、Eq.(9a)−(16a)のそれの1/2であるということに注意されたい。従って、30fpsの表示レートに対して選択されたオフセット数を使うことにより、2倍又は1/2の表示レートに対する他のオフセット数は、オフセット値のビットを左若しくは右にシフトすることによって表示レートに対して生成される。もし表示レートが30fpsの2倍若しくは1/2倍でなければ、他のオフセット数はA/V同期回路にロードされる必要がある。その代わり、SCLKの周波数の分割を変更することによって、他の表示レートは、Eq.(9a)−(16a)のようなただ1組の式によってサポートされる。
インクリメントされたAPTS値からVPTSが減算される、図4Aのロジック及びEq.(A)−(H)に対し、Eq.(9a)−(16a)、Eq.(9b)−(16b)及びEq.(9c)−(16c)が適用可能である。インクリメントされたVPTS値からAPTSが減算される、図4Bのロジック及びEq.(K)−(R)に対し、Eq.(9a)−(16a)、Eq.(9b)−(16b)及びEq.(9c)−(16c)は、Eq.(17a)−(24a)、Eq.(17b)−(24b)及びEq.(17c)−(24c)に1つ1つ適合するように変更される。
30fpsの表示レート用:
(VPTS+N)−(APTS’−9216)<0 (17a)
(APTS’+9216)−(VPTS+N)<0 (18a)
(VPTS+N)−(APTS’−7680)<0 (19a)
(APTS’+7680)−(VPTS+N)<0 (20a)
(VPTS+N)−(APTS’−3072)<0 (21a)
(APTS’+3072)−(VPTS+N)<0 (22a)
(VPTS+N)−(APTS’−1536)<0 (23a)
(APTS’+1536)−(VPTS+N)<0 (24a)
60fpsの表示レート用:
(VPTS+N)−(APTS”−4608)<0 (17b)
(APTS”+4608)−(VPTS+N)<0 (18b)
(VPTS+N)−(APTS”−3840)<0 (19b)
(APTS”+3840)−(VPTS+N)<0 (20b)
(VPTS+N)−(APTS”−1536)<0 (21b)
(APTS”+1536)−(VPTS+N)<0 (22b)
(VPTS+N)−(APTS”−768)<0 (23b)
(APTS”+768)−(VPTS+N)<0 (24b)
15fpsの表示レート用:
(VPTS+N)−(APTS’’’−18452)<0 (17c)
(APTS’’’+18452)−(VPTS+N)<0 (18c)
(VPTS+N)−(APTS’’’−15360)<0 (19c)
(APTS’’’+15360)−(VPTS+N)<0 (20c)
(VPTS+N)−(APTS’’’−6144)<0 (21c)
(APTS’’’+6144)−(VPTS+N)<0 (22c)
(VPTS+N)−(APTS’’’−3072)<0 (23c)
(APTS’’’+3072)−(VPTS+N)<0 (24c)
図4Cに戻って参照すると、Vidsystデコーダ200は、符号化/圧縮データストリーム101を受信するシステムデコーダ250を含む。システムデコーダ250はオーディオ及びビデオデータを分離し、符号化/圧縮オーディオデータ210をオーディオデータバッファ220に送る。オーディオデータバッファ220は、そして、符号化/圧縮オーディオデータ210を、シリアル化されたオーディオデータ103として、APTS検出器415を介して図2のオーディオデコーダ201に送る。シリアル化されたオーディオデータ103は、非同期で若しくは同期してオーディオデコーダ201に送られる。好ましい実施例においては、シリアル化されたオーディオデータ103は、データクロック信号(図示せず)と同時に、同期して送られる。
APTS検出器415は、圧縮/符号化オーディオデータストリーム210中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出する。オーディオ・プレゼンテーション・タイム・スタンプは、APTSの特徴的なビットストリームなため、圧縮/符号化オーディオデータストリーム210内で容易に検出される。APTS検出器415は、図4Cにおいてオーディオバッファ220の出力で分離した要素として示されているが、APTS検出器415はまた、本発明の精神若しくは範囲から逸脱することなく、システムデコーダ250に組み込まれて提供されても良い。APTS検出器415は、第1の(最初の)オーディオ・プレゼンテーション・タイム・スタンプ(APTS)の存在を検出し、検出されたAPTS415aをラッチ442に出力する。検出されたAPTSはまた、圧縮/符号化オーディオデータストリーム中に存続し、シリアル化オーディオデータストリーム103内に入って、オーディオデコーダ201に出力される。
APTS検出器415は、第2の(次の)APTSがオーディオデータストリーム中に検出されたときに信号415bを出力する。APフラグ213の受信によって示される、検出されたAPTSに対応するオーディオデータがオーディオデコーダ201で伸張/復号化されるまで、更なるオーディオデータがオーディオデコーダ201に送信されるのを妨げるために、信号415bは、オーディオデコーダ201(図4D参照)からオアゲート416を介して受信したFIFOフルハンドシェーク信号212と論理和演算される。
図4Dは図2のオーディオデコーダ201のブロック図である。好ましい実施例では、オーディオデコーダ201は、例えば、Crystal Semiconductor Corporation of Austin、Texas製のマルチスタンダードオーディオデコーダ/DAC モデルCS4920を含み、その(1993年10月付)予備生産仕様は、参照により、ここに組み込まれる。このようなデコーダは、多目的のDSP、オンボードRAM及びシリアルコントロールポート(図示せず)で提供される。実際には、オーディオデコーダは、ここで説明される方法で動作するようにそのシリアルコントロールポートを介してプログラムされる。これに代えて、このようなデコーダ(若しくは同様なデコーダ)のカスタム若しくはセミカスタム版は、ここに説明される機能を実行するために提供される。
図4Dに示されるように、シリアル化されたオーディオデータ103は、オーディオデコーダ201内のバッファ/FIFO301で受信される。バッファ/FIFO301は、16ビットデータワードをオーディオデコーダ302に出力するための16ビット幅FIFOと共に16ビットデータを受信するためのシフトインバッファを含む。説明の便宜上、その2つの要素は、ここではバッファ/FIFO301として示される。バッファ/FIFO301は16ビットデータワードを受信するとして開示されているが、他のサイズのバッファ及びFIFOが、本発明の精神及び範囲を逸脱することなく、他の長さのデータワードを受信するためにに利用されても良い。
FIFOフルハンドシェーク信号212は、バッファ/FIFO301のアンダーフロー若しくはオーバーフローを防止するためにVidsystデコーダ200内のオーディオデータFIFO220からのシリアル化されたオーディオデータ103の流れを制御する。バッファ/FIFO301からのデータ310は、オーディオデコーダ302及びオーディオ・プレゼンテーション・タイム・スタンプデコーダ303に与えられる。オーディオデコーダ302は、バッファ/FIFO301から受信したオーディオデータ310を複合化し、伸張/復号化オーディオ信号260を出力する。好ましい実施例では、シフトインバッファ301からのオーディオデータ310の伸張及び復号は、連続的に実行され、そしてオーディオデータは、出力オーディオ及びビデオ信号間のタイミングの不完全性を修正するために繰り返されたり、スキップされたりはしない。
プレゼンテーション・タイム・スタンプデコーダ303は、オーディオデータストリーム310中のオーディオ・プレゼンテーション・タイム・スタンプ(APTS)の存在を検出し、そして、対応するオーディオがオーディオデコーダ302内で伸張/復号化されたときに、予め決められた期間(即ち、クロック周期の数)の間、APフラグ213をハイにセットする。オーディオデータ310は連続的に複合化されるので、オーディオデータストリーム310中のオーディオ・プレゼンテーション・タイム・スタンプ(APTS)の存在によって示される、オーディオデータの特定の部分が存在している(若しくは複合化されている)ときはいつでも、APフラグ213は、効果的にセットされる。
上述のように、オーディオデコーダ201は、オーディオデータストリーム310内のオーディオ・プレゼンテーション・タイム・スタンプ(APTS)を検出するために適当にプログラムされた、モデルCD4920オーディオデコーダを含む。実用上、APTSデコーダ303及びオーディオデコーダ302は、図4Dにおいて破線で示されるように、オーディオデコーダ340全体の部分を構成する。モデルCS4920のようなオーディオデコーダは、使用されていないピン(例えば、ピン8から16、30、32、35若しくは37)にAPフラグ213を出力するように適当にプログラムされる。従って、本発明のオーディオデコーダ部は、カスタム若しくはセミカスタムASIC、または専用のデコーダを使用することなく実施され得る。しかしながら、適当に変更若しくは設計されたオーディオデコーダが、本発明の精神及び範囲から逸脱することなく、上述したようにオーディオ・プレゼンテーション・タイム・スタンプ(APTS)の存在を検出し、APフラグ213を出力するために提供されても良い。
図4Eは、オーディオ・プレゼンテーション・タイム・スタンプを検出し、APフラグ213をセットするために、オーディオデコーダ201にロードされるソフトウエアの処理を表すフローチャートである。ステップ550では、オーディオパケットが、ステップS551でヘッダー情報をデコードするオーディオデコーダ/APTS検出器340によって読み取られる。ヘッダー情報からAPTSは検出され(もし存在すれば)、ステップ552でAPTS検出器303に記憶される。オーディオデコーダ302は、ステップ553でオーディオデータを復号化/伸張し、ステップ554で伸張/復号化オーディオデータ260を出力する。
ステップ555では、APTSデコーダ303に記憶されたAPTSによって示される時間が経過した(即ち、対応するオーディオデータが復号化/伸張され、そして再生された)か否かを決定するために比較が行われる。もし対応する時間位置を過ぎると、APフラグ213がステップ556でセットされ、オーディオデータの残りがステップ557で出力される。もしAPTS位置が経過していないと、バッファ内のオーディオデータの残りが復号化/伸張され、出力され、そして処理がステップ550に戻る。
図4Cに戻って説明すると、APフラグ213は、ラッチ442に記憶されているAPTSをロードするためのロード信号として、STCカウンタ411によって受信される。STCカウンタ411は、次いで、対応するAPTS及びVPTS間の時間差(もしあれば)を決定するために、SCLK401で駆動され、カウントを開始する。SCLK401は、例えば、図4Aに示されるように、適当に分割される。説明の便宜上、このような分割回路はここでは示されない。同様に、ラッチ422にロードされたAPTS値は、図4Aに関連して上述したように、遅延値Mを加算することによって正規化される。上述したように、好ましい実施例においては、オーディオデータは連続的に復号化/伸張され、繰り返されたりスキップはされない。従って、図4CのSTCカウンタは、図4Aのそれと同様の方法で望ましくは設計される。同様に、ビデオ/同期デコーダ251の同期部分は、好ましい実施例において、図5Aに示されたそれと同様の方法で設計されよう。
従って、Vidsystデコーダ200は、STCカウンタ411を初期化するためにAPTSを内部で得て、そしてAPTSデータはオーディオデコーダ201からVidsystデコーダ200に送られる必要はない。好ましい実施例においては、APTS検出器415によって、データストリーム103中の第2のAPTS415bが検出されるとオーディオデータバッファ220からの出力が保留されるので、オーディオデコーダ201は、任意の時間に、バッファ/FIFOに多くても1つのAPTSのみを持つ。この方法においては、ラッチ442にロードされたAPTSがAPTS検出器303によって検出された同じAPTSであるということが保証される。この技術の1つの利点は、オーディオデコーダ201によって検出されたAPTSがVidsystデコーダ200に送り戻される必要がなく、デバイス間の信号の数及び/または信号線が減らされることである。更に、本発明の技術は、Crystal Semiconductor CS4920のようなマルチスタンダードなオーディオデコーダが、ソフトウエアの変更のみで本発明のVidsystデコーダ200で用いられることを許容する。
図5Aは、図4Aのそれに機能の点で同様の式Eq.(9a)−(16a)の8つの式の内の4つを用いる、A/V同期回路を説明している。図5Bは、図4Bのそれに機能の点で同様のEq.(17a)−(24a)の8つの式の内の4つを用いる、A/V同期回路を説明している。図5Bの回路の動作は、図5Aの回路の動作と同様である。それゆえに、次の説明の大半は、両方の回路に適用できる。2つのオフセット値及びAV遅延値は、入力端子517を介してロード値信号を受信しているときに、入力端子543を介してレジスタ577にロードされる。
オフセット値を得るために時間ドリフトしきい値を切り捨てるか若しくは丸めることは、周波数デバイダ510と合わされた場合に、図5Aの残りのハードウエアのデータバスの大きさを縮小することができる。記憶されたオフセット値の2倍若しくは1/2を得るために左若しくは右にシフトすることは、マルチプレクサ566によって成し遂げられる。好ましくは、周波数デバイダ510は、図4Aの周波数デバイダ410に関して簡単に説明された切り捨てを支持することだけでなく、30fpsの式に対するオフセット値の倍数を得るためにも用いられる。
図9及び図5Aは、オフセット値と呼ばれる切り捨てられ修正された時間ドリフトしきい値と組み合わせて周波数デバイダを使用することの有効性を説明している。APTS及びVPTSが33ビット値であるとして説明されたが、しかしながら、要求されている最大時間ドリフト幅を決定するために、APTS及びVPTSの最上位ビットの全てが必要とされてはいない。例えば、1番目のMSBがAM(午前)若しくはPM(午後)を示す間に、2番目のMSBは、231×11.11μs、即ち、6.625時間を示す。従って、オーディオ再生とビデオ再生とはそう大きく同期がはずれないと予測される。オーディオ及びビデオとの同期はずれは、18から0までのビットによって示される0から3秒までの範囲内であることが予想される。
従って、APTS及びVPTS値の両方の32から19までのビットは切り捨て可能である。再同期はまた、60fpsのフレームの1/10よりも少ない1.42msより少ない時間値については求められていないので、APTS及びVPTS値の6から0までのビットが同様に切り捨て可能である。従って、APTS及びVPTSについて解析される望ましいビットの範囲は18から7である。
図5Aにおいては、切り捨てられたAPTS[18:7]がバス502を介してカウンタ511に入力され、切り捨てられたVPTS[18:7]がバス503を介してレジスタ512に入力されることが諒解されよう。切り捨てのために、カウンタ511は、正確な表示レート及び所定のオフセット値だけでなく切り捨てにも適応するように、カウントしなければならない。切り捨てることだけ考えると、カウンタは27(128)でカウントすべきである。従って、セレクタブル周波数デバイダ510は、ライン504を介してカウンタ511に正確な増分値入力を供給するために、128でSCLKの周波数を分割する。このように、VPTS、APTS及び修正された時間ドリフトしきい値の巾を切り捨てることは、より少ない回路を持つA/V同期回路を提供するために、より小さなカウンタ、加算器、レジスタ、バス及び他のハードウエアの使用を許容にする。
A/V同期回路によって使用される回路の総量を更に減らすために、Eq.(9a)−(16a)、Eq.(9b)−(16b)、Eq.(9c)−(16c)若しくは時間ドリフトがしきい値を超えているか否かを決定するための他の同様な式の演算を実行するため1つの加算器/減算器が図5Aで用いられている。もし、図5Aの加算器/減算器によって式の1つの演算の結果が負の値を示すオーバーフロー状態であれば、その式は満足される。APTS、VPTS及び修正された時間ドリフト値は切り捨てられているので、加算器/減算器513はたった12ビットしか必要としない。勿論、全く切り捨てないか若しくは他のビットが、APTS、VPTS及び修正された時間ドリフト値に対して異なるデータ長となるように切り捨てられ、それによって、他の回路に対する異なる大きさと同様に異なる大きさの加算器/減算器を必要とするのでも良い。
さて、図5AのA/V同期回路の動作が、30fpsの表示レート、プラスマイナス1と3フレーム時間の時間ドリフトしきい値が、適切なEq.(9a)−(10a)、Eq.(13a)−(14a)が適用できると仮定して詳細に説明する。このシステムは、ソフトウエアリセット若しくはシステムデコーダ内の分離器からのリセットのどちらかを受信して初期リセットされる。このシステムはまたEq.(9a)−(10a)、Eq.(13a)−(14a)の結果の1つが満たされたときにリセットされる。オーディオ及びビデオが、丁度良く適合することができるよりも多いフレーム同期がはずれている場合には、ソフトウエアが再同期を実行することができるように、割り込み要求がソフトウエアに送られる。
オーディオとビデオが同期しておらず、ビデオフレームをスキップすることが望ましいが、しかしながら、B−タイプフレームが圧縮されたビデオデータストリーム内に予め決められた期間中に見つけられていない場合には、ソフトウエアが、オーディオとビデオを同期させるために1つのビデオフレーム若しくは複数のビデオフレームをスキップさせるようにするために、同様にソフトウエアに割り込みが送られる。リセット状態のどの場合でも、リセットロジック552はステートマシン553をリセットしてIDLE(活動停止)状態0(S0)520にする。セレクタブル周波数デバイダ510は、圧縮及び異なるフレームレートを適応させるためにシステムクロックを分割する。
もしもレジスタ557がEq.(9a)−(10a)、Eq.(13a)−(14a)で表された30fpsの表示レートに対する値がロードされ、実際に受信される圧縮されたビットストリームが30fpsの表示レートに適合している場合には、周波数デバイダは、切り捨てのみに適合するために27(128)で分割する。しかしながら、もしもレジスタ557内の値がロードされたEq.(9a)−(10a)、Eq.(13a)−(14a)に対する値のままで、実際に受信した圧縮ビットストリームが60fpsの値だった場合には、セレクタブル周波数デバイダ510は、カウンタ511がより速くカウントすることを可能とするために、26(64)で分割する。
7(128)から26(64)へのセレクタブル周波数デバイダ510の分割の変更は、Eq.(9b)−(10b)、Eq.(13b)−(14b)が図5Aの回路によって効果的に用いられるように、レジスタ557に記憶されているオフセット値を半分に分割するのと同じ効果を持つ。同様に、もしも圧縮されているビットストリームが15fpsの表示レートであった場合、デバイダは、Eq.(9c)−(10c)、Eq.(13c)−(14c)を用いるようにレジスタ557に記憶されているオフセット値を2倍にする効果を生み出すために、256、即ち、28で分割する。
状態0(S0)の間、システムは適切なオフセット値及び遅延値をレジスタ557内に読み込む。時間ドリフトは、プラスマイナス1フレーム時間及びプラスマイナス3フレーム時間の好ましい時間ドリフトしきい値を超えているかどうかを見るために検査されると仮定する。最初に符号化/圧縮されたビデオフレームがスキップされているか否かを知り、次に復号化/伸張されたビデオフレームがリピートされたか否かを知ることが好ましいので、式の並び順序はわずかに変更される。従って、式の計算の順序は30fpsの通常の表示レートに関しては、次のようになる:
(VPTS’+9216)−(APTS+M)<0 (10a)
(APTS+M)−(VPTS’−9216)<0 (9a)
(VPTS’+3072)−(APTS+M)<0 (14a)
(APTS+M)−(VPTS’−3072)<0 (13a)
ここで、VPTSがVPTS’になるためにAVLATENCYによって変更される。
切り捨てられた値であるオフセット値は、AVLATENCY値と並列にバス543のビット[19:0]からレジスタ577にロードされる。例えば、図9のビット[13:9]からの2進パターン10010で示されるオフセット値9216は、OV1と示されているレジスタ557の5ビット[9:5]にロードされる。図9のビット[13:9]からの2進パターン001100で示されるオフセット値3072は、OV2と示されているレジスタ557の5ビット[14:10]に同時にロードされる。AVLATENCY値は、AVLと示されているレジスタ557の5ビット[4:0]に同時にロードされる。A/V同期回路は、圧縮されたデータストリームから最初のAPTS値を受信状態0(520)で待つ。
図3AのAPTS312のようなAPTSが発生すると、図5AのA/V同期回路は、カウンタ511をバス502上で使用可能な短くされたAPTS値に初期化する。SCLKは、セレクタブル周波数デバイダ510がカウンタ511が初期化されたAPTS値からインクリメントするのを可能にする前に、2mのクロック周期を実行する。この場合、128SCLKクロック周期がカウントされた後、周波数デバイダ510はカウンタ511をインクリメントする。カウンタ511は連続的にインクリメントし、レジスタ581によって記憶された圧縮データストリーム中の新しいAPTS値の受信後に、LDPTS1信号515によって再初期化されて新しいAPTS値にされる。
カウンタ511が多数回インクリメントされた後に、図3AのVPTS308のようなVPTSが圧縮データストリーム中で受信され、ステートマシン553を状態1(S1)521に移行させる。
状態1の間、切り捨てられたVPTS値は、PTSレジスタ512にロードされるようにマルチプレクサ559によって選択される。次のステップは、以下に繰り返されているEq.(III)によってVPTSとVPTS’に修正する:
VPTS’=VPTS+AVLATENCY (III)
チップクロック518は、Eq.(III)を実行するために、ステートマシン553を、次の状態、ステート2(S2)552にインクリメントする。S2の間、レジスタ517のビット[4:0]に記憶されているAVLATENCY値は、バスY[12:0]537のY[6:2]535のビットへマルチプレクサ556を通過するよう選択される。バスY[12:0]537のY[12:7、1:0]の12から7及び1から0までの番号付けされた残りのビットは、ビット12から7及び1から0を論理0レベルにセットするためにグランドに接続される。
状態2、3、5、7及び9の間、信号531(S2、S3、S5、S7、S9)は、加算器/減算器513の入力Aとしてのバス505へマルチプレクサ558を通過するようにバスY[12:0]537を選択する。信号531(S2、S3、S5、S7、S9)もまた、状態2、3、5、7及び9の間、マルチプレクサ554を介して加算器/減算器513の入力Bに入力するため、バスR[12:0]540を選択する。レジスタ512は、その中に記憶されているVPTS、VPTS[18:7]の切り捨てられた値を、バスR[12:0]540のR[11:00]、のビット11から0に送る。状態2の間、切り捨てられたVPTSの値は、マルチプレクサ554を介して加算器/減算器513のバス506上の入力Bに入力する。加算器/減算器513は、2の補数の加算を用いて減算を実行する能力及び入力Aを入力Bと交換する及びこの逆を行う能力を持つ加算器である。
状態2の間、加算器/減算器513は(AVLATENCY+VPTS)を実行し、バスSUM[12:0]507にVPTS’値を送る。その出力、加算器/減算器513のSUM[12:0]は、状態2の間はレジスタ512に、状態3、5、7及び9の間はレジスタ555に記憶される。従って、状態2の間、(AVLATENCY+VPTS)=VPTS’の結果はレジスタ512に記憶される。次に、ステートマシン553は状態3(S3)523に遷移する。
状態3(S3)523の間、ビデオがオーディオに対して3フレームより大きく遅れているか否かを検出するために、Eq.(10a)(VPTS’+9216)−(APTS+M)<0の計算の最初のステップが実行される。(VPTS’+9216)の値は、カウンタが(APTS+M)の値を保持している間に生成される。状態3及び5の間、信号565(S3、S5)は、マルチプレクサ556を介してY[12:0]バス537のビット2から6へ送るようオフセット値OV1を選択する。信号531は、マルチプレクサ558を介してバス505に送り、加算器/減算器513の入力Aに入力するために、Y[12:0]バス537を選択する。レジスタ512に記憶されているVPTS’の値は、マルチプレクサ554を介してバス506に送り、加算器/減算器の入力Bに入力するために信号531によって選択される。
加算器/減算器制御信号560−562は、加算器/減算器にA+Bの機能を実行させる。従って、加算器/減算器513は、(9216+VPTS’)を実行し、そして、その結果をSUM[12:0]バス507に出力する。SUM[12:0]バス507上の結果は、状態3、5、7及び9の間、チップクロック518及び信号567(S3、S5、S7、S9)によってレジスタ555に記憶される。チップクロック信号はまたステートマシンに次の状態、即ち、状態4に遷移させる。
状態4(S4)524の間、Eq.(10a)の(VPTS’+9216)−(APTS+M)<0の計算の最後のステップが実行される。状態4、6、8及び10の間、信号531は、加算器/減算器513の入力端子Aに入力されるバス505にマルチプレクサ558を介して送るためにカウンタ511の出力を選択する。図5AのA/V同期回路の残りの部分がシステムクロックの周波数で動作している間、カウンタはセレクタブル周波数デバイダ510からの出力によってインクリメントされるので、カウンタ511の出力は、式の計算の間不変の値として現れる。従って、カウンタ出力544は、VPTSが受信された後にその値からインクリメントされるべきではない。
状態4、6、8及び10の間、信号531は、マルチプレクサ554を介してバス506上に送り、加算器/減算器513の入力Bに入力するように、レジスタ555からの出力を選択する。状態4の間、値(9216+VPTS’)は、入力Bとして加算器/減算器513に入力され、値(APTS+M)は、入力Aとして加算器/減算器513に入力される。加算器/減算器制御信号560−562は、B−Aの演算を実行するために、加算器/減算器513を選択する。SWAP信号561はA入力とB入力とを交換するためにアクティブにされ、COMPB信号562は、加算器/減算器513のキャリー入力でのSUB信号560の加算に伴い、加算器/減算器513が、(APTS+M)を補い、それの2の補数の形に変換するためにアクティブにされる。加算器/減算器513は、その後は(VPTS’+9216)を−(APTS+M)に加算する。
もしも状態4の間、加算器/減算器513のオーバーフロー出力549がオーバーフロー状態を示すと、Eq.(10a)は満足され、ビデオイメージの表示はオーディオ再生に対して少なくとも3フレーム遅れており、ビデオフレーム若しくはそれの一部分が後のオーディオ再生時間に追いつくようスキップされる。もしも計算が結果としてオーバーフロー状態にならなければ、ステートマシンは状態5(S5)525に遷移する。オーバーフロー出力549は、状態4の間Dフリップフロップ572に、状態6の間Dフリップフロップ574に、状態8の間Dフリップフロップ576に、そして状態10の間Dフリップフロップ578に記憶される。
オーバーフロー状態では、制御信号出力SKIP MULT545は、ビデオイメージをオーディオ再生に十分マッチさせるために、ビデオイメージの複数のフレーム、例えば3フレーム、のスキップをさせるために、他の回路(図示せず)に知らせる。それに代えて、制御信号出力545は、イメージのビデオ表示が追いつくまでの間、多数のフレーム分、オーディオ再生を遅延させても良い。しかしながら、この後者の方法は、人の眼に対するビデオ表示の変化よりも、人の耳に対するオーディオ再生の変化が気づかれ易いので好ましくない。更に、もしオーバーフローの状態が現れたら、オーバーフロー出力549は、リセットロジック552を通じてステートマシン553をリセットさせる。一旦、式(9a)、(10a)、(13a)若しくは(14a)の1つが満足されると、図5AのA/V同期回路は、計算のシーケンスの全てを実行する必要がない。もし(VPTS’+9216)−(APTS+M)の計算がオーバーフロー状態にならなかった場合は、ステートマシン553は状態5に遷移するということを思い出されたい。
状態5(S5)523の間、ビデオがオーディオに対し3フレーム時間以上進んでいるか否かを検出するために、Eq.(9a)(APTS+M)−(VPTS’−9216)<0の計算が開始される。状態5は(VPTS’−9216)を生成する。制御信号565(S3、S5)は、状態5の間、マルチプレクサ556を介してバスY[12:0]537のビット6から2に送るように、OV1に記憶されているオフセット値を選択する。制御信号531は、状態5の間、マルチプレクサ558を介して加算器/減算器513の入力Aに入力するために、バスY[12:0]537を選択する。制御信号531は、状態5の間、マルチプレクサ554を介して加算器/減算器513の入力Bに入力するために、ビット11から0上の切り捨てられたVPTSを持つバスR[12:0]を更に選択する。
加算器/減算器制御信号560−562は、B−Aの演算を実行するために加算器/減算器513を選択する。SWAP信号561は、A入力とB入力を交換するためにアクティブになり、COMPB信号562は、加算器/減算器513のキャリー入力へのSUB信号560の加算に伴い、加算器/減算器513が(9216)を補い、その2の補数の形に変換するようにアクティブになる。従って、加算器/減算器513は、(VPTS+−9216)の加算を実行し、バス507上のその結果は、状態5の間、レジスタ555に記憶される。ステートマシンはそして状態6に遷移する。
状態6(S6)526の間、計算Eq.(9a)(APTS+M)−(VPTS’−9216)<0は完了される。(VPTS+−9216)の値は(APTS+M)から減算される。信号線531は、状態6の間、加算器/減算器513の入力Aに入力されるバス505にマルチプレクサ558を介して送るために、カウンタ出力バス544を選択する。信号線531は、また、マルチプレクサを介してバス506に送り、加算器/減算器513の入力Bに入力するためにバス541上のレジスタ555からの出力を選択する。加算器/減算器制御信号560−562は、B−Aの演算を実行するために、加算器/減算器513を選択する。SWAP信号561は、入力Aと入力Bを交換するためにアクティブになり、COMPB信号562は、加算器/減算器513のキャリー入力へのSUB信号560の加算に伴い、加算器/減算器513が(VPTS’+−9216)を、その2の補数の形に変換するようにアクティブにする。
加算器/減算器513は、(APTS+N)への−(VPTS’+−9216)の加算を実行する。もし(APTS+N)への(VPTS’+−9216)の加算によってオーバーフロー状態となったら、Eq.(9a)は満足され、ビデオはオーディオに対して少なくとも3フレーム進んでいる。もし、オーバーフロー状態がなければ、ステートマシンは状態7に遷移する。
オーバーフローでは、オーバーフロー出力549は、状態6の間、Dフリップフロップ574に記憶される。制御信号出力RPT MULT546は生成され、ビデオイメージが不変に保持され、オーディオがビデオに追いつくように、ビデオイメージの複数のフレーム、例えば3フレームをリピートするように、他の回路(図示せず)に知らせる。その代わりに、制御信号出力545は、イメージのビデオ表示に追いつくために、オーディオ再生に、多数のフレーム若しくはデータパケットをスキップするようにさせるが、しかしながら、オーディオデータのスキップは好ましくない。更にまた、オーバーフローでは、ステートマシン553は状態0にリセットされる。もしも(APTS+M)−(VPTS’−9216)の計算がオーバーフロー状態とならなければ、ステートマシンが状態7に遷移するということを思い出されたい。
状態7(S7)525の間、計算Eq.(14a)(VPTS’+3072)−(APTS+M)<0は、ビデオがオーディオに対し1フレーム時間より大きく遅れているか否かを検出するために開始される。状態7の間、(VPTS’+3072)に対する値が生成される。状態7及び9の間、レジスタ557からのオフセット値OV2は、マルチプレクサ556を介して、バスY[12:0]537のビット6から2に送られるように、信号569(S7、S9)によって選択される。信号531は、マルチプレクサ558を介してバス505に送り、加算器/減算器513の入力端子Aに入力するために、バスY[12:0]537を選択する。信号線531はまた、状態7の間、加算器/減算器513の入力Bとして、バス506に接続するために、ビット11から0上でレジスタ512に記憶されているVPTS値を使用可能なバスR[12:0]540を選択する。加算器/減算器制御信号560から562は、A+Bの演算を実行するために、加算器/減算器513を選択する。SWAP信号561、COMPB信号562及びSUB信号560は、加算器/減算器513が(VPTS’+3072)の加算を実行できるようにインアクティブになる。バス507上の結果として生じた出力は、状態7の間、信号567及びチップクロック518によってレジスタ555に記憶される。チップクロック518はまた、ステートマシンを状態8へ遷移させる。
状態8(S8)528の間、計算Eq.(14a)(VPTS’+3072)−(APTS+M)は完了される。カウンタ511内の(APTS+M)の値は、レジスタ555に記憶されている(VPTS’+3072)の値から減算される。状態8の間、信号531は、マルチプレクサ558を介してバス505に送り、加算器/減算器513の入力Aに入力するように、バス544上のカウンタ出力を選択する。信号531はまた、状態8の間、マルチプレクサ554を介して、加算器/減算器513の入力Bとしてバス506に送るために、バス541上のレジスタ555からの出力を選択する。加算器/減算器制御信号560−562は、B−Aの演算を実行するために、加算器/減算器513を選択する。SWAP信号561は、入力A及び入力Bを交換するためにアクティブになり、COMPB信号562は、加算器/減算器513のキャリー入力へのSUB信号560の加算に伴い、加算器/減算器513が(APTS+M)を補い、その2の補数の形に変換するようアクティブになる。加算器/減算器は、次いで、(VPTS’+3072)を−(APTS+M)に加算する。
もし−(APTS+M)への(VPTS’+3072)の加算からオーバーフロー状態となった場合には、Eq.(14a)は満たされ、ビデオはオーディオに対して少なくとも1フレーム以上3フレームより少なく遅れている。もしオーバーフロー状態がなかったらステートマシンは状態9に遷移する。
オーバーフローでは、オーバーフロー出力549は状態8の間Dフリップフロップ576に記憶され、ビデオイメージの1フレーム若しくはその一部をスキップするように、他の回路(図示せず)に知らせる制御信号出力547を生成する。一方、制御信号出力547は、イメージのビデオ表示が追いつくのを可能にするために、オーディオ再生をオーディオデータの1フレーム若しくはそれの一部分だけ遅延させても良いが、これは好ましくない。オーバーフローでは、さらなる計算は不要なので、ステートマシンは状態0にリセットされる。しかしながら、もしEq.(14a)の計算を行った後にオーバーフロー状態が生じなければ、ステートマシン553は状態9に遷移する。
状態9(S9 529)の間、計算Eq.(13a)(APTS+M)−(VPTS’−3072)<0は、ビデオがオーディオに対して1フレーム時間より大きく進んでいるか否かを検出するために開始される。状態9の間、切り捨てられたオフセット値OV2は、バスY[12:0]537のビット6から2をマルチプレクサ556を通過するよう信号569によりレジスタ557から選択される。信号531は、バス505へマルチプレクサ558を通過するようにバスY[12:0]537を選択し、加算器/減算器513の入力端子Aに入力される。信号531はまた、状態9の間、加算器/減算器513の入力Bとしてマルチプレクサ554を介してバス506に送るために、ビット11から0上でレジスタ512内に記憶されているVPTS値を使用可能なバスR[12:0]540を選択する。加算器/減算器制御信号560−562は、B−Aの演算を実行するために加算器/減算器513を選択する。SWAP信号561はA入力とB入力を交換するためにアクティブにされ、COMPB信号562は、加算器/減算器513のキャリー入力へのSUB信号の加算に伴い加算器/減算器513が(3072)を補いその2の補数の形に変換するようにアクティブになる。従って、加算器/減算器513は、(VPTS+−3072)の加算を実行し、バス507上のその結果は、状態9の間、チップクロック518及び信号567によりレジスタ555に記憶される。チップクロック518はまた、ステートマシン553を状態10に遷移させる。
状態10の間、Eq.(13a)(APTS+M)−(VPTS’−3072)の計算が完了される。現在レジスタ55に記憶されている(VPTS’−3072)の値は(APTS+M)から減算される。状態10の間、信号531は、マルチプレクサ558を介してバス505に渡し、加算器/減算器513の入力Aに入力するために、バス544上のカウンタ511の出力を選択する。信号線531は状態10の間、加算器/減算器513の入力Bとしてマルチプレクサ554を介してバス506に渡すために、バス541上のレジスタ出力を選択する。加算器/減算器制御信号560−562は、B−Aの演算を実行するために加算器/減算器513を選択する。SWAP信号561は、A入力とB入力を交換するためにアクティブにされ、COMPB信号562は、加算器/減算器513のキャリー入力へのSUB信号560の加算に伴い、加算器/減算器513が(VPTS’+3072)を補い、その2の補数の形に変換するようにアクティブになる。加算器/減算器513は(APTS+N)への−(VPTS’+−3072)の加算を実行する。
もし(APTS+N)への−(VPTS’+−3072)の加算からオーバーフロー状態となった場合には、Eq.(13a)は満足され、オーディオはビデオに対し少なくとも1フレーム以上3フレームより少なく進んでいる。もしオーバーフロー状態がないなら、ステートマシンは動作停止状態である状態0に遷移する。
オーバーフローでは、オーバーフロー出力549は、状態10の間、Dフリップフロップ578に記憶されオーディオが追いつくのを可能にするためにビデオイメージの1フレーム若しくはその一部分をリピートするように他の回路(図示せず)に知らせる制御信号出力548を生成する。そのかわり、制御信号出力548は、イメージのビデオ表示に適合するために、オーディオデータ1フレーム若しくはそれの一部分をオーディオ再生にスキップさせてもよいが、これは好ましくない。このステートマシンは、さらなる計算が不要なのでオーバーフロー状態により状態0にリセットされる。もしEq.(13a)の計算した後にオーバーフローが生じなかったら、ステートマシンは、実際の時間ドリフトがEq.(12a)、(11a)、(14a)及び(13a)によって検出されたものより少ないので状態0に反転する。
図5AのA/V同期回路は前述の例で4つの式と2つのオフセット値のみを用いて特に詳細に説明されているが、追加の式及びオフセット値は、追加のレジスタを追加すること及びステートマシンに追加の状態を与えることによって適応され、若しくは他の式の計算が実行され、若しくは今の式が他の方法で実行される。他の変更は当業者にとって明らかであろう。興味深い1つの変更は図5Bのそれである。図5Bは、図5Aの回路とほんのわずかに異なる方法で同期はずれを検出する第2のA/V同期回路を説明している。VPTSの切り捨てられた値がカウンタ511に入力され、APTSの切り捨てられた値がレジスタ512に入力されることに注意されたい。図5Aの説明においては、Eq.(12a)、(11a)、(14a)及び(13a)が用いられた。図5Bでは、Eq.(20a)−(19a)及び(22a)−(21a)が1及び3フレーム時間に対して用いられる。図5BのA/V同期回路は、図5AのA/V同期回路と同じ方法で動作する。図3Aの306−308のような符号化されたビデオストリーム中のVPTSが発生される毎に、カウンタ510はVPTS値を示す2進値が再ロードされる。カウンタ510はSCLKでインクリメントされる。図3Aの312のような符号化されたデータストリーム中にAPTSが生じると、APTSを表す2進値は、遅延時間の修正及び式の計算が生じるように、レジスタ512に記憶される。他の点では、図5Bの回路は上述した図5Aと同様に機能し動作する。
図8は、図6で説明されているような典型的なマルチメディアシステムの一部を説明している。メモリ691は、Vidsystデコーダ619のメモリコントローラ829及びFIFO641に接続する。ビデオデコーダ621及びシステムデコーダ622は、Vidsystデコーダ619内に含まれる。図5A及びBでより詳細に説明されているA/V同期回路620は、Vidsystデコーダ619に含まれる。
メモリ691は、ホストプロセッサ(図示せず)から受信した符号化/圧縮されたオーディオデータ及び符号化/圧縮されたビデオデータを一時的に記憶部分870に記憶する。記憶部分870は、多数のMPEGタイプの符号化されたビデオフレーム及び多数のMPEGタイプの符号化されたオーディオデータパケットを記憶するのに十分な大きさである。符号化/圧縮されたオーディオデータは、適切な時間にVidsystデーコーダ619によって記憶部分870から読み出され、FIFO641及びオーディオコントロール/FIFO830を介してオーディオデコーダ627に送られる。符号化/圧縮されたビデオデータは、その符号化/圧縮ビデオデータを復号化し伸張して、復号化/伸張されビデオデータにする適切な時間にVidsystデコーダ619によって記憶部分870から読み出され、メモリ961に記憶され直す。メモリ961は、各記憶部分871から874に、1フレームの復号化/伸張されたビデオデータを一時的に記憶する。
メモリコントローラ829は、メモリ691内のアドレス指定可能な記憶位置に対しデータを読み書きするようメモリ制御ロジック875に命令する。メモリ691内のメモリ制御ロジック875は、データバス824及びFIFOメモリ641を介してVidsystデコーダ619とメモリ691内のアドレス指定可能な位置を接続する。
上述したように、同期はずれを検出するために、A/V同期回路によって行われる計算結果に依存して、オーディオ再生及びイメージのビデオ表示は、ビデオフレーム若しくはそれの一部分をリピート若しくはスキップすること、又はオーディオデータパケット若しくはそれの一部分をスキップ若しくは遅延することによって再同期される。
イメージのビデオ表示のフレームをスキップするには、符号化/圧縮されたビデオデータフレームが、オーディオ再生とビデオ表示を再同期するためにスキップされることが好ましい。イメージのビデオ表示のフレームをリピートするには、復号化/伸張されたビデオデータフレームが、オーディオ再生とビデオ表示を再同期するためにリピートされることが好ましい。これに代えて、符号化/圧縮されたオーディオデータのパケットが、オーディオ再生とビデオ表示を再同期するためにスキップ若しくは遅延されても良い。
符号化/圧縮されたビデオデータフレームをスキップするために、適切なフレームのタイプが検出されることが必要である。システムデコーダ622は、符号化/圧縮されたビットストリームを分離して、符号化/圧縮されたビデオデータ、符号化/圧縮されたオーディオデータ及びタイミング情報にすると、例えばI−タイプ、P−タイプ若しくはB−タイプ等のビデオフレームのタイプを信号線851を介してメモリコントローラ829に知らせる。従って、メモリコントローラ829は、符号化されたビデオフレームのタイプが何であるか及び各タイプを見つけることのできるメモリ691内のアドレス指定可能な記憶位置のアドレス空間のアドレスを知る。A/V同期回路から、同期はずれを示す、図5A−Bの信号545−548のような信号を受信すると、メモリコントローラ829は、メモリ691内にスキップされても良い適切なタイプの符号化/圧縮されたビデオフレームタイプがあるか否かを検出する。もしもメモリコントローラ829がスキップされるタイプを知ると、所望の符号化/圧縮されたフレームをスキップするために、メモリ691に供給されるアドレッシングの順序を変更する。アドレッシング順序の変更は、異なる開始アドレスを選択することと同様に単純である。所定のアドレスシーケンスに対する他の変更が、記憶された符号化/圧縮フレームのスキップに適応することが諒解されよう。
もしもメモリコントローラ829が、メモリ691内にスキップされても良いタイプの符号化されたフレームがないことを知った場合には、受信された符号化/圧縮されたビットストリーム中にそれがシステムデコーダ622によって分離されたとき、スキップされても良いタイプを探す。予め決められた時間の後、もしもスキップされても良い符号化/圧縮されたフレームのタイプが、符号化/圧縮ビットストリーム中に見つけられなかった場合は、メモリコントローラは、ソフトウエアに再同期を実行させるように割り込み要求を信号線850を介して通知する。
復号化/伸張されたビデオデータフレームをリピートするために、メモリコントローラ829は、ビデオデータの同じフレームを含むメモリ691中のアドレス指定可能な記憶位置に対するメモリアドレスのシーケンスをリピートするように、メモリ691に単純に命令する。リピートされるために選択された符号化/圧縮ビデオデータフレームは、2回メモリ691から読み出され、FIFO641を介してビデオデコーダ621に送られる。
符号化/圧縮されたオーディオデータをスキップするために、メモリコントローラ829は、メモリアドレスのシーケンスを選択的にスキップ、若しくは、符号化/圧縮されたオーディオデータをより滑らかにスキップするためにメモリアドレスを定期的にスキップする。符号化/圧縮されたオーディオデータのアドレスのシーケンスをスキップすることは、上述したような符号化/圧縮されたビデオデータのアドレスのシーケンスをスキップすることと同様である。好ましくは、オーディオコントローラ/FIFO830は、オーディオ再生とイメージのビデオ表示を同期させるために、オーディオデコーダ627による復号化/伸張されたオーディオデータの発生の速度を上げても良い。復号化/伸張されたオーディオデータの生成の速度を上げることは、符号化/圧縮されたオーディオデータをスキップすることよりも、より人に知覚されにくい。オーディオコントローラ/FIFO830は、復号化/伸張オーディオデータの生成の速度を上げるために、メモリ691から符号化/圧縮オーディオデータをより頻繁に要求し、符号化/圧縮オーディオデータをより速くオーディオデコーダ627に供給することもできる。
符号化/圧縮オーディオデータを遅延するために、オーディオコントローラ/FIFO830は、オーディオデコーダ627に復号化/伸張オーディオデータの生成の速度を落とさせるために、メモリ691からあまり頻繁には符号化/圧縮オーディオデータを要求せず、符号化/圧縮されたオーディオデータを少しだけゆっくり供給する。
本発明の特にマルチメディアに対する応用例が、図6に示されている。マルチメディアコンピュータのようなマルチメディアデジタルシステム600は、内部的にCDROMリーダ611に接続されたメインのシステムボード610とオーディオ/ビデオデコーダ612を有する。マルチメディアデジタルシステム600は、イメージソース601からなる符号化システムに外部的に接続され、デジタルディスプレイ605やCRTモニタ606やテレビ607のような外部の表示デバイスに接続される。始めに、符号化は、イメージデータを供給するあるソースからのデータに対して行われる。イメージデータを供給するソースの例としては、動画カメラ、テレビモニタ、コンピュータ、スキャナとスチルカメラである。ソースに関係なくイメージデータはバス635上へエンコーダ602に対して供給される。図6では、イメージ603は、動画カメラのようなイメージソース601によって読まれ、エンコーダ602によって符号化されるために、バス635上のデータストリームに変換される。使用される標準のタイプによってエンコーダ602はMPEGIエンコーダやMPEGIIエンコーダ、JPEGエンコーダ、また符号化/圧縮データを生成する他のタイプのエンコーダでありえる。イメージデータは、符号化された後、エンコーダ602から直接プロセッサに接続されたり、コンパクト・ディスク・リード・オンリー・メモリ(CDROM)604上に書かれる。CDROM604上に書かれた場合は、エンコーダ602から記録された符号化/圧縮データをプロセッサ613に結合させるために、ディスクはCDROMリーダ611に挿入されなければならない。
プロセッサ613は、インテル80486のような標準プロセッサでも良いし、専用化されたプロセッサでも良い。プロセッサ613は、符号化/圧縮されたデータを、後に読み出され、システムバス615に置かれるためにシステムメモリ614に記憶しても良いし、直接符号化/圧縮データをシステムバス615に結合させても良い。システムバス615は、ISAバス、PCIバスまた他の標準的なコンピュータバスまたはいくつかの種類の専用化バスでも良い。システムバス615上の符号化/圧縮されたデータストリームは、オーディオ/ビデオ復号化システム612に接続される。システムバス615上の符号化/圧縮データは、Vidsystデコーダ619に接続される。Vidsystデコーダ619内では、システムデコーダ622は、符号化/圧縮データを符号化/圧縮ビデオデータと、符号化/圧縮オーディオデータと、タイミング制御信号に分離する。システムデコーダ622は、タイミング制御信号を伝送するために、オーディオ/ビデオ同期回路620に接続される。システムデコーダ622は、符号化/圧縮オーディオデータを伝送するために、直接オーディオデコーダ627に接続されても良いし、符号化/圧縮オーディオデータのフレームのオーディオデコーダ627へ転送される前の一時的な記憶を提供するFIFO641とメモリ691を介してオーディオデコーダ627へ間接的に接続されても良い。システムデコーダ622はまた、符号化/圧縮ビデオデータを伝送するために、ビデオデコーダ621に直接接続されても良い。他の方法として、システムデコーダ622は、符号化/圧縮されたビデオデータのフレームのビデオデコーダ621に転送される前の一時的な記憶を提供するFIFO642とメモリ691を介して間接的にビデオデコーダ621に接続されても良い。どの場合においても、FIFO641への制御信号631、FIFO642への制御信号630、メモリ690への制御信号は、符号化/圧縮されたビデオデータのフレーム又はその一部、符号化/圧縮されたオーディオデータのパケットまたはその一部、または復号化/伸張されたビデオデータのフレーム又はその一部のどれでもスキップするか繰り返す可能性を呈する。
もし、メモリ691またはFIFO642内で多数の予め決められたフレーム以上スキップする必要がある場合には、オーディオ/ビデオデータストリームを再び並べるために、MPEGビットストリームをシーケンス層の初めから再開始するためにVidsystデコーダ619によって割り込み信号が発生される。もし、予め定められているフレームの数よりも多くリピートする必要性がある場合には、オーディオ/ビデオデータストリームを再整列させるために、シーケンス層の開始部位からMPEGビットストリームを再始動すべく、割込信号が生成される。図5Aでは、復号繰り返し信号546と復号スキップ信号545のどちらかが、CPU613に送られる割り込み要求を生成する。FIFO641と642、メモリ691に対する他の制御信号は、図示されていないが、コントローラ629から発生する。
Vidsystデコーダ619内のビデオデコーダ621は、符号化/圧縮されたビデオデータをバス626に供給される復号化/伸張されたビデオデータストリームに伸張し復号する機能を果たす。グラフィックコントローラ625は、復号化/伸張されたビデオデータストリームを受け取り、ビデオ表示メモリ624と連動してデジタルディスプレイ605かCRTビデオモニタ606のどちらかにイメージをスキャンする。
コーデック628は、復号化/伸張されたビデオデータストリームを受け取って、テレビ607に合うYUVやRGBのようなデータフォーマットに変換する。コーデック628は、現在はNTSCやPALのテレビに表示するために、復号化/伸張されたビデオデータストリームをNTSCやPALフォーマットに変換しているが、将来的なフォーマット変換が同様に使用されても良い。
オーディオデコーダ627は符号化/圧縮されたオーディオデータストリームをアナログアプリケーションデバイス(図示せず)またはドライブスピーカ608に直接伝送される復号化/伸張オーディオアナログ信号に復号/伸張する。別な方法として、オーディオデコーダ627は符号化/圧縮されたオーディオデータストリームをアナログアプリケーションデバイス(図示せず)にバス609を介して伝送される復号化/伸張デジタルオーディオデータストリームに復号/伸張する。
オーディオ/ビデオ同期回路620は、図5Aを参照して上述されたが、システムデコーダ622によって符号化/圧縮ビットストリームから分離されたタイミング情報(VPTS、APTS、SCR)を受け取る。タイミング情報に応じて、オーディオ/ビデオ同期回路620は、符号化/圧縮されたまたは復号化/伸張されたオーディオまたはビデオデータの1またはそれ以上のフレームまたはフレームの一部をスキップまたは繰り返すために、FIFO641、642、メモリ691及びビデオデコーダ621への制御信号を間接的におよび直接的に生成する。ビデオフレームまたはその一部を繰り返すために、オーディオ/ビデオ同期回路620は、ビデオデコーダ621に所定の期間同じ出力を制御信号バス630、632を介して生成させる。ビデオフレームまたはその一部をスキップするために、オーディオ/ビデオ同期回路620は、FIFO642とメモリ691に、適切な符号化/圧縮されたビットストリームビデオデコーダ621に供給するために、決められた数のアドレスをスキップするようにさせる。
同様に、オーディオデータまたはその一部をスキップするために、オーディオ/ビデオ同期回路620は、FIFO641とメモリ691に、適切な符号化/圧縮されたビットストリームビデオデコーダ621に供給するために、決められた数のアドレスをスキップさせる。
ビデオ基本入出力オペレーティングシステム(VBIOS)623は、グラフィックコントローラ625とVidsystデコーダ619を初期化する。VBIOS623は、Vidsystデコーダ619とグラフィックコントローラ625に対するソフトウエアのコード化された命令を有している。Vidsystデコーダ619に対する命令は、VHSテープ記録再生機と同様な、停止、ステップ、早送りや符号化/圧縮されたデータに対する他のコマンドを行う。これらの命令は、オーディオ/ビデオ同期回路620に、さらにFIFO642、641、ビデオデコーダ620、オーディオデコーダ627にビデオフレームやオーディオデータまたはそれらの一部の組み合わせをスキップまたは繰り返させる制御信号を生じさせる。
図6はグラフィックスデータと符号化されたデータがバス615と表示デバイス605−607を共有する1つの方法を示す。この場合、グラフィックスコントローラ625は、モニタ606またはデジタルディスプレイ605の同じ表示デバイス上に表示されるべき626上の復号化/伸張されたビデオデータストリームとバス615上のグラフィックスデータを結合する内部マルチプレクサ(図示せず)を有する。この場合、グラフィックスデータは背景のウィンドウと他のウィンドウをディスプレイ上に供給し、一方、復号化/伸張されたデータは同じディスプレイ上の他のウィンドウ内に表示される。テレビモニタは1つのディスプレイ上に結合された両方のデータタイプを同様に有することができる。
図7Aは図6の簡略化されたブロック図を示す。図6及び図7Aにおいて、バス615は、バス615からVidsystデコーダ619へ送られる符号化されたデータとバス615からグラフィックスコントローラ625へ送られるグラフィックスデータとの間で時間多重される。図7Aと図6において、グラフィックスコントローラ625は、グラフィックスデータと復号化/伸張されたビデオデータを同じ表示デバイス上に多重化する内部マルチプレクサを有する。
図7Bは、グラフィックスデータと復号化/伸張されたビデオデータを同じ表示デバイス上に表示するもう1つの代替案である。この場合、バス615は符号化されたデータとグラフィックスデータと符号化データから生成された復号化/伸張されたビデオデータを時間多重する。符号化されたデータはバス615上に置かれ、双方向ポートを有するVidsystデコーダ719によって受け取られる。Vidsystデコーダ719は、その符号化データを復号化/伸張し、復号化/伸張されたデータをバス615へ返送する。グラフィックスコントローラ725は、グラフィックスデータと復号化/伸張されたデータの両方を、デジタルディスプレイ605、モニタ606またはTV607それぞれへのほぼ同時の表示のために内部的に一緒に多重化されるよう受け取る。この場合、グラフィックスコントローラ725はその2つのデータタイプを正確に多重するだけでなくグラフィックスデータと復号化/伸張されたビデオデータをTV607に表示させるためにNTSCやPAL信号に正確に変換するためにもより多くの回路を有する。
図7Cは、外部の構成要素を使ってグラフィックスデータと復号化/伸張されたビデオデータを同じ表示デバイス上に表示するもう1つの代替案である。図7Aと同様に、バス615は符号化されたデータとグラフィックスデータを時間多重する。Vidsystデコーダ619は、バス615から符号化データを受け取り、選択的にピクセルデータとしてデジタルディスプレイ605にマルチプレクサ701によって結合され、選択的にアナログ信号としてデジタルアナログ変換器704とマルチプレクサ702を介してモニタ606に結合され、NTSC/PALコーデック628とマルチプレクサ703を介してNTSC又はPAL信号としてTV607に結合される復号化/伸張されたビデオデータストリームを生成する。グラフィックスコントローラ726はグラフィックスデータをバス615から受け取り、ピクセルデータをデジタルディスプレイ605に、アナロググラフィックス信号をモニタ606に、NTSC/PAL信号をTV607に、タイミング/制御信号をディスプレイ605−607に、多重化制御信号をマルチプレクサ701−703に供給する。マルチプレクサ701−703を使用して、グラフィックスコントローラ726は正確に多重化制御信号を生成し、それによってグラフィックスデータとVidsystデコーダ619からの復号化/伸張されたビデオデータがディスプレイ605−607のいずれかに表示されるタイミングをとる。グラフィックスコントローラ625と725内の内部マルチプレクサは外部の多重化701−703と同様の方法で動作する。
本発明の好ましい実施例と様々な変形例がここで詳細に開示され説明されたが、当業者にとっては発明の精神と範囲を逸脱しないで様々な形式や詳細な点においての変形が容易である。

Claims (34)

  1. 少なくともオーディオデータパケット、ビデオデータパケット、オーディオ・プレゼンテーション・タイム・スタンプ及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化データストリームからのオーディオ及びビデオ信号の同期をとるための装置であって、
    符号化データストリームを受信し、前記データストリームを少なくともオーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリームと、少なくとも前記ビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化ビデオデータストリームとに分離するためのシステムデコーダと、
    前記システムデコーダに接続され、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出するための第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器と、
    前記第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器に接続され、ロード信号が受信されたときに前記オーディオ・プレゼンテーション・タイム・スタンプをスタートカウントとして受信し、予め決められたクロック周波数に基いて前記スタートカウントをインクリメントし、システムタイムクロックを出力するためのシステムタイムクロックカウンタと、
    前記システムデコーダ及び前記システムタイムクロックカウンタに接続され、前記システムタイムクロック及び前記符号化ビデオデータストリームを受信し、前記システムタイムクロックに同期して前記符号化ビデオデータストリームを復号化するためのビデオデコーダと、
    符号化オーディオデータストリームからの前記オーディオデータパケットを受信し、前記オーディオデータパケットを復号化するためのオーディオデコーダと、
    前記オーディオデコーダ及び前記システムデコーダに接続され、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出し、前記オーディオ・プレゼンテーション・タイム・スタンプに対応するオーディオデータパケットが復号化されたときに、前記システムタイムクロックカウンタにロード信号を出力するための第2のオーディオ・プレゼンテーション・タイム・スタンプ検出器と、からなり、
    前記第1及び第2のオーディオ・プレゼンテーション・タイム・スタンプ検出器が検出する前記オーディオ・プレゼンテーション・タイム・スタンプは、共に前記システムデコーダから供給される同一の信号であることを特徴とする装置。
  2. 前記第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器に接続され、符号化オーディオデーストリームからの検出されたオーディオ・プレゼンテーション・タイム・スタンプを記憶するためのラッチを有することを特徴とする請求項1記載の装置。
  3. 前記システムデコーダに接続され、前記符号化オーディオデータストリームからのオーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを受信し、記憶するための第1のオーディオデータバッファを更に含むことを特徴とする請求項2記載の装置。
  4. 前記オーディオデコーダは、前記第1のオーディオデータバッファからの符号化オーディオデータストリームを受信し、オーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを記憶するための第2のオーディオデータバッファを更に含むことを特徴とする請求項3記載の装置。
  5. 前記第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器は、多くとも1つだけのオーディオ・プレゼンテーション・タイム・スタンプが前記第2のオーディオデータバッファに記憶されるように、前記第2のオーディオ・プレゼンテーション・タイム・スタンプ検出器からのロード信号を受信するより前に第2のオーディオ・プレゼンテーション・タイム・スタンプが符号化オーディオデータストリーム中で検出されたときに、バッファフルハンドシェーク信号を前記第1のオーディオデータFIFOに出力することを特徴とする請求項4記載の装置。
  6. 前記システムデコーダは、符号化データストリームを分離して、オーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリーム、並びにビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化ビデオデータストリームとにするためのパーサと、
    アドレス指定可能な記憶部を有し、前記パーサに接続され、符号化オーディオデータ、符号化ビデオデータ、若しくは復号化ビデオデータをアドレス指定可能な記憶部に選択的に記憶及び読み出すためにアドレス指定可能な記憶部をアドレッシングするメモリとを更に含むことを特徴とする請求項5記載の装置。
  7. 前記ビデオデコーダは、メモリに接続され、符号化ビデオデータを復号化し、復号化ビデオデータを生成するためのデコーダと、
    前記検出器及び前記メモリに接続され、ビデオ・プレゼンテーション・タイム・スタンプとシステムタイムクロックを比較し、その比較結果が予め決められたしきい値を超えたときに、デコーダによる復号化ビデオデータの生成とメモリによるアドレス指定可能な記憶部のアドレッシングを実質的に同期するためのシンクロナイザとを更に含むことを特徴とする請求項6記載の装置。
  8. シンクロナイザは、ビデオ時間値が、予め決められたしきい値だけ、システムタイムクロック値を超えたことを確定し、復号化されたビデオデコーダを含むアドレス指定可能な記憶部のメモリによるアドレッシングのシーケンスは、デコーダによる復号化されたビデオデータの生成とメモリによるアドレス指定可能な記憶部のアドレッシングを実質的に同期させるために、アドレスのシーケンスを繰り返すことによって変更されることを含むことを特徴とする請求項7記載の装置。
  9. 符号化データストリームに基づいて、オーディオ及びビデオ信号を同期させ、復号化/伸張する方法であって、
    組み合わされたシステムとビデオデコーダにおいて、少なくともオーディオデータパケット、ビデオデータパケット、オーディオ・プレゼンテーション・タイム・スタンプ及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化データストリームを受信し、前記符号化データストリームを、少なくともオーディオデータパケット及び前記オーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリームと、少なくとも前記ビデオデータパケット及び前記ビデオ・プレゼンテーション・タイム・スタンプを含む符号化ビデオデータストリームとに分離し、
    前記組み合わされたシステムとビデオデコーダにおいて、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出し、
    前記組み合わされたシステムとビデオデコーダにおいて、符号化オーディオデータストリームからの検出されたオーディオ・プレゼンテーション・タイム・スタンプを記憶し、
    前記組み合わされたシステムとビデオデコーダに接続された、前記オーディオデコーダにおいて、前記符号化オーディオデータストリームからのオーディオデータパケットを受信し、前記オーディオデータパケットを復号化/伸張し、
    前記オーディオデコーダにおいて、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出し、前記オーディオ・プレゼンテーション・タイム・スタンプに対応するオーディオデータパケットが復号化されたときにフラグを出力し、
    前記組み合わされたシステムとビデオデコーダにおいて、前記フラグが受信されたときに、記憶されたオーディオ・プレゼンテーション・タイム・スタンプをスタートカウントとしてシステムタイムクロックカウンタにセットし、予め決められたクロック周波数に基いて前記スタートカウントをインクリメントし、システムタイムクロックを出力し、
    前記システムタイムクロックと同期して前記符号化ビデオデータストリームを復号化/伸張することを特徴とする方法。
  10. 前記記憶ステップは更に、前記組み合わされたシステムとビデオデコーダ内の第1のオーディオデータバッファ内に、前記符合化オーディオデータストリームからのオーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを記憶することを特徴とする請求項9記載の方法。
  11. 前記オーディオデコーダ内の第2のオーディオデータバッファに前記第1のオーディオデータバッファからの符合化オーディオデータストリームを受信し、オーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを記憶する受信ステップを更に含むことを特徴とする請求項10記載の方法。
  12. 多くとも1つだけのオーディオ・プレゼンテーション・タイム・スタンプが前記第2のオーディオデータバッファに記憶されるように、前記第2のオーディオ・プレゼンテーション・タイム・スタンプ検出器からのロード信号を受信するより前に第2のオーディオ・プレゼンテーション・タイム・スタンプが符号化オーディオデータストリーム中で検出されたときに、バッファフルハンドシェーク信号を、前記第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器から、前記第1のオーディオデータFIFOに出力するステップを更に含むことを特徴とする請求項11記載の方法。
  13. 前記受信及び分離ステップは、符合化データストリームを、オーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを含む符合化オーディオデータストリームと、ビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含む符合化ビデオデータストリームとに分離するステップと、
    符合化オーディオデータ、符合化ビデオデータ若しくは復号化ビデオデータをアドレス指定可能な記憶部に選択的に記憶及び読み出すためアドレス指定可能な記憶部をアドレッシングするステップを含むことを特徴とする請求項9記載の方法。
  14. 前記ビデオデータを復号化/伸張するステップは、符合化ビデオデータを復号化して復号化ビデオデータを生成するステップと、
    ビデオ・プレゼンテーション・タイム・スタンプとシステムタイムクロックを比較して、その比較結果が予め決められたしきい値を超えた場合には、復号化ビデオデータの生成とアドレス指定可能な記憶部のアドレッシングを実質的に同期させるステップを更に含むことを特徴とする請求項13記載の方法。
  15. 前記比較ステップは、予め決められたしきい値によってビデオ時間値がシステムタイムクロック値を超えていることを確定するステップと、
    復号化ビデオデータの生成とアドレス指定可能な記憶部のアドレッシングを実質的に同期させるために、アドレスのシーケンスを繰り返すことによって、復号化ビデオデータを含むアドレス指定可能な記憶部のアドレッシングのシーケンスを変更するステップとを更に含む請求項14記載の方法。
  16. 符号化オーディオ/ビデオデータを読み取り、復号化し、そして伸張することにより、複数の異なる形式のビデオデータ、及び複数の音声再生装置で再生するためのオーディオデータにするマルチメディアシステムであって、
    少なくともオーディオデータパケット、ビデオデータパケット、オーディオ・プレゼンテーション・タイム・スタンプ及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化データストリームを受信し、前記符号化データストリームを少なくともオーディオデータパケット及び前記オーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリームと、少なくとも前記ビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化ビデオデータストリームとに分離するためのシステムデコーダと、
    前記システムデコーダに接続され、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出するための第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器と、
    前記第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器に接続され、ロード信号が受信されると、前記オーディオ・プレゼンテーション・タイム・スタンプをスタートカウントとして受信し、予め決められたクロック周波数に基いて前記スタートカウントをインクリメントしてシステムタイムクロックを出力するためのシステムタイムクロックカウンタと、
    前記システムデコーダ及び前記システムタイムクロックカウンタに接続され、前記システムタイムクロック及び前記符号化ビデオデータストリームを受信し、前記システムタイムクロックに同期して前記符号化ビデオデータストリームを復号化/伸張するためのビデオデコーダと、
    符号化オーディオデータストリームからの前記オーディオデータパケットを受信し、前記オーディオデータパケットを復号化/伸張するためのオーディオデコーダと、
    前記オーディオデコーダ及び前記システムデコーダに接続され、符合化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出し、前記オーディオ・プレゼンテーション・タイム・スタンプに対応するオーディオデータパケットが復号化されたときに、前記組み合わされたシステムとビデオデコーダ内の前記システムタイムクロックカウンタにロード信号を出力するための第2のオーディオ・プレゼンテーション・タイム・スタンプ検出器と、からなり、
    前記第1及び第2のオーディオ・プレゼンテーション・タイム・スタンプ検出器が検出する前記オーディオ・プレゼンテーション・タイム・スタンプは、共に前記システムデコーダから供給される同一の信号であることを特徴とするマルチメディアシステム。
  17. 前記組み合わされたシステムとビデオデコーダは、前記第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器に接続され、符合化オーディオデータストリームからの検出オーディオ・プレゼンテーション・タイム・スタンプを記憶するためのラッチを更に含むことを特徴とする請求項16記載のマルチメディアシステム。
  18. 前記組み合わされたシステムとビデオデコーダは、前記システムデコーダに接続され、前記符合化オーディオデータストリームからのオーディオデータパケット及びオーディオプレゼンテーションタイムスタンプを受信して記憶するための第1のオーディオデータバッファを更に含むことを特徴とする請求項17記載のマルチメディアシステム。
  19. 前記オーディオデコーダは、前記第1のオーディオデータバッファからの符合化オーディオデータストリームを受信し、オーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを記憶するための第2のオーディオデータバッファを更に含むことを特徴とする請求項17記載のマルチメディアシステム。
  20. 前記第1のオーディオ・プレゼンテーション・タイム・スタンプ検出器は、多くとも1つだけのオーディオ・プレゼンテーション・タイム・スタンプが前記第2のオーディオデータバッファに記憶されるように、前記第2のオーディオ・プレゼンテーション・タイム・スタンプからのロード信号を受信する前に、符合化オーディオデータストリーム内で第2のオーディオ・プレゼンテーション・タイム・スタンプが検出されたときに、バッファフルハンドシェーク信号を前記第1のオーディオデータFIFOに出力することを特徴とする請求項19記載のマルチメディアシステム。
  21. 前記システムデコーダは、符号化データストリームを、オーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリーム、並びにビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化ビデオデータストリームとに分離するためのパーサと、
    アドレス指定可能な記憶部を有し、前記パーサに接続され、符号化オーディオデータ、符号化ビデオデータ、若しくは復号化ビデオデータをアドレス指定可能な記憶部に選択的に記憶及び読み出すためアドレス指定可能な記憶部をアドレッシングするためのメモリとを更に含むことを特徴とする請求項17記載のマルチメディアシステム。
  22. 前記ビデオデコーダは、メモリに接続され、符号化ビデオデータを復号化し、復号化ビデオデータを生成するためのデコーダと、
    前記検出器及び前記メモリに接続され、ビデオ・プレゼンテーション・タイム・スタンプとシステムタイムクロックを比較し、その比較結果が予め決められたしきい値を超えたときに、デコーダによる復号化ビデオデータの生成とメモリによるアドレス指定可能な記憶部のアドレッシングを実質的に同期するためのシンクロナイザとを更に含むことを特徴とする請求項21記載のマルチメディアシステム。
  23. シンクロナイザは、ビデオ時間値が、予め決められたしきい値だけ、システムタイムクロック値を超えたことを確定し、
    復号化されたビデオデータを含むアドレス指定可能な記憶部のメモリによるアドレッシングのシーケンスは、デコーダによる復号化されたビデオデータの生成とメモリによるアドレス指定可能な記憶部のアドレッシングを実質的に同期させるために、アドレスのシーケンスを繰り返すことによって変更されることを含むことを特徴とする請求項22記載のマルチメディアシステム。
  24. ビデオデコーダ及びビデオモニタに接続され、復号化されたビデオデータをビデオモニタ上の画像として表示するためのグラフィックスコントローラを更に含むことを特徴とする請求項16記載のマルチメディアシステム。
  25. ビデオデコーダ及びデジタルディスプレイに接続され、復号化されたビデオデータをデジタルディスプレイ上の画像として表示するためのグラフィックスコントローラを更に含むことを特徴とする請求項16記載のマルチメディアシステム。
  26. ビデオデコーダ及びテレビジョンディスプレイに接続され、復号化されたビデオデータからテレビジョンデータを生成し、テレビジョンデータをテレビジョンディスプレイ上に画像として表示するためのテレビジョン信号エンコーダを更に含むことを特徴とする請求項16記載のマルチメディアシステム。
  27. オーディオデコーダに接続され、復号化オーディオデータからアナログオーディオ信号を生成するためのデジタル−アナログ変換器を更に含むことを特徴とする請求項16記載のマルチメディアシステム。
  28. デジタル−アナログ変換器に接続され、アナログオーディオ信号の振幅を増幅するためのオーディオ増幅器を更に含むことを特徴とする請求項27記載のマルチメディアシステム。
  29. 少なくともオーディオデータパケット、ビデオデータパケット、オーディオ・プレゼンテーション・タイム・スタンプ及びビデオ・プレゼンテーション・タイム・スタンプによって特徴づけられる符号化データストリームを受信し、前記ビデオデータパケットを復号化するための装置であって、
    符号化データを受信し、少なくともオーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリームと、少なくとも前記ビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化ビデオデータストリームとに分離し、前記オーディオデータストリームを外部のオーディオデコーダに出力するためのシステムデコーダと、
    前記システムデコーダに接続され、符号化オーディオデータストリーム中のオーディオ・プレゼンテーション・タイム・スタンプの存在を検出するためのオーディオ・プレゼンテーション・タイム・スタンプ検出器と、
    前記オーディオ・プレゼンテーション・タイム・スタンプ検出器に接続され、オーディオ・プレゼンテーション・タイム・スタンプに対応するオーディオデータが復号化されたことを示す信号が、外部のオーディオデコーダから受信されたときに、前記オーディオ・プレゼンテーション・タイム・スタンプをスタートカウントとして受信し、予め決められたクロック周波数に基いて前記スタートカウントをインクリメントしてシステムタイムクロックを出力するためのシステムタイムクロックカウンタと、
    前記システムデコーダ及び前記システムタイムクロックカウンタに接続され、前記システムタイムクロック及び前記符号化ビデオデータストリームを受信し、前記システムタイムクロックに同期して前記符号化ビデオデータストリームを復号化するためのビデオデコーダと、を有することを特徴とする装置。
  30. 前記オーディオ・プレゼンテーション・タイム・スタンプ検出器に接続され、符号化オーディオデータストリームからの検出オーディオ・プレゼンテーション・タイム・スタンプを記憶するためのラッチを更に含むことを特徴とする請求項29記載の装置。
  31. 前記システムデコーダに接続され、前記符号化ビデオデータストリームからのオーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを受信し記憶するためのオーディオデータバッファとを更に含むことを特徴とする請求項29記載の装置。
  32. 前記システムデコーダは、符号化データストリームを、オーディオデータパケット及びオーディオ・プレゼンテーション・タイム・スタンプを含む符号化オーディオデータストリームと、ビデオデータパケット及びビデオ・プレゼンテーション・タイム・スタンプを含む符号化ビデオデータストリームとに分離するためのパーサと、
    アドレス指定可能な記憶装置を有し、前記パーサに接続され、符号化オーディオデータ、符号化ビデオデータ若しくは復号化ビデオデータを選択的にアドレス指定可能な記憶部に記憶及び読み出すためのアドレス指定可能な記憶部をアドレッシングするためのメモリとを更に含むことを特徴とする請求項31記載の装置。
  33. 前記ビデオデコーダは、メモリに接続され、符号化ビデオデータを復号化して復号化ビデオデータを生成するためのデコーダと、
    前記デコーダ及び前記メモリに接続され、ビデオ・プレゼンテーション・タイム・スタンプとシステムタイムクロックとを比較し、その比較結果が予め決められたしきい値を超えたときに、デコーダによる復号化ビデオデータの生成とメモリによるアドレス指定可能な記憶部のアドレッシングとを同期するためのシンクロナイザとを更に含むことを特徴とする請求項32記載の装置。
  34. シンクロナイザは、予め決められたしきい値によってビデオ時間値がシステムタイムクロック値を超えたことを確定し、
    メモリによって復号化されたビデオデータを含むアドレス指定可能な記憶部をアドレッシングするシーケンスは、デコーダによる復号化ビデオデータの生成と、メモリによるアドレス指定可能の記憶部のアドレッシングとを実質的に同期させるために、アドレスのシーケンスを繰り返すことによって変更されることを特徴とする請求項33記載の装置。
JP51908496A 1994-12-14 1995-12-14 Mpeg再生システムにおいてオーディオとビデオを同期するための方法及び装置 Expired - Fee Related JP3864346B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/358,611 US5598352A (en) 1994-09-30 1994-12-14 Method and apparatus for audio and video synchronizing in MPEG playback systems
US08/358,611 1994-12-14
PCT/US1995/015618 WO1996019078A1 (en) 1994-12-14 1995-12-14 Method and apparatus for audio and video synchronizing in mpeg playback systems

Publications (2)

Publication Number Publication Date
JPH10511513A JPH10511513A (ja) 1998-11-04
JP3864346B2 true JP3864346B2 (ja) 2006-12-27

Family

ID=23410355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51908496A Expired - Fee Related JP3864346B2 (ja) 1994-12-14 1995-12-14 Mpeg再生システムにおいてオーディオとビデオを同期するための方法及び装置

Country Status (5)

Country Link
US (1) US5598352A (ja)
EP (1) EP0797893A4 (ja)
JP (1) JP3864346B2 (ja)
KR (1) KR980700780A (ja)
WO (1) WO1996019078A1 (ja)

Families Citing this family (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2910575B2 (ja) * 1994-09-26 1999-06-23 日本電気株式会社 音声信号処理回路と画像・音声デコーダ
US5815634A (en) * 1994-09-30 1998-09-29 Cirrus Logic, Inc. Stream synchronization method and apparatus for MPEG playback system
JP3575100B2 (ja) * 1994-11-14 2004-10-06 ソニー株式会社 データ送信/受信装置及び方法並びにデータ記録/再生装置及び方法
US5771075A (en) * 1994-12-08 1998-06-23 Lg Electronics Inc. Audio/video synchronizer
KR0136460B1 (ko) * 1994-12-24 1998-05-15 이헌조 가변비트율 부호화 장치의 데이타 인터리빙방법
JP4297518B2 (ja) * 1995-03-06 2009-07-15 沖電気工業株式会社 音声・ビデオ復号装置
JPH11506575A (ja) * 1995-03-07 1999-06-08 インターバル リサーチ コーポレイション 情報の選択記憶システム及び方法
US5793927A (en) * 1995-06-07 1998-08-11 Hitachi America, Ltd. Methods for monitoring and modifying a trick play data stream to insure MPEG compliance
US6359636B1 (en) * 1995-07-17 2002-03-19 Gateway, Inc. Graphical user interface for control of a home entertainment system
GB9603332D0 (en) 1996-02-14 1996-04-17 Thomson Consumer Electronics Interface for digital recorder and display
ES2140898T3 (es) * 1995-09-15 2000-03-01 Thomson Consumer Electronics Aparato de grabacion y reproduccion digitales.
KR0175395B1 (ko) * 1995-10-24 1999-03-20 김광호 엠펙 시스템 복호기를 위한 시스템 타임 클럭의 오차검출회로
US6122668A (en) * 1995-11-02 2000-09-19 Starlight Networks Synchronization of audio and video signals in a live multicast in a LAN
WO1997035393A1 (fr) * 1996-03-15 1997-09-25 Hitachi, Ltd. Dispositif de separation de donnees
JP3763153B2 (ja) * 1995-12-13 2006-04-05 ソニー株式会社 データ処理装置及びデータ処理方法
FR2743248B1 (fr) * 1995-12-29 1998-03-20 Sgs Thomson Microelectronics Dispositif de demultiplexage d'informations codees selon une norme mpeg
US5784572A (en) * 1995-12-29 1998-07-21 Lsi Logic Corporation Method and apparatus for compressing video and voice signals according to different standards
US6148135A (en) * 1996-01-29 2000-11-14 Mitsubishi Denki Kabushiki Kaisha Video and audio reproducing device and video decoding device
US5754783A (en) * 1996-02-01 1998-05-19 Digital Equipment Corporation Apparatus and method for interleaving timed program data with secondary data
JP3130464B2 (ja) * 1996-02-02 2001-01-31 ローム株式会社 データ復号装置
US6034738A (en) * 1996-02-14 2000-03-07 Thomson Consumer Electronics, Inc. On-screen display timing
JPH09233231A (ja) * 1996-02-20 1997-09-05 Internatl Business Mach Corp <Ibm> データ伝送方法及び装置
US5828414A (en) * 1996-02-23 1998-10-27 Divicom, Inc. Reduction of timing jitter in audio-video transport streams
JP3159041B2 (ja) * 1996-03-05 2001-04-23 株式会社日立製作所 ディジタル信号記録再生装置および再生装置
GB9607667D0 (en) * 1996-04-12 1996-06-12 Snell & Wilcox Ltd Looping of compressed video bitstreams
US5870310A (en) * 1996-05-03 1999-02-09 Lsi Logic Corporation Method and apparatus for designing re-usable core interface shells
US5818532A (en) * 1996-05-03 1998-10-06 Lsi Logic Corporation Micro architecture of video core for MPEG-2 decoder
US5815206A (en) * 1996-05-03 1998-09-29 Lsi Logic Corporation Method for partitioning hardware and firmware tasks in digital audio/video decoding
US5845249A (en) * 1996-05-03 1998-12-01 Lsi Logic Corporation Microarchitecture of audio core for an MPEG-2 and AC-3 decoder
US6181383B1 (en) * 1996-05-29 2001-01-30 Sarnoff Corporation Method and apparatus for preserving synchronization of audio and video presentation when splicing transport streams
US5912676A (en) * 1996-06-14 1999-06-15 Lsi Logic Corporation MPEG decoder frame memory interface which is reconfigurable for different frame store architectures
US5856973A (en) * 1996-09-10 1999-01-05 Thompson; Kenneth M. Data multiplexing in MPEG server to decoder systems
EP0837608B1 (en) * 1996-10-15 2005-12-28 Matsushita Electric Industrial Co., Ltd. Video and audio coding method and coding apparatus
US6002441A (en) * 1996-10-28 1999-12-14 National Semiconductor Corporation Audio/video subprocessor method and structure
US5951646A (en) * 1996-11-25 1999-09-14 America Online, Inc. System and method for scheduling and processing image and sound data
US5893062A (en) * 1996-12-05 1999-04-06 Interval Research Corporation Variable rate video playback with synchronized audio
US6263507B1 (en) * 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
US5951690A (en) * 1996-12-09 1999-09-14 Stmicroelectronics, Inc. Synchronizing an audio-visual stream synchronized to a clock with a video display that is synchronized to a different clock
US6359656B1 (en) * 1996-12-20 2002-03-19 Intel Corporation In-band synchronization of data streams with audio/video streams
DE19701619B4 (de) * 1997-01-17 2007-10-11 Boehringer Ingelheim Pharma Gmbh & Co. Kg Verwendung von Pramipexol zur Behandlung des restless legs syndroms
US6008856A (en) * 1997-03-07 1999-12-28 Advanced Micro Devices Inc. Method of using an audio transmission signal to transmit video data
US6546426B1 (en) * 1997-03-21 2003-04-08 International Business Machines Corporation Method and apparatus for efficiently processing an audio and video data stream
EP0880246A3 (en) 1997-05-15 1999-12-01 Matsushita Electric Industrial Co., Ltd. Compressed code decoding device and audio decoding device
GB2326781B (en) * 1997-05-30 2001-10-10 British Broadcasting Corp Video and audio signal processing
US6191822B1 (en) * 1997-06-20 2001-02-20 Sony Corporation Method of and apparatus for separating audio and video data from a combined audio/video stream of data
US5959684A (en) * 1997-07-28 1999-09-28 Sony Corporation Method and apparatus for audio-video synchronizing
US7366670B1 (en) * 1997-08-05 2008-04-29 At&T Corp. Method and system for aligning natural and synthetic video to speech synthesis
JPH1168576A (ja) * 1997-08-22 1999-03-09 Hitachi Ltd データ伸張装置
US6226758B1 (en) * 1997-09-30 2001-05-01 Cirrus Logic, Inc. Sample rate conversion of non-audio AES data channels
CN1290090C (zh) * 1997-11-21 2006-12-13 日本胜利株式会社 一种盘重放装置及音频信号的记录重放方法
KR100301826B1 (ko) * 1997-12-29 2001-10-27 구자홍 비디오디코더
KR100294663B1 (ko) 1997-12-29 2001-09-17 구자홍 엠펙디코더및디코딩제어방법
US6081299A (en) 1998-02-20 2000-06-27 International Business Machines Corporation Methods and systems for encoding real time multimedia data
US6101591A (en) * 1998-03-25 2000-08-08 International Business Machines Corporation Method and system for selectively independently or simultaneously updating multiple system time clocks in an MPEG system
US6249319B1 (en) * 1998-03-30 2001-06-19 International Business Machines Corporation Method and apparatus for finding a correct synchronization point within a data stream
US6347084B1 (en) * 1998-05-28 2002-02-12 U.S. Philips Corporation Method of timestamp synchronization of a reservation-based TDMA protocol
CN1138270C (zh) * 1998-06-05 2004-02-11 皇家菲利浦电子有限公司 信息信号在记录载体上的轨迹中的记录和重放
DE19829797A1 (de) * 1998-07-03 2000-01-05 Viag Interkom Gmbh & Co Kommunikationssystem und ein hierfür geeignetes Verfahren zum Betreiben des Kommunikationssystems
US8577205B2 (en) * 1998-07-30 2013-11-05 Tivo Inc. Digital video recording system
US8380041B2 (en) 1998-07-30 2013-02-19 Tivo Inc. Transportable digital video recorder system
US6233389B1 (en) * 1998-07-30 2001-05-15 Tivo, Inc. Multimedia time warping system
US7558472B2 (en) 2000-08-22 2009-07-07 Tivo Inc. Multimedia signal processing system
US6016166A (en) * 1998-08-31 2000-01-18 Lucent Technologies Inc. Method and apparatus for adaptive synchronization of digital video and audio playback in a multimedia playback system
US7174560B1 (en) 1999-02-25 2007-02-06 Sharp Laboratories Of America, Inc. Method of synchronizing events with a digital television audio-visual program
US7188353B1 (en) 1999-04-06 2007-03-06 Sharp Laboratories Of America, Inc. System for presenting synchronized HTML documents in digital television receivers
JP3344379B2 (ja) * 1999-07-22 2002-11-11 日本電気株式会社 オーディオ・ビデオ同期制御装置及びその同期制御方法
WO2001022729A1 (en) 1999-09-20 2001-03-29 Tivo, Inc. Closed caption tagging system
US7155735B1 (en) * 1999-10-08 2006-12-26 Vulcan Patents Llc System and method for the broadcast dissemination of time-ordered data
US6757682B1 (en) 2000-01-28 2004-06-29 Interval Research Corporation Alerting users to items of current interest
US6778493B1 (en) 2000-02-07 2004-08-17 Sharp Laboratories Of America, Inc. Real-time media content synchronization and transmission in packet network apparatus and method
US6654956B1 (en) * 2000-04-10 2003-11-25 Sigma Designs, Inc. Method, apparatus and computer program product for synchronizing presentation of digital video data with serving of digital video data
US7136577B1 (en) * 2000-06-29 2006-11-14 Tandberg Telecom As RTP-formated media clips
JP3674488B2 (ja) 2000-09-29 2005-07-20 セイコーエプソン株式会社 表示コントロール方法、表示コントローラ、表示ユニット及び電子機器
FR2815805B1 (fr) * 2000-10-23 2005-09-02 Telediffusion De France Tdf Procede de synchronisation de signaux numeriques
US7746870B2 (en) * 2001-02-27 2010-06-29 Mark Kenneth Eyer Efficient transport of program clock reference for audio services delivered on an MPEG-2 transport stream
US20070230921A1 (en) * 2001-04-05 2007-10-04 Barton James M Multimedia time warping system
US7012650B2 (en) * 2001-06-14 2006-03-14 Sony Corporation Start/stop audio encoder apparatus and method for synchronizing digital audio and video signals
KR100811490B1 (ko) * 2001-06-19 2008-03-07 엘지전자 주식회사 디지털 티브이의 립싱크 제어방법
US6639649B2 (en) * 2001-08-06 2003-10-28 Eastman Kodak Company Synchronization of music and images in a camera with audio capabilities
US20030066094A1 (en) * 2001-09-29 2003-04-03 Koninklijke Philips Electronics N.V. Robust method for recovering a program time base in MPEG-2 transport streams and achieving audio/video sychronization
US7211665B2 (en) * 2001-11-09 2007-05-01 Clearwater International, L.L.C. Sulfide scavenger
US7120168B2 (en) * 2001-11-20 2006-10-10 Sony Corporation System and method for effectively performing an audio/video synchronization procedure
US7212247B2 (en) * 2002-01-31 2007-05-01 Thomson Licensing Audio/video system providing variable delay
US6850284B2 (en) * 2002-08-27 2005-02-01 Motorola, Inc. Method and apparatus for decoding audio and video information
DE10308138B4 (de) * 2002-12-30 2005-06-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur bezüglich Bildtakt und Bildphase regelbaren Synchronisation von zwei oder mehr MPEG-2-kodierten Videosequenzen für digitale Multi-Projektionssysteme
FR2850817B1 (fr) * 2003-01-31 2005-06-03 Cit Alcatel Dispositif de traitement de donnees audio et video pour une communication multimedia via un reseau local etabli au sein d'un reseau asynchrone
US7567746B2 (en) * 2003-03-19 2009-07-28 Panasonic Corporation Data processing device
GB0306973D0 (en) * 2003-03-26 2003-04-30 British Telecomm Transmitting video
KR100619007B1 (ko) * 2003-06-24 2006-08-31 삼성전자주식회사 비디오 트랜스포트 스트림 동기화 제어 장치 및 방법
US8514949B1 (en) * 2003-08-14 2013-08-20 Apple Inc. Synchronous, multi-stream decoder
JP3856792B2 (ja) * 2004-01-16 2006-12-13 松下電器産業株式会社 信号処理装置
GB0406901D0 (en) * 2004-03-26 2004-04-28 British Telecomm Transmitting recorded material
US20060031885A1 (en) * 2004-04-30 2006-02-09 Vulcan Inc. Management and non-linear presentation of music-related broadcasted or streamed multimedia content
US7333150B2 (en) * 2004-05-14 2008-02-19 Pixel Instruments Corporation Method, system, and program product for eliminating error contribution from production switchers with internal DVEs
US7400653B2 (en) * 2004-06-18 2008-07-15 Dolby Laboratories Licensing Corporation Maintaining synchronization of streaming audio and video using internet protocol
US7895633B2 (en) 2004-11-19 2011-02-22 Tivo Inc. Method and apparatus for secure transfer and playback of multimedia content
US20060140591A1 (en) * 2004-12-28 2006-06-29 Texas Instruments Incorporated Systems and methods for load balancing audio/video streams
WO2006070299A1 (en) * 2004-12-28 2006-07-06 Koninklijke Philips Electronics N.V. Method and apparatus for synchronization control of digital signals
TWI289797B (en) * 2005-02-04 2007-11-11 Via Tech Inc External digital communication routing module
US8233540B2 (en) * 2005-03-10 2012-07-31 Qualcomm Incorporated Method of time base reconstruction for discrete time labeled video
KR20060105890A (ko) * 2005-03-31 2006-10-12 삼성전자주식회사 디지털 방송 수신 장치 및 그 장치에서의 동기화 처리 방법
US7996699B2 (en) * 2005-04-11 2011-08-09 Graphics Properties Holdings, Inc. System and method for synchronizing multiple media devices
DE102005016866A1 (de) * 2005-04-12 2006-10-19 Siemens Ag Verfahren sowie Vorrichtung zum Synchronisieren von inhaltsbezogenen ersten Datensegmenten einer ersten Datendatei und inhaltsbezogenen zweiten Datensegmenten einer zweiten Datendatei
KR100693690B1 (ko) 2005-06-02 2007-03-09 주식회사 대우일렉트로닉스 영상 재생 시스템의 데이터 동기화 방법
US20070094579A1 (en) * 2005-10-07 2007-04-26 Miguel Cerrato Sanchez Method for handling audio packet loss in a windows® media decoder
US7907212B2 (en) * 2006-03-20 2011-03-15 Vixs Systems, Inc. Multiple path audio video synchronization
US9420332B2 (en) * 2006-07-06 2016-08-16 Qualcomm Incorporated Clock compensation techniques for audio decoding
TWI314017B (en) * 2006-07-12 2009-08-21 Quanta Comp Inc System and method for synchronizing video frames and audio frames
US20080144505A1 (en) * 2006-11-03 2008-06-19 Michael Anthony Isnardi Method and Apparatus for Bitrate Reduction
CN101137066B (zh) * 2007-05-11 2011-01-05 中兴通讯股份有限公司 一种多媒体数据流同步控制的方法及装置
US8331459B2 (en) * 2007-09-26 2012-12-11 Intel Corporation Method and apparatus for smooth digital media playback
US8131100B2 (en) * 2007-10-11 2012-03-06 Apple Inc. Representing high-resolution media content in a lower resolution system
JP5106039B2 (ja) * 2007-10-24 2012-12-26 パナソニック株式会社 画像音声同期再生装置
US9571901B2 (en) * 2007-12-28 2017-02-14 Intel Corporation Synchronizing audio and video frames
EP2101503A1 (en) * 2008-03-11 2009-09-16 British Telecommunications Public Limited Company Video coding
US8655953B2 (en) * 2008-07-18 2014-02-18 Porto Technology, Llc System and method for playback positioning of distributed media co-viewers
EP2200319A1 (en) 2008-12-10 2010-06-23 BRITISH TELECOMMUNICATIONS public limited company Multiplexed video streaming
EP2219342A1 (en) 2009-02-12 2010-08-18 BRITISH TELECOMMUNICATIONS public limited company Bandwidth allocation control in multiple video streaming
US8026436B2 (en) * 2009-04-13 2011-09-27 Smartsound Software, Inc. Method and apparatus for producing audio tracks
TWI501673B (zh) * 2011-02-16 2015-09-21 Amtran Technology Co Ltd 無線音訊與視訊同步播放的方法及其播放系統
US9015109B2 (en) 2011-11-01 2015-04-21 Lemi Technology, Llc Systems, methods, and computer readable media for maintaining recommendations in a media recommendation system
US9282360B2 (en) * 2012-01-24 2016-03-08 Spencer Shanson System and method for maintaining integrity of audio data in a multiplexed audio/video stream over a low-latency network connection
US20150304526A1 (en) * 2014-02-08 2015-10-22 Clearone, Inc. External video locking and synchronization device
JP7208531B2 (ja) 2019-05-31 2023-01-19 日本電信電話株式会社 同期制御装置、同期制御方法及び同期制御プログラム
US11184648B2 (en) * 2019-08-30 2021-11-23 Rovi Guides, Inc. Systems and methods for providing content during reduced streaming quality
US11575959B2 (en) 2020-06-01 2023-02-07 Western Digital Technologies, Inc. Storage system and method for media-based fast-fail configuration
CN113949866A (zh) * 2021-10-20 2022-01-18 江苏经贸职业技术学院 一种音视频文件存储和传输方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3732111A1 (de) * 1987-09-24 1989-04-06 Bosch Gmbh Robert Verfahren zur laufzeitanpassung von video- und audiosignalen an ein referenzsignal
CA2016641C (en) * 1989-05-12 1995-07-11 Toshiyuki Tanoi Adaptive interframe prediction coded video communications system
CA2062200A1 (en) * 1991-03-15 1992-09-16 Stephen C. Purcell Decompression processor for video applications
US5212549A (en) * 1991-04-29 1993-05-18 Rca Thomson Licensing Corporation Error concealment apparatus for a compressed video signal processing system
US5347322A (en) * 1991-07-09 1994-09-13 Rebo Research Video storage and synchronization
US5276513A (en) * 1992-06-10 1994-01-04 Rca Thomson Licensing Corporation Implementation architecture for performing hierarchical motion analysis of video images in real time
US5287182A (en) * 1992-07-02 1994-02-15 At&T Bell Laboratories Timing recovery for variable bit-rate video on asynchronous transfer mode (ATM) networks
US5325125A (en) * 1992-09-24 1994-06-28 Matsushita Electric Corporation Of America Intra-frame filter for video compression systems
CA2107727C (en) * 1992-10-07 1999-06-01 Hiroaki Ueda Synchronous compression and reconstruction system
JP3255308B2 (ja) * 1992-12-18 2002-02-12 ソニー株式会社 データ再生装置
US5396497A (en) * 1993-02-26 1995-03-07 Sony Corporation Synchronization of audio/video information
US5486864A (en) * 1993-05-13 1996-01-23 Rca Thomson Licensing Corporation Differential time code method and apparatus as for a compressed video signal
US5381181A (en) * 1993-05-13 1995-01-10 Thomson Consumer Electronics, Inc. Clock recovery apparatus as for a compressed video signal
US5387940A (en) * 1993-07-07 1995-02-07 Rca Thomson Licensing Corporation Method and apparatus for providing scaleable compressed video signal
US5351092A (en) * 1993-07-23 1994-09-27 The Grass Valley Group, Inc. Synchronization of digital audio with digital video
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
US5467139A (en) * 1993-09-30 1995-11-14 Thomson Consumer Electronics, Inc. Muting apparatus for a compressed audio/video signal receiver
US5594660A (en) * 1994-09-30 1997-01-14 Cirrus Logic, Inc. Programmable audio-video synchronization method and apparatus for multimedia systems

Also Published As

Publication number Publication date
WO1996019078A1 (en) 1996-06-20
US5598352A (en) 1997-01-28
JPH10511513A (ja) 1998-11-04
EP0797893A1 (en) 1997-10-01
KR980700780A (ko) 1998-03-30
EP0797893A4 (en) 2000-09-27

Similar Documents

Publication Publication Date Title
JP3864346B2 (ja) Mpeg再生システムにおいてオーディオとビデオを同期するための方法及び装置
JP4066058B2 (ja) マルチメディア・システムのためのプログラマブルなオーディオ−ビデオ同期方法および装置
US5815634A (en) Stream synchronization method and apparatus for MPEG playback system
US5838380A (en) Memory controller for decoding a compressed/encoded video data frame
US8620134B2 (en) Video and audio reproducing apparatus and video and audio reproducing method for reproducing video images and sound based on video and audio streams
US5583652A (en) Synchronized, variable-speed playback of digitally recorded audio and video
US7359006B1 (en) Audio module supporting audio signature
US6512884B1 (en) Method and apparatus for synchronized play back of audio-video signals
KR100290331B1 (ko) 오디오-비디오 신호의 동기 재생 장치
US6718119B1 (en) Video/audio decoding apparatus and method
US6122020A (en) Frame combining apparatus
JP2872104B2 (ja) タイムスタンプ付加装置および方法、並びにそれを用いた動画像圧縮伸張伝送システムおよび方法
KR20000068121A (ko) 정보 신호 디코딩 방법 및 장치
JP2000278643A (ja) データ変換装置
JP2001211432A (ja) 画像復号装置、半導体装置、及び画像復号方法
JPH07193787A (ja) 映像信号処理装置
KR960003451B1 (ko) 압축된 영상데이타 신장회로
JP2001217719A (ja) データ送信装置、データ受信装置並びにデータ伝送システム
JPH09182024A (ja) 映像データ伸長装置およびデータ伸長方法
Sung MPEG audio-video synchronization
JP2003333526A (ja) 間欠動画像信号の符号化方法、記録装置及び再生装置並びに記録再生装置
KR20030005333A (ko) 압축기를 통한 다수의 비디오 신호의 멀티플렉싱 방법
JP2004096248A (ja) ハードディスクレコーダ用集積回路、ハードディスクレコーダ、ハードディスクレコーダ内蔵電気機器、ハードディスクレコーダ内蔵テレビジョン装置、ハードディスクレコーダ内蔵ビデオレコーダ、及びハードディスクレコーダ内蔵dvdプレーヤ
JPH11275037A (ja) 多重化装置
JP2004112321A (ja) 再生出力同期システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20050927

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20051114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060921

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101013

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees