JP4991129B2 - 映像音声再生装置および映像音声再生方法 - Google Patents

映像音声再生装置および映像音声再生方法 Download PDF

Info

Publication number
JP4991129B2
JP4991129B2 JP2005208247A JP2005208247A JP4991129B2 JP 4991129 B2 JP4991129 B2 JP 4991129B2 JP 2005208247 A JP2005208247 A JP 2005208247A JP 2005208247 A JP2005208247 A JP 2005208247A JP 4991129 B2 JP4991129 B2 JP 4991129B2
Authority
JP
Japan
Prior art keywords
video
audio
output
stream
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005208247A
Other languages
English (en)
Other versions
JP2007028261A (ja
Inventor
和幸 小柳
知浩 三原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp NEC Display Solutions Ltd
Original Assignee
NEC Display Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Display Solutions Ltd filed Critical NEC Display Solutions Ltd
Priority to JP2005208247A priority Critical patent/JP4991129B2/ja
Priority to US11/444,452 priority patent/US8620134B2/en
Priority to CN2006100932213A priority patent/CN1901656B/zh
Priority to CNU2006201213326U priority patent/CN2927556Y/zh
Publication of JP2007028261A publication Critical patent/JP2007028261A/ja
Application granted granted Critical
Publication of JP4991129B2 publication Critical patent/JP4991129B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43079Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on multiple devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages

Description

本発明は、映像音声再生装置および映像音声再生方法に関し、特には、MPEG(Moving Picture Experts Group)形式のストリーム等の映像音声ストリームを再生する映像音声再生装置および映像音声再生方法に関する。
従来、映像音声ストリームを再生する映像音声再生装置が知られている。例えば、MPEG形式のストリームを再生する映像音声再生装置が知られている。
MPEG形式のストリームの送信および再生は、以下のように行われる。
まず、MPEG形式のストリームを送信する送信部について説明する。
送信部は、映像信号を符号化して、複数の映像フレームにて構成されるMPEG映像ストリームを生成する。また、送信部は、その映像信号と同期している音声信号を符号化して、複数の音声フレームにて構成されるMPEG音声ストリームを生成する。
続いて、送信部は、MPEG映像ストリームを分割して映像データを生成し、その生成された映像データを、PES(Packetized Elementary Stream)パケットに組み込む。また、送信部は、MPEG音声ストリームを分割して音声データを生成し、その生成された音声データを、映像データを含まないPESパケットに組み込む。PESパケットは、映像と音声の同期をとるために使用される時刻情報を含む。
図5は、PESパケットを示した説明図である。
図5に示すように、PESパケット100は、PTS(Presentation Time Stamp)100aと、DTS(Decoding Time Stamp)100bとを含む。
DTS100bは、PESパケット100に組み込まれたデータをデコードする時刻(デコードタイミング)を示す。また、PTS100aは、PESパケット100に組み込まれたデータを再生する時刻(出力タイミング)を示す。
送信部は、ある映像フレームのデータを含むPESパケットのPTSと、その映像フレームと同期する音声フレームのデータを含むPESパケットのPTSとを、同じ値にする。このため、映像と音声の同期が取られる。
その後、送信部は、映像データを含むPESパケットと、音声データを含むPESパケットと、を含むMPEG形式のストリーム(映像音声ストリーム)を送信する。よって、MPEG形式のストリームは、同じ出力タイミングを示すPTSを有する映像データおよび音声データの組を複数有する。
次に、MPEG形式のストリームを再生する再生部について説明する。
図6は、従来の再生部を示したブロック図である。
図6において、再生部は、MPEGデコーダ1と、表示部2と、音声出力部3とを含む。
MPEGデコーダ1は、送信部から送信されたMPEG形式のストリーム(映像音声ストリーム)をデコードして、映像信号と音声信号を生成する。MPEGデコーダ1は、その生成された映像信号を表示部2に出力し、また、その生成された音声信号を音声出力部3に出力する。
表示部2は、MPEGデコーダ1から映像信号を受け付けると、その受け付けられた映像信号に応じた映像を表示する。
音声出力部3は、MPEGデコーダ1から音声信号を受け付けると、その受け付けられた音声信号に応じた音声を出力する。
MPEGデコーダ1は、分離回路1aと、バッファ1bおよび1cと、システムデコーダ1dと、ビデオデコーダ1eと、オーディオデコーダ1fとを含む。
分離回路1aは、送信部から送信されたMPEG形式のストリームから、映像データ、音声データ、PTSおよびDTSを分離する。分離回路1aは、映像データをバッファ1bに格納し、音声データをバッファ1cに格納し、PTSおよびDTSをシステムデコーダ1dに出力する。
バッファ1bは、分離回路1aから提供された映像データを格納する。
バッファ1cは、分離回路1aから提供された音声データを格納する。
システムデコーダ1dは、映像データのDTSに示された時刻になると、ビデオデコーダ1eにデコード指示を出力し、また、映像データのPTSに示された時刻になると、ビデオデコーダ1eに出力指示を出力する。
また、システムデコーダ1dは、音声データのDTSに示された時刻になると、オーディオデコーダ1fにデコード指示を出力し、また、音声データのPTSに示された時刻になると、オーディオデコーダ1fに出力指示を出力する。
ビデオデコーダ1eは、デコード指示を受け付けると、バッファ1bに格納された映像データをデコードして映像信号を生成し、また、出力指示を受け付けると、その生成された映像信号を表示部2に出力する。
オーディオデコーダ1fは、デコード指示を受け付けると、バッファ1cに格納された音声データをデコードして音声信号を生成し、また、出力指示を受け付けると、その生成された音声信号を音声出力部3に出力する。
特許文献1(特開2002−354419号公報)には、MPEG形式のストリームを再生する記録再生装置が記載されている。
この記録再生装置は、早送り等の特殊再生時に、滑らかに変化する映像と、その映像に同期した音声と、を出力するように、特殊再生の再生速度に対応してDTSの値およびPTSの値を書き換える。
この記録再生装置は、ある映像フレームのPTSの値と、その映像フレームに同期する音声フレームのPTSの値とを、同じ値に書き換える。
一方、液晶表示装置またはプラズマ表示装置のような表示デバイスでは、画素数が固定されている。画素数が固定の表示デバイスは、入力する映像信号の解像度と自己の解像度が異なる場合でも、その入力する映像信号に応じた画像を表示できるように、解像度変換と呼ばれる映像信号処理を行う。
図7は、解像度変換を行う表示部2を含む再生装置を示したブロック図である。なお、図7において、図6に示したものと同一のものには同一符号を付してある。
図7において、表示部2は、映像信号処理部2aと、駆動回路2bと、画素数が固定の表示デバイス2cとを含む。映像信号処理部2aは、メモリ2a1と、解像度変換回路2a2とを含む。音声出力部3は、音声出力回路3aと、スピーカー3bとを含む。
映像信号処理部2aは、MPEGデコーダ1から受け付けた映像信号の解像度を、表示デバイス2cの解像度に基づいて変換する。
具体的には、解像度変換回路2a2は、MPEGデコーダ1から受け付けた映像信号を、一定時間、メモリ2a1に格納し、その後、メモリ2a1に格納された映像信号の解像度を変換する。
駆動回路2bは、解像度変換回路2a2にて解像度が変換された映像信号に基づいて表示デバイス2cを駆動して、映像信号に応じた映像を表示デバイス2cに表示する。
音声出力回路3aは、MPEGデコーダ1から受け付けた音声信号に基づいてスピーカー3bを駆動して、音声信号に応じた音声をスピーカー3bから出力する。
特開2002−354419号公報
映像信号処理部2aは、MPEGデコーダ1から受け付けた映像信号を一定時間メモリ2a1に格納し、その後、解像度変換を行う。このため、表示デバイス2cの表示タイミングは、解像度変換に要する時間だけ遅れる。
なお、映像信号処理部2aは、解像度変換と異なる映像信号処理も行う。このため、実際には、表示デバイス2cの表示タイミングは、それらの映像信号処理に要する時間だけ遅れる。
一方、音声出力部3では、映像信号処理と同等な遅延は発生しない。
したがって、例えば、MPEGデコーダ1が、DTSの値およびPTSの値に基づいて映像と音声を同期させても、表示部2にて実行される映像信号処理によって、映像が音声より遅れて出力される。
図8は、映像の遅延を説明するためのタイミングチャートである。図8(a)は、映像信号のメモリ2a1への書き込みタイミングを示し、図8(b)は、映像信号のメモリ2a1からの読み出しタイミングを示し、図8(c)は、音声信号の出力タイミングを示している。
図8(a)および(c)に示すように、映像信号処理が実行される以前では、PTSの値が等しい映像フレーム(映像信号)および音声フレーム(音声信号)は、同期している。
しかしながら、図8(b)および(c)に示すように、映像信号処理が実行されると、PTSの値が等しい映像フレームおよび音声フレームでは、映像フレームが、音声フレームより遅れて出力される(図8(c)の遅延A参照)。
なお、特許文献1に記載の記録再生装置は、ある映像フレームのPTSの値と、その映像フレームに同期する音声フレームのPTSの値とを、同じ値に書き換える。このため、特許文献1に記載の記録再生装置が、MPEGデコーダ1として用いられても、映像信号処理に起因する映像の遅延は生じる。
従来の装置は、映像と音声を、互いの出力タイミングがずれたまま出力するか、もしくは、映像と音声の同期を取る場合には、音声信号用の遅延回路等のハードウェアを必要としていた。
本発明の目的は、解像度変換のような映像信号処理が実行されても、音声信号用の遅延回路を用いることなく、映像と音声を同期させることが可能な映像音声再生装置および映像音声再生方法を提供することである。
上記の目的を達成するために、本発明の映像音声再生装置は、映像の出力タイミングを示す映像出力情報を有する映像データと、音声の出力タイミングを示す音声出力情報を有する音声データと、を含む映像音声ストリームを再生する映像音声再生装置であって、前記映像音声ストリームを受け付けると、前記音声の出力タイミングが遅延するように前記音声出力情報を変更し、かつ、前記映像出力情報を維持する変更部と、前記音声データをデコードして音声信号を生成し、該音声信号を、前記変更部にて変更された音声出力情報にて示された出力タイミングで出力し、また、前記映像データをデコードして映像信号を生成し、該映像信号を、前記映像出力情報にて示された出力タイミングで出力するデコーダと、前記デコーダから出力された映像信号に応じた映像を表示する表示部と、前記デコーダにて出力された音声信号に応じた音声を出力する音声出力部とを含む。
また、本発明の映像音声再生方法は、映像の出力タイミングを示す映像出力情報を有する映像データと、音声の出力タイミングを示す音声出力情報を有する音声データと、を含む映像音声ストリームを再生する映像音声再生装置が行う映像音声再生方法であって、前記映像音声ストリームを受け付ける受付ステップと、前記映像音声ストリームが受け付けられると、前記音声の出力タイミングが遅延するように前記音声出力情報を変更し、かつ、前記映像出力情報を維持する変更ステップと、前記映像データをデコードして映像信号を生成し、該映像信号を、前記映像出力情報にて示された出力タイミングで出力する映像デコードステップと、前記音声データをデコードして音声信号を生成し、該音声信号を、前記変更された音声出力情報にて示された出力タイミングで出力する音声デコードステップと、前記出力された映像信号に応じた映像を表示する表示ステップと、前記出力された音声信号に応じた音声を出力する音声出力ステップとを含む。
上記の発明によれば、音声の出力タイミングが遅延するように、音声出力情報が変更され、かつ、映像出力情報が維持される。
このため、音声出力情報を変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を遅延させることが可能になる。よって、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
また、前記映像信号の処理に要する時間が検出され、前記音声データの出力タイミングが、前記検出された時間だけ遅延するように、前記音声出力情報が変更されることが望ましい。
例えば、NTSC(National Television Standards Committee)信号とPAL(Phase Alternation by Line)信号のような異なる形式の映像信号が処理される場合、その処理時間が異なる可能性がある。
上記の発明によれば、音声出力情報が、検出された処理時間に応じて自動的に変更される。このため、映像信号の形式に応じて自動的に音声出力情報を変更して、音声と映像を同期させることが可能となる。
また、前記処理は、前記映像信号の解像度を変換する処理であることが望ましい。
上記の発明によれば、解像度変換に起因する映像の遅延が発生しても、音声の出力タイミングを、その遅延分だけを遅らせることが可能になる。
また、前記映像音声ストリームは、MPEG形式のストリームであり、前記映像データは、MPEG映像ストリームに含まれ、前記音声データは、MPEG音声ストリームに含まれ、前記出力情報は、PTSであることが望ましい。
上記の発明によれば、MPEG形式のストリームを再生する際に、PTSを変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を遅延させることが可能になる。よって、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
また、前記PTSとともに、デコードタイミングを示すDTSが変更されることが望ましい。
上記の発明によれば、MPEG形式のストリームを再生する際に、PTSおよびDTSを変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を遅延させることが可能になる。よって、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
また、本発明の映像音声再生装置は、映像の出力タイミングを示す映像出力情報を有する映像データと、音声の出力タイミングを示す音声出力情報を有する音声データと、を含む映像音声ストリームを再生する映像音声再生装置であって、前記映像音声ストリームを受け付けると、前記音声の出力タイミングの遅延時間が、前記映像の出力タイミングの遅延時間より長くなるように、前記音声出力情報および前記映像出力情報を変更する変更部と、前記音声データをデコードして音声信号を生成し、該音声信号を、前記変更部にて変更された音声出力情報にて示された出力タイミングで出力し、また、前記映像データをデコードして映像信号を生成し、該映像信号を、前記変更部にて変更された映像出力情報にて示された出力タイミングで出力するデコーダと、前記デコーダから出力された映像信号に応じた映像を表示する表示部と、前記デコーダから出力された音声信号に応じた音声を出力する音声出力部とを含む。
また、本発明の映像音声再生方法は、映像の出力タイミングを示す映像出力情報を有する映像データと、音声の出力タイミングを示す音声出力情報を有する音声データと、を含む映像音声ストリームを再生する映像音声再生装置が行う映像音声再生方法であって、前記映像音声ストリームを受け付ける受付ステップと、前記映像音声ストリームが受け付けられると、前記音声の出力タイミングの遅延時間が、前記映像の出力タイミングの遅延時間より長くなるように、前記音声出力情報および前記映像出力情報を変更する変更ステップと、前記映像データをデコードして映像信号を生成し、該映像信号を、前記変更された映像出力情報にて示された出力タイミングで出力する映像デコードステップと、前記音声データをデコードして音声信号を生成し、該音声信号を、前記変更部にて変更された音声出力情報にて示された出力タイミングで出力する音声デコードステップと、前記出力された映像信号に応じた映像を表示する表示ステップと、前記出力された音声信号に応じた音声を出力する音声出力ステップとを含む。
上記の発明によれば、音声の出力タイミングの遅延時間が、映像の出力タイミングの遅延時間より長くなるように、音声出力情報および映像出力情報が変更される。
このため、音声出力情報および映像出力情報を変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を遅延させることが可能になる。よって、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
また、音声出力情報と映像出力情報とが変更されるため、音声と映像の両方の出力タイミングを調整することが可能になる。
本発明によれば、解像度変換のような映像信号処理が実行されても、音声信号用の遅延回路を用いることなく、映像と音声を同期させることが可能になる。
以下、本発明の実施例を図面を参照して説明する。
図1は、本発明の一実施例の映像音声再生装置を示したブロック図である。なお、図1において、図7に示したものと同一のものには同一符号を付してある。
本映像音声再生装置では、図7に示した再生装置に、時刻情報変換部4が加えられている。
図1において、本映像音声再生装置は、MPEGデコーダ1と、表示部2と、音声出力部3と、時刻情報変換部4とを含む。
時刻情報変換部4は、変更部の一例であり、MPEG形式のストリーム(映像音声ストリーム)を受け付ける。
MPEG形式のストリームは、映像データおよび所定の値のPTS(映像出力情報)を含むPESパケットと、音声データおよび所定の値のPTS(音声出力情報)を含むPESパケットと、を含む。
このため、例えば、MPEG形式のストリームは、同じ出力タイミングを示すPTSを有する映像データおよび音声データの組を複数有する。
時刻情報変換部4は、MPEG形式のストリームを受け付けると、MPEG形式のストリームに含まれる音声データの出力タイミングが遅延するように、MPEG形式のストリームに含まれる音声データのPTSを変更する。
例えば、時刻情報変換部4は、音声データの出力タイミングが、映像信号処理部2aにて実行される映像信号処理に費やされる処理時間だけ遅れるように、MPEG形式のストリームに含まれる音声データのPTSを変更する。具体的には、時刻情報変換部4は、音声データのPTSの値に、その処理時間を加算する。
なお、時刻情報変換部4は、MPEG形式のストリームに含まれる映像データのPTSを変更せずに維持する。
図2は、時刻情報変換部4の一例を示したブロック図である。なお、時刻情報変換部4は、図2に示した構成に限らず適宜変更可能である。
図2において、時刻情報変換部4は、入力部4aと、メモリ4bと、加算部4cとを含む。
入力部4aは、音声データのPTSの値に加算する値を受け付ける。例えば、入力部4aは、ユーザから、音声データのPTSの値に加算する値を受け付ける。
本実施例では、入力部4aは、映像信号処理部2aにて実行される映像信号処理に費やされる処理時間を受け付ける。なお、入力部4aにて受け付けられる値は、適宜変更可能である。
メモリ4bは、入力部4aにて受け付けられた値を格納する。
加算部4cは、メモリ4bに格納された値を、音声データのPTSの値に加算する。よって、音声の出力タイミングは遅延される。
なお、本実施例では、加算部4cは、メモリ4bに格納された値を、音声データのDTSの値にも加算する。このため、音声データのデコードタイミングも遅延される。
図1に戻って、時刻情報変換部4は、音声データのPTSおよびDTSを変更したMPEG形式のストリームを、MPEGデコーダ1に出力する。
MPEGデコーダ1は、MPEG形式のストリームを受け付けると、そのMPEG形式のストリームに含まれる映像データを、その映像データのDTSにて示されたデコードタイミングでデコードして、映像信号を生成する。
その後、MPEGデコーダ1は、その生成された映像信号を、その映像データのPTSにて示された出力タイミングで、表示部2に出力する。
また、MPEGデコーダ1は、MPEG形式のストリームを受け付けた際、そのMPEG形式のストリームに含まれる音声データを、時刻情報変換部4にて変更されたその音声データのDTSにて示されたデコードタイミングでデコードして、音声信号を生成する。
その後、MPEGデコーダ1は、その生成された音声信号を、時刻情報変換部4にて変更されたその音声データのPTSにて示された出力タイミングで、音声出力部3に出力する。
なお、時刻情報変換部4が、音声データのPTSの値を変更して音声データの出力タイミングを遅延させているため、MPEGデコーダ1から出力される音声信号は、その音声信号と同期すべき映像信号より、時間的に遅れて出力される。
解像度変換回路2a2は、音声信号より前に出力された映像信号をメモリ2a1に格納し、その後、メモリ2a1に格納された映像信号の解像度を、表示デバイス2cの解像度に基づいて変換する。
解像度変換回路2a2は、解像度が変換された映像信号を駆動回路2bに出力する。
このとき、具体的には、解像度変換回路2a2が映像信号を出力したときが、音声データのPTSの値に示された出力タイミングとなる。このため、MPEGデコーダ1は、このタイミングで音声信号を出力する。
よって、駆動回路2bが映像信号を受け付けるタイミングは、音声出力回路3aが音声信号を受け付けるタイミングと同期する。
駆動回路2bは、解像度変換回路2a2にて解像度が変換された映像信号に基づいて表示デバイス2cを駆動して、映像信号に応じた映像を表示デバイス2cに表示する。
音声出力回路3aは、MPEGデコーダ1から受け付けた音声信号に基づいてスピーカー3bを駆動して、音声信号に応じた音声をスピーカー3bから出力する。
このため、映像と音声が同期する。
次に、動作を説明する。
ユーザは、例えば、映像信号処理部2aにて実行される映像信号処理に費やされる処理時間を、入力部4aに入力する。
入力部4aは、その入力された処理時間を受け付けると、その受け付けられた処理時間をメモリ4bに格納する。
加算部4cは、MPEG形式のストリームを受け付けると、そのMPEG形式のストリームに含まれる音声データのPTSおよびDTSに、メモリ4bに格納された処理時間を加算する。
加算部4cは、音声データのPTSおよびDTSを変更したMPEG形式のストリームを、MPEGデコーダ1(具体的には、分離回路1a)に出力する。
分離回路1aは、加算部4cから送信されたMPEG形式のストリームから、映像データ、音声データ、PTSおよびDTSを分離する。
分離回路1aは、その分離された映像データをバッファ1bに格納し、その分離された音声データをバッファ1cに格納し、その分離されたPTSおよびDTSをシステムデコーダ1dに出力する。
システムデコーダ1dは、バッファ1bに格納されている映像データのDTSに示された時刻になると、ビデオデコーダ1eにデコード指示を出力し、また、その映像データのPTSに示された時刻になると、ビデオデコーダ1eに出力指示を出力する。
また、システムデコーダ1dは、バッファ1cに格納されている音声データのDTSに示された時刻になると、オーディオデコーダ1fにデコード指示を出力し、また、その音声データのPTSに示された時刻になると、オーディオデコーダ1fに出力指示を出力する。
ビデオデコーダ1eは、システムデコーダ1dからデコード指示を受け付けると、バッファ1bに格納されている映像データをデコードして映像信号を生成し、システムデコーダ1dから出力指示を受け付けると、その生成された映像信号を表示部2に出力する。
オーディオデコーダ1fは、システムデコーダ1dからデコード指示を受け付けると、バッファ1cに格納されている音声データをデコードして音声信号を生成し、システムデコーダ1dから出力指示を受け付けると、その生成された音声信号を音声出力部3に出力する。
なお、時刻情報変換部4が、音声データのPTSの値を変更して音声データの出力タイミングを遅延させているため、MPEGデコーダ1から出力される音声信号は、その音声信号と同期すべき映像信号より後に出力される。
表示部2の解像度変換回路2a2は、音声信号より前に出力された映像信号をメモリ2a1に格納し、その後、メモリ2a1に格納された映像信号の解像度を、表示デバイス2cの解像度に基づいて変換する。
解像度変換回路2a2は、解像度が変換された映像信号を駆動回路2bに出力する。
このとき、具体的には、解像度変換回路2a2が映像信号を出力したとき、MPEGデコーダ1は、音声信号を出力する。
よって、表示部2の駆動回路2bが映像信号を受け付けるタイミングは、音声出力部3の音声出力回路3aが音声信号を受け付けるタイミングと同期する。
駆動回路2bは、解像度変換回路2a2にて解像度が変換された映像信号に基づいて表示デバイス2cを駆動して、映像信号に応じた映像を表示デバイス2cに表示する。
音声出力回路3aは、MPEGデコーダ1から受け付けた音声信号に基づいてスピーカー3bを駆動して、音声信号に応じた音声をスピーカー3bから出力する。
このため、映像と音声が同期する。
本実施例によれば、時刻情報変換部4は、音声の出力タイミングが遅延するように音声データのPTS(音声出力情報)を変更し、かつ、映像データのPTSを変更せずに維持する。
このため、音声データのPTSを変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を遅延させることが可能になる。よって、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
また、音声データのPTSはデジタル値なので、音声を遅延時間の設定が容易になる。
また、本実施例によれば、MPEG形式のストリームが、映像音声ストリームとして用いられ、映像データは、MPEG映像ストリームに含まれ、音声データは、MPEG音声ストリームに含まれ、PTSが音声出力情報および映像出力情報として用いられる。
この場合、MPEG形式のストリームを再生する際に、PTSを変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を遅延させることが可能になる。
よって、MPEG形式のストリームを再生する際に、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
また、本実施例では、時刻情報変換部4は、音声データのPTSとともに、音声データのDTSを変更する。
この場合、MPEG形式のストリームを再生する際に、PTSおよびDTSを変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を遅延させることが可能になる。また、音声データのデコードタイミングを、音声信号の出力タイミングに応じて調整することが可能となる。
よって、MPEG形式のストリームを再生する際に、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
次に、本発明の他の実施例を説明する。
図3は、本発明の他の実施例の映像音声再生装置を示したブロック図である。なお、図3において、図1に示したものと同一のものには同一符号を付してある。
図3に示した映像音声再生装置では、図1に示した映像音声再生装置に、検出部2a3が加えられている。
検出部2a3は、映像信号処理部2aにて実行される映像信号処理に要する時間を検出する。本実施例では、検出部2a3は、解像度変換回路2a2にて実行される解像度変換に要する時間を検出する。なお、検出部2a3は、解像度変換に要する時間だけでなく、映像信号処理部2aにて実行されるすべての映像信号処理に要する時間を検出してもよい。
映像信号処理部2aが、例えばNTSC信号とPAL信号のような異なる形式の映像信号を処理する場合、映像信号処理部2aの処理時間は、処理する信号の形式に応じて、変化する可能性がある。検出部2a3は、その変化する処理時間を検出する。
検出部2a3は、その検出された時間(遅延情報)を、時刻情報変換部4(具体的には入力部4a)に提供する。
入力部4aは、その検出された時間を受け付けると、その受け付けられた時間をメモリ4bに格納する。
加算部4cは、MPEG形式のストリームを受け付けると、そのストリーム内の音声データのPTSおよびDTSに、メモリ4bに格納された処理時間を加算する。加算部4cは、音声データのPTSおよびDTSを変更したMPEG形式のストリームを、MPEGデコーダ1(具体的には、分離回路1a)に出力する。
本実施例によれば、時刻情報変換部4は、音声データの出力タイミングが、映像信号処理部2aにて検出された処理時間だけ遅延するように、音声データのPTSを変更する。
この場合、映像信号の形式に応じて変化する処理時間に基づいて、音声出力情報を自動的に変更するため、映像信号の形式が変わっても、音声と映像を同期させることが可能となる。
また、メモリ4bに格納される値を自動的に適切な値に変更することが可能となる。
また、本実施例では、映像信号処理部2aは、映像信号の解像度を変換する処理に要する時間を検出する。
この場合、解像度変換に起因する映像の遅延が発生しても、音声の出力タイミングを、その遅延分だけを遅らせることが可能になる。
なお、時刻情報変換部4は、以下のように変形されてもよい。
時刻情報変換部4は、MPEG形式のストリームを受け付けると、そのストリーム内の音声データの出力タイミングの遅延時間が、そのストリーム内の映像データの出力タイミングの遅延時間より長くなるように、その音声データのPTSおよび映像データのPTSを変更する。
時刻情報変換部4は、音声データのPTSおよび映像データのPTSを変更したMPEG形式のストリームを、MPEGデコーダ1に出力する。
図4は、時刻情報変換部4の変形例である時刻情報変換部40を示したブロック図である。なお、図4において、図2に示したものと同じものには、同一符号を付してある。また、時刻情報変換部4の変形例は、図4に示した構成に限らず適宜変更可能である。
図4において、時刻情報変換部40は、入力部4aと、メモリ4bと、メモリ40aと、加算部40bとを含む。
メモリ40aは、映像データの出力タイミングの遅延時間を格納する。
加算部40bは、MPEG形式のストリームを受け付けると、そのストリーム内の映像データのPTSおよびDTSに、メモリ40aに格納された遅延時間を加算し、また、そのストリーム内の音声データのPTSおよびDTSに、メモリ40aに格納された処理時間とメモリ4bに格納された処理時間とを加算する。
加算部40bは、PTSおよびDTSを変更したMPEG形式のストリームを、MPEGデコーダ1(具体的には、分離回路1a)に出力する。
この場合、MPEGデコーダ1は、以下のように動作する。
MPEGデコーダ1は、時刻情報変換部40からMPEG形式のストリームを受け付けると、そのストリーム内の映像データを、加算部40bにて変更されたその映像データのDTSにて示されたデコードタイミングでデコードして、映像信号を生成する。
その後、MPEGデコーダ1は、その生成された映像信号を、加算部40bにて変更されたその映像データのPTSにて示された出力タイミングで、表示部2に出力する。
また、MPEGデコーダ1は、MPEG形式のストリームを受け付けた際、そのストリーム内の音声データを、加算部40bにて変更されたその音声データのDTSにて示されたデコードタイミングでデコードして、音声信号を生成する。
その後、MPEGデコーダ1は、その生成された音声信号を、加算部40bにて変更されたその音声データのPTSにて示された出力タイミングで、音声出力部3に出力する。
本変形例によれば、時刻情報変更部40は、音声の出力タイミングの遅延時間が、映像の出力タイミングの遅延時間より長くなるように、音声データのPTSおよび映像データのPTSを変更する。
この場合、音声データのPTSおよび映像データのPTSを変更することによって、映像信号処理に起因する映像の遅延時間と同じ時間だけ、音声を映像に対して遅延させることが可能になる。よって、音声信号用の遅延回路を用いずに、映像と音声を同期させることが可能になる。
また、音声データのPTSと映像データのPTSとが変更されるため、音声と映像の両方の出力タイミングを調整することが可能になる。
以上説明した各実施例において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
本発明の一実施例の映像音声再生装置を示したブロック図である。 時刻情報変換部4の一例を示したブロック図である。 本発明の他の実施例の映像音声再生装置を示したブロック図である。 時刻情報変換部40の一例を示したブロック図である。 PESパケットを示した説明図である。 従来の再生部を示したブロック図である。 従来の再生装置を示したブロック図である。 映像の遅延を説明するためのタイミングチャートである。
符号の説明
1 MPEGデコーダ
1a 分離回路
1b バッファ
1c バッファ
1d システムデコーダ
1e ビデオデコーダ
1f オーディオデコーダ
2 表示部
2a 映像信号処理部
2a1 メモリ
2a2 解像度変換回路
2a3 検出部
2b 駆動回路
2c 表示デバイス
3 音声出力部
3a 音声出力部
3b スピーカー
4 時刻情報変換部
4a 入力部
4b メモリ
4c 加算部
40 時刻情報変換部
40a メモリ
40b 加算部

Claims (10)

  1. 映像の出力タイミングを示す映像出力情報を有する映像データと、音声の出力タイミングを示す音声出力情報を有する音声データと、を含む映像音声ストリームを再生する映像音声再生装置であって、
    前記映像音声ストリームを受け付けると、前記音声の出力タイミングの遅延時間が、前記映像の出力タイミングの遅延時間より長くなるように、前記音声出力情報および前記映像出力情報を変更する変更部と、
    前記音声データをデコードして音声信号を生成し、該音声信号を、前記変更部にて変更された音声出力情報にて示された出力タイミングで出力し、また、前記映像データをデコードして映像信号を生成し、該映像信号を、前記変更部にて変更された映像出力情報にて示された出力タイミングで出力するデコーダと、
    前記デコーダから出力された映像信号に対して映像信号処理を行い該映像信号処理が行われた映像信号に応じた映像を表示する表示部と、
    前記デコーダから出力された音声信号に応じた音声を出力する音声出力部と、を含み、
    前記変更部は、前記映像音声ストリームを受け付けると、前記映像の出力タイミングが所定の時間遅れ、前記音声の出力タイミングが前記所定の時間に前記映像信号処理に要する時間を加算した時間遅れることによって、前記音声の出力タイミングの遅延時間が、前記映像の出力タイミングの遅延時間より長くなるように、前記音声出力情報および前記映像出力情報を変更する、映像音声再生装置。
  2. 請求項1に記載の映像音声再生装置において、
    前記表示部は、前記映像信号を処理するとともに該処理に要する時間を検出する映像信号処理部を含み、
    前記変更部は、前記音声データの出力タイミングが、前記映像信号処理部にて検出された時間だけ遅延するように、前記音声出力情報を変更する、映像音声再生装置。
  3. 請求項2に記載の映像音声再生装置において、
    前記映像信号処理部は、前記映像信号の解像度を変換する処理を行う、映像音声再生装置。
  4. 請求項1ないし3に記載の映像音声再生装置において、
    前記映像音声ストリームは、MPEG形式のストリームであり、
    前記映像データは、MPEG映像ストリームに含まれ、
    前記音声データは、MPEG音声ストリームに含まれ、
    前記音声出力情報および前記映像出力情報は、PTSである、映像音声再生装置。
  5. 請求項4に記載の映像音声再生装置において、
    前記変更部は、前記MPEG形式のストリームを受け付けると、前記PTSとともに、前記音声データのデコードタイミングを示すDTSを変更する、映像音声再生装置。
  6. 映像の出力タイミングを示す映像出力情報を有する映像データと、音声の出力タイミングを示す音声出力情報を有する音声データと、を含む映像音声ストリームを再生する映像音声再生装置が行う映像音声再生方法であって、
    前記映像音声ストリームを受け付ける受付ステップと、
    前記映像音声ストリームが受け付けられると、前記音声の出力タイミングの遅延時間が、前記映像の出力タイミングの遅延時間より長くなるように、前記音声出力情報および前記映像出力情報を変更する変更ステップと、
    前記映像データをデコードして映像信号を生成し、該映像信号を、前記変更された映像出力情報にて示された出力タイミングで出力する映像デコードステップと、
    前記音声データをデコードして音声信号を生成し、該音声信号を、前記変更部にて変更された音声出力情報にて示された出力タイミングで出力する音声デコードステップと、
    前記出力された映像信号に対して映像信号処理を行い該映像信号処理が行われた映像信号に応じた映像を表示する表示ステップと、
    前記出力された音声信号に応じた音声を出力する音声出力ステップと、を含み、
    前記変更ステップでは、前記映像音声ストリームが受け付けられると、前記映像の出力タイミングが所定の時間遅れ、前記音声の出力タイミングが前記所定の時間に前記映像信号処理に要する時間を加算した時間遅れることによって、前記音声の出力タイミングの遅延時間が、前記映像の出力タイミングの遅延時間より長くなるように、前記音声出力情報および前記映像出力情報を変更する、映像音声再生方法。
  7. 請求項6に記載の映像音声再生方法において、
    前記表示ステップは、
    前記出力された映像信号を処理する処理ステップと、
    前記処理に要する時間を検出する検出ステップと、
    前記処理された映像信号に応じた映像を表示する映像表示ステップと、を含み、
    前記変更ステップでは、前記音声データの出力タイミングが、前記検出された時間だけ遅延するように、前記音声出力情報を変更する、映像音声再生方法。
  8. 請求項7に記載の映像音声再生方法において、
    前記処理ステップでは、前記映像信号の解像度を変換する処理が行われる、映像音声再生方法。
  9. 請求項6ないし8に記載の映像音声再生方法において、
    前記映像音声ストリームは、MPEG形式のストリームであり、
    前記映像データは、MPEG映像ストリームに含まれ、
    前記音声データは、MPEG音声ストリームに含まれ、
    前記音声出力情報および前記映像出力情報は、PTSである、映像音声再生方法。
  10. 請求項9に記載の映像音声再生方法において、
    前記変更ステップでは、前記MPEG形式のストリームを受け付けると、前記PTSとともに、前記音声データのデコードタイミングを示すDTSを変更する、映像音声再生方法。
JP2005208247A 2005-07-19 2005-07-19 映像音声再生装置および映像音声再生方法 Expired - Fee Related JP4991129B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005208247A JP4991129B2 (ja) 2005-07-19 2005-07-19 映像音声再生装置および映像音声再生方法
US11/444,452 US8620134B2 (en) 2005-07-19 2006-06-01 Video and audio reproducing apparatus and video and audio reproducing method for reproducing video images and sound based on video and audio streams
CN2006100932213A CN1901656B (zh) 2005-07-19 2006-06-23 视频和音频重放设备及方法、输出时刻改变设备及方法
CNU2006201213326U CN2927556Y (zh) 2005-07-19 2006-06-26 视频和音频重放设备、输出时刻改变设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005208247A JP4991129B2 (ja) 2005-07-19 2005-07-19 映像音声再生装置および映像音声再生方法

Publications (2)

Publication Number Publication Date
JP2007028261A JP2007028261A (ja) 2007-02-01
JP4991129B2 true JP4991129B2 (ja) 2012-08-01

Family

ID=37657369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005208247A Expired - Fee Related JP4991129B2 (ja) 2005-07-19 2005-07-19 映像音声再生装置および映像音声再生方法

Country Status (3)

Country Link
US (1) US8620134B2 (ja)
JP (1) JP4991129B2 (ja)
CN (2) CN1901656B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4544190B2 (ja) * 2006-03-31 2010-09-15 ソニー株式会社 映像音声処理システム、映像処理装置、音声処理装置、映像音声の出力装置および映像と音声の同期処理方法
US8027560B2 (en) * 2007-02-05 2011-09-27 Thales Avionics, Inc. System and method for synchronizing playback of audio and video
US20120219069A1 (en) * 2011-02-28 2012-08-30 Chong Soon Lim Methods and apparatuses for encoding and decoding images of a plurality of views using multiview video coding standard and mpeg-2 video standard
US9269399B2 (en) * 2011-06-13 2016-02-23 Voxx International Corporation Capture, syncing and playback of audio data and image data
CN103517044B (zh) * 2012-06-25 2016-12-07 鸿富锦精密工业(深圳)有限公司 视频会议装置及其唇形同步的方法
CN104871550B (zh) * 2012-08-01 2018-06-22 汤姆逊许可公司 用于使音频延时适应于画面帧速率的方法和装置
CN103581604A (zh) * 2012-08-01 2014-02-12 希姆通信息技术(上海)有限公司 视频通话装置及方法
DE112013005221T5 (de) * 2012-10-30 2015-08-20 Mitsubishi Electric Corporation Audio/Video-Reproduktionssystem, Video-Anzeigevorrichtung und Audio-Ausgabevorrichtung
CN104125493A (zh) * 2013-04-24 2014-10-29 鸿富锦精密工业(深圳)有限公司 影音同步系统及方法
CN103731716B (zh) * 2014-01-08 2017-01-18 珠海全志科技股份有限公司 一种ts流播放中的音视频同步方法
CN106302375B (zh) * 2015-06-29 2019-07-16 成都鼎桥通信技术有限公司 去除流媒体播放器时延累积的方法及装置
CN106470291A (zh) * 2015-08-19 2017-03-01 飞思卡尔半导体公司 从音频/视频解码器中的时间同步中的中断中恢复
CN106101694A (zh) * 2016-06-12 2016-11-09 深圳创维-Rgb电子有限公司 一种自动校准唇音同步的方法、装置和系统
US10798270B2 (en) 2017-03-10 2020-10-06 Sling Media Pvt. Ltd. Synchronizing media in multiple devices
CN114731456A (zh) * 2019-11-12 2022-07-08 索尼集团公司 信息处理装置、信息处理方法和程序
CN111479154B (zh) * 2020-04-03 2022-03-22 海信视像科技股份有限公司 音画同步的实现设备、方法及计算机可读存储介质
CN111757158A (zh) * 2020-06-29 2020-10-09 北京百度网讯科技有限公司 音视频同步播放方法、装置、设备和存储介质
CN117241080A (zh) * 2022-06-06 2023-12-15 中兴通讯股份有限公司 音视频处理方法及其装置、存储介质
WO2024025076A1 (ko) * 2022-07-26 2024-02-01 삼성전자 주식회사 외부 객체로부터 출력된 소리 신호를 이용하여 볼륨을 조절하기 위한 전자 장치 및 그 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5652627A (en) * 1994-09-27 1997-07-29 Lucent Technologies Inc. System and method for reducing jitter in a packet-based transmission network
ID27984A (id) * 1998-05-08 2001-05-03 Koninkl Philips Electronics Nv Metode penyimpanan audio dan video digital yang terkompresi
JP2001251616A (ja) * 2000-03-02 2001-09-14 Media Glue Corp 多重化音響・動画圧縮符号化信号変換方法、装置および変換プログラムを記録した媒体
JP2001291342A (ja) * 2000-04-06 2001-10-19 Matsushita Electric Ind Co Ltd ディジタル情報記録再生装置
US6738427B2 (en) * 2000-09-15 2004-05-18 International Business Machines Corporation System and method of processing MPEG streams for timecode packet insertion
JP2002101395A (ja) * 2000-09-21 2002-04-05 Sony Corp 多重化装置及び方法、並びに、復号装置及び方法
US6724825B1 (en) * 2000-09-22 2004-04-20 General Instrument Corporation Regeneration of program clock reference data for MPEG transport streams
JP4208398B2 (ja) * 2000-10-05 2009-01-14 株式会社東芝 動画像復号再生装置、動画像復号再生方法及びマルチメディア情報受信装置
JP2002176643A (ja) 2000-12-06 2002-06-21 Hitachi Kokusai Electric Inc 映像・音声復号処理における映像・音声の同期再生方式
JP2002344898A (ja) 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
JP2002354419A (ja) 2001-05-25 2002-12-06 Sony Corp 記録再生装置および方法、記録媒体、並びにプログラム
US7068719B2 (en) * 2001-06-01 2006-06-27 General Instrument Corporation Splicing of digital video transport streams
US20030066094A1 (en) * 2001-09-29 2003-04-03 Koninklijke Philips Electronics N.V. Robust method for recovering a program time base in MPEG-2 transport streams and achieving audio/video sychronization
JP3764878B2 (ja) 2001-10-18 2006-04-12 松下電器産業株式会社 映像音声再生装置,映像音声再生方法,プログラム,および媒体
JP2003169292A (ja) * 2001-11-30 2003-06-13 Victor Co Of Japan Ltd アフレコ装置、コンピュータプログラム、記録媒体、伝送方法及び再生装置
JP2003199045A (ja) * 2001-12-26 2003-07-11 Victor Co Of Japan Ltd 情報記録信号の生成方法、情報信号の再生方法、情報信号の伝送方法、情報記録信号生成装置、情報信号再生装置、情報信号伝送装置、情報信号記録媒体、及び情報信号伝送用プログラム
US7315622B2 (en) * 2002-06-27 2008-01-01 Nxp B.V. Robust method for achieving audio/video synchronization in MPEG decoders in personal video recording applications
US8290353B2 (en) 2003-02-27 2012-10-16 Panasonic Corporation Data processing device and method
JP2004289295A (ja) * 2003-03-19 2004-10-14 Fujitsu Ltd データ処理システム、データ処理装置及びデータ処理方法
EP1786209B1 (en) * 2004-09-02 2019-11-20 Sony Corporation Content receiver, video-audio output timing control method, and content providing system
JP4375313B2 (ja) * 2005-09-16 2009-12-02 セイコーエプソン株式会社 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体

Also Published As

Publication number Publication date
US8620134B2 (en) 2013-12-31
CN1901656A (zh) 2007-01-24
JP2007028261A (ja) 2007-02-01
US20070019739A1 (en) 2007-01-25
CN1901656B (zh) 2012-10-03
CN2927556Y (zh) 2007-07-25

Similar Documents

Publication Publication Date Title
JP4991129B2 (ja) 映像音声再生装置および映像音声再生方法
KR100661895B1 (ko) 영상 데이터 처리 장치 및 처리 방법
JP4983923B2 (ja) デコーダ装置、およびデコード方法
JPH10507597A (ja) マルチメディア・システムのためのプログラマブルなオーディオ−ビデオ同期方法および装置
JP2006340102A (ja) 同期再生装置および同期再生方法
JP3438223B2 (ja) 多重化装置および多重化方法、並びに伝送装置および伝送方法
JP2005229331A (ja) H.264コーデックic、dvd再生装置、h.264コーデック方法
JP5106039B2 (ja) 画像音声同期再生装置
JP2007259313A (ja) ストリーム再生方法及び再生装置
JP2002176643A (ja) 映像・音声復号処理における映像・音声の同期再生方式
JP4850041B2 (ja) 映像再生システム、映像再生の同期方法および映像再生端末
KR100240331B1 (ko) 디코더 시스템의 비디오/오디오 동기화 장치
JP2006319552A (ja) マルチメディア再生装置
JP5207866B2 (ja) 映像信号処理方法、映像信号処理装置
JP5168105B2 (ja) 音声再生装置、及び音声再生方法
WO2022137326A1 (ja) 映像音響合成装置、方法及びプログラム
JP2010141498A (ja) 映像受信装置及び映像送信装置
JP2007201797A (ja) 伝送システム及び映像出力方法
JP2006339857A (ja) 復号化装置
JP2002185849A (ja) 出力装置、及びテレシネ表示方法
JP2005303816A (ja) 動画再生装置
JP2009038616A (ja) 映像再生装置及び映像再生方法
JP2006180091A (ja) コンテンツ合成装置及び方法
JP2007300395A (ja) ビデオビットストリーム復号化出力装置
JP2010109404A (ja) 再生装置、再生制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100623

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101013

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101027

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20101119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

R150 Certificate of patent or registration of utility model

Ref document number: 4991129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees