JP4304615B2 - データ処理装置、データ処理方法及びデータ処理プログラム - Google Patents

データ処理装置、データ処理方法及びデータ処理プログラム Download PDF

Info

Publication number
JP4304615B2
JP4304615B2 JP2004333322A JP2004333322A JP4304615B2 JP 4304615 B2 JP4304615 B2 JP 4304615B2 JP 2004333322 A JP2004333322 A JP 2004333322A JP 2004333322 A JP2004333322 A JP 2004333322A JP 4304615 B2 JP4304615 B2 JP 4304615B2
Authority
JP
Japan
Prior art keywords
time
display
video
timing
sound output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004333322A
Other languages
English (en)
Other versions
JP2006148335A (ja
Inventor
啓 片山
裕司 山口
洋文 湯地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004333322A priority Critical patent/JP4304615B2/ja
Priority to US11/274,542 priority patent/US7600240B2/en
Priority to KR1020050109450A priority patent/KR101190362B1/ko
Priority to CNB2005101254434A priority patent/CN100474934C/zh
Publication of JP2006148335A publication Critical patent/JP2006148335A/ja
Application granted granted Critical
Publication of JP4304615B2 publication Critical patent/JP4304615B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明はデータ処理装置、その方法及びプログラムに関し、例えば、MPEG2(Moving Picture Experts Group Layer 2)方式等に基づいてエンコードされた圧縮映像データ及び圧縮音声データをデコードすることにより映像及び音声を出力するようになされたデコード装置に適用して好適なものである。
近年この種のデコード装置として、デジタル放送受信機が普及し始めている。このようなデジタル放送受信機は、例えばユーザによりチャンネル切換操作が行われると、図4に示すような処理手順RT1Xに従って、映像及び音声を出力するようになされている。
すなわちデジタル放送受信機は、ユーザによりチャンネル切換操作が行われるとステップSP1に移り、NIT(Network Information Table)を受信する。このNITには、伝送路に関する物理的な情報(この場合、衛星の軌道、偏波、トランスポンダごとの周波数等)が示されている。これによりデジタル放送受信機は、このNITに基づいてチャンネル切換操作により要求された要求チャンネルに対応するトランスポンダを選択することができ、この結果この要求チャンネルに対応するトランスポートストリームを受信することができる。
次いでデジタル放送受信機はステップSP2に移り、PAT(Program Association Table)を受信する。そしてこのデジタル放送受信機はステップSP3に移り、このPATに基づいて要求チャンネルに対応するPMT(Program Map Table)を受信する。
続いてこのデジタル放送受信機はステップSP4に移り、かかるPMTに基づいて要求チャンネルに対応するPID(Program Identification)を認識する。この場合このPIDは、要求チャンネルに対応する圧縮映像データや圧縮音声データやPCR(Program Clock Reference)データ等が含まれているパケットを識別するための識別情報に相当する。このデジタル放送受信機は、受信しているトランスポートストリームの中から、認識したPIDに対応するパケットを分離することにより、かかる要求チャンネルに対応する圧縮映像データや圧縮音声データやPCRデータ等をストリームとして得ることができる。
因みに以上に説明したステップSP1〜SP4までの処理は、DEMUX処理として広く知られているものである(特許文献1参照)。
ところでこのようにして得られたストリーム中のPCRデータには、圧縮映像データや圧縮音声データをエンコードしたエンコード装置側の基準時刻が示されている。
従ってデジタル放送受信機は次のステップSP5に移ると、このデジタル放送受信機において計時される基準時刻(STC(System Time Clock))を、かかるPCRデータに示されている時刻に合わせる。これにより、このデジタル放送受信機において計時される基準時刻を、エンコード装置側の時刻と同期させることができる。
またこのストリームにおいては図5に示すように、例えば1フレーム分に相当する圧縮映像データ「Dpic(0)」、「Dpic(1)」、……ごとに、その映像を表示すべき時刻を示した表示時刻情報(PTS(Presentation Time Stamp))が対応付けられている。同じようにしてこのストリームにおいては、例えば1フレーム分に相当する圧縮音声データ「Dframe(0)」、「Dframe(1)」、……ごとに、その音声を出力すべき時刻を示した出音時刻情報(PTS)が対応付けられている。
かくしてこのデジタル放送受信機は、例えば、計時している基準時刻が圧縮映像データ「Dpic(0)」に対応付けられている表示時刻情報「pts(0)」と一致したときステップSP6に移り、当該圧縮映像データ「Dpic(0)」をデコードした結果得られた映像データに基づく映像「Vpic(0)」を、表示部に表示する。
またこのデジタル放送受信機は、計時している基準時刻が圧縮音声データ「Dframe(0)」に対応付けられている出音時刻情報「pts(0)」と一致したときステップSP7に移り、当該圧縮音声データ「Dframe(0)」をデコードした結果得られた音声データに基づく音声「Sframe(0)」を、スピーカ等を介して出力する。
このようにしてこのデジタル放送受信機は、映像「Vpic(0)」、……を表示する映像表示タイミングと、この映像「Vpic(0)」、……に対応する音声「Sframe(0)」、……を出力する出音タイミングとをある程度一致させることができる。
特開2003−274304公報
ところで実際上このようなデジタル放送受信機は、表示部に映像を表示する際に用いる走査線の垂直方向動作について同期を取るための垂直同期信号を生成し、これに同期させるようにして映像「Vpic(0)」、……を順次表示するようになされている。
従って図5に示したような場合、例えば音声「Sframe(0)」については、その音声「Sframe(0)」を出力すべき出音時刻「pts(0)」に出力できるのにも関わらず、この音声「Sframe(0)」に対応する映像「Vpic(0)」については、その映像「Vpic(0)」を表示すべき表示時刻「pts(0)」に垂直同期信号が生成されていないのでこの映像「Vpic(0)」を表示することができず、これ以降の垂直同期信号が生成されたときにこの映像「Vpic(0)」を表示することになる。
この結果このデジタル放送受信機においては、音声「Sframe(0)」、……の出音タイミングとこの音声「Sframe(0)」、……に対応する映像「Vpic(0)」、……の映像表示タイミングとの間に最大±1/2フレームの差が出てしまうので、映像表示タイミングと出音タイミングとを精度良く一致させているとは言い難い問題があった。
この問題を回避する手法としては、映像「Vpic(0)」、……を表示させる前に、デジタル放送受信機において生成されている垂直同期信号を表示時刻情報に合わせるように調節することも考えられるが、このような調節をした場合には垂直同期信号に乱れが生じ、これにより表示される映像「Vpic(0)」、……にショックが入ってしまうので、この手法を適用するのは好ましくない。
本発明は以上の点を考慮してなされたもので、映像表示タイミングと出音タイミングとを高精度に一致させることができるデータ処理装置、その方法及びプログラムを提案しようとするものである。
かかる課題を解決するため本発明においては、映像データに対応付けられた基準時刻と映像の垂直同期信号ごとの映像データに対応付けられた表示時刻とを比較し、一致した最初のタイミングに時刻映像データのデコード処理を開始し、最初のタイミングから次の垂直同期信号が検出されるまでの表示遅延時間遅延させた表示タイミングから映像信号を表示し、さらに基準時刻と表示遅延時間とを比較し一致したときに表示遅延時間遅れた修正出音時刻に音声データをデコード処理することによって出音するようにした。
この結果、映像表示が遅延する時間だけ音声の出音も遅らせるため映像を表示するタイミングと音声を出力するタイミングとがずれることを回避できるので、すべてが基準時刻を基準にして時間のタイミングを計測しているので映像表示のタイミングと音声の出力タイミングとを高精度に一致させることができる。
上述のように本発明によれば、映像データに対応付けられた基準時刻と映像の垂直同期信号ごとの映像データに対応付けられた表示時刻とが一致した最初のタイミングに時刻映像データのデコード処理を開始し、最初のタイミングから次の垂直同期信号が検出されるまでの表示遅延時間遅延させた表示タイミングから映像信号を表示し、さらに基準時刻と表示タイミングとを比較し一致したとき、表示遅延時間遅れた修正出音時刻に音声データをデコード処理した後出音するようにしたことによって、基準時刻と表示時刻とが一致した最初のタイミングでデコード処理を行い、垂直同期信号が検出された表示タイミングで映像表示させ音声を出音させているので、デコード処理によって映像を表示するタイミングと音声を出力するタイミングとがずれることを回避でき、かくして映像表示のタイミングと音声の出力タイミングとを高精度に一致させ得るデータ処理装置を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)デジタル放送受信機の構成
図1において、1は全体としてデジタル放送受信機を示し、アンテナ等を介して受信したテレビ放送波から得られる入力ストリームが、DEMUX処理部2内のNIT取得部3に供給される。
このNIT取得部3は、当該供給された入力ストリームからNIT(Network Information Table)を取得する。これによりデジタル放送受信機1は、当該取得したNITに基づいてユーザのチャンネル切換操作により要求された要求チャンネルに対応するトランスポンダを選択することができ、この結果この要求チャンネルに対応するトランスポートストリームを受信することができる。
この後このDEMUX処理部2内に設けられたPAT取得部4は、PAT(Program Association Table)を取得する。次いでこのDEMUX処理部2内に設けられたPMT取得部5は、PAT取得部4により取得されたPATに基づいて、ユーザのチャンネル切換操作により要求された要求チャンネルに対応するPMT(Program Map Table)を取得する。
そしてこのPMT取得部5は、当該取得したPMTに基づいてかかる要求チャンネルに対応するPID(Program Identification)を認識し、当該認識したPIDをフィルタ部6内のPCRフィルタ6A、映像フィルタ6B及び音声フィルタ6Cのそれぞれに設定する。
これによりPCRフィルタ6A、映像フィルタ6B及び音声フィルタ6Cは、それぞれに設定されたPIDに基づいて、受信されているトランスポートストリームから、かかる要求チャンネルに対応するPCRデータ、圧縮映像データ及び圧縮音声データが含まれているPCRパケット、映像パケット及び音声パケットを抽出することができる。
源発振クロック生成部7は、PCRフィルタ6Aにより抽出されたPCRパケット中のPCRデータを基準信号として、STCカウンタ部10から出力される信号を位相同期させるような負帰還制御を行う。これによりこの源発振クロック生成部7は、エンコーダ装置側の基準クロック信号に同期した動作クロック信号S1を生成することができ、かくして得られた動作クロック信号S1を水平垂直同期信号発生回路8、同期信号発生回路9及びSTCカウンタ部10に対して供給する。
水平垂直同期信号発生回路8は、源発振クロック生成部7から供給される動作クロック信号S1に基づいて、走査線の垂直方向動作について同期を取るための垂直同期信号S2と、走査線の水平方向動作について同期を取るための水平同期信号S3とを生成する。そしてこの水平垂直同期信号発生回路8は、当該生成した垂直同期信号S2をラッチ回路11に対して供給する。またこの水平垂直同期信号発生回路8は、源発振クロック生成部7から供給される動作クロック信号S1と、当該生成した垂直同期信号S2及び水平同期信号S3とを、表示処理部12に対して供給する。
これによりこの表示処理部12は、当該供給される動作クロック信号S1、垂直同期信号S2及び水平同期信号S3に従って、映像デコーダ部13から供給されるデジタル映像信号S4を、後段の表示部14に対して供給する。その結果、このデジタル映像信号S4に基づく映像が表示部14に表示されるようになされている。
同期信号発生回路9は、源発振クロック生成部7から供給される動作クロック信号S1に基づいて出音用の同期信号S5を生成する。そしてこの同期信号発生回路9は、当該生成した同期信号S5と源発振クロック生成部7から供給される動作クロック信号S1とを、出音処理部15に対して供給する。かくしてこの出音処理部15は、当該供給される動作クロック信号S1及び同期信号S5に従って、音声デコーダ部16から供給されるデジタル音声信号S6を、後段の出音部17に対して供給する。その結果、このデジタル音声信号S6に基づく音声が出音部17を介して出力されるようになされている。
一方、源発振クロック生成部7からの動作クロック信号S1に基づいてこのデジタル放送受信機1における基準時刻(STC(System Time Clock))を計時するSTCカウンタ部10は、PCRフィルタ6AからPCRパケットが供給されると、計時している基準時刻を、供給されたPCRパケット中のPCRデータに示されている時刻に合わせる。これにより、このデジタル放送受信機1において計時される基準時刻を、エンコード装置側の時刻と同期させることができる。そしてこのSTCカウンタ部10は、計時している基準時刻を示した基準時刻情報I1をラッチ回路11及び第1比較回路18に対して供給するようになされている。
表示時刻情報抽出部19は、映像フィルタ6Bにより抽出された映像パケットから、1フレームごとの圧縮映像データに対応付けられている表示時刻情報(PTS(Presentation Time Stamp))I2を抽出し、これを第1比較回路18及び演算回路20に対して供給する。
この第1比較回路18は、STCカウンタ部10から順次供給される基準時刻情報I1と、表示時刻情報抽出部19から供給される表示時刻情報I2とを比較する。そしてこの第1比較回路18は、例えば図2に示すように、当該基準時刻情報I1において示される基準時刻が、当該表示時刻情報I2において示される例えば表示時刻「pts(0)」と一致したとき、デコード処理を開始させるためのデコード処理開始命令信号S7を、映像デコーダ部13に対して供給する。
映像デコーダ部13は、第1比較回路18からデコード処理開始命令信号S7が供給されると、映像フィルタ6Bにより抽出された映像パケットから得られる、対応する1フレーム分の圧縮映像データ「Dpic(0)」をデコード処理することによりデジタル映像信号S4を生成し、これを表示処理部12に対して供給する。
しかしながらこの場合この表示処理部12は、図2に示す基準時刻「pts(0)」において、水平垂直同期信号発生回路8から垂直同期信号S2が供給されていないので、これ以降の垂直同期信号S2が供給された時刻「vt(n+1)」に、映像デコーダ部13から供給された1フレーム分のデジタル映像信号S4を表示部14に供給する。これにより、このデジタル映像信号S4に基づく映像「Vpic(0)」を表示するタイミングが、この映像「Vpic(0)」を表示すべき表示時刻「pts(0)」よりも、所定時間dtだけ遅れることになる(以下、この所定時間dtを表示遅延時間と呼ぶ)。
ところで本実施の形態のラッチ回路11は、予め、水平垂直同期信号発生回路8から垂直同期信号S2が供給された例えばタイミングT1で、STCカウンタ部10から供給された基準時刻「vt(n-1)」を示す基準時刻情報I1をラッチしている。これによりこのラッチ回路11から演算回路20に対しては、基準時刻「vt(n-1)」が示された基準時刻情報I1が供給されている。
そしてこの演算回路20は、表示時刻情報抽出部19から表示時刻「pts(0)」が示された表示時刻情報I2が供給された際、次式、
Figure 0004304615
を計算することにより表示遅延時間dtを算出するようになされている。因みにこの式(1)を具体的に説明すると、圧縮映像データ「Dpic(0)」に基づく映像「Vpic(0)」を表示すべき表示時刻「pts(0)」から、それ以前に垂直同期信号S2が供給されたときの時刻「vt(n-1)」を引き算した後、その結果を垂直同期信号S2の周期時間Vtで割り算する。そしてこの割り算した結果生じた余りを、垂直同期信号S2の周期時間Vtから引き算することにより、かかる表示遅延時間dtを算出するようになされている。
この演算回路20は、このように算出した表示遅延時間dtを示す表示遅延時間情報I3を、加算器21に対して供給する。
この一方で出音時刻情報抽出部22は、音声フィルタ6Cにより抽出された音声パケットから、1フレームごとの圧縮音声データに対応付けられている出音時刻情報(PTS)I4を抽出し、これを加算器21に対して供給する。
かくしてこの加算器21は、出音時刻情報抽出部22から供給された出音時刻情報I4が示す例えば出音時刻「pts(0)」に対して、演算回路20から供給された表示遅延時間情報I3が示す表示遅延時間dtを加算し、その加算結果「vt(n+1)」を示した修正出音時刻情報I5を第2比較回路23に対して供給する。
この第2比較回路23は、STCカウンタ部10から順次供給される基準時刻情報I1と、加算器21から供給される修正出音時刻情報I5とを比較する。そしてこの第2比較回路23は、当該基準時刻情報I1において示される基準時刻が、当該修正出音時刻情報I5において示される出音時刻「vt(n+1)」と一致したとき、デコード処理を開始させるためのデコード処理開始命令信号S8を、音声デコーダ部16に対して供給する。
音声デコーダ部16は、第2比較回路23からデコード処理開始命令信号S8が供給されると、これに応じて音声フィルタ6Cにより抽出された音声パケットから得られる、対応する1フレーム分の圧縮音声データ「Dframe(0)」をデコード処理することによりデジタル音声信号S6を生成し、これを出音処理部15を介して出音部17に供給する。これにより、圧縮音声データ「Dframe(0)」に基づく音声「Sframe(0)」が、時刻「pts(0)」から表示遅延時間dtだけ遅れた時刻「vt(n+1)」に出力される。
かくしてこのデジタル放送受信機1では、映像「Vpic(0)」が表示される映像表示タイミングと、この映像「Vpic(0)」に対応する音声「Sframe(0)」が出音される出音タイミングとを、高精度に一致させることができる。
またこの後もこのデジタル放送受信機1は、同じようにして、出音時刻情報抽出部22から供給される出音時刻情報I4が示す出音時刻に対して、演算回路20から供給される表示遅延時間情報I3が示す表示遅延時間dtを加算し続ける。これによりこれ以降も、映像「Vpic(1)」、……が表示される映像表示タイミングと、それ対応する音声「Sframe(1)」、……が出音される出音タイミングとを、高精度に一致させることができる。
(2)映像音声出力処理
次に、図4との対応部分に同一符号を付して示す図3を用いて、本実施の形態による映像音声出力処理手順RT1を説明する。
上述したようにデジタル放送受信機1は、ステップSP1においてNITを受信し、ステップSP2においてPATを受信し、ステップSP3においてPMTを受信する。次いでデジタル放送受信機1はステップSP4において、このPMTに基づいて認識したPIDを用いて、トランスポートストリームからPCRパケット、映像パケット及び音声パケットを分離する。そしてデジタル放送受信機1はステップSP5において、STCカウンタ部10により計時している基準時刻を、かかるPCRパケット中のPCRデータに示されている時刻に合わせる。
さらに続くステップSP11においてこのデジタル放送受信機1は、垂直同期信号S2が供給された例えばタイミングT1(図2)で、STCカウンタ部10から供給された基準時刻情報I1(「vt(n-1)」)を、ラッチ回路11にラッチさせる。
そして次のステップSP12においてこのデジタル放送受信機1は、例えば最初にデコードする圧縮映像データ「Dpic(0)」の表示時刻情報I2(「pts(0)」)を、表示時刻情報抽出部19によって所定時間内に抽出できたか否かを判定する。
このステップSP12において肯定結果が得られると、このことは、圧縮映像データ「Dpic(0)」に対応する表示時刻情報I2(「pts(0)」)を抽出できたことを意味しており、このときデジタル放送受信機1は次のステップSP13に進む。
そしてこのステップSP13においてデジタル放送受信機1は、抽出した表示時刻情報I2(「pts(0)」)とラッチ回路11によりラッチした基準時刻情報I1(「vt(n-1)」)とを用いて上述の式(1)を演算回路20に演算させることにより、表示遅延時間dtを算出する。
このようにしてこのデジタル放送受信機1は、次のステップSP15において表示する映像「Vpic(0)」の表示遅延時間dtを予め算出することができる。かくしてこのデジタル放送受信機1はステップSP16において、この映像「Vpic(0)」に対応する音声「Sframe(0)」を、かかる表示遅延時間dtだけ遅らせて出力することができる。
またステップSP12において否定結果が得られた場合、このことは、圧縮映像データ「Dpic(0)」に対応する表示時刻情報I2(「pts(0)」)が欠落していた等の理由により、当該表示時刻情報I2(「pts(0)」)が抽出できなかったことを意味しており、このときこのデジタル放送受信機1は、表示遅延時間dtを算出するステップSP13ではなくステップSP14に進む。そしてデジタル放送受信機1はこのステップSP14において、表示遅延時間dtの値を例えば「0」に設定し、続くステップSP15及びSP16に進むようになされている。
(3)動作及び効果
以上の構成においてこのデジタル放送受信機1は、例えば図2に示すように、圧縮映像データ「Dpic(0)」に基づく映像「Vpic(0)」を表示すべき表示時刻「pts(0)」以後、垂直同期信号S2を所定の周期時間Vtで供給する水平垂直同期信号発生回路8から垂直同期信号S2が供給されたとき(時刻「vt(n+1)」)、かかる圧縮映像データ「Dpic(0)」に基づく映像「Vpic(0)」を表示部14に表示するようになされている。
ここで本実施の形態の場合このデジタル放送受信機1は、圧縮映像データ「Dpic(0)」に基づく映像「Vpic(0)」を表示すべき表示時刻「pts(0)」から、表示部14に当該映像「Vpic(0)」が実際に表示されるまでの表示遅延時間dtを予め算出しておく。そしてこのデジタル放送受信機1は、圧縮音声データ「Dframe(0)」に基づく音声「Sframe(0)」を出力すべき出音時刻「pts(0)」から、算出した表示遅延時間dtが経過したときに、かかる圧縮音声データ「Dframe(0)」に基づく音声「Sframe(0)」を出力するようにした。
かくしてこのデジタル放送受信機1は、映像「Vpic(0)」の表示が遅れる分だけ音声「Sframe(0)」の出力も遅らせることができ、この結果映像「Vpic(0)」を表示する映像表示タイミングと音声「Sframe(0)」を出力する出音タイミングとがずれてしまうことを回避することができる。
以上の構成によれば、圧縮映像データに基づく映像を表示すべき表示時刻から表示部14に当該映像が表示されるまでの表示遅延時間dtを算出し、圧縮音声データに基づく音声を出力すべき出音時刻から当該算出した表示遅延時間dtが経過したときに、この圧縮音声データに基づく音声を出力するようにしたことにより、映像の表示が遅れる分だけ音声の出力も遅らせることができ、かくして映像を表示する映像表示タイミングと音声を出力する出音タイミングとがずれてしまうことを回避することができる。この結果、映像表示タイミングと出音タイミングとを高精度に一致させることができるデジタル放送受信機1を実現することができる。
(4)他の実施の形態
なお上述の実施の形態においては、図2に示すタイミングT1で基準時刻情報I1(「vt(n-1)」)をラッチ回路11にラッチさせる場合について述べたが、本発明はこれに限らず、STCカウンタ部10によって計時している基準時刻がエンコーダ装置側の時刻と同期した後であって、圧縮映像データに基づく映像を表示する前であれば、水平垂直同期信号発生回路8から垂直同期信号S2が供給されるこの他のタイミングで、基準時刻情報I1をラッチ回路11にラッチさせるようにしても良い。このような場合でも、上述した式(1)を用いることにより表示遅延時間dtを算出することができる。
また上述の実施の形態においては、映像データ(「Dpic(0)」、……)に基づく映像(「Vpic(0)」、……)を表示すべき表示時刻(「pts(0)」、……)以後、映像を表示させるタイミングを示す映像表示タイミング信号(S2)を所定の周期時間(Vt)で供給する供給手段(8)から映像表示タイミング信号(S2)が供給されたとき、映像データ(「Dpic(0)」、……)に基づく映像(「Vpic(0)」、……)を表示する表示手段として、表示処理部12及び表示部14を適用する場合について述べたが、本発明はこれに限らずこの他種々の構成を適用することができる。
さらに上述の実施の形態においては、映像データ(「Dpic(0)」、……)に基づく映像(「Vpic(0)」、……)を表示すべき表示時刻(「pts(0)」、……)から表示手段により当該映像(「Vpic(0)」、……)が表示されるまでの表示遅延時間dtを算出する算出手段として、演算回路20を適用する場合について述べたが、本発明はこれに限らず、上述の式(1)を計算するものであればこの他種々の構成を適用することができる。
さらに上述の実施の形態においては、音声データ(「Dframe(0)」、……)に基づく音声(「Sframe(0)」、……)を出力すべき出音時刻(「pts(0)」、……)から、算出した表示遅延時間dtが経過したとき、音声データ(「Dframe(0)」、……)に基づく音声(「Sframe(0)」、……)を出力する出音手段として、出音処理部15及び出音部17を適用する場合について述べたが、本発明はこれに限らずこの他種々の構成を適用することができる。
さらに上述の実施の形態においては、映像音声出力処理手順RT1等の本発明に係る処理を、図1に示すような各回路を用いて、ハードウェア的に実行する場合について述べたが、本発明はこれに限らず、例えばCPU(Central Processing Unit)等の制御部が、ハードディスクドライブ等の記憶部に記憶されているプログラムに従って、映像音声出力処理手順RT1等の本発明に係る処理を、ソフトウェア的に実行するようにしても良い。
本発明は、例えば、MPEG2方式等に基づいてエンコードされた圧縮映像データ及び圧縮音声データをデコードすることにより映像及び音声を出力するようになされたデコード装置に利用することができる。
本実施の形態におけるデジタル放送受信機の構成を示す略線図である。 映像表示タイミングと出音タイミングとを示すタイムチャート(1)である。 映像音声出力処理手順を示すフローチャートである。 従来の映像音声出力処理手順を示すフローチャートである。 映像表示タイミングと出音タイミングとを示すタイムチャート(2)である。
符号の説明
1……デジタル放送受信機、8……水平垂直同期信号発生回路、11……ラッチ回路、12……表示処理部、13……映像デコーダ部、14……表示部、15……出音処理部、16……音声デコーダ部、17……出音部、18……第1比較回路、19……表示時刻情報抽出部、20……演算回路、21……加算器、22……出音時刻情報抽出部、23……第2比較回路、RT1……映像音声出力処理手順。

Claims (3)

  1. 映像と音声との同期再生を行うデータ処理装置において、
    上記映像に対応付けられた基準時刻を計時する計時手段と、
    上記基準時刻と、上記映像の垂直同期信号ごとの映像データに対応付けられた表示時刻とを比較する第1の比較手段と、
    上記基準時刻と上記表示時刻とが一致した最初のタイミングに上記映像データのデコード処理を開始することによって映像信号を生成するデコード処理手段と、
    上記最初のタイミングから次の上記垂直同期信号が検出されるまでの表示遅延時間を当該最初のタイミングから垂直同期信号の時刻を引き算したその結果を当該垂直同期信号の周期時間で割り算し、その余りを当該周期時間から引き算することにより算出する表示遅延時間算出手段と、
    上記最初のタイミングから上記表示遅延時間だけ遅延された上記垂直同期信号に基づくタイミングにより上記映像信号を表示させる表示手段と、
    上記基準時刻と、上記音声を出音する出音時刻に上記表示遅延時間を加算した結果の修正出音時刻とを比較する第2の比較手段と、
    上記基準時刻と上記修正出音時刻とが一致したときに上記映像データに付加された音声データを音声デコード処理した後、上記基準時刻から上記表示遅延時間遅れた上記修正出音時刻に出音する音声出音手段と
    を具えるデータ処理装置。
  2. 映像と音声との同期再生を行うデータ処理方法において、
    上記映像に対応付けられた基準時刻を計時する計時ステップと、
    上記基準時刻と、上記映像の垂直同期信号ごとの映像データに対応付けられた表示時刻とを比較する第1の比較ステップと、
    上記基準時刻と上記表示時刻とが一致した最初のタイミングに上記映像データのデコード処理を開始することによって映像信号を生成するデコード処理ステップと、
    上記最初のタイミングから次の上記垂直同期信号が検出されるまでの表示遅延時間を当該最初のタイミングから垂直同期信号の時刻を引き算したその結果を当該垂直同期信号の周期時間で割り算し、その余りを当該周期時間から引き算することにより算出する表示遅延時間算出ステップと、
    上記最初のタイミングから上記表示遅延時間だけ遅延された上記垂直同期信号に基づくタイミングにより上記映像信号を表示手段に表示させる表示ステップと、
    上記基準時刻と、上記音声を出音する出音時刻に上記表示遅延時間を加算した結果の修正出音時刻とを比較する第2の比較ステップと、
    上記基準時刻と上記修正出音時刻とが一致したときに上記映像データに付加された音声データを音声デコード処理した後、上記基準時刻から上記表示遅延時間遅れた上記修正出音時刻に出音する音声出音ステップと
    有するデータ処理方法。
  3. コンピュータに対し、
    上記映像に対応付けられた基準時刻を計時する計時ステップと、
    上記基準時刻と、上記映像の垂直同期信号ごとの映像データに対応付けられた表示時刻とを比較する第1の比較ステップと、
    上記基準時刻と上記表示時刻とが一致した最初のタイミングに上記映像データのデコード処理を開始することによって映像信号を生成するデコード処理ステップと、
    上記最初のタイミングから次の上記垂直同期信号が検出されるまでの表示遅延時間を当該最初のタイミングから垂直同期信号の時刻を引き算したその結果を当該垂直同期信号の周期時間で割り算し、その余りを当該周期時間から引き算することにより算出する表示遅延時間算出ステップと、
    上記最初のタイミングから上記表示遅延時間だけ遅延された上記垂直同期信号に基づく表示タイミングにより上記映像信号を表示手段に表示させる表示ステップと、
    上記基準時刻と、上記音声を出音する出音時刻に上記表示遅延時間を加算した結果の修正出音時刻とを比較する第2の比較ステップと、
    上記基準時刻と上記修正出音時刻とが一致したときに上記映像データに付加された音声データを音声デコード処理した後、上記基準時刻から上記表示遅延時間遅れた上記修正出音時刻に出音する音声出音ステップと
    を実行させるためのデータ処理プログラム。
JP2004333322A 2004-11-17 2004-11-17 データ処理装置、データ処理方法及びデータ処理プログラム Expired - Fee Related JP4304615B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004333322A JP4304615B2 (ja) 2004-11-17 2004-11-17 データ処理装置、データ処理方法及びデータ処理プログラム
US11/274,542 US7600240B2 (en) 2004-11-17 2005-11-15 Data processing apparatus and method
KR1020050109450A KR101190362B1 (ko) 2004-11-17 2005-11-16 데이터 처리 장치 및 방법
CNB2005101254434A CN100474934C (zh) 2004-11-17 2005-11-17 数据处理装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004333322A JP4304615B2 (ja) 2004-11-17 2004-11-17 データ処理装置、データ処理方法及びデータ処理プログラム

Publications (2)

Publication Number Publication Date
JP2006148335A JP2006148335A (ja) 2006-06-08
JP4304615B2 true JP4304615B2 (ja) 2009-07-29

Family

ID=36575903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004333322A Expired - Fee Related JP4304615B2 (ja) 2004-11-17 2004-11-17 データ処理装置、データ処理方法及びデータ処理プログラム

Country Status (4)

Country Link
US (1) US7600240B2 (ja)
JP (1) JP4304615B2 (ja)
KR (1) KR101190362B1 (ja)
CN (1) CN100474934C (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070271335A1 (en) * 2006-05-18 2007-11-22 James Edward Bostick Electronic Conferencing System Latency Feedback
JP2008288842A (ja) * 2007-05-17 2008-11-27 Mitsubishi Electric Corp デジタル放送受信機
WO2009028038A1 (ja) * 2007-08-27 2009-03-05 Fujitsu Limited デコーダ装置、およびデコード方法
JP5178375B2 (ja) * 2008-07-30 2013-04-10 パナソニック株式会社 デジタル放送再生装置およびデジタル放送再生方法
US9052867B2 (en) 2010-07-08 2015-06-09 International Business Machines Corporation Feedback mechanism
CN110290411A (zh) * 2019-07-05 2019-09-27 四川长虹电器股份有限公司 视频播放过程中自动校正音画不同步的方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5430485A (en) 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
JP2885108B2 (ja) 1994-12-28 1999-04-19 日本電気株式会社 オーディオビデオ復号化装置
JPH09205618A (ja) 1996-01-29 1997-08-05 Mitsubishi Electric Corp 動画像音声伸張再生装置および動画像音声同期制御器
US6134379A (en) * 1997-03-20 2000-10-17 Avid Technology, Inc. Method and apparatus for synchronizing devices in an audio/video system
US6005597A (en) * 1997-10-27 1999-12-21 Disney Enterprises, Inc. Method and apparatus for program selection
JP3422686B2 (ja) * 1998-06-12 2003-06-30 三菱電機株式会社 データ復号装置及びデータ復号方法
JP2001136456A (ja) 1999-11-09 2001-05-18 Hitachi Ltd デジタル放送受信装置
JP2002176643A (ja) 2000-12-06 2002-06-21 Hitachi Kokusai Electric Inc 映像・音声復号処理における映像・音声の同期再生方式
US6906755B2 (en) * 2002-01-04 2005-06-14 Microsoft Corporation Method and apparatus for synchronizing audio and video data

Also Published As

Publication number Publication date
KR101190362B1 (ko) 2012-10-11
JP2006148335A (ja) 2006-06-08
KR20060055369A (ko) 2006-05-23
CN1777292A (zh) 2006-05-24
US7600240B2 (en) 2009-10-06
CN100474934C (zh) 2009-04-01
US20060123458A1 (en) 2006-06-08

Similar Documents

Publication Publication Date Title
TWI294085B (en) Method and apparatus for synchronizing multimedia data stream
US9489980B2 (en) Video/audio synchronization apparatus and video/audio synchronization method
EP0716547B1 (en) Audio/video synchronizer
CN1901656B (zh) 视频和音频重放设备及方法、输出时刻改变设备及方法
US7656947B2 (en) Synchronization device and synchronization method in digital broadcast receiver
KR100707641B1 (ko) 디코더 장치
JP5586511B2 (ja) 同期制御装置及びプログラム
WO2017067489A1 (zh) 机顶盒音视频同步的方法及装置、存储介质
US7480315B2 (en) Method and apparatus for synchronizing clocks
JP4983923B2 (ja) デコーダ装置、およびデコード方法
TW200806050A (en) Method and system for synchronizing audio and video data signals
KR101190362B1 (ko) 데이터 처리 장치 및 방법
CN103581730A (zh) 在数字机顶盒上实现音视频同步的方法
CN108650541B (zh) 实现不同设备同步播放视频的方法和系统
US8238446B2 (en) Method and apparatus for reproducing digital broadcasting
JP2010171919A (ja) 映像表示装置
KR100864009B1 (ko) 오디오/비디오 동기화 방법
US20110064391A1 (en) Video-audio playback apparatus
KR100423129B1 (ko) 디지털 방송수신기에서의 출력 타이밍 조절방법
JP2002176643A (ja) 映像・音声復号処理における映像・音声の同期再生方式
JP2013236355A (ja) 映像表示装置
US20060257108A1 (en) Multimedia reproduction apparatus
JP2007201797A (ja) 伝送システム及び映像出力方法
JP2010141498A (ja) 映像受信装置及び映像送信装置
JP2006310916A (ja) 音声映像情報復号装置、音声映像情報復号方法、音声映像情報復号プログラム及び音声映像情報復号プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090402

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees