JP3556380B2 - Video code timing estimation method, video decoding device, and MPEG system multiplexing device - Google Patents

Video code timing estimation method, video decoding device, and MPEG system multiplexing device Download PDF

Info

Publication number
JP3556380B2
JP3556380B2 JP05640396A JP5640396A JP3556380B2 JP 3556380 B2 JP3556380 B2 JP 3556380B2 JP 05640396 A JP05640396 A JP 05640396A JP 5640396 A JP5640396 A JP 5640396A JP 3556380 B2 JP3556380 B2 JP 3556380B2
Authority
JP
Japan
Prior art keywords
encoded frame
field
frame
display
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05640396A
Other languages
Japanese (ja)
Other versions
JPH09247666A (en
Inventor
朋夫 山影
晋一郎 古藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP05640396A priority Critical patent/JP3556380B2/en
Publication of JPH09247666A publication Critical patent/JPH09247666A/en
Application granted granted Critical
Publication of JP3556380B2 publication Critical patent/JP3556380B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、個別に符号化される動画像、音声等の符号化データ列を同期化して多重化するMPEGシステムにおける動画像の復号タイミング推定方法および、それを用いた動画像符号化装置および動画像復号化装置に関する。
【0002】
【従来の技術】
個別に符号化された動画像(ビデオ)、音声(オーディオ)等のデータ列を同期・多重して1本化するMPEGシステムには、主に、CD−ROM等の蓄積メディアのアプリケーションに対応したMPEG1システム、このMPEG1のアプリケーションを含む幅広いアプリケーションに対応したMPEG2システムとがある。
【0003】
このようなMPEGシステムでは、ビデオ、オーディオ等を個別に符号化して得られた別個のデータ列(ストリーム)を時分割多重して1本のストリームにし、蓄積メディアに記録したり、通信ネットワークを介して伝送する。再生側では、蓄積メディアから読み出され、あるいは、通信ネットワークを介して受信された多重ストリームから各個別のストリームを分離してそれぞれの復号器に送り、各複合器で個別にストリームを復号して出力装置(ビデオモニタ、スピーカなど)に出力する。その際、送信側で意図したように、受信側で各個別ストリームを同期復号、再生出力するようになっている。
【0004】
ところで、MPEGの符号化画像には、画面の全てをイントラ符号化するイントラ符号化画像(Iピクチャ)、フレーム間順方向予測符号化画像(Pピクチャ)、過去の再生画像からの順方向予測と未来の再生画像からの逆方向予測をも使う双方向予測符号化画像(Bピクチャ)という3つの画像タイプがある。
【0005】
双方向予測符号化のBピクチャが挿入される場合、過去の再生画像のみならず、未来の再生画像をも参照する必要があるために、画面の処理順序と原画面の順序が異なることに注意が必要である。
【0006】
すなわち、符号器では、Bピクチャをスキップして次のI、Pピクチャを先に符号化し、その後、間にあるBピクチャを符号化する。復号器は、Bピクチャを直ちに復号して表示するが、I、Pピクチャは復号した後も間に入るBピクチャの処理が終了してから表示する。従って、符号器と復号器を通すとIまたはPピクチャの現れる周期だけの遅延が発生することになる。
【0007】
この様子を具体的に示したものが図8である。図8では、入力画像(原画像)、符号化画像、表示画像の関係を画面の処理順と原画面の順序の相違を含めて表している。
【0008】
図8において、b12、b13は、(n−1)番目のGOP(Group of Picture:Iピクチャが少なくとも1枚入った画面群構造)に含まれるBピクチャを表し、p14は、(n−1)番目のGOPの最後のpピクチャを表す。
【0009】
I2は、n番目のGOPの最初のIピクチャを表し、p5は、n番目のGOPの最初のpピクチャを表し、B0、B1、B3、B4は、n番目のGOPに含まれるBピクチャを表す。
【0010】
各ピクチャ間の復号のインターバルTxx(xx=B0、B1、I2、…、P5、…)は、復号を行っているときに表示を行うピクチャの表示時間である。すなわち、
(1) 現在、Bピクチャを復号しているなら、次のピクチャの復号開始までのインターバルは、そのBピクチャが表示される期間である。
【0011】
(2) 現在、IまたはPピクチャを復号しているなら、次のピクチャの復号開始までのインターバルは直前に復号を行ったIまたはPピクチャが表示される期間である。
【0012】
MPEG1では、順次走査(ノンインタレース)の画像のみを扱っているが、MPEG2では、順次走査の画像だけでなく、インタレース走査(飛び越し走査)の画像も扱うことができる。順次走査方式とインタレース走査方式の違いを図9を参照して簡単に説明する。
【0013】
図9では、30Hz(詳しくは29.97Hz)順次走査方式(図9(b)参照)と、30Hzインタレース走査方式、すなわち、フィールド周波数60Hzの場合(図9(a)参照)を例にとり示している。順次走査では、1枚のフレームの中の画像は、全て同じ時間にサンプリングされたものであるが、インタレース走査では、1枚のフレームの中の画像は異なった時間にサンプリングされたものが1ライン毎に交互に(すなわち、奇数ラインと偶数ラインを交互に)繰り返されている。この異なった時間にサンプリングされた画像をそれぞれ第1フィールド、第2フィールドと呼び、インタレース走査の画面では、1枚のフレームは、通常2枚のフィールド画像から構成されることになる(図9(a)参照)。
【0014】
MPEG2では、ピクチャ(MPEGにおける1枚の画像単位)にフレームを割り当てることもフィールドを割り当てることもできる。ピクチャにフレームが割り当てられた場合、この割り付け方をフレーム構造と呼ぶ。ピクチャにフィールドが割り当てられた場合、この割り付け方をフィールド構造と呼ぶ。1つの画像シーケンスの中で、フレーム構造とフィールド構造が混在してもよいし、どちらか一方の構造だけで符号化してもよい。
【0015】
一方、MPEG1では、順次走査方式であるため、全てがフレーム画像として扱われていて、1フレームの表示時間は、2フィールド期間である。
MPEG2では、1フレームを表示する期間は、2フィールドあるいは3フィールドと任意に設定することができる。例えば、フレーム周期24Hzの映画ソースをNTSC方式のフレーム周期30Hzのインタレースの受像装置でフレームレート変換して表示される場合、2:3プルダウンと呼ばれるテレシネ変換の情報を表すフラグ(TFF、RFF)を多重して符号化を行う。
【0016】
ここで、フラグTFF(top field first)とは、フレーム構造の場合、最初に表示されるフィールドが上位(top field)か下位(bottom field)かを示し、フラグREF(repeat first field)は、1ピクチャの表示期間が2フィールドか、3フィールドかを示している。なお、この2つのフラグは、各ピクチャ毎に与えられるデータである。
【0017】
さて、ここで、ランダムアクセス時やチャンネルホッピング時のように、符号化データの途中からエントリーする場合を考える。例えば、図8のn番目のGOPから復号を開始する場合、最初のIまたはPピクチャの復号時に表示を行う画像がない。このような場合、図8中の復号画像p14の表示時間が不明であるため、I2ピクチャの次に復号を行うB0ピクチャの復号開始までのインターバルが2フィールド後であるか3フィールド後であるか特定できない。
【0018】
また、シーケンスのスタートアップ時も同様に符号化側がI2ピクチャとB0ピクチャの復号インターバルを2フィールドとして符号化を行ったか3フィールドにして符号化を行ったかが不明な場合、前述と同様な問題が発生する。
【0019】
従来、B0ピクチャの復号開始時刻を推定するには、次のような方法がある。すなわち、MPEG方式で符号化された画像データには、、付加情報として、符号化された各ピクチャの先頭のバイトが受信バッファに入力されてから復号に用いるまでのバッファ滞留時間(VD:VBV Delay)が多重されている。このVDの値は、90Hzのクロックで測定したときのクロック数を16ビットで表現したものである。VDと受信バッファの占有量Bn、伝送レートRの関係は、
VD=90000×Bn/R
となる。
【0020】
これより、受信バッファの占有量がBnとなった時刻にB0ピクチャの復号を開始することが可能である。
しかし、この方法では、Bnを求めるために除算を行う必要があるため、ハードウエアの規模が懸念される。また、可変レート符号化を行った場合は、伝送レートRがピクチャ単位で変化する場合や、VDの値が「0xFFFF」という特殊な値で記録される場合があるため、Bnを計算を行うことが非常に困難になる。
【0021】
一方、従来の動画像符号化技術であるMPEG1では、2:3プルダウンと呼ばれるテレシネ変換の情報を表すフラグ(TFF、RFF)がなく、全てがフレーム画像として扱われていた。従って、MPEG1により符号化された動画像信号を復号する場合、B0ピクチャの復号を開始する時刻は、I2ピクチャの復号から1フレーム(2フィールド)後でよい。
【0022】
【発明が解決しようとする課題】
MPEG2では、前述したように、2:3プルダウンされた画像を扱う可能性があるため、2番目に入力された符号化画像(B0ピクチャ)の復号を開始する時刻が最初に入力された符号化画像(I2ピクチャ)の復号から2フィールド後か3フィールド後であるかを容易に特定できないという問題点がある。
【0023】
すなわち、従来において、最初のIピクチャの次に復号を行うBピクチャの復号開始時刻を推定するには、
(1) 固定伝送レートの場合、ハードウエアの増加が予想される。
(2) 可変伝送レートの場合、従来技術では不可能である。
という問題点があった。
【0024】
復号開始時間が正確に推定されないと、受信した圧縮データを蓄える受信バッファのオーバーフローやアンダーフローが発生する恐れがあり、正常に復号が行われなくなる恐れがある。また、MPEGシステムにおいて、再生側でビデオ、オーディオを同期復号することが困難となる。同様に、MPEGシステムの符号側においても、復号の開始タイミングを正確に掴めないと、オーディオ等の他のデータが適正な時刻に多重されなくなる。
【0025】
そこで、本発明は、上記問題点を鑑みてなされたもので、動画像の符号化フレームを復号する際の2番目に復号を行う符号化フレームの復号タイミングを少ない演算量で正確に推定できる動画像復号タイミング推定方法、および、それを用いた動画像符号化装置および動画像復号化装置を提供することを目的とする。
【0026】
【課題を解決するための手段】
本発明は、テレシネ変換された動画像のMPEG2符号化フレームを復号する際の復号タイミングを推定するものであって、
(1)第1の符号化フレームの表示順が1番目の場合、次に復号する第2の符号化フレームの復号開始タイミングは、当該第2の符号化フレームの表示開始時と推定し、
(2)前記第1の符号化フレームの表示順が2番目の場合、前記第2の符号化フレームの表示期間が2フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の2フィールド期間前と推定し、当該2の符号化フレームの表示期間が3フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の3フィールド期間前と推定し、
(3)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフレーム構造のとき、
(3−1)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−2)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(3−3)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドが異なるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−4)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−5)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−6)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−7)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における上位フィールドのとき、
(4−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−2)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(4−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(4−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における下位フィールドのとき、
(5−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−2)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(5−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(5−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定することを特徴とする。
本発明によれば、動画像の符号化フレームを復号する際に、2番目に復号を行う符号化フレームの復号タイミングを少ない演算量で正確に推定できる。
【0027】
また、本発明の動画像復号化装置は、動画像の符号化データ列から、最初に復号される符号化フレームの表示順を示す番号、フレーム構造/フィールド構造の識別データ、フレーム構造の場合に画面の表示方法の識別データと、2番目に復号される符号化フレームのフレーム構造/フィールド構造の識別データ、フレーム構造の場合に画面の表示方法の識別データ、画面の表示期間を示すデータを抽出する抽出手段と、この抽出手段で抽出された各データと、画面の表示の連続性を基に、2番目の符号化フレームの復号開始時を推定する推定手段とを具備し、この推定手段で推定された復号開始時をもとに、前記符号化フレームを復号することにより、動画像の符号化フレームを復号する際の2番目に復号を行う符号化フレームの復号タイミングを少ない演算量で正確に推定できる。
【0028】
また、本発明の動画像符号化装置は、動画像の符号化データ列から、最初に復号される符号化フレームの表示順を示す番号、フレーム構造/フィールド構造の識別データ、フレーム構造の場合に画面の表示方法の識別データと、2番目に復号される符号化フレームのフレーム構造/フィールド構造の識別データ、フレーム構造の場合に画面の表示方法の識別データ、画面の表示期間を示すデータを抽出する抽出手段と、この抽出手段で抽出された各データと、画面の表示の連続性を基に、2番目の符号化フレームの復号タイミングを算出する算出手段とを具備し、前記算出された復号タイミング情報を前記符号化フレームに付加することにより、動画像の符号化フレームを復号する際の2番目に復号を行う符号化フレームの復号タイミングを少ない演算量で正確に推定できる。
【0029】
【発明の実施の形態】
以下、本発明の実施形態について図面を参照して説明する。
図1は、MPEG2のデータ構造の一例を概略的に示したものである。
MPEG2によって符号化された画像データは、上からシーケンス層、GOP層、ピクチャ層、…、ブロック層までの階層構成をとるが、図1では、シーケンス層とGOP層について示している。
【0030】
シーケンス層のデータ構造は、例えば、一連の同じ属性をもつ画面グループ(GOP)のデータ(例えば、順次走査であることを示すPS(Progressive Sequence)等)を含むシーケンスヘッダ(SH)と、GOPのデータからなる。
【0031】
GOP層のデータ構造は、ランダムアクセスの単位となる画面グループ(GOP)を構成する複数の画面に共通のデータを含むGOPヘッダと、そのGOPを構成する各画面(ピクチャ)のデータからなる。
【0032】
ピクチャ層のデータ構造は、各画面毎に、その1枚の画面に共通な属性のデータ(例えば、TR、TFF、REF、PSTR等)を含むピクチャヘッダと、各画面(Iピクチャ、Pピクチャ、Bピクチャ)の符号化データからなる。
【0033】
このような構造のMPEG2のデータは、MPEGシステムにおいて、さらに、複数のパケットに分解され、オーディオパケット等ともに時分割多重されて、1本のデータ列を生成する。その際、ビデオ、オーディオ等の復号器を含むMPEGシステム復号器において時刻基準となるSTC(基本となる同期信号)の値を符号器側で意図した値にセット・校正するための情報であるSCR(System Clock Reference)、アクセス・ユニットと呼ばれる復号再生の単位(すなわち、ビデオは1フレーム、オーディオは1オーディオ・フレーム)毎に必要に応じて、再生出力の時刻管理情報であるPTS(Presentation Time Stamp)、復号の時刻管理情報であるDTS(Decoding Time Stamp)が付加される。
【0034】
MPEGシステムの復号器における時刻基準STCがPTSに一致したとき、そのアクセス・ユニットを再生出力する。PTSは、例えば、90KHzのクロックで計測した値で表される。
【0035】
DTSは、MPEGにおいて、IピクチャとPピクチャは、Bピクチャよりも先行して符号化データ列に送出されるために、復号する順序と再生出力する順序が異なることに対応して設けられたもので、PTSとDTSが異なる場合には、両方のタイムスタンプをつけ、一致する場合はPTSだけをつける。
【0036】
次に、本実施形態に係る復号タイミング推定方法について、図2、図3に示すフローチャートを参照して説明する。
なお、以下の説明において、符号化フレームとは、符号化対象である1画面の符号化データで、インタレース走査では、1符号化フレームは2枚のフィールド画像から構成されるものである。
【0037】
まず、この復号タイミング推定方法で用いられるMPEG2で定義されているデータ、すなわち、TR、TFF、REF、PSTRについて説明する。これらは、MPEG2のデータ構造では、ピクチャ層に付加されているものである。
【0038】
TR(Temporal Reference)は、ピクチャの表示順を示す番号である。図2、図3では、GOPの先頭にある、すなわち、復号処理の順番が最初の符号化フレームのTRをTR0と示している。図2、図3では、TR0の値として、例えば、TR0=0、1、2の場合を示している。
【0039】
PSTR(Picture Structure)は、符号化フレームがフレーム構造かフィールド構造かを示すもので、フィールド構造の場合は、上位フィールド(top)か、下位フィールド(bottom)かも合わせて示す。図2、図3では、PSTRの値を、PSTR=「fram」、「top」、「bottom」と示している。また、図2、図3では、復号処理の順番が最初の符号化フレームのPSTRをPSTR0、復号処理の順番が2番目の符号化フレームのPSTRをPSTR1と示している。
【0040】
TFF(Top Field First)は、符号化フレームがフレーム構造の場合に、最初に表示されるフィールドが上位フィールド(top)か下位フィールド(bottom)かを示す。図2、図3では、TFF=0のとき、topから表示し、TFF=1のとき、bottomから表示することを示している。また、図2、図3では、復号処理の順番が最初の符号化フレームのTFFをTFF0、2番目の符号化フレームのTFFをTFF1と示している。
【0041】
REF(Repeaat First Field)は、2:3プルダウンの際に使われて、1符号化フレームの表示期間が2フィールドか、3フィールドかを示している。図2、図3では、REF=0のとき2フィールドで、REF=1のとき3フィールドであることを示している。また、図2、図3では、最初の符号化フレームのREFをREF0、2番目の符号化フレームのREFをREF1と示している。
【0042】
基準時刻STCに基づき、90KHzのクロック数で表した1フィールド期間の値を図2、図3においてFPRDと示している。
最初の符号化フレームのPTS、DTSをそれぞれPTS0、DTS0とすると、本発明の復号タイミング推定方法では、2番目の符号化フレームに付加されたPST1、TFF1、最初の符号化フレームに付加されたTR0、PSTR0、PTS0、TFF0等の情報を有効に用いて、2番目の符号化フレームが得られた時点で2番目の符号化フレームの復号開始時間DTS1を推定することを目的とするものである。
【0043】
なお、ここで取り扱う動画像データは、Bピクチャを含み(LD(low drlay)=0)、順次走査である(PS(progressive sequence)=0)ものとする。LD、PSは、画像の表示周期(例えば、24Hz/29.97Hz)を識別するデータFRC(frame rate code)とともに、シーケンス層に付加されるデータである。
【0044】
まず、最初の符号化フレームがTR0=2、PSTR0=「frame」、TFF0=1、2番目の符号化フレームがPSTR1=「frame」、TFF1=0、REF1=0の場合について説明する。
【0045】
ステップS1で、TR0=2、すなわち、最初の符号化フレームの表示番号が「2」であるので、ステップS4に進む。
ステップS4で、PSTR0=「frame」、すなわち、最初の符号化フレームがフレーム構造であるので、ステップS5に進む。
【0046】
ステップS5で、PSTR1=「frame」、すなわち、2番目の符号化フレームがフレーム構造であるので、ステップS8に進む。
ステップS8で、TFF0=1、TFF1=0、すなわち、最初の符号化フレームは上位フィールドが先に表示され、2番目のフレームは下位フィールドが先に表示されるので、図3のステップS14に進む。
【0047】
この場合、図4を参照して具体的に説明する。TR0=2より最初の符号化フレーム(I2)が表示されるまで符号化フレーム(Bピクチャ)が2枚挿入されるわけであるが、I2がフレーム構造でしかもTFF=1であることからI2の表示は上位(top)フィールドから開始される。
【0048】
また、2番目の符号化フレームB0はフレーム構造でしかもTFF1=0であることからB0の表示は下位フィールド(bottom)から開始される。また、REF1=0であるからB0の表示期間は2フィールドである。
【0049】
従って、図4に示すように、BOは、bottom→topと表示され、I2は、topから表示される。
画面表示の際は、必ずbottomフィールドとtopフィールドが交互に表示され、これを「表示の連続性」と呼ぶことにする。
【0050】
この例では、I2が表示される前に表示される他方の符号化フレーム(Bピクチャ)B1の表示期間が不明であるが、仮に、B1の表示期間が特定できれば、I2の表示時刻PST0からB0、B1の表示期間を引いたものがB0の復号開始時刻になることが容易に理解できよう。
【0051】
さて、表示の連続性から、2番目に表示されるBピクチャ(B1)は、図4に示すように、奇数フィールド期間の表示であることがわかる。さらに、各符号化フレームは、2または3フィールド期間の表示しか許されないため、B1は、3フィールド期間の表示であることが判断できる。
【0052】
従って、B0の復号開始時刻DTS1は、I2の表示開示時刻の5フィールド前になることが推定される(図4参照)。
すなわち、図3のステップS14において、BOの復号開始時刻DTS1は、次式(1)より求まる。
【0053】
DTS1=PTS0−5×FPRD …(1)
ステップS8で、TFF0=TFF1=0、あるいは、TFF0=TFF1=1のとき、すなわち、図4において、I2とB0が共に下位フィールドあるいは上位フィールドから先に表示される場合は、図3のステップS13に進む。
【0054】
ステップS13では、前述同様の原理に基づき、2番目の符号化フレームB0の復号開始時刻DTS1は、RFF1の値に応じて、次式(2)より求まることがわかる
DTS1=PTS0−2×(2+RFF1)×FPRD …(2)
ステップS5で、2番目の符号化フレームB0がPSTR1=「top」であるとき、すなわち、上位フィールドから表示が開始されるとき、ステップS9に進む。
【0055】
ステップS9では、最初の符号化フレームI2のTFF0の値と表示の連続性をもとに、I2の前に表示される符号化フレームB0、B1の表示期間を推定する。すなわち、TFF0=1のとき、ステップS15に進み、TFF1=0のとき、ステップS14に進む。
【0056】
ステップS15では、符号化フレームBO、B1の表示期間は、4フィールドと推定されるので、B1の復号開始時刻DTS1は、次式(3)より求めることができる。
【0057】
DTS1=PTS0−4×FPRD …(3)
となる。
ステップS14では、符号化フレームB0、B1の表示期間は5フィールドと推定されるので、B1の復号開始時間DTS1は、(1)式より求めることができる。
【0058】
ステップS5で、2番目の符号化フレームB0がPSTR1=「bottom」であるとき、すなわち、下位フィールドから表示が開始されるとき、ステップS10に進む。
【0059】
ステップS10では、最初の符号化フレームI2のTFF0の値と表示の連続性をもとに、I2の前に表示される符号化フレームB0、B1の表示期間を推定する。すなわち、TFF0=1のとき、符号化フレームB0、B1の表示期間は5フィールドと推定できるので、ステップS14に進み、TFF1=0のとき、符号化フレームB0、B1の表示期間は4フィールドと推定できるので、ステップS15に進む。
【0060】
ステップS4で、最初の符号化フレームI2がPSTR0=「top」のとき、すなわち、I2がフィールド構造で、しかも上位フィールドの場合は、ステップS6に進む。
【0061】
ステップS6で、2番目の符号化フレームがPSTR1=「fram」のとき、すなわち、B0がフレーム構造のときは、ステップS11に進む。
ステップS11では、2番目の符号化フレームB0のTFF1の値と表示の連続性を基に、BO、B1の表示期間を推定する。すなわち、TFF1=1のとき、ステップS13に進み、TFF1=0のとき、ステップS14に進む。
【0062】
ステップS6で、2番目の符号化フレームがPSTR1=「top」のとき、すなわち、B0がフィールド構造で、しかも、上位フィールドのときは、B0、B1の表示期間は4フィールドと推定できるので、ステップS15に進む。
【0063】
ステップS6で、2番目の符号化フレームがPSTR1=「bottom」のとき、すなわち、B0がフィールド構造で、しかも、下位フィールドのときは、B0、B1の表示期間は5フィールドと推定できるので、ステップS14に進む。
【0064】
ステップS4で、最初の符号化フレームI2がPSTR0=「bottom」のとき、すなわち、I2がフィールド構造で、しかも下位フィールドの場合は、ステップS7に進む。
【0065】
ステップS7で、2番目の符号化フレームがPSTR1=「fram」のとき、すなわち、B0がフレーム構造のときは、ステップS12に進む。
ステップS12では、2番目の符号化フレームB0のTFF1の値と表示の連続性を基に、BO、B1の表示期間を推定する。すなわち、TFF1=1のとき、ステップS14に進み、TFF1=0のとき、ステップS13に進む。
【0066】
ステップS7で、2番目の符号化フレームがPSTR1=「top」のとき、すなわち、B0がフィールド構造で、しかも、上位フィールドのときは、B0、B1の表示期間は5フィールドと推定できるので、ステップS14に進む。
【0067】
ステップS7で、2番目の符号化フレームがPSTR1=「bottom」のとき、すなわち、B0がフィールド構造で、しかも、下位フィールドのときは、B0、B1の表示期間は4フィールドと推定できるので、ステップS15に進む。
【0068】
次に、最初の符号化画像がTR0=1、PSTR0=「frame」、2番目の符号化フレームがPSTR1=「frame」、REF1=0の場合について説明する。
【0069】
ステップS1で、TR0=1のとき、すなわち、最初の符号化フレームの表示番号が「1」であるとき、ステップS3に進む。
この場合、図5を参照して具体的に説明する。TR0=1より、最初の符号化フレームI2が表示されるまでBピクチャの符号化フレームが1枚挿入されるわけであるが、2番目の符号化フレームB0は、REF1=0より、その表示期間は2フィールド期間となることがわかる。すなわち、B0の復号開始時刻DTS1は、最初の符号化フレームI2の表示開始時刻の2フィールド前になることが推定される。
【0070】
もし、2番目の符号化フレームB0が、REF1=1であるときは、その表示期間は3フィールド期間となる。すなわち、B0の復号開始時刻DTS1は、最初の符号化フレームI2の表示開始時刻の3フィールド前になることが推定される。
【0071】
これらをまとめると、図3のステップS3において、B0の復号開始時刻DTS1は、次式(4)より求めることができる。
DTS1=PTS0−(2+REF1)×FRPD …(4)
ステップS1で、TR0=0のとき、すなわち、最初の符号化フレームの表示番号が「0」のとき、そのGOP内の画像が他のGOPから独立再生可能である場合が考えられる。このとき、ステップS2に進み、2番目の符号化フレームの復号時刻DTS1は、最初の符号化フレームの表示開始時刻PTS0と同じとなる。
【0072】
以上、説明したように、上記動画像復号タイミング推定方法によれば、最初に復号される符号化フレームの表示順を示す番号(TR0)、フレーム構造/フィールド構造の識別データ(PSTR0)、フレーム構造の場合、画面の表示方法の識別データ(TFF0)と、2番目に復号される符号化フレームのフレーム構造/フィールド構造の識別データ(PSTR1)、画面の表示方法の識別データ(TFF1)、画面の表示期間を示すデータ(RFF1)、画面の表示の連続性を基に、最初に復号される符号化フレームの表示開始時刻(PTS0)より何フィールド期間前に2番目の符号化フレームの復号が開始されるか、すなわち、2番目の符号化フレームの復号開始時刻(DTS1)を少ない演算量で正確に推定することができる。
【0073】
なお。図2、3、では、TRの値が0、1、2の場合について説明したが、これに限るものではなく、TRの値に応じて前述同様に復号開始時刻の推定が可能となる。
【0074】
次に、この復号タイミング推定方法を、MPEGシステムの符号器および復号器に適用することを考える。
図6は、MPEGシステムの復号器側の要部の構成を概略的に示したものである。MPEG1あるいはMPEG2のビデオ、オーディオ等の多重化されたビットストリーム(以下、MPEGビットストリームと呼ぶ)401が、蓄積メディアから読み出され、あるいは、ネットワークを介して受信されると、まず、MPEGシステムデコーダ402に入力される。
【0075】
MPEGシステムデコーダ402は、以下の処理を行う。
(1) MPEGビットストリーム401からビデオのビットストリーム407を分離してMPEGビデオデコーダ403に出力する。
【0076】
(2) MPEGビットストリーム401からオーディオのビットストリーム412を分離してオーディオデコーダ413に出力する。
(3) MPEGビットストリーム401から最初の符号化フレームの再生出力の時刻管理情報(PTS)405と、復号の時刻管理情報(DTS)406を分離し、復号開始タイミング制御回路408に出力する。
【0077】
(4) MPEGビットストリーム401からシステム時刻基準参照値(SCR)404を分離し、復号開始タイミング制御回路408に出力し、それをもとに具備されるMPEGシステムの時刻基準となるSTCカウンタをセットする。
【0078】
復号開始タイミング制御回路40は、STCカウンタの値と最初の符号化フレームのDTSの値が一致した時点で復号開始信号410をMPEGビデオデコーダに出力する。
【0079】
MPEGビデオデコーダ403は、復号開始信号410を受けて最初の符号化フレームの復号を開始し、ビデオ信号411を出力する。
MPEGビデオデコーダ403は、図1に示したような構造のビデオシーケンスから、期待される表示方法(すなわち、LD、PS、FRC)のデータを分離する。さらに、最初の符号化フレームの先頭(ピクチャヘッダ)に含まれる符号化フレームの表示順を示す番号(TR0)、フレーム構造/フィールド構造の識別データ(PSTR0)、フレーム構造の場合、画面の表示方法の識別データ(TFF)を分離し、これらデータ409を復号開始タイミング制御回路408に出力する。
【0080】
次に、MPEGビデオデコーダ403で最初の符号化フレームの復号が終了すると、2番目の符号化フレームの先頭(ピクチャヘッダ)に含まれるフレーム構造/フィールド構造の識別データ(PSTR1)、画面の表示方法の識別データ(TFF1)、画面の表示期間を示すデータ(RFF1)を分離、これらデータ409を復号開始タイミング制御回路408に出力する。
【0081】
復号開始タイミング制御回路408では、図2、図3に示したフローチャートに従って、2番目の符号化フレームの復号開始時刻を算出し、その算出された時刻とSTCカウンタの値が一致した時点で、復号開始信号410を出力する。
【0082】
MPEGビデオデコーダ403では、復号開始信号410を受けて、2番目の符号化フレームの復号を開始し、ビデオ信号411を出力する。
一方、復号開始タイミング制御回路408は、オーディオデコーダ413からオーディオのビットストリームから分離されたPTS415を受け取り、それを基に、ビデオ信号と同期再生するように、オーディオの復号開始信号416を出力する。
【0083】
オーディオデコーダ413は、オーディオビットストリーム412を受け、復号開始信号416により復号を介しし、復号されたオーディオ信号414を出力する。
【0084】
図7は、MPEGシステムの符号器側の要部の構成を概略的に示したものである。
符号化されたビデオのビットストリーム501はビデオ文法解釈部502に入力され、それと同時に、システム多重化部503に入力される。
【0085】
ビデオ文法解釈部502は、図1に示したような構造のビデオシーケンスから、期待される表示方法(すなわち、LD、PS、FRC)のデータを分離する。さらに、最初の符号化フレームの先頭(ピクチャヘッダ)に含まれる符号化フレームの表示順を示す番号(TR0)、フレーム構造/フィールド構造の識別データ(PSTR0)、フレーム構造の場合、画面の表示方法の識別データ(TFF)を分離し、これらデータ505をPTS/DTS算出回路504に出力する。
【0086】
MPEGシステムエンコーダ503は、以下の処理を行う。
(1) ビデオのビットストリーム501の最初の符号化フレームに対し、適切なPTS、DTSを多重し、この最初の符号化フレームに対するPTS、DTSのデータ506をPTS/DTS算出回路504に出力する。
【0087】
(2) 符号化されたオーディオのビットストリーム509に対し、適切なPTSを多重する。
(3) ビデオとオーディオのビットストリームを多重することにより、MPEGシステムのビットストリーム508を出力する。
【0088】
PTS/DTS算出回路504では、図2、図3に示したフローチャートに従って、2番目の符号化フレームのPTSおよびDTSを算出し、これらデータ507をMPEGシステムエンコーダ503に出力する。
【0089】
MPEGシステムエンコーダ503では、2番目の符号化フレームに対し、これらの値を参考にして、多重タイミングを制御する。また、必要に応じて、PTS/DTS算出回路504で算出されたPTS、DTSを多重してMPEGシステムのビットストリーム508を出力する。
【0090】
多重化ビットストリーム508は、例えば、蓄積メディアに蓄積されたり、ネットワークを介してユーザ宅に配信されたりするようになっている。
以上説明したように、上記実施形態に係るMPEGシステムの復号化装置によれば、動画像の符号化フレームを復号する際の2番目に復号を行う符号化フレームの復号タイミングを少ない演算量で正確に推定できるので、
(1) ビデオとオーディオを正確に同期再生できる。
(2) ビデオのビットストリームを受信して一時蓄積する受信バッファの復号開始時におけるオーバーフローまたはアンダーフローを未然に防止できる。
【0091】
また、上記実施形態に係るMPEGシステムの符号化装置によれば、
(1) ビデオとオーディオを正確に同期多重することができる。
(2) ビデオとオーディオを多重する際にこれらビットストリームを一時蓄積するバッファのオーバーフローまたはアンダーフローを未然に防止できる。
【0092】
【発明の効果】
以上説明したように、本発明によれば、動画像の符号化フレームを復号する際の2番目に復号を行う符号化フレームの復号タイミングを少ない演算量で正確に推定できる動画像復号タイミング推定方法、および、それを用いた動画像符号化装置および動画像復号化装置を提供できる。
【図面の簡単な説明】
【図1】MPEG2のデータ構造の一例を示した図。
【図2】復号タイミング推定方法の処理手順を説明するためのフローチャート。
【図3】復号タイミング推定方法の処理手順を説明するためのフローチャート。
【図4】最初の符号化フレームの表示順が「2」であるときの2番目の符号化フレームの復号開始タイミングの推定方法を具体的に説明するための図。
【図5】最初の符号化フレームの表示順が「1」であるときの2番目の符号化フレームの復号開始タイミングの推定方法を具体的に説明するための図。
【図6】MPEGシステムの復号化装置の要部の構成を概略的に示した図。
【図7】MPEGシステムの符号化装置の要部の構成を概略的に示した図。
【図8】入力画像(原画像)、符号化画像、表示画像の関係を画面の処理順と原画面の順序の相違を含めて表した図。
【図9】順次走査方式とインタレース走査方式について説明するための図。
【符号の説明】
401…MPEGシステムのビットストリーム、402…MPEGシステムデコーダ、403…MPEGビデオデコーダ、407…ビデオストリーム、408…復号開始タイミング制御回路、413…オーディオデコーダ、501…ビデオのビットストリーム、502…ビデオ文法解釈部、503…MPEGシステムデコーダ、504…PTS/DTS算出回路、508…MPEGシステムのビットストリーム、509…オーディオビデオストリーム。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to, for example, a method for estimating a decoding timing of a moving image in an MPEG system for synchronizing and multiplexing coded data strings such as individually coded moving images and audio, and a moving image encoding apparatus using the same. And a video decoding device.
[0002]
[Prior art]
The MPEG system for synchronizing and multiplexing individually coded data streams of moving images (video), audio (audio), etc. into one unit mainly supports applications of storage media such as CD-ROMs. There is an MPEG1 system and an MPEG2 system corresponding to a wide range of applications including the MPEG1 application.
[0003]
In such an MPEG system, separate data streams (streams) obtained by individually encoding video, audio, and the like are time-division multiplexed into one stream, which is recorded on a storage medium or transmitted via a communication network. To transmit. On the playback side, each individual stream is separated from the multiplexed stream read from the storage medium or received via the communication network and sent to each decoder, and the stream is individually decoded by each multiplexer. Output to an output device (video monitor, speaker, etc.). At this time, the individual streams are synchronously decoded, reproduced and output on the receiving side as intended on the transmitting side.
[0004]
By the way, an MPEG encoded image includes an intra-coded image (I picture) for intra-encoding the entire screen, an inter-frame forward prediction encoded image (P picture), and a forward prediction from a past reproduced image. There are three picture types, bidirectionally coded pictures (B pictures) that also use backward prediction from future playback pictures.
[0005]
When a B-picture of bidirectional predictive encoding is inserted, it is necessary to refer not only to past playback images but also to future playback images, so the processing order of the screen and the order of the original screen are different. is necessary.
[0006]
That is, the encoder skips the B picture, encodes the next I and P pictures first, and then encodes the B picture in between. The decoder immediately decodes and displays the B picture, but displays the I and P pictures after the processing of the interposed B picture is completed even after decoding. Therefore, when the signal passes through the encoder and the decoder, a delay corresponding to the period in which the I or P picture appears occurs.
[0007]
FIG. 8 specifically shows this state. FIG. 8 illustrates the relationship between the input image (original image), the encoded image, and the display image, including the difference between the processing order of the screen and the order of the original screen.
[0008]
In FIG. 8, b12 and b13 represent B pictures included in the (n-1) th GOP (Group of Picture: screen group structure including at least one I picture), and p14 is (n-1) Represents the last p-picture of the GOP.
[0009]
I2 represents the first I picture of the nth GOP, p5 represents the first p picture of the nth GOP, and B0, B1, B3, and B4 represent the B pictures included in the nth GOP. .
[0010]
The decoding interval Txx (xx = B0, B1, I2,..., P5,...) Between the pictures is the display time of the picture to be displayed during decoding. That is,
(1) If a B picture is currently being decoded, the interval until the start of decoding the next picture is a period during which the B picture is displayed.
[0011]
(2) If an I or P picture is currently being decoded, the interval until the start of decoding the next picture is a period in which the I or P picture that was just decoded is displayed.
[0012]
MPEG1 handles only progressively scanned (non-interlaced) images, whereas MPEG2 can handle not only progressively scanned images but also interlaced (interlaced) images. The difference between the progressive scanning method and the interlaced scanning method will be briefly described with reference to FIG.
[0013]
In FIG. 9, the 30 Hz (29.97 Hz in detail) progressive scanning method (see FIG. 9B) and the 30 Hz interlaced scanning method, that is, the case of a field frequency of 60 Hz (see FIG. 9A) are shown as examples. ing. In progressive scanning, images in one frame are all sampled at the same time, whereas in interlaced scanning, images in one frame are sampled at different times. It is repeated alternately for each line (that is, odd lines and even lines are alternated). The images sampled at different times are called a first field and a second field, respectively. In an interlaced scanning screen, one frame is usually composed of two field images (FIG. 9). (A)).
[0014]
In MPEG2, a frame or a field can be assigned to a picture (one image unit in MPEG). When a frame is allocated to a picture, this allocation method is called a frame structure. When a field is assigned to a picture, this assignment method is called a field structure. In one image sequence, a frame structure and a field structure may be mixed, or coding may be performed using only one of the structures.
[0015]
On the other hand, since the MPEG1 is a progressive scanning method, all are treated as frame images, and the display time of one frame is two field periods.
In MPEG2, the period for displaying one frame can be arbitrarily set to two fields or three fields. For example, when a movie source having a frame cycle of 24 Hz is displayed after being converted in frame rate by an interlaced image receiving apparatus having a frame cycle of 30 Hz in the NTSC system, flags (TFF, RFF) indicating information of telecine conversion called 2: 3 pull-down Are multiplexed for encoding.
[0016]
Here, in the case of a frame structure, the flag TFF (top field first) indicates whether the first displayed field is a top field or a bottom field (bottom field), and the flag REF (repeat field field) is 1 It indicates whether the picture display period is two fields or three fields. These two flags are data provided for each picture.
[0017]
Now, let us consider a case where an entry is made in the middle of encoded data, such as at the time of random access or channel hopping. For example, when decoding is started from the n-th GOP in FIG. 8, there is no image to be displayed when decoding the first I or P picture. In such a case, since the display time of the decoded image p14 in FIG. 8 is unknown, whether the interval until the start of decoding of the B0 picture to be decoded next to the I2 picture is two fields later or three fields later It can not be identified.
[0018]
Similarly, at the start-up of the sequence, if it is unclear whether the encoding side has performed encoding with the decoding interval of the I2 picture and the B0 picture as two fields or with three fields, the same problem as described above occurs. .
[0019]
Conventionally, there are the following methods for estimating the decoding start time of a B0 picture. That is, in the image data encoded by the MPEG method, the buffer residence time (VD: VBV Delay) from the time when the first byte of each encoded picture is input to the reception buffer to the time when it is used for decoding is added as additional information. ) Are multiplexed. This value of VD expresses the number of clocks measured with a clock of 90 Hz in 16 bits. The relationship between VD, the occupation amount Bn of the reception buffer, and the transmission rate R is as follows.
VD = 90000 × Bn / R
It becomes.
[0020]
Thus, decoding of the B0 picture can be started at the time when the occupation amount of the reception buffer becomes Bn.
However, in this method, since it is necessary to perform division to obtain Bn, there is a concern about the scale of hardware. When variable rate coding is performed, the transmission rate R may change in picture units, or the value of VD may be recorded as a special value “0xFFFF”. Becomes very difficult.
[0021]
On the other hand, in MPEG1, which is a conventional moving image coding technique, there is no flag (TFF, RFF) indicating information of telecine conversion called 2: 3 pulldown, and all are treated as frame images. Therefore, when decoding a moving image signal encoded by MPEG1, the decoding start time of the B0 picture may be one frame (two fields) after the decoding of the I2 picture.
[0022]
[Problems to be solved by the invention]
As described above, in MPEG2, there is a possibility that a 2: 3 pull-down image may be handled, so that the time at which decoding of the second input coded image (B0 picture) is started is determined by the first input coding time. There is a problem in that it is not easy to specify whether it is two or three fields after the decoding of the image (I2 picture).
[0023]
That is, conventionally, to estimate the decoding start time of the B picture to be decoded after the first I picture,
(1) In the case of a fixed transmission rate, an increase in hardware is expected.
(2) In the case of a variable transmission rate, it is impossible with the prior art.
There was a problem.
[0024]
If the decoding start time is not accurately estimated, overflow or underflow of the reception buffer storing the received compressed data may occur, and decoding may not be performed normally. Further, in the MPEG system, it becomes difficult to synchronously decode video and audio on the reproduction side. Similarly, on the encoding side of the MPEG system, if the start timing of decoding cannot be accurately grasped, other data such as audio cannot be multiplexed at an appropriate time.
[0025]
In view of the above, the present invention has been made in view of the above-described problems, and a moving image that can accurately estimate the decoding timing of an encoded frame to be decoded second when decoding an encoded frame of a moving image with a small amount of computation. It is an object of the present invention to provide an image decoding timing estimation method, and a video encoding device and a video decoding device using the same.
[0026]
[Means for Solving the Problems]
The present invention estimates a decoding timing when decoding an MPEG2-encoded frame of a moving image subjected to telecine conversion,
(1) When the display order of the first encoded frame is the first, the decoding start timing of the second encoded frame to be decoded next is estimated to be the display start time of the second encoded frame,
(2) When the display order of the first encoded frame is the second, and when the display period of the second encoded frame is two field periods, the decoding start timing of the second encoded frame is: It is estimated that two fields before the start of display of the first encoded frame, and when the display period of the second encoded frame is three fields, the decoding start timing of the second encoded frame is: It is estimated three fields before the start of display of the first encoded frame,
(3) When the display order of the first encoded frame is the third, when the first encoded frame has a frame structure,
(3-1) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is two fields, the decoding start timing of the second encoded frame is estimated to be four fields before the display start of the first encoded frame,
(3-2) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is three fields, the decoding start timing of the second encoded frame is estimated to be six fields before the display start of the first encoded frame,
(3-3) when the second coded frame has a frame structure and the first displayed field of the second coded frame is different from the first displayed field of the first coded frame, The decoding start timing of the frame is estimated to be five fields before the display start of the first encoded frame,
(3-4) When the second encoded frame is an upper field in a field structure and a field displayed first of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(3-5) When the second encoded frame is an upper field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-6) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-7) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(4) When the display order of the first encoded frame is the third, when the first encoded frame is an upper field in the field structure,
(4-1) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(4-2) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is 3 fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(4-3) When the second coded frame has a frame structure and the lower field is displayed first, the decoding start timing of the second coded frame is set to the display start timing of the first coded frame. Estimated 5 fields before the time,
(4-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is four fields before the start of display of the first encoded frame. Presumed,
(4-5) When the second encoded frame is a lower field in the field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5) When the display order of the first encoded frame is the third, when the first encoded frame is a lower field in the field structure,
(5-1) When the second encoded frame has a frame structure and the upper field is displayed first, the decoding start timing of the second encoded frame is set to the display start timing of the first encoded frame. Estimated 5 fields before the time,
(5-2) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(5-3) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is three fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(5-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5-5) When the second encoded frame is a lower field in a field structure, the decoding start timing of the second encoded frame is four fields before the display start of the first encoded frame. It is characterized by estimating.
According to the present invention, when decoding an encoded frame of a moving image, the decoding timing of the encoded frame to be decoded second can be accurately estimated with a small amount of calculation.
[0027]
In addition, the moving picture decoding apparatus according to the present invention is configured such that a number indicating a display order of a coded frame to be decoded first, identification data of a frame structure / field structure, and a frame structure. Extraction of identification data of the display method of the screen, identification data of the frame structure / field structure of the encoded frame to be decoded secondly, identification data of the display method of the screen in the case of the frame structure, and data indicating the display period of the screen Extraction means, and estimation means for estimating the start of decoding of the second encoded frame based on the data extracted by the extraction means and the continuity of display on the screen. By decoding the coded frame based on the estimated decoding start time, the decoding timing of the coded frame to be decoded second when decoding the coded frame of the moving image It can be accurately estimated with a small amount of calculation and grayed.
[0028]
Further, the moving picture coding apparatus of the present invention provides, in the case of a frame structure, a number indicating the display order of a coded frame to be decoded first, identification data of a frame structure / field structure, and a frame structure. Extraction of identification data of the display method of the screen, identification data of the frame structure / field structure of the encoded frame to be decoded secondly, identification data of the display method of the screen in the case of the frame structure, and data indicating the display period of the screen Extracting means, and calculating means for calculating the decoding timing of the second encoded frame based on the data extracted by the extracting means and the continuity of the display of the screen. By adding the timing information to the coded frame, the decoding timing of the coded frame to be decoded second when decoding the coded frame of the moving image can be set. It can be accurately estimated without calculation amount.
[0029]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 schematically shows an example of the data structure of MPEG2.
The image data encoded by MPEG2 has a hierarchical structure from the top to a sequence layer, a GOP layer, a picture layer,..., A block layer. FIG. 1 shows the sequence layer and the GOP layer.
[0030]
The data structure of the sequence layer includes, for example, a sequence header (SH) including a series of screen group (GOP) data (for example, PS (Progressive Sequence) indicating sequential scanning) having the same attribute, and a GOP. Consists of data.
[0031]
The data structure of the GOP layer includes a GOP header including data common to a plurality of screens constituting a screen group (GOP) as a unit of random access, and data of each screen (picture) constituting the GOP.
[0032]
The data structure of the picture layer includes, for each screen, a picture header including data of attributes common to one screen (for example, TR, TFF, REF, PSTR, etc.), and each screen (I picture, P picture, B picture).
[0033]
In the MPEG system, the MPEG2 data having such a structure is further decomposed into a plurality of packets and time-division multiplexed with audio packets and the like to generate one data string. At this time, in an MPEG system decoder including a decoder for video, audio, etc., an SCR which is information for setting and correcting an STC (base synchronization signal) value serving as a time reference to an intended value on the encoder side. (System Clock Reference), a PTS (Presentation Time Stamp), which is time management information of playback output, as required for each decoding / playback unit called an access unit (that is, one frame for video and one audio frame for audio). ) And DTS (Decoding Time Stamp) which is time management information for decoding.
[0034]
When the time reference STC in the decoder of the MPEG system matches the PTS, the access unit is reproduced and output. The PTS is represented, for example, by a value measured with a clock of 90 KHz.
[0035]
DTS is provided in MPEG in such a manner that an I picture and a P picture are transmitted in an encoded data sequence prior to a B picture, so that the order of decoding and the order of reproduction output are different. If the PTS and the DTS are different, both timestamps are attached, and if they match, only the PTS is attached.
[0036]
Next, a decoding timing estimation method according to the present embodiment will be described with reference to the flowcharts shown in FIGS.
In the following description, an encoded frame is encoded data of one screen to be encoded, and in interlaced scanning, one encoded frame is composed of two field images.
[0037]
First, data defined by MPEG2 used in the decoding timing estimation method, that is, TR, TFF, REF, and PSTR will be described. These are added to the picture layer in the MPEG2 data structure.
[0038]
TR (Temporal Reference) is a number indicating the display order of pictures. 2 and 3, TR0 of the encoded frame at the head of the GOP, that is, the first encoded frame in the order of the decoding process is indicated as TR0. 2 and 3 show, for example, the case of TR0 = 0, 1, 2 as the value of TR0.
[0039]
The PSTR (Picture Structure) indicates whether the coded frame has a frame structure or a field structure. In the case of a field structure, the PSTR also indicates an upper field (top) or a lower field (bottom). 2 and 3, the values of the PSTR are indicated as PSTR = “frame”, “top”, and “bottom”. 2 and 3, the PSTR of the first encoded frame in the decoding order is indicated as PSTR0, and the PSTR of the second encoded frame in the decoding order is indicated as PSTR1.
[0040]
TFF (Top Field First) indicates whether a field displayed first is an upper field (top) or a lower field (bottom) when an encoded frame has a frame structure. FIGS. 2 and 3 show that when TFF = 0, display is performed from top, and when TFF = 1, display is performed from bottom. 2 and 3, the TFF of the first coded frame is denoted by TFF0, and the TFF of the second coded frame is denoted by TFF1.
[0041]
REF (Repeat First Field) is used at the time of 2: 3 pull-down, and indicates whether the display period of one encoded frame is two fields or three fields. 2 and 3 show that when REF = 0, there are two fields, and when REF = 1, there are three fields. 2 and 3, the REF of the first encoded frame is indicated as REF0, and the REF of the second encoded frame is indicated as REF1.
[0042]
The value of one field period represented by the clock number of 90 KHz based on the reference time STC is shown as FPRD in FIGS. 2 and 3.
Assuming that PTS and DTS of the first coded frame are PTS0 and DTS0, respectively, in the decoding timing estimation method of the present invention, PST1 and TFF1 added to the second coded frame, and TR0 added to the first coded frame. , PSTR0, PTS0, TFF0, etc., to effectively estimate the decoding start time DTS1 of the second encoded frame at the time when the second encoded frame is obtained.
[0043]
The moving image data handled here includes a B picture (LD (low drain) = 0), and is assumed to be progressive scanning (PS (progressive sequence) = 0). LD and PS are data added to the sequence layer together with data FRC (frame rate code) for identifying a display cycle of the image (for example, 24 Hz / 29.97 Hz).
[0044]
First, the case where the first encoded frame is TR0 = 2, PSTR0 = “frame”, TFF0 = 1, and the second encoded frame is PSTR1 = “frame”, TFF1 = 0, REF1 = 0 will be described.
[0045]
In step S1, TR0 = 2, that is, since the display number of the first encoded frame is "2", the process proceeds to step S4.
In step S4, PSTR0 = "frame", that is, since the first encoded frame has a frame structure, the process proceeds to step S5.
[0046]
In step S5, PSTR1 = "frame", that is, since the second encoded frame has a frame structure, the process proceeds to step S8.
In step S8, TFF0 = 1 and TFF1 = 0, that is, since the upper field of the first encoded frame is displayed first and the lower field of the second frame is displayed first, the process proceeds to step S14 in FIG. .
[0047]
In this case, a specific description will be given with reference to FIG. Two encoded frames (B pictures) are inserted from TR0 = 2 until the first encoded frame (I2) is displayed. However, since I2 has a frame structure and TFF = 1, I2 The display starts from the top field.
[0048]
Since the second encoded frame B0 has a frame structure and TFF1 = 0, the display of B0 is started from the lower field (bottom). Since REF1 = 0, the display period of B0 is two fields.
[0049]
Therefore, as shown in FIG. 4, BO is displayed from bottom to top, and I2 is displayed from top.
At the time of screen display, the bottom field and the top field are always displayed alternately, and this is called "display continuity".
[0050]
In this example, the display period of the other encoded frame (B picture) B1 displayed before the display of I2 is unknown, but if the display period of B1 can be specified, the display time of I2 from the display time PST0 to B0 , B1 can be easily understood to be the decoding start time of B0 after subtracting the display period of B1.
[0051]
Now, from the display continuity, it can be seen that the B picture (B1) displayed second is an odd field period display as shown in FIG. Further, since each coded frame is allowed to be displayed only for two or three field periods, it can be determined that B1 is a display for three field periods.
[0052]
Therefore, it is estimated that the decoding start time DTS1 of B0 is five fields before the display start time of I2 (see FIG. 4).
That is, in step S14 of FIG. 3, the decoding start time DTS1 of the BO is obtained from the following equation (1).
[0053]
DTS1 = PTS0-5 × FPRD (1)
If TFF0 = TFF1 = 0 or TFF0 = TFF1 = 1 in step S8, that is, if both I2 and B0 are displayed first from the lower field or the upper field in FIG. 4, step S13 in FIG. Proceed to.
[0054]
In step S13, it is found that the decoding start time DTS1 of the second encoded frame B0 is obtained from the following equation (2) according to the value of RFF1, based on the same principle as described above.
DTS1 = PTS0−2 × (2 + RFF1) × FPRD (2)
In step S5, when the second encoded frame B0 has PSTR1 = "top", that is, when the display is started from the upper field, the process proceeds to step S9.
[0055]
In step S9, the display period of the encoded frames B0 and B1 displayed before I2 is estimated based on the value of TFF0 of the first encoded frame I2 and the display continuity. That is, when TFF0 = 1, the process proceeds to step S15, and when TFF1 = 0, the process proceeds to step S14.
[0056]
In step S15, since the display period of the encoded frames BO and B1 is estimated to be four fields, the decoding start time DTS1 of B1 can be obtained by the following equation (3).
[0057]
DTS1 = PTS0-4 × FPRD (3)
It becomes.
In step S14, the display period of the encoded frames B0 and B1 is estimated to be 5 fields, so that the decoding start time DTS1 of B1 can be obtained from the equation (1).
[0058]
In step S5, when the second coded frame B0 has PSTR1 = "bottom", that is, when display is started from the lower field, the process proceeds to step S10.
[0059]
In step S10, the display period of the encoded frames B0 and B1 displayed before I2 is estimated based on the value of TFF0 of the first encoded frame I2 and the display continuity. That is, when TFF0 = 1, the display period of the encoded frames B0 and B1 can be estimated to be 5 fields, so the process proceeds to step S14. When TFF1 = 0, the display period of the encoded frames B0 and B1 is estimated to be 4 fields. Since it is possible, the process proceeds to step S15.
[0060]
In step S4, when the first coded frame I2 is PSTR0 = "top", that is, when I2 has a field structure and is a high-order field, the process proceeds to step S6.
[0061]
In step S6, when the second encoded frame has PSTR1 = “frame”, that is, when B0 has a frame structure, the process proceeds to step S11.
In step S11, the display periods of BO and B1 are estimated based on the value of TFF1 of the second encoded frame B0 and the display continuity. That is, when TFF1 = 1, the process proceeds to step S13, and when TFF1 = 0, the process proceeds to step S14.
[0062]
In step S6, when the second encoded frame is PSTR1 = “top”, that is, when B0 has a field structure and the upper field, the display period of B0 and B1 can be estimated to be 4 fields. Proceed to S15.
[0063]
In step S6, when the second encoded frame is PSTR1 = “bottom”, that is, when B0 has a field structure and is a lower field, the display period of B0 and B1 can be estimated to be 5 fields. Proceed to S14.
[0064]
In step S4, if the first coded frame I2 is PSTR0 = "bottom", that is, if I2 has a field structure and is a lower field, the process proceeds to step S7.
[0065]
In step S7, when the second encoded frame has PSTR1 = “frame”, that is, when B0 has a frame structure, the process proceeds to step S12.
In step S12, the display periods of BO and B1 are estimated based on the value of TFF1 of the second encoded frame B0 and the display continuity. That is, when TFF1 = 1, the process proceeds to step S14, and when TFF1 = 0, the process proceeds to step S13.
[0066]
In step S7, when the second encoded frame has PSTR1 = “top”, that is, when B0 has a field structure and is a higher field, the display period of B0 and B1 can be estimated to be 5 fields. Proceed to S14.
[0067]
In step S7, when the second encoded frame is PSTR1 = “bottom”, that is, when B0 has a field structure and is a lower field, the display period of B0 and B1 can be estimated to be four fields. Proceed to S15.
[0068]
Next, the case where the first encoded image is TR0 = 1, PSTR0 = “frame”, the second encoded frame is PSTR1 = “frame”, and REF1 = 0 will be described.
[0069]
In step S1, when TR0 = 1, that is, when the display number of the first encoded frame is "1", the process proceeds to step S3.
In this case, a specific description will be given with reference to FIG. From TR0 = 1, one B-picture coded frame is inserted until the first coded frame I2 is displayed. However, the second coded frame B0 has a display period longer than REF1 = 0. Is a two-field period. That is, it is estimated that the decoding start time DTS1 of B0 is two fields before the display start time of the first encoded frame I2.
[0070]
If the second encoded frame B0 has REF1 = 1, its display period is three field periods. That is, it is estimated that the decoding start time DTS1 of B0 is three fields before the display start time of the first encoded frame I2.
[0071]
In summary, in step S3 of FIG. 3, the decoding start time DTS1 of B0 can be obtained from the following equation (4).
DTS1 = PTS0− (2 + REF1) × FRPD (4)
In step S1, when TR0 = 0, that is, when the display number of the first encoded frame is "0", it is possible that the image in that GOP can be reproduced independently from another GOP. At this time, proceeding to step S2, the decoding time DTS1 of the second encoded frame is the same as the display start time PTS0 of the first encoded frame.
[0072]
As described above, according to the video decoding timing estimation method, the number (TR0) indicating the display order of the encoded frame to be decoded first, the frame structure / field structure identification data (PSTR0), the frame structure In the case of, the identification data of the screen display method (TFF0), the identification data of the frame structure / field structure of the encoded frame to be decoded second (PSTR1), the identification data of the display method of the screen (TFF1), Based on the data indicating the display period (RFF1) and the display continuity of the screen, the decoding of the second encoded frame is started several field periods before the display start time (PTS0) of the encoded frame to be decoded first. That is, the decoding start time (DTS1) of the second encoded frame can be accurately estimated with a small amount of calculation.
[0073]
In addition. 2 and 3, the case where the value of TR is 0, 1, or 2 has been described. However, the present invention is not limited to this, and the decoding start time can be estimated according to the value of TR as described above.
[0074]
Next, consider applying this decoding timing estimation method to an encoder and a decoder of an MPEG system.
FIG. 6 schematically shows a configuration of a main part on the decoder side of the MPEG system. When a multiplexed bit stream (hereinafter, referred to as an MPEG bit stream) 401 of MPEG1 or MPEG2 video, audio, or the like is read from a storage medium or received via a network, first, an MPEG system decoder is used. 402 is input.
[0075]
The MPEG system decoder 402 performs the following processing.
(1) The video bit stream 407 is separated from the MPEG bit stream 401 and output to the MPEG video decoder 403.
[0076]
(2) The audio bit stream 412 is separated from the MPEG bit stream 401 and output to the audio decoder 413.
(3) The time management information (PTS) 405 of the reproduction output of the first encoded frame and the time management information (DTS) 406 of the decoding of the first encoded frame are separated from the MPEG bit stream 401 and output to the decoding start timing control circuit 408.
[0077]
(4) The system time reference value (SCR) 404 is separated from the MPEG bit stream 401, output to the decoding start timing control circuit 408, and the STC counter serving as the time reference of the MPEG system provided based on the reference value is set. I do.
[0078]
The decoding start timing control circuit 40 outputs a decoding start signal 410 to the MPEG video decoder when the value of the STC counter matches the value of DTS of the first encoded frame.
[0079]
Upon receiving the decoding start signal 410, the MPEG video decoder 403 starts decoding the first encoded frame, and outputs a video signal 411.
The MPEG video decoder 403 separates data of an expected display method (that is, LD, PS, FRC) from a video sequence having a structure as shown in FIG. Furthermore, a number (TR0) indicating the display order of the encoded frames included in the head (picture header) of the first encoded frame, identification data of the frame structure / field structure (PSTR0), and a screen display method in the case of the frame structure And outputs the data 409 to the decoding start timing control circuit 408.
[0080]
Next, when the decoding of the first coded frame is completed by the MPEG video decoder 403, the frame structure / field structure identification data (PSTR1) included in the head (picture header) of the second coded frame, the screen display method And the data (RFF1) indicating the display period of the screen are separated, and these data 409 are output to the decoding start timing control circuit 408.
[0081]
The decoding start timing control circuit 408 calculates the decoding start time of the second encoded frame according to the flowcharts shown in FIGS. 2 and 3, and when the calculated time coincides with the value of the STC counter, the decoding starts. A start signal 410 is output.
[0082]
The MPEG video decoder 403 receives the decoding start signal 410, starts decoding the second encoded frame, and outputs a video signal 411.
On the other hand, the decoding start timing control circuit 408 receives the PTS 415 separated from the audio bit stream from the audio decoder 413, and outputs an audio decoding start signal 416 based on the received PTS 415 so as to be synchronized with a video signal.
[0083]
The audio decoder 413 receives the audio bit stream 412, and outputs a decoded audio signal 414 via decoding with a decoding start signal 416.
[0084]
FIG. 7 schematically shows a configuration of a main part on the encoder side of the MPEG system.
The encoded video bit stream 501 is input to the video grammar interpreting unit 502 and, at the same time, to the system multiplexing unit 503.
[0085]
The video grammar interpreter 502 separates data of an expected display method (that is, LD, PS, FRC) from the video sequence having the structure shown in FIG. Further, a number (TR0) indicating the display order of the encoded frames included in the head (picture header) of the first encoded frame, identification data of the frame structure / field structure (PSTR0), and a screen display method in the case of the frame structure , And outputs the data 505 to the PTS / DTS calculation circuit 504.
[0086]
The MPEG system encoder 503 performs the following processing.
(1) Appropriate PTS and DTS are multiplexed with respect to the first encoded frame of the video bit stream 501, and PTS / DTS data 506 for the first encoded frame is output to the PTS / DTS calculating circuit 504.
[0087]
(2) An appropriate PTS is multiplexed on the encoded audio bit stream 509.
(3) By multiplexing the video and audio bit streams, the MPEG system bit stream 508 is output.
[0088]
The PTS / DTS calculation circuit 504 calculates the PTS and DTS of the second encoded frame according to the flowcharts shown in FIGS. 2 and 3, and outputs these data 507 to the MPEG system encoder 503.
[0089]
The MPEG system encoder 503 controls the multiplex timing of the second encoded frame with reference to these values. Further, if necessary, the PTS / DTS calculated by the PTS / DTS calculation circuit 504 is multiplexed to output a bit stream 508 of the MPEG system.
[0090]
The multiplexed bit stream 508 is, for example, stored in a storage medium or distributed to a user's home via a network.
As described above, according to the decoding device of the MPEG system according to the above embodiment, the decoding timing of the second coded frame to be decoded when decoding the coded frame of the moving image can be accurately calculated with a small amount of calculation. Can be estimated as
(1) Video and audio can be reproduced accurately synchronously.
(2) Overflow or underflow at the start of decoding of a reception buffer that receives and temporarily stores a video bit stream can be prevented beforehand.
[0091]
Further, according to the encoding device of the MPEG system according to the above embodiment,
(1) Video and audio can be accurately synchronized and multiplexed.
(2) When multiplexing video and audio, overflow or underflow of a buffer for temporarily storing these bit streams can be prevented.
[0092]
【The invention's effect】
As described above, according to the present invention, a moving picture decoding timing estimation method capable of accurately estimating the decoding timing of a second coded frame to be decoded when decoding a coded frame of a moving picture with a small amount of calculation , And a moving picture coding apparatus and a moving picture decoding apparatus using the same.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of a data structure of MPEG2.
FIG. 2 is a flowchart for explaining a processing procedure of a decoding timing estimation method.
FIG. 3 is a flowchart illustrating a processing procedure of a decoding timing estimation method.
FIG. 4 is a diagram for specifically explaining a method of estimating the decoding start timing of a second encoded frame when the display order of the first encoded frame is “2”.
FIG. 5 is a diagram for specifically explaining a method of estimating the decoding start timing of a second encoded frame when the display order of the first encoded frame is “1”.
FIG. 6 is a diagram schematically showing a configuration of a main part of a decoding device of an MPEG system.
FIG. 7 is a diagram schematically showing a configuration of a main part of an encoding device of an MPEG system.
FIG. 8 is a diagram illustrating a relationship between an input image (original image), an encoded image, and a display image, including a difference between a processing order of screens and an order of original screens.
FIG. 9 is a diagram for explaining a progressive scanning method and an interlaced scanning method.
[Explanation of symbols]
401: MPEG system bit stream, 402: MPEG system decoder, 403: MPEG video decoder, 407: video stream, 408: decoding start timing control circuit, 413: audio decoder, 501: video bit stream, 502: video grammatical interpretation 503: MPEG system decoder, 504: PTS / DTS calculation circuit, 508: MPEG system bit stream, 509: audio video stream.

Claims (3)

テレシネ変換された動画像のMPEG2符号化フレームを復号する際に、第1の符号化フレームの次に復号する第2の符号化フレームの復号タイミングを推定する動画像復号タイミング推定方法において、
(1)前記第1の符号化フレームの表示順が1番目の場合、前記第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時と推定し、
(2)前記第1の符号化フレームの表示順が2番目の場合、前記第2の符号化フレームの表示期間が2フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の2フィールド期間前と推定し、当該2の符号化フレームの表示期間が3フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の3フィールド期間前と推定し、
(3)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフレーム構造のとき、
(3−1)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−2)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(3−3)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が異なるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−4)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−5)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−6)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−7)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における上位フィールドのとき、
(4−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−2)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(4−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(4−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における下位フィールドのとき、
(5−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−2)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(5−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(5−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定することを特徴とする動画像復号タイミング推定方法。
When decoding an MPEG2 encoded frame of a telecine-converted moving image, a moving image decoding timing estimation method for estimating a decoding timing of a second encoded frame to be decoded next to the first encoded frame ,
(1) When the display order of the first encoded frame of the first, the decoding start timing of the second encoded frame, estimates that at the start of displaying the first encoded frame,
(2) When the display order of the first encoded frame is the second, and when the display period of the second encoded frame is two field periods, the decoding start timing of the second encoded frame is: It is estimated that two fields before the display start of the first encoded frame, and when the display period of the second encoded frame is three fields, the decoding start timing of the second encoded frame is Is estimated to be three fields before the start of display of the first encoded frame,
(3) When the display order of the first encoded frame is the third, when the first encoded frame has a frame structure,
(3-1) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is two fields, the decoding start timing of the second encoded frame is estimated to be four fields before the display start of the first encoded frame,
(3-2) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is three fields, the decoding start timing of the second encoded frame is estimated to be six fields before the display start of the first encoded frame,
(3-3) When the second encoded frame has a frame structure, and the first displayed field of the second encoded frame has a different phase from the first displayed field of the first encoded frame, The decoding start timing of the encoded frame is estimated to be 5 fields before the display start of the first encoded frame,
(3-4) When the second encoded frame is an upper field in a field structure and a field displayed first of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(3-5) When the second encoded frame is an upper field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-6) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-7) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(4) When the display order of the first encoded frame is the third, when the first encoded frame is an upper field in the field structure,
(4-1) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(4-2) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is 3 fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(4-3) When the second coded frame has a frame structure and the lower field is displayed first, the decoding start timing of the second coded frame is set to the display start timing of the first coded frame. Estimated 5 fields before the time,
(4-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is four fields before the start of display of the first encoded frame. Presumed,
(4-5) When the second encoded frame is a lower field in the field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5) When the display order of the first encoded frame is the third, when the first encoded frame is a lower field in the field structure,
(5-1) When the second encoded frame has a frame structure and the upper field is displayed first, the decoding start timing of the second encoded frame is set to the display start timing of the first encoded frame. Estimated 5 fields before the time,
(5-2) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(5-3) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is three fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(5-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5-5) When the second encoded frame is a lower field in a field structure, the decoding start timing of the second encoded frame is four fields before the display start of the first encoded frame. A moving image decoding timing estimation method.
テレシネ変換された動画像のMPEG2符号化フレーム列を復号する復号手段と、
前記復号手段で復号された前記符号化フレーム列のうちの第1の符号化フレームに付加されている、表示順を示す番号を識別するための第1の識別データと、フレーム構造/フィールド構造を識別するとともにフィールド構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第2の識別データと、フレーム構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第3の識別データを抽出する手段と、
前記符号化フレーム列のうち、前記第1の符号化フレームの次に復号する第2の符号化フレームに付加されている、当該第2の符号化フレームのフレーム構造/フィールド構造を識別するとともにフィールド構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第4の識別データと、フレーム構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第5の識別データと、画面の表示期間を識別するための第6の識別データを抽出する手段と、
前記第1乃至第6の識別データを基に、前記復号手段で前記第2の符号化フレームの復号を開始する復号開始時を推定する推定手段と、
を具備し、前記推定手段は、
(1)前記第1の符号化フレームの表示順が1番目の場合、前記第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時と推定し、
(2)前記第1の符号化フレームの表示順が2番目の場合、前記第2の符号化フレームの表示期間が2フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の2フィールド期間前と推定し、前記第2の符号化フレームの表示期間が3フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の3フィールド期間前と推定し、
(3)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフレーム構造のとき、
(3−1)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−2)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(3−3)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が異なるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−4)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−5)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−6)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−7)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における上位フィールドのとき、
(4−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−2)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(4−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(4−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における下位フィールドのとき、
(5−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−2)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(5−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(5−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定することを特徴とする動画像復号化装置。
Decoding means for decoding an MPEG2-encoded frame sequence of a telecine-converted moving image;
A first identification data for identifying a number indicating a display order, which is added to a first encoded frame of the encoded frame sequence decoded by the decoding unit, and a frame structure / field structure. Second identification data for identifying and identifying whether a field first displayed in the case of a field structure is an upper field or a lower field, and an upper field or a lower field which is displayed first in the case of a frame structure Means for extracting third identification data for identifying
In the sequence of encoded frames, a frame structure / field structure of the second encoded frame added to a second encoded frame to be decoded after the first encoded frame is identified. Fourth identification data for identifying whether the first field displayed in the case of the structure is the upper field or the lower field, and identifying the first field displayed in the case of the frame structure is the upper field or the lower field Means for extracting the fifth identification data for identifying the display period of the screen, and the sixth identification data for identifying the display period of the screen.
Estimating means for estimating a decoding start time at which the decoding means starts decoding the second encoded frame based on the first to sixth identification data;
And the estimating means comprises:
(1) When the display order of the first encoded frame is the first, the decoding start timing of the second encoded frame is estimated to be the display start time of the first encoded frame,
(2) When the display order of the first encoded frame is the second, and when the display period of the second encoded frame is two field periods, the decoding start timing of the second encoded frame is: When it is estimated that the display period of the first encoded frame is two fields before the start of display of the first encoded frame, and when the display period of the second encoded frame is the three-field period, the decoding start timing of the second encoded frame is , Three field periods prior to the start of display of the first encoded frame,
(3) When the display order of the first encoded frame is the third, when the first encoded frame has a frame structure,
(3-1) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is two fields, the decoding start timing of the second encoded frame is estimated to be four fields before the display start of the first encoded frame,
(3-2) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is three fields, the decoding start timing of the second encoded frame is estimated to be six fields before the display start of the first encoded frame,
(3-3) When the second encoded frame has a frame structure, and the first displayed field of the second encoded frame has a different phase from the first displayed field of the first encoded frame, The decoding start timing of the encoded frame is estimated to be 5 fields before the display start of the first encoded frame,
(3-4) When the second encoded frame is an upper field in a field structure and a field displayed first of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(3-5) When the second encoded frame is an upper field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-6) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-7) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(4) When the display order of the first encoded frame is the third, when the first encoded frame is an upper field in the field structure,
(4-1) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(4-2) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is 3 fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(4-3) When the second coded frame has a frame structure and the lower field is displayed first, the decoding start timing of the second coded frame is set to the display start timing of the first coded frame. Estimated 5 fields before the time,
(4-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is four fields before the start of display of the first encoded frame. Presumed,
(4-5) When the second encoded frame is a lower field in the field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5) When the display order of the first encoded frame is the third, when the first encoded frame is a lower field in the field structure,
(5-1) When the second encoded frame has a frame structure and the upper field is displayed first, the decoding start timing of the second encoded frame is set to the display start timing of the first encoded frame. Estimated 5 fields before the time,
(5-2) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(5-3) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is three fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(5-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5-5) When the second encoded frame is a lower field in a field structure, the decoding start timing of the second encoded frame is four fields before the display start of the first encoded frame. A moving picture decoding apparatus characterized in that:
入力されたテレシネ変換された動画像のMPEG2符号化フレーム列のうちの第1の符号化フレームに付加されている、表示順を示す番号を識別するための第1の識別データと、フレーム構造/フィールド構造を識別するとともにフィールド構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第2の識別データと、フレーム構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第3の識別データを抽出する手段と、
前記符号化フレーム列のうち、前記第1の符号化フレームの次に復号する第2の符号化フレームに付加されている、当該第2の符号化フレームのフレーム構造/フィールド構造を識別するとともにフィールド構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第4の識別データと、フレーム構造の場合に最初に表示されるフィールドが上位フィールドか下位フィールドかを識別するための第5の識別データと、画面の表示期間を識別するための第6の識別データを抽出する手段と、
前記第1乃至第6の識別データを基に、前記第2の符号化フレームの復号開始時を推定する推定手段と、
前記推定手段で推定された前記第2の符号化フレームの復号開始時を表す情報を当該第2の符号化フレームに付加する手段と、
前記復号開始時を表す情報の付加された前記第2の符号化フレームを含む前記MPEG2符号化フレーム列と、入力されたオーディオのビットストリームとを多重化する多重化手段と、
を具備し、前記推定手段は、
(1)前記第1の符号化フレームの表示順が1番目の場合、前記第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時と推定し、
(2)前記第1の符号化フレームの表示順が2番目の場合、前記第2の符号化フレームの表示期間が2フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の2フィールド期間前と推定し、前記第2の符号化フレームの表示期間が3フィールド期間であるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の3フィールド期間前と推定し、
(3)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフレーム構造のとき、
(3−1)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−2)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が同じで、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(3−3)前記第2の符号化フレームがフレーム構造で、その最初に表示されるフィールドと、前記第1の符号化フレームの最初に表示されるフィールドの位相が異なるとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−4)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(3−5)前記第2の符号化フレームがフィールド構造における上位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−6)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(3−7)前記第2の符号化フレームがフィールド構造における下位フィールドで、前記第1の符号化フレームの最初に表示されるフィールドが下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、当該第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における上位フィールドのとき、
(4−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−2)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(4−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(4−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(4−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5)前記第1の符号化フレームの表示順が3番目の場合、当該第1の符号化フレームがフィールド構造における下位フィールドのとき、
(5−1)前記第2の符号化フレームがフレーム構造で、上位フィールドが先に表示されるとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−2)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が2フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定し、
(5−3)前記第2の符号化フレームがフレーム構造で、下位フィールドが先に表示され、かつ、当該第2の符号化フレームの表示期間が3フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の6フィールド期間前と推定し、
(5−4)前記第2の符号化フレームがフィールド構造における上位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の5フィールド期間前と推定し、
(5−5)前記第2の符号化フレームがフィールド構造における下位フィールドのとき、当該第2の符号化フレームの復号開始タイミングは、前記第1の符号化フレームの表示開始時の4フィールド期間前と推定することを特徴とするMPEGシステム多重化装置。
First identification data for identifying a number indicating a display order, which is added to a first encoded frame in an MPEG2 encoded frame sequence of an input telecine-converted moving image , and a frame structure / Second identification data for identifying the field structure and identifying whether the first field displayed in the case of the field structure is an upper field or a lower field, and the first field displayed in the case of the frame structure is the upper field Means for extracting third identification data for identifying whether the field is a lower field or a lower field;
In the sequence of encoded frames, a frame structure / field structure of the second encoded frame added to a second encoded frame to be decoded after the first encoded frame is identified. Fourth identification data for identifying whether a field displayed first in the case of a structure is an upper field or a lower field, and identifying whether a field displayed first in the case of a frame structure is an upper field or a lower field. Means for extracting the fifth identification data for identifying the display period of the screen, and the sixth identification data for identifying the display period of the screen.
Estimating means for estimating the start of decoding of the second encoded frame based on the first to sixth identification data;
Means for adding information representing the start of decoding of the second encoded frame estimated by the estimating means to the second encoded frame;
Multiplexing means for multiplexing the MPEG2 encoded frame sequence including the second encoded frame to which the information indicating the start of decoding is added, and an input audio bit stream;
And the estimating means comprises:
(1) When the display order of the first encoded frame is the first, the decoding start timing of the second encoded frame is estimated to be the display start time of the first encoded frame,
(2) When the display order of the first encoded frame is the second, and when the display period of the second encoded frame is two field periods, the decoding start timing of the second encoded frame is: When it is estimated that the display period of the first encoded frame is two fields before the start of display of the first encoded frame, and when the display period of the second encoded frame is the three-field period, the decoding start timing of the second encoded frame is , Three field periods prior to the start of display of the first encoded frame,
(3) When the display order of the first encoded frame is the third, when the first encoded frame has a frame structure,
(3-1) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is two fields, the decoding start timing of the second encoded frame is estimated to be four fields before the display start of the first encoded frame,
(3-2) The second encoded frame has a frame structure, and the first displayed field and the first displayed field of the first encoded frame have the same phase, and the second encoded frame has the same phase. When the display period of the second encoded frame is three fields, the decoding start timing of the second encoded frame is estimated to be six fields before the display start of the first encoded frame,
(3-3) When the second encoded frame has a frame structure, and the first displayed field of the second encoded frame has a different phase from the first displayed field of the first encoded frame, The decoding start timing of the encoded frame is estimated to be 5 fields before the display start of the first encoded frame,
(3-4) When the second encoded frame is an upper field in a field structure and a field displayed first of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(3-5) When the second encoded frame is an upper field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-6) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is an upper field, decoding of the second encoded frame is started. The timing is estimated to be five fields before the start of the display of the first encoded frame,
(3-7) When the second encoded frame is a lower field in a field structure and the first displayed field of the first encoded frame is a lower field, decoding of the second encoded frame is started. The timing is estimated to be four fields before the start of the display of the first encoded frame,
(4) When the display order of the first encoded frame is the third, when the first encoded frame is an upper field in the field structure,
(4-1) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(4-2) When the second encoded frame has a frame structure, the upper field is displayed first, and the display period of the second encoded frame is 3 fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(4-3) When the second coded frame has a frame structure and the lower field is displayed first, the decoding start timing of the second coded frame is set to the display start timing of the first coded frame. Estimated 5 fields before the time,
(4-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is four fields before the start of display of the first encoded frame. Presumed,
(4-5) When the second encoded frame is a lower field in the field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5) When the display order of the first encoded frame is the third, when the first encoded frame is a lower field in the field structure,
(5-1) When the second encoded frame has a frame structure and the upper field is displayed first, the decoding start timing of the second encoded frame is set to the display start timing of the first encoded frame. Estimated 5 fields before the time,
(5-2) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is two fields, the second encoded frame is Is estimated to be four fields before the start of display of the first encoded frame,
(5-3) When the second encoded frame has a frame structure, the lower field is displayed first, and the display period of the second encoded frame is three fields, the second encoded frame is Is estimated to be six fields before the display start of the first encoded frame.
(5-4) When the second encoded frame is an upper field in a field structure, the decoding start timing of the second encoded frame is five fields before the display start of the first encoded frame. Presumed,
(5-5) When the second encoded frame is a lower field in a field structure, the decoding start timing of the second encoded frame is four fields before the display start of the first encoded frame. An MPEG system multiplexing device , characterized in that:
JP05640396A 1996-03-13 1996-03-13 Video code timing estimation method, video decoding device, and MPEG system multiplexing device Expired - Fee Related JP3556380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05640396A JP3556380B2 (en) 1996-03-13 1996-03-13 Video code timing estimation method, video decoding device, and MPEG system multiplexing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05640396A JP3556380B2 (en) 1996-03-13 1996-03-13 Video code timing estimation method, video decoding device, and MPEG system multiplexing device

Publications (2)

Publication Number Publication Date
JPH09247666A JPH09247666A (en) 1997-09-19
JP3556380B2 true JP3556380B2 (en) 2004-08-18

Family

ID=13026221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05640396A Expired - Fee Related JP3556380B2 (en) 1996-03-13 1996-03-13 Video code timing estimation method, video decoding device, and MPEG system multiplexing device

Country Status (1)

Country Link
JP (1) JP3556380B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6873368B1 (en) 1997-12-23 2005-03-29 Thomson Licensing Sa. Low noise encoding and decoding method
US7551672B1 (en) 1999-02-05 2009-06-23 Sony Corporation Encoding system and method, decoding system and method, multiplexing apparatus and method, and display system and method
WO2001039504A1 (en) * 1999-11-26 2001-05-31 Koninklijke Philips Electronics N.V. Device and method for advanced bayesian kalman time estimation
JP2003274370A (en) * 2002-03-19 2003-09-26 Matsushita Electric Ind Co Ltd Method and device for time code signal transmission
CN100579223C (en) * 2004-12-02 2010-01-06 索尼株式会社 Encoding device and method
JP4724240B2 (en) * 2009-07-02 2011-07-13 トムソン ライセンシング How to process a video signal

Also Published As

Publication number Publication date
JPH09247666A (en) 1997-09-19

Similar Documents

Publication Publication Date Title
JP3364281B2 (en) Time-division video and audio signal synchronization
US7027713B1 (en) Method for efficient MPEG-2 transport stream frame re-sequencing
JP3103301B2 (en) Multiplexing method of audio / video signal stream encoded according to MPEG1 standard
US6658199B1 (en) Method for temporally smooth, minimal memory MPEG-2 trick play transport stream construction
US6529550B2 (en) Coded stream splicing device and method, and coded stream generating device and method
RU2137321C1 (en) Device for generation of compressed line-scan video signal and device for decompression of compressed video signal
KR100786925B1 (en) Data multiplexer, data multiplexing method, and recording medium
JP3809220B2 (en) Transmission system and transmission method
US20130188743A1 (en) Decoding and presentation time stamps for mpeg-4 advanced video coding
EP0618734A2 (en) Picture signal processing
US6295321B1 (en) Video decoding method, video decoder and digital TV system using the video decoding method and video decoder
JPH11252552A (en) Compression coding method and compression coder for video signal, and multiplexing method and multiplexer for compression coded data
US20050190833A1 (en) Encoded data outputting apparatus and method
US5677980A (en) Decoder for compressed digital signal
JP2001519992A (en) Method for switching coded video sequence and apparatus corresponding thereto
JPH1118083A (en) Digital signal coding method and system, signal recording medium and signal transmission method
JP3556380B2 (en) Video code timing estimation method, video decoding device, and MPEG system multiplexing device
US20100166080A1 (en) Video display apparatus
WO1998045959A1 (en) A method for compressing an audio-visual signal
JP3556381B2 (en) Information multiplexing device
KR101154743B1 (en) Encoder apparatus, encoding method, decoder apparatus, decoding method, recording medium, and playback apparatus
JP4242581B2 (en) Data converter
JPH08116532A (en) Image decoding system and device therefor
KR19980027646A (en) Video and Audio Synchronization Method Using Timestamp Compensation and MPEG-2 Encoder Device Using It
JPH1093841A (en) Video synchronizing signal correction device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040512

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090521

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100521

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees