JP3813444B2 - ビデオデコーダ - Google Patents

ビデオデコーダ Download PDF

Info

Publication number
JP3813444B2
JP3813444B2 JP2000607421A JP2000607421A JP3813444B2 JP 3813444 B2 JP3813444 B2 JP 3813444B2 JP 2000607421 A JP2000607421 A JP 2000607421A JP 2000607421 A JP2000607421 A JP 2000607421A JP 3813444 B2 JP3813444 B2 JP 3813444B2
Authority
JP
Japan
Prior art keywords
data
frame buffer
video decoder
prediction
storage area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000607421A
Other languages
English (en)
Inventor
茂之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Application granted granted Critical
Publication of JP3813444B2 publication Critical patent/JP3813444B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • H04N19/433Hardware specially adapted for motion estimation or compensation characterised by techniques for memory access
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はMPEG等の画像圧縮方式を用いたビデオデコーダに関するものである。
【0002】
【従来の技術】
マルチメディアで扱われる情報は、膨大な量であり、かつ多種多様であって、これらの情報を高速に処理することがマルチメディアの実用化を図る上で必要となってくる。情報を高速に処理するためには、データの圧縮・伸長技術が不可欠となる。
【0003】
そのようなデータの圧縮伸長技術として「MPEG(Moving Picture Expert Group)」方式が挙げられる。このMPEG方式は、ISO(International Organization for Standardization)/IEC(International Electro-technical Commission)傘下のMPEG委員会(ISO/IEC JTC1/SC29/WG11)によって標準化されている。
【0004】
MPEGは3つのパートから構成されている。パート1の「MPEGシステムパート」(ISO/IEC IS 11172 Part1:Systems)では、ビデオデータとオーディオデータの多重化構造(マルチプレクス・ストラクチャ)および同期方式が規定される。パート2の「MPEGビデオパート」(ISO/IEC IS 11172 Part2:Video)では、ビデオデータの高能率符号化方式およびビデオデータのフォーマットが規定される。パート3の「MPEGオーディオパート」(ISO/IEC IS 11172 Part3:Audio)では、オーディオデータの高能率符号化方式およびオーディオデータのフォーマットが規定される。
【0005】
MPEGビデオパートで取り扱われるビデオデータは動画に関するものであり、その動画は1秒間に数十枚(たとえば、30枚)のフレーム(静止画、コマ)によって構成されている。ビデオデータは、シーケンス(Sequence)、GOP(Group Of Pictures)、ピクチャ(Picture)、スライス(Slice)、マクロブロック(Macroblock)、ブロック(Block)の順に6層の階層構造からなる。1枚のピクチャを構成するスライスの個数は一定ではなく、1個のスライスを合成するマクロブロックの個数も一定ではない。
【0006】
また、MPEGには主にエンコードレートの違いにより、MPEG−1、MPEG−2の2つの方式がある。MPEG−1においてフレームは、ピクチャに対応している。MPEG−2においては、フレームまたはフィールドをピクチャに対応させることもできる。フィールドは、2枚で1枚のフレームを構成している。
【0007】
ちなみに、ピクチャにフレームが対応している構造はフレーム構造と呼ばれ、ピクチャにフィールドが対応している構造はフィールド構造と呼ばれる。
【0008】
MPEGでは、フレーム間予測と呼ばれる圧縮技術を用いる。フレーム間予測は、フレーム間のデータを時間的な相関に基づいて圧縮する。フレーム間予測では双方向予測が行なわれる。双方向予測とは、過去の再生画像(または、ピクチャ)から現在の再生画像を予測する順方向予測と、未来の再生画像から現在の再生画像を予測する逆方向予測とを併用することである。
【0009】
この双方向予測は、Iピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、Bピクチャ(Bidirectionally predictive-Picture)と呼ばれる3つのタイプのピクチャを規定している。
【0010】
Iピクチャは、過去や未来の再生画像とは無関係に独立して生成される。ランダムアクセスを行なうために、GOP内には最低1枚のIピクチャが必要である。Iピクチャ内のすべてのマクロブロック・タイプは、フレーム内予測画面(IntraFrame)である。
【0011】
Pピクチャは、順方向予測(過去のIピクチャまたはPピクチャからの予測)により生成される。Pピクチャ内のマクロブロック・タイプは、フレーム内予測画面と順方向予測画面(Forward Inter Frame)の両方を含む。
【0012】
Bピクチャは双方向予測により生成される。双方向予測においてBピクチャは、以下に示す3つの予測のうちいずれか1つにより生成される。
【0013】
・順方向予測;過去のIピクチャまたはBピクチャからの予測。
・逆方向予測;未来のIピクチャまたはPピクチャからの予測。
【0014】
・双方向予測;過去および未来のIピクチャまたはPピクチャからの予測。
Bピクチャ内のマクロブロック・タイプは、フレーム内予測画面、順方向予測画面、逆方向予測画面(Backward Inter Frame)、内挿的予測画面(Interpolative Inter Frame)の4つのタイプを含む。
【0015】
そして、これらI、P、Bピクチャがそれぞれエンコードされる。つまり、Iピクチャは過去や未来のピクチャがなくても生成される。これに対し、Pピクチャは過去のピクチャがないと生成されず、Bピクチャは過去または未来のピクチャがないと生成されない。
【0016】
ただし、PピクチャやBピクチャでも、マクロブロック・タイプが内挿的予測画面の場合、そのマクロブロックは過去や未来のピクチャがなくても生成される。
【0017】
フレーム間予測では、まず、Iピクチャが周期的に生成される。次に、Iピクチャよりも数フレーム先のフレームがPピクチャとして生成される。このPピクチャは、過去から現在への一方向(順方向)の予測により生成される。続いて、Iピクチャの前、Pピクチャの後に位置するフレームがBピクチャとして生成される。このBピクチャを生成するとき、順方向予測、逆方向予測、双方向予測の3つの中から最適な予測方法が選択される。連続した動画では一般的に、現在の画像とその前後の画像とはよく似ており、異なっているのは、そのごく一部分にすぎない。そこで、前にフレーム(たとえば、Iピクチャ)と次のフレーム(たとえば、Pピクチャ)とはほとんど同じであると仮定し、両フレーム間に変化があればその差分(Bピクチャのデータ)のみを抽出して圧縮する。これにより、フレーム間のデータを時間的な相関に基づいて圧縮することができる。
【0018】
このようにMPEGビデオパートに準拠してエンコードされたビデオデータのデータ列(ビットストリーム)は、MPEGビデオストリーム(以下、ビデオストリームと略す)と呼ばれる。
【0019】
ところで、MPEG−1は主に、ビデオCD(Compact Disc)やCD−ROM(CD-Read Only Memory)などの蓄積メディアに対応している。MPEG−2は、ビデオCD、CD−ROM、DVD(Digital Video Disc)、ビデオテープ、不揮発性半導体メモリを用いたメモリカードなどの蓄積メディアだけでなく、LAN(Local Area Network)などの通信メディア、地上波放送や衛星放送およびCATV(Community Antenna Television)などの放送メディアをも含む伝達メディア全般に対応している。
【0020】
MPEGビデオパートで用いられる技術の核となるのが、動き補償付予測(MC; Motion Compensated prediction)と離散コサイン変換(DCT ; Discrete Cosine Transform)である。MCとDCTを併用した符号化技術は、ハイブリッド符号化技術と呼ばれる。MPEGビデオパートでは、エンコード時にDCT符号を用い、画像(ビデオ信号)を周波数成分に分解して処理する。そして、デコード時にDCTの逆変換(離散コサイン逆変換:IDCT;Inverse DCT)を用い、周波数成分を再び画像(ビデオ信号)に戻す。
【0021】
図4は、従来のMPEGビデオデコーダ101のブロック回路図である。
MPEGビデオデコーダ101は、制御コア回路102、ビットバッファ103、フレームバッファ104、MPEGデコードコア回路105、データバス106、表示回路107、メモリコントローラ108、FIFO(First-In-First-Out)構成のバッファ109〜115から構成されている。なお、MPEGビデオデコーダ101を構成する各回路102〜115は、1チップのLSIに搭載されている。
【0022】
制御コア回路102は、各回路103〜115を制御する。
伝達メディア130から転送されてきたビデオストリームは、まずバッファ109に入力され、バッファ109→データバス106→メモリコントローラ108→ビットバッファ103の順序で転送されて、ビットバッファ103に書込まれる。なお、伝達メディア130には、蓄積メディア(ビデオCD、CD−ROM、DVD、ビデオテープ、メモリカード等)、通信メディア(LAN等)、放送メディア(地上波放送、衛星放送、CATV等)などが含まれる。
【0023】
ビットバッファ103は、FIFO構成のSDRAM(Synchronous Dynamic Random Access Memory)からなるリングバッファによって構成され、伝達メディア130から伝送されてくるビデオストリームを順次蓄積する。
【0024】
ビットバッファ103が設けられているのは、I、P、Bの各ピクチャのデータ量が異なっているためである。Iピクチャのデータ量は約30kバイト、Pピクチャのデータ量は約10〜15kバイト、Bピクチャのデータ量は0〜約6kバイトである。それに対して、伝達メディア130から転送されてくるビデオストリームのビットレートは一定である。MPEGデコードコア回路105は、各ピクチャごとに処理を行ない、その処理時間は各ピクチャのデータ量によって異なる。そのため、伝達メディア130から伝送されてきたビデオストリームをMPEGデコードコア回路105へ直接転送すると、MPEGデコードコア105において処理できないピクチャが出てくる。これを防止するため、伝達メディア130から転送されてくるビデオストリームに対するバッファメモリとしてのビットバッファ103を設けることで、I、P、Bの各ピクチャのデータ量の相違を吸収しているわけである。
【0025】
フレームバッファ104は、SDRAMからなり、その内部は3つの領域(前方参照領域120、後方参照領域121、Bピクチャ格納領域122)に分けられている。
【0026】
なお、ビットバッファ103とフレームバッファ104とは、部品点数を少なくしてMPEGビデオデコーダ101の部品コストを減少させるために、1つのSDRAM内に領域を分けて設けられている。
【0027】
また、ビットバッファ103とフレームバッファ104とが設けられるSDRAMの入出力のデータバス幅(ビット幅)は、32bitに設定されている。そのため、メモリコントローラ108の入出力のデータバス幅およびデータバス106のデータバス幅についても、32bitに設定されている。
【0028】
メモリコントローラ108は、ビットバッファ103およびフレームバッファ104の読出動作および書込動作を制御する。
【0029】
ビットバッファ103に蓄積されたビデオストリームは、メモリコントローラ108により、1フレーム期間ごとに1枚のピクチャ分ずつのビデオストリームが読出され、そのビデオストリームは、メモリコントローラ108→データバス106→バッファ110の順番で転送されて、MPEGデコードコア回路105に入力される。
【0030】
MPEGデコードコア回路105は、入力された1ピクチャ分のビデオストリームに対して、まず、ハフマンコードに基づいた可変長デコード処理を行ない、次に、可変長デコード処理結果に対して量子化しきい値に基づいた逆量子化処理を行なってDCT(Discrete Cosine Transform)係数を求め、続いて、求めたDCT係数に対してIDCT処理を行ない、最後に、IDCT(Inverse DCT)処理結果に対してMC(Motion Compensated prediction)処理を行なう。
【0031】
そして、MPEGデコードコア回路105によるMC処理結果は、バッファ114→データバス106→メモリコントローラ108→フレームバッファ104の順番で転送されて、メモリコントローラ108によりフレームバッファ104のいずれかの領域120〜122に格納される。
【0032】
また、メモリコントローラ108により、フレームバッファ104の各領域120〜122から読出されたデータは、メモリコントローラ108→データバス106→各バッファ111〜113のいずれかの順番で転送されて、MPEGデコードコア回路105に入力される。ここで、前方参照領域120から読出されたデータはバッファ111を介して転送され、後方参照領域121から読出されたデータはバッファ112を介して転送され、Bピクチャ格納領域122から読出されたデータはバッファ113を介して転送される。
【0033】
前方参照領域120には、MPEGデコードコア回路105によるMC処理において逆方向予測を行なう際に用いられる未来のIピクチャまたはPピクチャが格納される。後方参照領域121には、MC処理において順方向予測を行なう際に用いられる過去のIピクチャまたはPピクチャが格納される。Bピクチャ格納領域122には、Bピクチャが格納される。
【0034】
前方参照領域120および後方参照領域121に格納されるIピクチャまたはPピクチャは、順方向予測または逆方向予測を行なうための基データとして使われるため、必要がなくなるまで、各領域120、121に格納し続けなければならない。Bピクチャ格納領域122に格納されるBピクチャについては、基データとして扱われないため、MPEGビデオデコーダ101の外部へ出力されたら不要になる。なお、各領域120〜122はプレーン(Plane)とも呼ばれる。
【0035】
そして、メモリコントローラ108により、フレームバッファ104の各領域120〜122のいずれか1つから読出されたピクチャのデータは、メモリコントローラ108→データバス106→バッファ115の順番で転送されて、表示回路107に入力される。
【0036】
表示回路107は、ピクチャのデータからビデオ信号(映像信号)を生成し、そのビデオ信号をMPEGビデオデコーダ101に接続された外部機器131へ出力する。たとえば、外部機器131としてディスプレイを接続した場合、当該ディスプレイはビデオ信号を画像として表示する。また、外部機器131として蓄積メディア(ビデオテープ、メモリカード等)を接続した場合、当該蓄積メディアにはビデオ信号が記憶蓄積される。
【0037】
このように構成されたMPEGビデオデコーダ101は、ムービーカメラ、スチールカメラ、テレビジョン、ビデオCD再生装置、DVD再生装置などに組み込まれる。なお、MPEGビデオデコーダ101をムービーカメラまたはスチールカメラに組み込む場合は、伝達メディア130がCCD(Charge Coupled Device)などの撮像デバイスおよびその信号処理回路に置き換えられる。
【0038】
【発明が解決しようとする課題】
図5は、SDRAMからなるフレームバッファ104の前方参照領域120および後方参照領域121に格納される輝度(Y)データおよび色差(C)データの格納状態を模式的に示す模式図である。
【0039】
前方参照領域120には、前方参照用の輝度データyfの格納領域140と、前方参照用の色差データcfの格納領域141とが設けられている。また、後方参照領域121には、後方参照用の輝度データyrの格納領域142と、後方参照用の色差データcrの格納領域143とが設けられている。
【0040】
なお、色差データのデータ量は輝度データのデータ量のほぼ半分である。そのため、各格納領域141、143のデータ量は各格納領域140、142のデータ量のほぼ半分に設定されている。
【0041】
ちなみに、上記のように、フレームバッファ104の各領域120、121に各データyf、cf、yr、crを格納するための各格納領域140〜143を設けることは、メモリマッピングと呼ばれる。
【0042】
一般に、SDRAMにアクセスする際には、SDRAMに規定されたキャストリーケンシーおよびバーストレンジにより決定される所定のコマンドを設定する必要があり、そのように所定のコマンドを設定することはコマンドオーバーヘッドと呼ばれる。そのため、アクセスを開始した時点からデータの書込または読出が実際に開始される時点までの間に、コマンドオーバーヘッドに要する時間分の遅延時間が生じることになる。このコマンドオーバーヘッドに要する時間(遅延時間)は、SDRAMの動作クロックの6〜7クロック分以下にはできない。
【0043】
図6は、入出力のデータバス幅が32bitのSDRAMからなるフレームバッファ104の各領域120、121から1つのマクロブロック分のデータを読出す場合におけるメモリアクセスの順番を模式的に示す模式図である。
【0044】
メモリアクセスは、格納領域140に対するコマンドオーバーヘッドcom→格納領域140からの前方参照用輝度データyfの読出→格納領域141に対するコマンドオーバーヘッドcom→格納領域141からの前方参照用色差データcfの読出→格納領域142に対するコマンドオーバーヘッドcom→格納領域142からの後方参照用輝度データyrの読出→格納領域143に対するコマンドオーバーヘッドcom→格納領域143からの後方参照用色差データcrの読出の順番で行なわれる。
【0045】
したがって、この場合のメモリアクセスに要する時間T1は、以下の式(1)により求められる。
【0046】
T1=4×t1+2×t2+2×t3 …(1)
ただし、t1;コマンドオーバーヘッドcomに要する時間
t2;各輝度データyf、yrの読出に要する時間
t3;各色差データcf、crの読出に要する時間
ところで、MPEGデコードコア回路105によるMC処理では、1つのマクロブロックの半分(ハーフマクロブロック)の輝度データを復元するために、SDRAMからなるフレームバッファ104の前方参照領域120または後方参照領域121からハーフマクロブロック分の輝度データを読出す場合がある。
【0047】
図7は、従来のMPEGビデオデコーダの動作を説明するための模式図であり、図7Aは、ハーフマクロブロック分の輝度データを復元するのに必要のあるデータを示し、図7Bは、フレームバッファ104からハーフマクロブロック分の輝度データを読出す際に読み出されるデータを示し、図7Cは、フレームバッファからハーフマクロブロック分の輝度データを読出す動作を示す。
【0048】
図7Aに示すように、このハーフマクロブロック分の輝度データを復元するのに前方参照領域120または後方参照領域121から読出す必要のある輝度データは、9ピクセル(画素)×17ピクセル(画素)分のデータである。
【0049】
一般に、SDRAMにアクセスできる最小単位は、SDRAMに規定されたバーストレンジに入出力のデータバス幅を乗算した値になる。
【0050】
バーストレンジの最小値は「2」であるため、入出力のデータバス幅が32bitのSDRAMにアクセスできる最小単位は、2×32bitになる。ところで、1つのピクセル(画素)のデータ量は8bitである。したがって、入出力のデータバス幅が32bitのSDRAMにアクセスできる最小単位は、水平方向に配置された8ピクセル分になる。
【0051】
そのため、図7Bに示すように、入出力のデータバス幅が32bitのSDRAMからなるフレームバッファ104からハーフマクロブロック分の輝度データ(9ピクセル×17ピクセル分のデータ)を読出すには、9ピクセル×24ピクセル分のデータを読出す必要がある。すなわち、入出力のデータバス幅が32bitのSDRAMにアクセスできる最小単位は水平8ピクセル分であるため、水平17ピクセル分のデータを読出すには、水平8ピクセルの3倍の24ピクセル分のデータを読出さなければならない。そして、読出した9ピクセル×24ピクセル分のデータのうち、9ピクセル×17ピクセル分の必要なデータを除いた残りのデータである9ピクセル×7ピクセル分は無駄なデータとなる。
【0052】
近年、MPEGビデオデコーダ101の動作速度を高速化することが要求されている。それには、フレームバッファ104とデータバス106を高速化して動作周波数を高くする方法と、フレームバッファ104とデータバス106の入出力のデータバス幅(ビット幅)を32bitよりもさらに拡げる(たとえば、48bit、64bit、128bit等)方法とがある。しかし、動作周波数の高いフレームバッファ104は高価(たとえば、SDRAMよりも高速なランバスDRAMはSDRAMより高価)である上に、消費電力も大きくなる。また、入出力のデータバス幅をさらに拡げると、LSIの端子数が増加するとともにフレームバッファ104を構成するSDRAMのチップ数が増加するため、MPEGビデオデコーダ101の基板実装面積の増大やコストアップを招くことになる。そこで、フレームバッファ104の動作周波数を高くしたり、入出力のデータバス幅を拡げることなく、MPEGビデオデコーダ101の動作速度を高速化することが求められている。
【0053】
本発明の目的は、動作速度を高速化することが可能なMPEG等の画像圧縮方式を用いたビデオデコーダを提供することにある。
【0054】
【課題を解決するための手段】
係る目的を達成するために本願発明は、離散コサイン変換と、逆方向予測および順方向予測を行なう動き補償予測とを併用してビデオストリームをデコードするビデオデコーダにおいて、上記逆方向予測に用いられる前方参照用輝度データの格納領域と、上記順方向予測に用いられる後方参照用色差データの格納領域とが設けられた第1フレームバッファと、上記逆方向予測に用いられる前方参照用色差データの格納領域と、上記順方向予測に用いられる後方参照用輝度データの格納領域とが設けられた第2フレームバッファと、上記第1フレームバッファに対するメモリアクセス動作と上記第2フレームバッファに対するメモリアクセス動作との少なくとも一部分の動作を並列処理で行なう読出制御回路とを備える。
【0055】
したがって、本発明においては、第1および第2フレームバッファとして入出力のデータバス幅が小さなものを用いれば、各フレームバッファからハーフマクロブロック分の輝度データ(例えば、9ピクセル×17ピクセル分のデータ)を読出す際にも、無駄なデータの読出を少なくすることが可能になり、その分だけメモリアクセスに要する時間を短縮することができる。そのため、各フレームバッファの動作周波数を高くしたり入出力のデータバス幅を拡げることなく、ビデオデコーダの動作速度を高速化することができる。
【0056】
本発明の他の局面に従うと、離散コサイン変換と、逆方向予測および順方向予測を行なう動き補償付予測とを併用してビデオストリームをデコードするビデオデコーダにおいて、上記逆方向予測に用いられる前方参照用輝度データの格納領域と、上記順方向予測に用いられる後方参照用色差データの格納領域とが設けられた第1フレームバッファと、上記逆方向予測に用いられる前方参照用色差データの格納領域と、上記順方向予測に用いられる後方参照用輝度データの格納領域とが設けられた第2フレームバッファと、第1フレームバッファと第2フレームバッファとに対するメモリアクセスを並列処理で行ない、第1フレームバッファから前方参照用輝度データを読出しているときに、第2フレームバッファから前方参照用色差データを読出すとともに、第1フレームバッファから後方参照用色差データを読出しているときに、第2フレームバッファから後方参照用輝度データを読出すようにする読出制御回路とを備える。
【0057】
したがって、本発明によれば、メモリアクセスに要する時間を極めて効果的に短縮することができる。
【0058】
さらに、好ましくは、ビデオデコーダにおいては、前方参照用輝度データおよび後方参照用色差データを上記第1フレームバッファにおける所定の格納領域に格納させるとともに、前方参照用色差データおよび後方参照用輝度データを上記第2フレームバッファにおける所定の格納領域に格納させる書込制御回路を備える。
【0059】
さらに好ましくは、ビデオデコーダにおいて、上記第1および第2フレームバッファはともに入出力のデータバス幅の等しいSDRAMを含む。
【0060】
したがって、本発明によれば、第1フレームバッファと第2フレームバッファとに対するメモリアクセスが並列処理で行なわれる。このため、各フレームバッファから1つのマクロブロック分の輝度データおよび色差データを読出す際のメモリアクセスに要する時間を、SDRAM等のバッファメモリに規定されたコマンドオーバーヘッドの2回分に要する時間だけ短縮することができる。そのため、ビデオデコーダの動作速度をさらに高速化することが可能である。
【0061】
【発明の実施の形態】
以下、本発明の実施例を図面とともに説明する。
【0062】
なお、実施例において、図4〜図7Cに示した従来のMPEGビデオデコーダと同一の構成部分については同一符号を付してその説明を繰返さない。
【0063】
図1は、実施例1のMPEGビデオデコーダ1の構成を示すブロック回路図である。
【0064】
MPEGビデオデコーダ1は、制御コア回路2、切換回路3、ビットバッファ103a、103b、フレームバッファ104a、104b、MPEGデコードコア回路105、データバス106a、106b、表示回路107、メモリコントローラ108a、108b、FIFO構成のバッファ109、110a〜115bから構成されている。なお、MPEGビデオデコーダ1を構成する各回路2、103a〜115bは1チップのLSIに搭載されている。
【0065】
制御コア回路2は、各回路3、103a〜115bを制御する。
伝達メディア130から転送されてきたビデオストリームは、まずバッファ109に入力され、バッファ109→各データバス106a、106b→各メモリコントローラ108a、108b→各ビットバッファ103a、103bの順番で転送されて、各ビットバッファ103a、103bに書込まれる。
【0066】
各ビットバッファ103a、103bはFIFO構成のSDRAMからなるリングバッファによって構成され、伝達メディア130から転送されてくるビデオストリームを順次蓄積する。
【0067】
各ビットバッファ103a、103bが設けられているのは、従来のMPEGビデオデコーダ101においてビットバッファ103が設けられている理由と同じである。
【0068】
各フレームバッファ104a、104bはSDRAMからなり、それぞれの内部は3つの領域(前方参照領域120a、120b、後方参照領域121a、121b、Bピクチャ格納領域122a、122b)に分けられている。
【0069】
なお、部品点数を少なくしてMPEGビデオデコーダ1の部品コストを減少させるため、ビットバッファ103aとフレームバッファ104aとが1つのSDRAM内に領域を分けて設けられ、ビットバッファ103bとフレームバッファ104bとが1つのSDRAM内に領域を分けて設けられている。
【0070】
また、ビットバッファ103a、103bとフレームバッファ104a、104bとが設けられるそれぞれのSDRAMの入出力のデータバス幅(ビット幅)はともに、16bitに設定されている。そのため、各メモリコントローラ108a、108bの入出力のデータバス幅および各データバス106a、106bのデータバス幅についても、16bitに設定されている。
【0071】
メモリコントローラ108aは、ビットバッファ103aおよびフレームバッファ104aの読出動作および書込動作を制御する。また、メモリコントローラ108bは、ビットバッファ103bおよびフレームバッファ104bの読出動作および書込動作を制御する。
【0072】
各ビットバッファ103a、103bに蓄積されたビデオストリームは、各メモリコントローラ108a、108bにより、1フレーム期間ごとに1枚のピクチャ分ずつのビデオストリームが読出される。そして、ビットバッファ103aから読出された1枚のピクチャ分のビデオストリームは、メモリコントローラ108a→データバス106a→バッファ110aの順番で転送されて、MPEGデコードコア回路105に入力される。また、ビットバッファ103bから読出された1枚のピクチャ分のビデオストリームは、メモリコントローラ108b→データバス106b→バッファ110bの順番で転送されて、MPEGデコードコア回路105に入力される。
【0073】
MPEGデコードコア回路105は、従来のMPEGビデオデコーダ101と同様に、入力された1ピクチャ分のビデオストリームに対して、可変長デコード処理、逆量子化処理、IDCT処理、MC処理を順次行なう。
【0074】
そして、MPEGデコードコア回路105によるMC処理結果は、切換回路3に転送される。切換回路3は、各ノード3a、3bのいずれかの側に切換えられる。切換回路3がノード3a側に切換えられた場合、MC処理結果は、バッファ114a→データバス106a→メモリコントローラ108a→フレームバッファ104aの順番で転送されて、メモリコントローラ108aにより、フレームバッファ104aのいずれかの領域120a〜122aに格納される。また、切換回路3がノード3b側に切換えられた場合、MC処理結果は、バッファ114b→データバス106b→メモリコントローラ108b→フレームバッファ104bの順番で転送されて、メモリコントローラ108bにより、フレームバッファ104bのいずれかの領域120b〜122bに格納される。
【0075】
そして、メモリコントローラ108aにより、フレームバッファ104aの各領域120a〜122aから読出されたデータは、メモリコントローラ108a→データバス106a→各バッファ111a〜113aのいずれかの順番で転送されて、MPEGデコードコア回路105に入力される。ここで、前方参照領域120aから読出されたデータはバッファ111aを介して転送され、後方参照領域121aから読出されたデータはバッファ112aを介して転送され、Bピクチャ格納領域122aから読出されたデータはバッファ113aを介して転送される。
【0076】
また、メモリコントローラ108bにより、フレームバッファ104bの各領域120b〜122bから読出されたデータは、メモリコントローラ108b→データバス106b→各バッファ111b〜113bのいずれかの順番で転送されて、MPEGデコードコア回路105に入力される。ここで、前方参照領域120bから読出されたデータはバッファ111bを介して転送され、後方参照領域121bから読出されたデータはバッファ112bを介して転送され、Bピクチャ格納領域122bから読出されたデータはバッファ113bを介して転送される。
【0077】
各前方参照領域120a、120bには、MPEGデコードコア回路105によるMC処理において逆方向予測を行なう際に用いられる未来のIピクチャまたはPピクチャが格納される。各後方参照領域121a、121bには、MC処理において順方向予測を行なう際に用いられる過去のIピクチャまたはPピクチャが格納される。各Bピクチャ格納領域122a、122bにはBピクチャが格納される。
【0078】
各前方参照領域120a、120bおよび各後方参照領域121a、121bに格納されるIピクチャまたはPピクチャは、順方向予測または逆方向予測を行なうための元データとして使われるため、必要がなくなるまで、各領域120a、120b、121a、121bに格納し続けなければならない。Bピクチャ格納領域122a、122bに格納されるBピクチャについては元データとして扱われないため、MPEGビデオデコーダ1の外部へ出力されたら不要になる。なお、各領域120a〜122bはプレーンとも呼ばれる。
【0079】
そして、メモリコントローラ108aにより、フレームバッファ104aの各領域120a〜122aのいずれか1つから読出されたピクチャのデータは、メモリコントローラ108a→データバス106a→バッファ115aの順番で転送されて、表示回路107に入力される。
【0080】
また、メモリコントローラ108bにより、フレームバッファ104bの各領域120b〜122bのいずれか1つから読出されたピクチャのデータは、メモリコントローラ108b→データバス106b→バッファ115bの順番で転送されて、表示回路107に入力される。
【0081】
表示回路107は、各バッファ115a、115bから転送されたピクチャのデータからビデオ信号(映像信号)を生成し、そのビデオ信号をMPEGビデオデコーダ1に接続された外部機器131へ出力する。
【0082】
このように構成されたMPEGビデオデコーダ1は、従来のMPEGビデオデコーダ101と同様に、ムービーカメラ、スチールカメラ、テレビジョン、ビデオCD再生装置、DVD再生装置などに組み込まれる。なお、MPEGビデオデコーダ1をムービーカメラまたはスチールカメラに組み込む場合は、伝達メディア130がCCDなどの撮像デバイスおよびその信号処理回路に置き換えられる。
【0083】
図2は、SDRAMからなる各フレームバッファ104a、104bの前方参照領域120a、120bおよび後方参照領域121a、121bに格納される輝度(Y)データおよび色差(C)データの格納状態を模式的に示す模式図である。
【0084】
フレームバッファ104aにおいては、前方参照領域120aには前方参照用の輝度データyfの格納領域140が設けられ、後方参照領域121aには後方参照用の色差データcrの格納領域143が設けられている。
【0085】
フレームバッファ104bにおいては、前方参照領域120bには前方参照用の色差データcfの格納領域141が設けられ、後方参照領域121bには後方参照用の輝度データyrの格納領域142が設けられている。
【0086】
前述したように、色差データのデータ量は輝度データのデータ量のほぼ半分であるため、各格納領域141、143のデータ量は各格納領域140、142のデータ量のほぼ半分に設定されている。
【0087】
このように、各フレームバッファ104a、104bの各領域120a、121a、120b、121bに各データyf、cr、cf、yrを振り分けて格納することは、上記切換回路3の切換動作により容易かつ確実に行なうことができる。
【0088】
ちなみに、上述のように、各フレームバッファ104a、104bの各領域120a、121a、120b、121bに各データyf、cf、yr、crを格納するための各格納領域140〜143を設けることは、メモリマッピングと呼ばれる。
【0089】
図3は、入出力のデータバス幅が16bitのSDRAMからなるフレームバッファ104a、104bの各領域120a、121a、120b、121bから1つのマクロブロック分のデータを読出す場合におけるメモリアクセスの順番を模式的に示す模式図である。
【0090】
クレームバッファ104aに対するメモリアクセスは、格納領域140に対するコマンドオーバーヘッドcom→格納領域140からの前方参照用輝度データyfの読出→格納領域143に対するコマンドオーバーヘッドcom→格納領域143からの後方参照用色差データcrの読出の順番で行なわれる。
【0091】
フレームバッファ104bに対するメモリアクセスは、格納領域141に対するコマンドオーバーヘッドcom→格納領域141からの前方参照用色差データcfの読出→格納領域142に対するコマンドオーバーヘッドcom→格納領域142からの前方参照用輝度データyrの読出の順番で行なわれる。
【0092】
そのため、MPEGデコードコア回路105には、格納領域140から読出された前方参照用輝度データyfが転送されているときに、格納領域141から読出された前方参照用色差データcfが転送される。そのため、MPEGデコードコア回路105では、従来のMPEGビデオデコーダ101と同様に、前方参照用輝度データyfおよび前方参照用色差データcfに基づいて、MC処理による逆方向予測が行なわれる。
【0093】
また、MPEGデコードコア回路105には、格納領域143から読出された後方参照用色差データcfが転送されているときに、格納領域142から読出された後方参照用輝度データyrが転送される。そのため、MPEGデコードコア回路105では、従来のMPEGビデオデコーダ101と同様に、後方参照用色差データcrおよび後方参照用輝度データyrに基づいて、MC処理による順方向予測が行なわれる。
【0094】
つまり、各フレームバッファ104a、104b、各メモリコントローラ108a、108b、各バッファ111a、112aと各バッファ111b、112bは同時に動作し、各フレームバッファ104a、104bに対するメモリアクセスは並列処理される。
【0095】
したがって、この場合のメモリアクセスに要する時間T2は、式(2)により求められる。
【0096】
T2=2×t1+t4+t5 …(2)
ただし、t1;コマンドオーバーヘッドcomに要する時間
t4;各輝度データyf、yrの読出に要する時間
t5;各色差データcf、crの読出に要する時間
ここで、各フレームバッファ104a、104bのデータバス幅は16bitである。それに対して、従来のMPEGビデオデコーダ101のフレームバッファ104のデータバス幅は32bitである。そのため、前記時間t1、t3、t4、t5の関係は式(3)に示すようになる。
【0097】
t4=2×t2
t5=2×t3 …(3)
その結果、上記式(1)により求められる従来のMPEGビデオデコーダ101のメモリアクセスに要する時間T1と、本実施例のMPEGビデオデコーダ1のメモリアクセスに要する時間T2との関係は式(4)に示すようになる。
【0098】
T2=T1−2×t1 …(4)
したがって、本実施例にMPEGビデオデコーダ1によれば、従来のMPEGビデオデコーダ101に比べて、フレームバッファ104a、104bから1つのマクロブロック分の輝度データおよび色差データを読出す際のメモリアクセスに要する時間を、2回分のコマンドオーバーヘッドcomに要する時間(=2×t1)分だけ短縮することができる。
【0099】
また、図7Cに示すように、入出力のデータバス幅が16bitのSDRAMからなる各フレームバッファ104a、104bからハーフマクロブロック分の輝度データ(9ピクセル×17ピクセル分のデータ)を読出すには、9ピクセル×20ピクセル分のデータを読出せばよい。すなわち、入出力のデータバス幅が16bitのSDRAMにアクセスできる最少単位は水平4ピクセル分であるため、水平17ピクセル分のデータを読出すには、水平4ピクセルの5倍の20ピクセル分のデータを読出させればよい。そして、読出した9ピクセル×20ピクセル分のデータのうち、9ピクセル×17ピクセル分の必要なデータを除いた残りのデータである、9ピクセル×3ピクセル分は無駄なデータとなる。
【0100】
上述したように、従来のMPEGビデオデコーダ101では、9ピクセル×24ピクセル分のデータを読出さなければならず、そのうち、9ピクセル×17ピクセル分の必要なデータを除いた残りのデータである9ピクセル×7ピクセル分は無駄なデータとなる。
【0101】
したがって、本実施例のMPEGビデオデコーダ1によれば、従来のMPEGビデオデコーダ101に比べて、フレームバッファ104a、104bからハーフマクロブロック分の輝度データを読出す際に、9ピクセル×4ピクセル分の無駄なデータの読出を行なう必要がなくなり、その分だけメモリアクセスに要する時間を短縮することができる。
【0102】
以上詳述したように、本実施例のMPEGビデオデコーダ1によれば、従来のMPEGビデオデコーダ101に比べて、MPEGデコードコア回路105にてMC処理を行なうときに、フレームバッファ104a、104bからデータを読出す際のメモリアクセスに要する時間を短縮することが可能になる。
【0103】
したがって、本実施例によれば、フレームバッファ104a、104bの動作周波数をさらに高くしたり入出力のデータバス幅をさらに広げることなく、MPEGビデオデコーダ1の動作速度を高速化することができる。ちなみに、本実施例のMPEGビデオデコーダ1の動作速度は、従来のMPEGビデオデコーダ101に比べて1.3〜1.5倍高速になる。
【0104】
そして、フレームバッファ104a、104bとして動作周波数の高い高価で消費電力の大きなものを使用することなく、動作速度の高速なMPEGビデオデコーダ1を実現することが可能になり、MPEGビデオデコーダ1の動作速度の高速化に際して、コストアップならびに消費電力の増大を回避することができる。
【0105】
本実施例では、フレームバッファ104a、104bを構成するSDRAM、メモリコントローラ108a、108b、データバス106a、106bのデータバス幅(ビット幅)をすべて16bitに設定することにより、全体として16bit+16bitの32bitとしている。ところで、より高速な処理が要求される場合には、64bit化が必要となるが、この場合には、フレームバッファ104a、104bを構成するSDRAM、メモリコントローラ108a、108b、データバス106a、106bのデータバス幅をすべて32bitに設定することにより、全体として32bit+32bitの64bitとすればよく、このようにすれば本実施例と同様の効果を得ることができる。
【0106】
なお、本発明は上記実施例に限定されるものではなく、以下のように変更してもよく、その場合でも上記実施例と同等もしくはそれ以上の作用効果を得ることができる。
【0107】
(1) MPEGビデオデコーダ1において、各バッファ113a、113bは適宜省略することができる。また、各バッファ111a、112aの機能を1つのバッファで兼用してもよく、同様に、各バッファ111b、112bの機能を1つのバッファで兼用してもよい。
【0108】
(2) フレームバッファ104a、104bを、SDRAMではなく、書換え可能な他の形式の半導体メモリ(たとえば、DRAM、ランバスDRAM等)によって構成してもよい。
【0109】
この発明を詳細に説明し示してきたが、これは例示のためのみであって、限定となってはならず、発明の精神と範囲は添付の請求の範囲によってのみ限定されることが明らかに理解されるであろう。
【図面の簡単な説明】
【図1】 本発明の実施例1のMPEGビデオデコーダのブロック回路図である。
【図2】 実施例1の動作を説明するための第1の模式図である。
【図3】 実施例1の動作を説明するための第2の模式図である。
【図4】 従来のMPEGビデオデコーダのブロック回路図である。
【図5】 従来のMPEGビデオデコーダの動作を説明するための第1の模式図である。
【図6】 従来のMPEGビデオデコーダの動作を説明するための第2の模式図である。
【図7】 従来のMPEGビデオデコーダの動作を説明するための模式図である。
【符号の説明】
1 MPEGビデオデコーダ、2 制御コア回路、3 切換回路、103a,103b ビットバッファ、104a,104b フレームバッファ、105 MPEGデコードコア回路、106a,106b データバス、107 表示回路、108a,108b メモリコントローラ、109,110a〜115b FIFO構成のバッファ、120a,120b 前方参照領域、121a,121b 後方参照領域、122a,122b Bピクチャ格納領域、130 伝達メディア。

Claims (11)

  1. 逆方向予測および順方向予測を行なう動き補償付予測を用いてビデオストリームをデコードするビデオデコーダであって、
    前記逆方向予測に用いられる前方参照用輝度データの格納領域と、前記順方向予測に用いられる後方参照用色差データの格納領域とが設けられた第1フレームバッファと、
    前記逆方向予測に用いられる前方参照用色差データの格納領域と、前記順方向予測に用いられる後方参照用輝度データの格納領域とが設けられた第2フレームバッファと、
    前記ビデオデコーダの動作を制御するための制御回路とを備え、
    前記制御回路は、前記第1フレームバッファに対するメモリアクセス動作と前記第2フレームバッファに対するメモリアクセス動作との少なくとも一部分の動作を、並列処理で行なう、ビデオデコーダ。
  2. 前記第1および第2のフレームバッファから読み出されたデータのデコードのために、逆離散コサイン変換処理を行なう離散コサイン変換処理回路をさらに備える、請求項1に記載のビデオデコーダ。
  3. 前記制御回路は、書込み動作において、前方参照用輝度データおよび後方参照用色差データを前記第1フレームバッファにおける所定の格納領域に格納させるとともに、前方参照用色差データおよび後方参照用輝度データを前記第2フレームバッファにおける所定の格納領域に格納させる、請求項1に記載のビデオデコーダ。
  4. 前記第1および第2のフレームバッファは、読出コマンドを与えてから所定時間経過後にデータ出力が開始される第1および第2のメモリ回路をそれぞれ含む、請求項3に記載のビデオデコーダ。
  5. 前記第1および第2のメモリ回路は、それぞれ、互いに入出力のデータバス幅の等しいシンクロナスダイナミック型ランダムアクセスメモリを含む、請求項4に記載のビデオデコーダ。
  6. 前記ビデオストリームは、離散コサイン変換と、逆方向および順方向予測を行なう動き補償予測とを併用するMPEGビデオストリームである、請求項4に記載のビデオデコーダ。
  7. 前記制御回路は、読出動作において、前記第1フレームバッファと前記第2フレームバッファとに対するメモリアクセスを並列処理で行ない、
    i)前記第1フレームバッファから前方参照用輝度データを読出しているときに、前記第2フレームバッファから前方参照用色差データを読出し、
    ii)前記第1フレームバッファから後方参照用色差データを読出しているときに、前記第2フレームバッファから後方参照用輝度データを読出すように読出動作を制御する、請求項1に記載のビデオデコーダ。
  8. 前記制御回路は、書込み動作において、前方参照用輝度データおよび後方参照用色差データを前記第1フレームバッファにおける所定の格納領域に格納させるとともに、前方参照用色差データおよび後方参照用輝度データを前記第2フレームバッファにおける所定の格納領域に格納させる、請求項7に記載のビデオデコーダ。
  9. 前記第1および第2のフレームバッファは、読出コマンドを与えてから所定時間経過後にデータ出力が開始される第1および第2のメモリ回路をそれぞれ含む、請求項8に記載のビデオデコーダ。
  10. 前記第1および第2のメモリ回路は、それぞれ、互いに入出力のデータバス幅の等しいシンクロナスダイナミック型ランダムアクセスメモリを含む、請求項9に記載のビデオデコーダ。
  11. 前記ビデオストリームは、離散コサイン変換と、逆方向および順方向予測を行なう動き補償予測とを併用する、MPEGビデオストリームである、請求項9に記載のビデオデコーダ。
JP2000607421A 1999-03-23 2000-03-21 ビデオデコーダ Expired - Lifetime JP3813444B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7820799 1999-03-23
PCT/JP2000/001725 WO2000057650A1 (en) 1999-03-23 2000-03-21 Video decoder

Publications (1)

Publication Number Publication Date
JP3813444B2 true JP3813444B2 (ja) 2006-08-23

Family

ID=13655601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000607421A Expired - Lifetime JP3813444B2 (ja) 1999-03-23 2000-03-21 ビデオデコーダ

Country Status (7)

Country Link
US (1) US6871001B1 (ja)
EP (1) EP1091590A4 (ja)
JP (1) JP3813444B2 (ja)
KR (1) KR100620941B1 (ja)
CN (1) CN1132432C (ja)
AU (1) AU3196700A (ja)
WO (1) WO2000057650A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803917B2 (en) * 2001-02-15 2004-10-12 Sony Corporation Checkerboard buffer using memory bank alternation
US6828977B2 (en) * 2001-02-15 2004-12-07 Sony Corporation Dynamic buffer pages
US7379069B2 (en) 2001-02-15 2008-05-27 Sony Corporation Checkerboard buffer using two-dimensional buffer pages
DE10141130C1 (de) * 2001-08-22 2003-04-03 Sci Worx Gmbh Verfahren und Vorrichtung zur Kodierung und Dekodierung von digitalen Bilddatenströmen
KR20030018605A (ko) * 2001-08-30 2003-03-06 김희석 엠펙 코어의 움직임 보상을 위한 메모리 인터페이스와가산기의 병렬 처리
KR20050078706A (ko) * 2004-01-31 2005-08-08 삼성전자주식회사 메모리 액세스 방법 및 메모리 액세스 장치
CN1323556C (zh) * 2004-02-25 2007-06-27 凌阳科技股份有限公司 可节省暂存器的双向动态补偿方法
US7706377B2 (en) * 2004-03-03 2010-04-27 Nxp B.V. Video processing circuit and method of video processing
JP2005267148A (ja) * 2004-03-18 2005-09-29 Konica Minolta Business Technologies Inc メモリ制御装置
KR100647954B1 (ko) * 2005-01-07 2006-11-23 엘지전자 주식회사 화질 개선부가 구비된 이동 단말기 및 이동 단말기표시장치 화질 개선 방법
KR100763178B1 (ko) * 2005-03-04 2007-10-04 삼성전자주식회사 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치
WO2007023377A1 (en) * 2005-08-25 2007-03-01 Nokia Corporation Separation markers in fine granularity scalable video coding
US7965898B2 (en) * 2005-10-28 2011-06-21 Nvidia Corporation Accelerating video decoding using multiple processors
KR100761834B1 (ko) * 2006-01-13 2007-09-28 삼성전자주식회사 화면의 라인들을 복수개의 메모리에 나누어 저장하는비디오 디코딩 장치, 비디오 디코딩 방법 및 기준화면 저장방법
US8275049B2 (en) * 2006-06-16 2012-09-25 Via Technologies, Inc. Systems and methods of improved motion estimation using a graphics processing unit
US9204159B2 (en) * 2006-06-16 2015-12-01 Via Technologies, Inc. VPU with programmable core
US8369419B2 (en) * 2006-06-16 2013-02-05 Via Technologies, Inc. Systems and methods of video compression deblocking
US8243815B2 (en) * 2006-06-16 2012-08-14 Via Technologies, Inc. Systems and methods of video compression deblocking
TWI444047B (zh) * 2006-06-16 2014-07-01 Via Tech Inc 用於視訊解碼的去方塊效應濾波器、視訊解碼器與圖形處理單元
US9319708B2 (en) * 2006-06-16 2016-04-19 Via Technologies, Inc. Systems and methods of improved motion estimation using a graphics processing unit
US8498333B2 (en) * 2006-06-16 2013-07-30 Via Technologies, Inc. Filtering for VPU
KR101029075B1 (ko) 2007-03-29 2011-04-18 삼성전자주식회사 패키지형 디코더 장치
CN101543082B (zh) * 2007-05-22 2011-07-20 松下电器产业株式会社 运动图像解码装置以及运动图像解码方法
US10133485B2 (en) * 2009-11-30 2018-11-20 Red Hat, Inc. Integrating storage resources from storage area network in machine provisioning platform

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3381077B2 (ja) * 1992-12-04 2003-02-24 ソニー株式会社 動画像復号装置
JP2503853B2 (ja) 1992-12-16 1996-06-05 日本電気株式会社 動画像復号システム
JP3381855B2 (ja) * 1992-12-28 2003-03-04 ソニー株式会社 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
AU5632394A (en) * 1993-03-05 1994-09-08 Sony Corporation Apparatus and method for reproducing a prediction-encoded video signal
JP3119994B2 (ja) 1994-04-28 2000-12-25 株式会社グラフィックス・コミュニケーション・ラボラトリーズ 画像データの処理方法およびそれに用いる記憶装置ならびに画像データの処理装置
US6301299B1 (en) * 1994-10-28 2001-10-09 Matsushita Electric Industrial Co., Ltd. Memory controller for an ATSC video decoder
JP3120010B2 (ja) 1994-12-28 2000-12-25 株式会社グラフィックス・コミュニケーション・ラボラトリーズ 画像復号処理方法および画像復号装置
US6256348B1 (en) * 1996-08-30 2001-07-03 Texas Instruments Incorporated Reduced memory MPEG video decoder circuits and methods
JPH1155668A (ja) 1997-07-31 1999-02-26 Nec Corp 画像符号化装置
JP4264571B2 (ja) * 1998-04-09 2009-05-20 ソニー株式会社 ディジタル画像復号装置及び方法、並びに記録媒体
KR100274397B1 (ko) * 1998-06-18 2000-12-15 구자홍 타임랩스 영상녹화재생기의 메모리 운용방법

Also Published As

Publication number Publication date
CN1132432C (zh) 2003-12-24
EP1091590A4 (en) 2005-12-07
KR20010043749A (ko) 2001-05-25
WO2000057650A1 (en) 2000-09-28
EP1091590A1 (en) 2001-04-11
CN1306726A (zh) 2001-08-01
KR100620941B1 (ko) 2006-09-13
AU3196700A (en) 2000-10-09
US6871001B1 (en) 2005-03-22

Similar Documents

Publication Publication Date Title
JP3813444B2 (ja) ビデオデコーダ
US8660190B2 (en) Image processing apparatus implemented in IC chip
US7706445B2 (en) Image processing employing picture type conversion
JP2001285876A (ja) 画像符号化装置とその方法、ビデオカメラ、画像記録装置、画像伝送装置
US7245821B2 (en) Image processing using shared frame memory
JP3403168B2 (ja) 画像処理方法とこの方法を利用可能な画像処理装置およびテレビジョン受像機
WO1993003578A1 (en) Apparatus for coding and decoding picture signal with high efficiency
KR100860661B1 (ko) 화상 재생 방법과 화상 처리 방법, 및 이들 방법을 이용가능한 화상 재생 장치, 화상 처리 장치, 텔레비전 수상기
JP2898413B2 (ja) 所要メモリ容量の低減化を伴う圧縮ビデオデータ流の復号化及び符号化のための方法
JP3515565B2 (ja) 画像処理方法とこの方法を利用可能な画像処理装置およびテレビジョン受像機
JP3191439B2 (ja) 符号化画像信号切換装置
JP3403169B2 (ja) 画像再生方法とこの方法を利用可能な画像再生装置およびテレビジョン受像機
JP3374128B2 (ja) 画像処理方法とこの方法を利用可能な画像処理装置およびテレビジョン受像機
JP3403167B2 (ja) 画像処理方法とこの方法を利用可能な画像処理装置およびテレビジョン受像機
JP2002112262A (ja) 画像符号化装置
JP3548167B2 (ja) 画像処理装置
JP3403166B2 (ja) 画像再生方法とこの方法を利用可能な画像再生装置およびテレビジョン受像機
JP3322670B2 (ja) Mpegビデオデコーダ
JPH09200743A (ja) デコーダおよびmpegビデオデコーダ
JP2001245299A (ja) 画像処理装置および画像処理方法
JP3433179B2 (ja) 画像処理方法とこの方法を利用可能な画像処理装置およびテレビジョン受像機
TW567722B (en) Image reproducing method, image processing method, image reproducing device, image processing device, and television receiver capable of using the methods
JP2002185963A (ja) Mpegビデオデコーダ
JP2000224592A (ja) デコード装置
JPH07284106A (ja) 動画像符号化方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20010713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060531

R151 Written notification of patent or utility model registration

Ref document number: 3813444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090609

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100609

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130609

Year of fee payment: 7

EXPY Cancellation because of completion of term