JP2006014341A - Mcuバッファを用いて画像データを格納するための方法及び装置 - Google Patents

Mcuバッファを用いて画像データを格納するための方法及び装置 Download PDF

Info

Publication number
JP2006014341A
JP2006014341A JP2005184451A JP2005184451A JP2006014341A JP 2006014341 A JP2006014341 A JP 2006014341A JP 2005184451 A JP2005184451 A JP 2005184451A JP 2005184451 A JP2005184451 A JP 2005184451A JP 2006014341 A JP2006014341 A JP 2006014341A
Authority
JP
Japan
Prior art keywords
image data
memory
storing
pixels
encoding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005184451A
Other languages
English (en)
Inventor
Eric Jeffrey
ジェフリー エリック
Rai Barinder Singh
シング ライ バリンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of JP2006014341A publication Critical patent/JP2006014341A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

【課題】MCUバッファを用いて画像データを格納するための方法及び装置。
【解決手段】発明は、ブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するための方法並びに装置に関するものである。画像データの第1最小符号化単位が第1メモリに格納される。第1最小符号化単位の画像データが画素にグループ化される。グループ化された画像データは第2メモリに画像データの第2最小符号化単位として格納される。画像データは第1色フォーマットから第2色フォーマットに変換されるのが好ましい。さらに、画像が次元変換されるのが好ましい。
【選択図】 図1

Description

本発明は一般的には画像処理に関し、より具体的にはブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するための方法及び装置に関する発明である。
今日では幅広いデバイスに「コンピュータシステム」という表現は用いることができる。この表現には、メインフレーム及びパーソナルコンピュータだけでなく、パーソナルデジタルアシスタントや携帯電話といった電池を電源とするコンピュータシステムも含まれる。コンピュータシステムにおいて、CPUをCRTやLCDといった表示装置と接続するのにグラフィックスコントローラが広く使用されている。CPUが表示のための画像データ処理に関する一定の専用機能を実行しなくていいようにグラフィックスコントローラがそうした機能を実行する。例えば、グラフィックスコントローラは画像データを解凍するための回路機構だけでなく、そうしたデータを格納するための埋め込みメモリも含んでいることがある。
表示装置はラスタ順に並んだ画像データを受け取り、ビュー可能なフォーマットで描画する。ラスタ順は配列の一番上の行の一番左の画素から始まり、画素毎に左から右に進み、一番上の行の終わりまで来ると2行目に進み、再び一番左の画素から始まる。このようにして最後の行の終わりに達するまで下に向かって一行ずつ逐次的に進み続ける。
表示装置において、画像は「画素」として知られる小さな離散要素の配列(フレームと呼ばれることが多い)から形成されている。但し、この表現には別の意味がある:明度(brightness)や色といった表示されている画素の属性を定義するのに使用される画像データの要素のことを画素と呼ぶ。例えば、デジタルカラー画像において、画素は、ある色モデルによって画素を定義する24ビットワードを合わせて形成する8ビット成分のトリプレットから構成されているのが普通である。色モデルはある色域の範囲内で個々の色を指定するための方法で、3次元デカルト座標系(x, y, z)によって定義される。LCD又はCRTに表示可能な色域を定義するのに一般にRGBモデルが使われる。RGBモデルにおいて、各原色(赤・緑・青)は軸を表わし、各軸に沿ってある値が加算されて望みの色が生成される。同様に、表示装置の画素には、1つの原色を生み出すために一つずつ、3つの要素があり、成分毎にある値が結合されて望みの色をもつ表示画素が生成される。デジタルのグレースケール画像では、単一8ビット成分が各画素を定義する。
画像データは相当な記憶域と伝送容量を必要とする。例えば、24ビット画素からなる512×512の単一カラー画像を考えてみよう。この画像は786Kバイトのメモリを必要とし、毎秒128Kの伝送速度で送信に48秒かかる。メモリは比較的に安価になり、高速なデータ伝送速度が普通になってきているのは確かにそうだけれども、画像記憶容量及び伝送バンド幅に対する要求は増え続けている。さらに、大型メモリと高速プロセッサによって電池を電源とするコンピュータシステムの限りある資源にかかるエネルギー需要が増す。この問題の一つの解法は、格納又は伝送する前に画像データを圧縮することである。Joint Photographic Experts Group(JPEG)は静止画像を圧縮する人気のある方法を開発した。JPEG符号化方法を用いると、512×512のカラー画像を、表示したときに目に見える欠陥を画像に生じることなく、(圧縮率及び特定の画像のビジュアルプロパティいかんにより)サイズがわずか40〜80Kバイトとなり得るJPEGファイルに圧縮することができる。
カラー画像のJPEG符号化の前に、画素をRGB色モデルからYUVモデルに変換するのが普通である。さらに、カラーのソース画像は成分画像、つまりY画像、U画像、V画像に分離される。(言うまでもなく、ソース画像がグレースケール画像ならば、これらの画像は一つの成分しかもっていないので、このステップは不要である。)
JPEG標準は圧縮(又は符号化)プロセスの1ステップとして順方向離散コサイン変換(DCT)を用い、復号化ステップの一部として逆DCTを用いる。画像において、画素とその成分は等しく間を置いた間隔で分布されている。オーディオ信号を等間隔の時間間隔でサンプリングして振幅対時間のグラフで表現できるように、画素成分を明度といったビジュアル信号のサンプルとみなし、振幅対距離のグラフにプロットすることができる。オーディオ信号は時間周波数をもつ。ビジュアル信号は空間周波数をもつ。さらに、フーリエ変換を用いてオーディオ信号を時間領域から周波数領域に写像できるように、順方向DCTを用いてビジュアル信号を空間領域から周波数領域に写像すすることができる。人間の聴覚系はオーディオ信号の中の一定周波数成分を認知できないことが多い。同様に、人間の視覚系はビジュアル信号の中の一定の周波数成分を認知できないことが多い。JPEG符号化は認知不能な成分を表わすのに必要なデータを放棄して、データ量を減らすことができることを認識している。
JPEG標準によれば、DCTで符号化されたデータ単位の最小グループが最小符号化単位(MCU: minimum coded unit)で、YUV画像の3又は4ブロックとグレースケール画像の1ブロックとから構成される。「ブロック」は「サンプル」の8×8配列で、サンプルは成分を示す2次元配列の中の1つの要素である。JPEG圧縮には各成分画像の全てのサンプルを選択して構わない。この場合、YUV画像のMCUは、3ブロック(成分毎に1ブロック)からなる。しかし、Uブロック及びVブロックのサンプルの部分集合が圧縮のために選択されるのが普通である。このステップはクロマサブサンプリングと呼ばれることが多い。例えば、圧縮のためにU成分及びV成分のサンプルの50%か25%しか選択(クロマサブサンプリング)されないことがある。こういった場合、MCUは4ブロックと6ブロックそれぞれからなる。「サンプリングフォーマット」という表現はクロマサブサンプリングの様々なタイプ間で区別をつけるために用いられる。典型的なサンプリングフォーマットは4:4:4、4:2:2、4:2:0、4:1:1である。以下にさらに説明する。各MCUのブロックは、例えば、Y0U0V0といったように順序付けされた順番でグループにまとめられる。下付け文字はブロックを示す。MCUは圧縮される前に互い違いの又は「インタリーブ配置の」順番に並べられるが、このデータフォーマットは「ブロックインタリーブ方式」と呼ばれる。
JPEGファイルは受け取られると、CODEC(コンプレッサ/デコンプレッサ)として知られているロジックの専用ブロックによって復号化されるのが普通である。復号化プロセスからの出力はブロックインタリーブ方式の画像データである。CODECは多数のいろいろ異なるコンピュータシステムで機能するようになっているから、ブロックインタリーブ方式画像データ以外のフォーマットで画像データを出力するように設計されていない。但し、表示装置はブロックインタリーブ方式の画像データを受け取るようになっていない。むしろ、表示装置は画素がラスタ順に並んでいるものと考える。さらに、サイズ調整や色空間変換といった、画素が表示装置に供給される前にグラフィックスコントローラによって行なわれる操作が、ラスタ配列になった画素に対して行なわれるようになっている。
画像データに操作を行ない、ラスタ配列になった画素として表示装置に提供できる順序で、CODECの出力、つまりブロックインタリーブ方式の画像データは、一般にラインバッファと呼ばれるメモリにブロックとして格納されるのが普通である。ある画素の画像データが必要になると、ラインバッファの散在した場所に格納されているそれぞれの成分ブロックから3個のサンプルがフェッチされる。サンプルは画素のアセンブルされ、処理されて、普通はディスプレイ又はフレームバッファと呼ばれるメモリにラスタ順に格納される。画素は次に、フレームバッファから順次フェッチされ、表示装置に供給される。
ラインバッファは画像の少なくとも1行の画素を保持できるだけの大きさがなければならない。その理由は、グラフィックスコントローラはラスタ配列になった画素に対して操作を行なうように設計されているからである。さらに、ラインバッファは概して少なくとも2行の表示行を保持できる程度の大きさがなければならない。その理由は、「ピンポン」スキームで1行がCODECによって格納されている間にもう1行がラインバッファから読み出されるからである。JPEG復号化されたブロックインタリーブ方式のデータは8×8のブロックからなるサンプルから構成されているから、単に1行を格納することはできない。そうではなく、1行をアセンブルするのに必要なブロック数を格納しなければならない。これは、8行を格納できるブロック数と同じ数である。言い換えれば、1行を格納するには、8行を保持できる大きさのラインバッファでなければならない。ピンポン方式で交互に一行が読み出されている間にもう一行を格納するには、ラインバッファは16行を格納できるだけの大きさがなければならない。
米国特許第6,212,300号明細書
ラインバッファは少なくとも16行分の画像データを保持できなければならないので、相当なメモリ量を必要とする。さらに、グラフィックスコントローラに埋め込まれているラインバッファのサイズは、集積回路(IC)を設計する時点で予め決められている。JPEG符号化が可能なソース画像の最大幅はラインバッファのサイズによって限定されるから、サイズが異なるソース画像に対応できる柔軟性を提供できる唯一の方法は予想される最大画像幅を保持できる大きさのラインバッファを用意することである。
公知のコンピュータシステムでは大型のラインバッファを必要とする上に、大型のフレームバッファもなければならない。画像全体を格納できる大きさでなければならない。フレームバッファはグラフィックスコントローラに埋め込まれることが多いから、ICの大きな部分がフレームバッファ専用になることがある。しかし、これはメモリの無駄遣いになる。コンピュータシステムによっては、表示装置自体が画像を格納するためのメモリを含んでいる。こうしたシステムにおいて、グラフィックスコントローラのフレームバッファは重複になる。
メモリは物理的空間及び必要とする電力から考えると高価なものである。こうした理由から、ラインバッファに要するメモリ量を減らすことが望ましい。さらに、幅の狭い画像を処理することが多いけれども予想される最大画像幅に対応できる大きさのラインバッファを有するICを作成しなくても、様々なサイズのJPEG符号化された画像を解凍する柔軟性を提供できるのが好ましい。さらに、可能な限りグラフィックスコントローラに埋め込まれたフレームバッファを不要するのが好ましい。そこで、ブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するための方法及び装置に対するニーズがある。
発明は、ブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するための方法並びに装置に関する。
この方法は、(a)画像データの第1最小符号化単位を第1メモリに格納し、(b)第1最小符号化単位の画像データを画素にグループ化し、(c)グループ化された画像データを画像データの第2最小符号化単位として第2メモリに格納するステップを有する。方法は、画像データを第1色フォーマットから第2色フォーマットに変換するステップを含んでいるのが好ましい。さらに、第1最小符号化単位を格納するステップは画像を次元変換するステップを含んでいるのが好ましい。この方法は集積回路の中で実行可能で、グループ化された画像データを第2メモリに格納するステップは集積回路とは別のところにあるオフチップの第2メモリに画像データを格納することを含んでいても構わない。
装置は第1メモリ、第2メモリ、及びデバイスからなる。第1メモリは画像データの第1最小符号化単位を格納するためのものである。第2メモリは画像データの第2最小符号化単位を格納するためのものである。デバイスは第1メモリに格納された画像データを画素にグループ化し、そのグループ化された画像データを第2メモリに第2最小符号化単位として格納する。第1最小符号化単位は第1色フォーマットの画像データを含み、デバイスは第2最小符号化単位として格納するために画像データを第1色フォーマットから第2色フォーマットに変換するのが好ましい。さらに、装置は画像を次元変換するための次元変換デバイスを含んでいるのが好ましい。第1メモリとデバイスは集積回路の中に提供され、第2メモリはオフチップで、好ましくは表示装置の中に、提供されるのが好ましい。
発明の目的、構成、作用効果については、添付の図面と共に、以下に詳細に述べる発明の説明を考慮すれば、容易に理解できるようになる。
以下、本発明の実施形態を図面に基づいて説明する。
発明は、ブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するための方法並びに装置に関するものである。本明細書は、添付の図面に示した現時点で好適な発明の実施例を例にあげて説明している。可能な限り、図面及び説明において、同じ又は類似した部品、ブロック、ステップには同じ参照番号を用いている。
図1に示すのは、グラフィックスコントローラ22がCPU24及びLCD40に接続されたコンピュータシステム20のブロック図である。図1は発明の一つの好適な文脈にしかすぎない。グラフィックスコントローラ22は、CPU24及びCODEC28から受け取ったデータをバッファリングするために使用されるFIFOメモリ26を含んでいる。さらに、グラフィックスコントローラ22には埋め込みメモリ29があり、その一部はラインバッファ30としてとってあり、残りはフレームバッファ36としてとってある。グラフィックスコントローラ22は、次元変換("DT")回路32、色空間変換("CSC")回路34、LCDインタフェース("I/F")回路38も含んでいる。
コンピュータシステム20の動作を説明する前に、更なる背景として、次元変換回路32が実行する変換操作と画像データのフォーマットについて説明する。
図2に、表示装置に表示される前にフレームに実施できる一つのタイプの次元変換操作を示す。これはクロッピング操作である。オリジナルフレーム50とクロップされたフレーム52を図2に示した。各フレームは複数の画素54からなり、各画素は正方形で表わされている。ある特定の画素54の座標位置はフレームの上辺と左辺に沿った番号で与えられる。画像をクロップする量はクロッピングパラメータ集合によって決められる。具体的には、クロッピングパラメータはどの領域をオリジナルフレーム50から削除するかを定義し、座標値で指定することができる。例えば、クロッピングパラメータを水平方向及び垂直方向の開始画素と停止画素とすることができる。例えば、オリジナルフレーム50で画素4個分の距離をフレームの上下左右から削除しようとする場合には、開始画素の座標は(4,4)で、停止画素の座標は(15、15)である。
図3に、表示される前にフレームに実施できる別の次元変換操作を示す。図3に表示したのはスケーリング操作である。画像をスケール処理する量は倍率によって決められる。例えば、クロップされたフレーム52をオリジナルサイズの四分の一に縮小しようとする場合には、倍率は二分の一である。数あるアルゴリズムのどれを用いて画像をスケール処理して構わない。倍率「二分の一」を用いる単純な線形アルゴリズムに従って画像をスケール処理するとき、一行置きに画素54が放棄されると共に一つの行内で画素が一つ置きに放棄される。この線形アルゴリズムと倍率「二分の一」を用いてクロップされたフレーム52をスケール処理すると、クロップ及びスケール処理されたフレーム56が生まれる。画素54の行の写像と放棄されない行内の画素を示すために、図3にはフレーム52内の2個の模式的画素の座標([2,9]及び[10,3])とスケール処理されたフレーム56内のこれらの画素の位置も表示している。フレームをクロップするかスケール処理するかどちらかによって、或いはその両方によってフレームのサイズを変える処理のことをここでは「次元変換」と呼んでいる。この表現には、クロッピング、スケーリングのほか、当技術分野で知られている或いはこれから知られるようになる類似の処理のためのアルゴリズムが含まれるものと考える。
図4に、発明の文脈を理解する一助となると考える画素のフレームを示す。述べたように、表示装置上のRGB画素の属性を定義する数値を3バイトのワードで表わすことができる。1バイトが各色成分を表わす。図4に、3個の成分画像74を示している。すなわち、画素のR成分を全てRフレーム内のそれぞれの座標位置に示し、G成分を全てGフレーム内に示し、B成分を全てBフレーム内に示している。図5に示すような成分画像は「画素平面」と呼ばれることがある。画像をYUVといった他の色モデルで表現して同じような画素平面を形成することができる。
図5は、JPEGファイルの生成の態様を示すブロック図である。概して、JPEGファイルの生成はRGBフォーマットのソース画像70から始まる。第1ステップ72("SEP")はRGB画像をR, G, Bの成分画像74に分離する。成分画像74は図4の画素平面に対応しており、色成分毎に1個の画素平面74が生成される。第2ステップ76("CSC")はR, G, Bの画素平面74をY, U, Vの画素平面78に変換する。
クロマサブサンプリングのステップ80("SAM")で、UとVの画素平面78を所定のサンプリングフォーマットに従ってクロマサブサンプリングする。普通には、サンプリングフォーマットは4:4:4、4:2:2、4:1:1か、4:2:0である。4:4:4のサンプリングフォーマットでは、Y、U、Vの各サンプルがY、U、Vの画素平面からそれぞれ圧縮のために選択される。言い換えれば、サンプリングフォーマットが4:4:4の場合には、U、Vのサンプルが100%選択される。サンプリングフォーマットが4:2:2の場合には、ここでもYのサンプルは全て選択されるが、U、Vのサンプルは50%しか選択されない。
図6a〜cは、3つの模式的水平方向サンプリングフォーマットに従ってクロマサブサンプリングするステップ80("SAM")でサンプルがどのように選択されるかを描いている。各ブロック110はY、U又はVのサンプルの8×8行列である。JPEGプロセスで、必ずN×N(正方形)行列であるブロックからサンプルが選択される。各サンプルはブロック内の正方形で表わされ、正方形内の丸はサンプルが選択されることを示している。中に丸が入っていない正方形は選択されない、つまり放棄される。各ブロックで、各行は4個の連続するサンプルからなる2個のグループGから構成される。
図6aで、グループGの4個のサンプルは全て選択されている。図6bでは、各グループGの最初と3番目のサンプルが選択されている。そして、図6cでは、各グループの最初のサンプルだけが選択されている。ブロックは8×8だから、サンプル集合114と116は正方形ブロックを形成できる大きさではない。これらの集合は、8×8のブロックを生成するために同じタイプの成分の同じような集合と結合される。
図7a〜cは、ソース画像60の成分ブロック62への写像を示している。図7aに示すのはソース画像60である。画像60は画素P0からP24を有する24個の8×8のブロックからなる。図7bで、サンプルは4:4:4のサンプリングフォーマットを用いて選択されている。(破線で示したように)成分ブロックY0、U0、V0が画素ブロックP0とP1からそれぞれ生成される。図7cで、サンプルは4:2:2のサンプリングフォーマットを用いて選択されている。成分ブロックY0及びY1が画素ブロックP0とP1からそれぞれ生成される。これらのブロックが一緒に一つの8×8のUサンプルのブロックと一つの8×8のVサンプルのブロック、つまりU0及びV0を生成する。図7dで、サンプルは4:1:1のサンプリングフォーマットを用いて選択されている。画素ブロックP0〜P3からYの成分ブロックが4個生成される。しかし、これら4個の画素ブロックからU成分とV成分は各々1ブロックしか生成されない。順方向DCTで符号化された最小のデータ単位グループがMCUである。これらの図で、ブロック62は指定されたサンプリングフォーマットのMCUを形成している。
再び図5において、各ブロックはステップ96("ENC")でJPEG符号化されている。すなわち、各ブロックはJPEG方法に従って別々に圧縮されている。ステップ98("SAA")で、画素成分の圧縮ブロックが選択されJPEGファイル100に配列される。
図8にJPEGファイル100を示す。JPEGファイル100で、画像データは4:2:2のサンプリングフォーマットに従ってブロックインタリーブ配置になっている。JPEGファイル100は、Y画素平面90から2個のシーケンシャルブロックと、その後にU及びVの画素平面92、94からそれぞれ1ブロック続くという構成になっている。全ての平面から全てのブロックが選択され終わるまでこのパターンが繰り返される。異なるサンプリングフォーマットを採用する場合には、それに応じてブロックインタリーブ方式のフォーマットを修正変更することになる。
図1は、画像データがJPEGファイルフォーマットから表示できる状態のラスタ配列画素になるまでの経路を示している。操作時、CPU24はFIFO26にJPEGファイルを書き込む。CPU24は例証のためのデバイスであり、JPEGファイルはカメラ、ネットワークインタフェースモジュール、メモリコントローラや、その他のデータ転送機能をもつデバイスといった別のデバイスによって書き込まれても構わない。CODEC28はFIFO26にアクセスし、逆DCTベースのプロセスを用いてJPEGファイルを解凍して、復号化されたブロックインタリーブ方式の画像データをラインバッファ90に書き込む。
図9a〜cは、ブロックインタリーブ方式の画像データをラインバッファ30に格納する公知の方法の一つを示している。図9a〜cは、4:4:4、4:2:2、4:1:1のサンプリングフォーマットに従って生成されたMCUをどのようにしてラインバッファに格納できるかを示している。図において、ラインバッファ30の前半にはYサンプルが格納され、後半にUとVのブロックが格納されている。ラインバッファの各半分はさらに上下の領域R1及びR2に分割されている。これらの領域は、ピンポン方式で交互に一つの行のブロックが読み出されている間に別の行のブロックを格納するために使用される。次元変換回路32がその動作を始めるためには完全な一行の画素を必要とする。図9a〜cに表示していないけれども、CODECは完全な一行の画素を形成できる程度のブロック数をラインバッファに格納する。例えば、幅512の表示は完全な一行の画素を形成するのに64のMCUを必要とする。
次元変換回路32はラインバッファ30に格納されたサンプルを読み取り、そのサンプルを画素にアセンブルし、クロッピング又はスケーリングといった所望する次元変換処理を行なった後、画素を色空間変換回路34に送る。ある画素を得るには、次元変換回路32はメモリの散在した場所からサンプルをフェッチしなければならない。色空間変換回路34は画素データをRGBフォーマットに変換して、ラスタ順にフレームバッファ36に格納する。LCDインタフェース回路38はフレームバッファ36から画素を読み取って、表示のために表示装置40にラスタ順で送る。表示装置40をLCDとして示しているが、CRT又はビューイングできるように画像データを描画する類似のデバイスを代わりに使用して構わない。
図10に示すのは、発明の原理に基づいたグラフィックスコントローラ122を有するコンピュータシステム120のブロック図である。グラフィックスコントローラ122は構造的にはグラフィックスコントローラ22に多少似ている。しかし、ラインバッファ30の代わりにMCUバッファ130が使用されている。さらに、データ経路を変更している。次元変換回路132はCODECから復号化されたブロックインタリーブ方式の画像データを受け取り、サイズ変更された画像データをMCUバッファ130に格納する。さらに、色空間変換器134は画像データをMCUバッファ130からフェッチする。そのために、メモリ129がメモリ29に比べ実質的に小さくなっている。
次元変換回路132はJPEG復号化されたブロックインタリーブ方式のデータによって表わされた画像をその画像データをアンダーサンプリングすることによってクロップ又はスケール処理する。CODEC28はブロックインタリーブ方式フォーマットのY、U、V画素成分を次元変換回路132に書き込む。画素単位で次元変換処理を行なう公知の次元変換回路32と違って、次元変換回路132はサンプル単位で次元変換処理を行なう。
図11に、次元変換回路132をはるかに詳細に示す。DT回路132にはデータ受信器があり、好適な実施例においてデータ受信器にはデータ経路140と書き込み経路142とがある。データ経路140は画像データのストリームを受け取り、MCUバッファ130に提供するためのものである。データ経路140は1バイト幅が好ましいが、どんな幅でも構わない。データ経路140はレジスタなどデータを一時的に格納するためのしかるべきメモリ構造体をオプションで含んでいても構わない。DT回路にはデータ経路140に新たなバイトの(或いは他の単位の)画像データを出力したという知らせをCODEC28から受け取るための書き込み経路142も含まれている。書き込み経路はイネーブルスイッチ150を介してMCUバッファ130に接続されている。カウンタ144はバイトカウンタが好ましく、書き込み経路142に接続され、入ってくるサンプルを数えるのに使用される。カウンタ144はサンプル毎にシーケンス番号を割り当てる。シーケンス番号によってDT回路132はどのタイプのサンプルを受け取るか判定することが可能になるだけでなく、サンプルと関連付けられた画素の行と列(x, y)の座標位置を判定することが可能になる。例えば、64まで数えると、DT回路132は一つのタイプの成分のサンプルの8×8ブロック全体を受け取ったことを認識する。次元変換回路132は、64に達したという事実も利用して、次の成分、すなわち、65番目のバイトは別のタイプの成分であると判定する。
次元変換回路132には比較器146も含まれている。比較器146はカウンタ144の出力を受け取り、クロッピングやスケーリングといった次元変換操作を実行するのに各サンプルの算出(x, y)座標値を用いる。クロッピング及びスケーリング操作を定義するのに使用されるパラメータはパラメータメモリ148に格納されるのが好ましい。サンプルのシーケンス番号、つまり、等価(x, y)座標値がしかるべき単数又は複数のパラメータと比較される。(パラメータはユーザによる次元変換操作より前に直接又は間接に選択されるのが一般的である。)比較結果がサンプルと関連付けられた画素は次元変換された画素に含まれることを示していれば、比較器は書き込み経路142をイネーブルにする信号147を生成する。それに対し、画素が画像に含まれない場合、イネーブル信号は生成されない。イネーブル信号によってイネーブルスイッチ150が閉じて、次に書き込み信号がMCUバッファに渡される。MCUバッファは書き込み信号を受け取ると、データ経路140に乗っているデータを格納する。MCUバッファは書き込み信号を受け取らないと、データ経路上のデータを格納しないので、その場合次のサンプルで上書きされることがある。
書き込みイネーブル信号147及びスイッチ150は様々なやり方でインプリメントできる。イネーブル信号及びスイッチは一つの好適な実施例ではあるけれども、発明はこのインプリメンテーションに限定されるものでない。カウンタ144が提供したシーケンス番号(又は座標値)を所定の次元変換パラメータと比較した結果に基づいてサンプルをMCUバッファに格納させる又は格納させないハードウェア、ソフトウェア、又はファームウェアを考えている。
色空間変換器134はMCUバッファ130からサンプルをフェッチし(図10)、それを画素にグループ化し、画像データをYUVからRGBに色変換する。色空間変換器134は、MCUバッファの散在した場所に格納されているY、U、V成分ブロックからサンプルをフェッチするためのロジックを含んでいるという点で先行技術の回路34とは異なる。タイミング要件しだいで、メモリ129をSRAMとして提供するのが有効なことがある。その理由は、このタイプのメモリは高速アクセスを可能にするからである。サンプルをフェッチし、サンプルを画素にグループ化して、画像データを色変換した後、色空間変換器134はフレームバッファ36に、好ましくはラスタ順で、画素を格納する。
要約すれば、グラフィックスコントローラ122はブロックインタリーブ方式の画像データのストリームを受け取り、次元変換し、色空間変換し、MCUバッファを用いて画素をフレームバッファなどメモリに格納する。こうすると、MCUバッファはラインバッファに比べかなり小さいから、物理的スペース及びパワーの節約になるだけでなく、グラフィックスコントローラ122はどんなサイズのJPRG画像でも復号化できる柔軟性を提供する。
発明は、ブロックインタリーブ方式の画像データのストリームを受け取り、次元変換し、色空間変換し、MCUバッファを用いて画素をフレームバッファなどメモリに格納するための方法にも関する。この方法は、ハードウェア、ファームウェア、ソフトウェア、又はそうした実施例の組合せで実施することができる。さらに別の実施例において、この方法を命令プログラムとして実施し、機械可読媒体に格納することもできる。コンピュータシステムなど機械は媒体を読み、この方法を実行するための命令を実行する。
この方法を実行する機械は画像データの第1最小符号化単位をMCUバッファなどメモリに格納する。機械は画像データを格納するときにそのデータを次元変換することができる。機械は最小符号化単位の画像データを画素にグループ化する。この方法を実行する機械は一般的に、画素を定義するのにどのサンプルが必要か判定してからそうしたサンプルを読み出すことによってデータをグループ化する。機械はグループ化された画像データを別のメモリに格納する。別のメモリとは一般的にフレームバッファで、グラフィックスコントローラに埋め込むことができる。その別のメモリに画像データを格納する前に、機械はデータを第1から第2の色フォーマットに変換するのが好ましい。
図12に示すのは、ブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するためのグラフィックスコントローラ222の別の実施例である。この実施例において、グラフィックスコントローラ222にはフレームバッファがない。色空間変換器234は画素を直接LCDインタフェース238に送り、LCDインタフェースは(ラスタ配列になった画素ではなく)画素のブロックを表示装置240に書き込み。表示装置240は、メモリ242を備えていないという点で、表示装置40とは異なる。フレームメモリが削除されているから、メモリ229はメモリ129に比べ実質的に小さくなっている。
表示装置240のメモリ242は画素データの1個のフレーム全体を格納する。表示装置240はその表示画面を自己リフレッシュするためのリフレッシュ回路機構を含んでいる。この回路機構は、表示画面を更新するために、メモリ242に格納されている画素データを読み取る。メモリ242の画素はラスタ順に並んでいる。メモリ242は表示装置240に埋め込まれているのが好ましいが、グラフィックスコントローラ222及び表示装置240とは別のところにあっても構わない。
グラフィックスコントローラ222は、表示装置240の表示画面のために規定されたリフレッシュタイミング要件とは無関係にメモリ242を更新することができる。さらに、グラフィックスコントローラ222は1個のフレーム全体を或いはその一部を用いてメモリ242を更新することができる。したがって、フレームからフレームで画像の一部分だけが変化する場合には、グラフィックスコントローラは変化する部分だけを更新すればいい。グラフィックスコントローラがメモリ242を更新するのに用いる手順は表示装置40をリフレッシュするためのすでに知られている手順とは異なる。
従来の方法では、表示装置40を更新する際、公知のグラフィックスコントローラ22は開始アドレスと終止アドレスを表示装置40に送る。送られた開始アドレスはフレームの最上行の一番左の画素のアドレスである。終止アドレスはフレームの最後の行の一番右の画素のアドレスである。LCDインタフェース38が次に、フレームバッファ36に格納されている画素をラスタ順に読み取って、各画素を表示装置40に書き込む。LCDインタフェース38はそのタイミング要件に合わせて画素を表示装置に書き込む。新たな各画素を受け取ると、表示装置40は画素を表示画面の増分するアドレスに送る。
公知のグラフィックスコントローラ22と同じように、グラフィックスコントローラ222のLCDインタフェース238も開始アドレスと終止アドレスを表示装置240に送る。グラフィックスコントローラ222が画素ブロックを送る準備をしている場合、送られているブロックの最上行の一番左の画素のアドレスが開始アドレスである。終止アドレスはそのブロックの最後の行の一番右の画素のアドレスである。LCDインタフェース238は画素を色空間変換器234から受け取る。画素を受け取ると、それを表示装置240に書き込み、表示装置240は画素をメモリ242に開始アドレスから増分するアドレスに格納する。
図13に、色空間変換器234からLCDインタフェース238を介して表示装置240に画素が送られる順序を示す。図13は画素ブロック250を例証したものである。各ボックスの中にシーケンス番号を表示したが、各ボックスはブロック内のある特定の座標にある画素を表わしている。表示した画素が送られる順序について次の段落でさらに詳しく説明する。
概して、画素ブロックは、X、Y、Nは整数であるとして、2個の隅の画素PX,YとPX+N,Y+Nで定義することができる。変数X及びYはそれぞれ画像の任意の水平座標及び垂直座標を示している。例えば、図7aに表示した画素ブロックが8×8であると仮定すれば、画素ブロックP8は隅の画素P16,8とP23,15で定義することができる。nは整数であるとして、各画素ブロックは複数の画素PX+n,Y+nを含んでいる。画素ブロックP8は、Xが15でYが7、nは順番にゼロからN-1までの範囲である。画素ブロックP8はN×Nの行列だから、Nは8とすれば、nは順番に0から7までの範囲である。(ブロック250でも、nは順番に0から7までの範囲である。)一般的な専門用語を用いると、画素を送る順序は画素PX,YからPX+n,Yを送り、次に画素PX,Y+1からPX+m,Y+1を送り(mは順番に0から7までの範囲)、行Yが全て送られ終えるまでこのパターンで送り続ける。
例をあげて説明すると、画素0,1,2,3,4,5,6,7が先ず最初に送られる。画素8,9,10,11,12,13,14,15が次に送られる。画素16,17,18,19,20,21,22,23がその次に送られる。といった具合に送られ、送られる最後の8画素は56、57、58,59,60,61,62,63である。
画素ブロックをメモリ242に送った後、グラフィックスコントローラ222は別のブロックを送ることができる。グラフィックスコントローラ222はこれを表示装置240に新たなブロックの開始アドレスと終止アドレスを先ず送ることによって行なう。新たな画素ブロックは画像のどのブロックでも構わない。グラフィックスコントローラ222は次にその新たな画素ブロックを表示装置に送る。
図12に表示されていないけれども、LCDインタフェース238には色空間変換器238から画素を受け取るための受信器と画素をメモリ242に書き込むための送信器が含まれている。
発明は、ブロックインタリーブ方式の画像データのストリームを受け取り、次元変換し、色空間変換し、表示装置のメモリなどメモリにMCUバッファを用いて画素を格納するための方法にも関する。この方法は、ハードウェア、ファームウェア、ソフトウェア、又はそうした実施例の組合せで実施することができる。さらに別の実施例において、この方法を機械可読媒体に格納された命令プログラムに実施することもできる。コンピュータなど機械は媒体を読み、この方法を実行するための命令を実行する。
この方法を実行する機械は画像データの第1最小符号化単位をMCUバッファなどメモリに格納する。機械は画像データを格納するときにそのデータを次元変換することができる。機械は最小符号化単位の画像データを画素にグループ化する。この方法を実行する機械は一般的に、画素を定義するのにどのサンプルが必要か判定してからそうしたサンプルを読み出すことによってデータをグループ化する。機械はグループ化された画像データを別のメモリに格納する。この別のメモリはMCUバッファを保有している集積回路の外にある。その別のメモリは表示装置の表示装置の一部であるのが好ましい。その別のメモリに画像データを格納する前に、機械は第1から第2の色フォーマットにデータを変換するのが好ましい。
発明を4:4:4、4:2:2、4:1:1のサンプリングフォーマットに従ってMCUで例証してきた。但し、発明はこれらの模式的サンプリングフォーマットに限定されるものではない。発明の原理は、4:2:0或いは4:0:0など他のサンプリングフォーマットにも同じように適用可能である。
発明をYUV及びRGBの色フォーマットに関して例証してきた。発明は、CMY、YIQ、又はCIEといった他の色フォーマット又は色モデル、或いはどんな色フォーマット又はモデルの変形版で実施することができる。さらに、発明をグレースケール画像で実施しても構わない。
発明をLCDで例証してきた。発明は、CRT、OLED、プラズマディスプレイ、或いはプリンタやハードコピーの画像を描画するためのその他のデバイスなど、画素で構成されたソース画像を描画するための類似の又は同等のデバイスで実施できることを理解するだろう。
上記の明細書において使用した言葉使いや表現は説明の用語としてであって限定の用語として使用していない。また、表示し説明した構成の均等物或いはその一部を除外するつもりはない。発明の範囲は以下に述べる請求項によってのみ定義並びに限定されるものである。
JPEGファイルを受信及び復号化し、復号化された画像データを表示できるように処理し、ソース画像を表示するためのコンピュータシステムのブロック図。 オリジナルフレーム及びクロップされたフレームを示す図。 図3のクロップされたフレームとスケール処理されたフレームを示す図。 画素平面(pixel plane)集合としてのフレームをそれぞれ示す図。 JPEGファイルの作成を例証するブロック図。 成分画像からサンプルを選択するための3つの模式的方法をそれぞれ示す。 ソース画像と、3つの模式的サンプリングフォーマットに従ってソース画像からサンプルを選択して形成されたブロックを示す。 ブロックインタリーブ方式のJPEGファイルを示す。 第1、第2、第3サンプリングフォーマットに従って作成されたMCUをどのようにラインバッファに格納できるかを示すブロック図。 発明の一つの好適な実施例に従って、ブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するためのコンピュータシステムのブロック図。 図10に示した次元変換回路のブロック図。 発明の別の好適な実施例に従って、ブロックインタリーブ方式のフォーマットで受け取った画像データをMCUバッファを用いて格納するためのコンピュータシステムのブロック図。 サンプルが配列される順序を示すサンプルブロックの図。
符号の説明
22 グラフィックスコントローラ
24 CPU
26 FIFO
28 CODEC
29 メモリ
30 ラインバッファ
32 次元変換器
34 色空間変換回路
36 フレームバッファ
38 LCDインタフェース
40 表示装置
100 JPEGファイル
122 グラフィックスコントローラ
130 MCUバッファ
132 次元変換回路
134 色空間変換回路
140 データ
142 書き込み
144 カウンタ
146 比較器
147 イネーブル信号
148 パラメータ
150 イネーブルスイッチ
152 アドレス生成器
222 グラフィックスコントローラ
229 メモリ
234 色空間変換回路
238 LCDインタフェース
240 表示装置
242 メモリ

Claims (23)

  1. ブロックインタリーブ方式のフォーマットで受け取った画像データを格納するための方法であって、
    画像データの第1最小符号化単位を第1メモリに格納するステップと、
    前記第1最小符号化単位の画像データを画素にグループ化するステップと、
    グループ化された画像データを第2メモリに画像データの第2最小符号化単位として格納するステップとを含む方法。
  2. 前記第1最小符号化単位は第1色フォーマットの画像データを含み、前記第2最小符号化単位として格納するために画像データを前記第1色フォーマットから第2色フォーマットに変換するステップをさらに含む、請求項1に記載の方法。
  3. 第2最小符号化単位は2個の隅の画素PX,YとPX+N,Y+Nで定義され、ここでNは整数で、X及びYは前記画素の2次元座標を表わしており、前記格納のステップは、nは順番にゼロからNまでの範囲の整数であるとして、画素PX,YからPX+n,Yを格納し、さらにその後、mは順番にゼロからNまでの範囲の整数であるとして、画素PX,Y+1からPX+m,Y+1を格納するステップをさらに含む、請求項1に記載の方法。
  4. 前記第1最小符号化単位を格納するステップの前に画像データを次元変換するステップをさらに含む、請求項1に記載の方法。
  5. 前記方法は集積回路の中で実行され、グループ化された画像データを第2メモリに格納する前記ステップは前記集積回路の外にある第2メモリに画像データを格納することを含む、請求項1に記載の方法。
  6. 前記第1メモリ及び前記第2メモリは別個のものである、請求項1に記載の方法。
  7. ブロックインタリーブ方式のフォーマットで受け取った画像データを格納する方法を実行するために機械が実行可能な命令プログラムを実装している機械可読媒体であって、前記方法が、
    画像データの第1最小符号化単位を第1メモリに格納するステップと、
    前記第1最小符号化単位の画像データを画素にグループ化するステップと、
    グループ化された画像データを第2メモリに画像データの第2最小符号化単位として格納するステップとを含む、機械可読媒体。
  8. 前記第1最小符号化単位は第1色フォーマットの画像データを含み、前記方法が前記第2最小符号化単位として格納するために画像データを前記第1色フォーマットから第2色フォーマットに変換するステップをさらに含む、請求項7に記載の媒体。
  9. 第2最小符号化単位は2個の隅の画素PX,YとPX+N,Y+Nで定義され、ここでNは整数で、X及びYは前記画素の2次元座標を表わしており、前記格納のステップは、nは順番にゼロからNまでの範囲の整数であるとして、画素PX,YからPX+n,Yを格納し、さらにその後、mは順番にゼロからNまでの範囲の整数であるとして、画素PX,Y+1からPX+m,Y+1を格納するステップをさらに含む、請求項7に記載の媒体。
  10. 前記方法が前記第1最小符号化単位を格納するステップの前に画像データを次元変換するステップをさらに含む、請求項7に記載の媒体。
  11. 前記方法は集積回路の中で実行され、グループ化された画像データを第2メモリに格納する前記ステップは前記集積回路の外にある第2メモリに画像データを格納することを含む、請求項7に記載の媒体。
  12. 前記第1メモリ及び前記第2メモリは別個のものである、請求項7に記載の方法。
  13. ブロックインタリーブ方式のフォーマットで受け取った画像データを格納するための装置であって、
    画像データの第1最小符号化単位を格納するための第1メモリと、
    画像データの第2最小符号化単位を格納するための第2メモリと、
    第1メモリの画像データを画素にグループ化し、そのグループ化された画像データを第2メモリに第2最小符号化単位として格納するようになっているデバイスとを含む装置。
  14. 前記第1最小符号化単位は第1色フォーマットの画像データを含み、デバイスはさらに前記第2最小符号化単位として格納するために画像データを前記第1色フォーマットから第2色フォーマットに変換するようになっている、請求項13に記載の装置。
  15. 第2最小符号化単位は2個の隅の画素PX,YとPX+N,Y+Nで定義され、ここでNは整数で、X及びYは前記画素の2次元座標を表わしており、前記デバイスはさらに、nは順番にゼロからNまでの範囲の整数であるとして、画素PX,YからPX+n,Yを格納し、さらにその後、mは順番にゼロからNまでの範囲の整数であるとして、画素PX,Y+1からPX+m,Y+1を格納するようになっている、請求項13に記載の装置。
  16. 第1最小符号化単位を第1メモリに格納すると共に、画像を次元変換するようになっている次元変換デバイスをさらに含む、請求項13に記載の装置。
  17. 前記第1メモリ及び前記デバイスは集積回路の中に設けられているが、第2メモリはオフチップであり、前記デバイスはさらにグループ化された画像データを第2メモリに格納するようになっているインタフェースデバイスにグループ化された画像データを提供するようになっている、請求項13に記載の装置。
  18. ブロックインタリーブ方式のフォーマットで受け取った画像データを格納するためのコンピュータシステムであって、
    中央処理装置と、
    表示装置と、
    グラフィックスコントローラとを備え、グラフィックスコントローラは、
    画像データの第1最小符号化単位を格納するための第1メモリと、
    画像データの第2最小符号化単位を格納するための第2メモリと、
    第1メモリの画像データを画素にグループ化し、そのグループ化された画像データを第2メモリに第2最小符号化単位として格納するようになっているデバイスとを含む、コンピュータシステム。
  19. 前記第1最小符号化単位は第1色フォーマットの画像データを含み、デバイスはさらに前記第2最小符号化単位として格納するために画像データを前記第1色フォーマットから第2色フォーマットに変換するようになっている、請求項18に記載のコンピュータシステム。
  20. 第2最小符号化単位は2個の隅の画素PX,YとPX+N,Y+Nで定義され、ここでNは整数で、X及びYは前記画素の2次元座標を表わしており、前記デバイスはさらに、nは順番にゼロからNまでの範囲の整数であるとして、画素PX,YからPX+n,Yを格納し、さらにその後、mは順番にゼロからNまでの範囲の整数であるとして、画素PX,Y+1からPX+m,Y+1を格納するようになっている、請求項18に記載のコンピュータシステム。
  21. 第1最小符号化単位を第1メモリに格納すると共に、画像を次元変換するようになっている次元変換デバイスをさらに含む、請求項18に記載のコンピュータシステム。
  22. 前記第1メモリ及び前記デバイスは集積回路の中に設けられている一方、第2メモリはオフチップであり、前記デバイスはさらにグループ化された画像データを第2メモリに格納するようになっているインタフェースデバイスにグループ化された画像データを提供するようになっている、請求項18に記載のコンピュータシステム。
  23. 前記第2メモリは前記表示デバイスの中に設けられている、請求項22に記載のコンピュータシステム。
JP2005184451A 2004-06-25 2005-06-24 Mcuバッファを用いて画像データを格納するための方法及び装置 Withdrawn JP2006014341A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/876,966 US7421130B2 (en) 2004-06-25 2004-06-25 Method and apparatus for storing image data using an MCU buffer

Publications (1)

Publication Number Publication Date
JP2006014341A true JP2006014341A (ja) 2006-01-12

Family

ID=35505800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005184451A Withdrawn JP2006014341A (ja) 2004-06-25 2005-06-24 Mcuバッファを用いて画像データを格納するための方法及び装置

Country Status (2)

Country Link
US (1) US7421130B2 (ja)
JP (1) JP2006014341A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187270A (ja) * 2009-02-13 2010-08-26 Fuji Xerox Co Ltd 画像処理装置、画像読取装置及び画像形成装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7346220B2 (en) * 2003-07-23 2008-03-18 Seiko Epson Corporation Method and apparatus for reducing the bandwidth required to transmit image data
US7421130B2 (en) * 2004-06-25 2008-09-02 Seiko Epson Corporation Method and apparatus for storing image data using an MCU buffer
US7386178B2 (en) * 2004-07-29 2008-06-10 Seiko Epson Corporation Method and apparatus for transforming the dimensions of an image
TWI257256B (en) * 2005-02-05 2006-06-21 Via Tech Inc Sampling method of image data
US9922600B2 (en) * 2005-12-02 2018-03-20 Semiconductor Energy Laboratory Co., Ltd. Display device
JP2007193159A (ja) * 2006-01-20 2007-08-02 Fujitsu Ltd 画像表示制御装置および画像表示制御方法
US8243340B2 (en) * 2006-02-23 2012-08-14 Microsoft Corporation Pre-processing of image data for enhanced compression
US20080001934A1 (en) * 2006-06-28 2008-01-03 David Anthony Wyatt Apparatus and method for self-refresh in a display device
US20080143695A1 (en) * 2006-12-19 2008-06-19 Dale Juenemann Low power static image display self-refresh
TWI332796B (en) * 2007-03-15 2010-11-01 Via Tech Inc Method for buffering output pixel data of a jpeg image
CN101667407B (zh) * 2009-05-25 2013-06-05 北京中星微电子有限公司 一种带宽自适应的图像数据访问方法、系统及显示控制装置
US8824811B2 (en) * 2012-03-06 2014-09-02 Htc Corporation LCD module, portable electronic devices and displaying method thereof
US9930353B2 (en) * 2013-03-29 2018-03-27 Sony Corporation Image decoding device and method
US9930354B2 (en) 2015-12-11 2018-03-27 Google Llc Skip scanlines on JPEG image decodes
US10824500B1 (en) 2017-09-22 2020-11-03 United Services Automobile Association (Usaa) Systems and methods for verifying vehicle identification number (VIN)
US11570477B2 (en) * 2019-12-31 2023-01-31 Alibaba Group Holding Limited Data preprocessing and data augmentation in frequency domain
CN113902018A (zh) * 2021-10-12 2022-01-07 深圳壹账通智能科技有限公司 图像样本生成方法、装置、计算机可读介质及电子设备

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5193003A (en) 1989-08-15 1993-03-09 Sony Corporation Apparatus for decoding digital video data with small memory requirement
KR930002776B1 (ko) 1990-12-13 1993-04-10 삼성전자 주식회사 온스크린 디스플레이에 있어서 로우버퍼의 데이타 저장방법 및 그 제어장치
US5806072A (en) * 1991-12-20 1998-09-08 Olympus Optical Co., Ltd. Electronic imaging apparatus having hierarchical image data storage structure for computer-compatible image data management
US5359694A (en) * 1992-07-27 1994-10-25 Teknekron Communications Systems, Inc. Method and apparatus for converting image data
US5237646A (en) 1992-10-13 1993-08-17 Hewlett-Packard Company Pixel image enhancement employing a reduced template memory store
KR100363588B1 (ko) 1993-03-25 2003-02-17 세이코 엡슨 가부시키가이샤 화상처리장치
US5809174A (en) 1993-04-13 1998-09-15 C-Cube Microsystems Decompression processor for video applications
JPH0750752A (ja) 1993-08-06 1995-02-21 Fuji Xerox Co Ltd 画像密度変換方法及び装置
US5671440A (en) 1994-08-08 1997-09-23 Eastman Kodak Company Color image data reorientation and format conversion system
US6002411A (en) 1994-11-16 1999-12-14 Interactive Silicon, Inc. Integrated video and memory controller with data processing and graphical processing capabilities
US6067098A (en) 1994-11-16 2000-05-23 Interactive Silicon, Inc. Video/graphics controller which performs pointer-based display list video refresh operation
US5845015A (en) 1995-10-12 1998-12-01 Sarnoff Corporation Method and apparatus for resizing images using the discrete cosine transform
US5859651A (en) 1996-08-19 1999-01-12 International Business Machines Corporation Method and apparatus for block data transfer to reduce on-chip storage for interpolative video resizing
US5977947A (en) 1996-08-19 1999-11-02 International Business Machines Corp. Method and apparatus for resizing block ordered video image frames with reduced on-chip cache
JP4086341B2 (ja) 1997-06-06 2008-05-14 キヤノン株式会社 画像処理装置およびその方法
US6151074A (en) 1997-09-30 2000-11-21 Texas Instruments Incorporated Integrated MPEG decoder and image resizer for SLM-based digital display system
JP3748489B2 (ja) 1998-03-11 2006-02-22 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体
US6563535B1 (en) 1998-05-19 2003-05-13 Flashpoint Technology, Inc. Image processing system for high performance digital imaging devices
US6415058B2 (en) 1998-10-27 2002-07-02 Hewlett-Packard Company System for compression of digital images comprising low detail areas
US6559826B1 (en) * 1998-11-06 2003-05-06 Silicon Graphics, Inc. Method for modeling and updating a colorimetric reference profile for a flat panel display
WO2000055771A1 (en) 1999-03-17 2000-09-21 Gioia Sandra L System for specifying building upgrade options and determining building cost
JP4496574B2 (ja) * 1999-11-15 2010-07-07 セイコーエプソン株式会社 画像処理装置、記憶装置、画像処理システムおよび画像処理方法
US20020135585A1 (en) 2000-02-01 2002-09-26 Dye Thomas A. Video controller system with screen caching
EP1146745B1 (en) * 2000-03-08 2019-09-04 Mitsubishi Denki Kabushiki Kaisha Coding device and coding method
WO2001091039A1 (en) 2000-05-23 2001-11-29 Compression Engine Technologies, Inc. Memory-efficient image compression
CN100417230C (zh) 2000-06-16 2008-09-03 夏普公司 投影型图象显示装置
US6573901B1 (en) 2000-09-25 2003-06-03 Seiko Epson Corporation Video display controller with improved half-frame buffer
JP2002135596A (ja) 2000-10-23 2002-05-10 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法および画像データ転送方法
AUPR192700A0 (en) 2000-12-06 2001-01-04 Canon Kabushiki Kaisha Storing coding image data in storage of fixed memory size
EP1262939B1 (en) 2001-05-31 2012-02-01 Nokia Corporation Method and apparatus for updating a frame buffer with reduced power consumption
CN1518736A (zh) * 2001-06-22 2004-08-04 ���µ�����ҵ��ʽ���� 图像显示装置及电子设备
JP2004165733A (ja) 2002-11-08 2004-06-10 Matsushita Electric Ind Co Ltd 画像変換装置及び画像変換方法並びに記録媒体
US7391913B2 (en) * 2003-09-18 2008-06-24 Arcsoft, Inc. JPEG processing engine for low profile systems
US7421130B2 (en) * 2004-06-25 2008-09-02 Seiko Epson Corporation Method and apparatus for storing image data using an MCU buffer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187270A (ja) * 2009-02-13 2010-08-26 Fuji Xerox Co Ltd 画像処理装置、画像読取装置及び画像形成装置
US8493615B2 (en) 2009-02-13 2013-07-23 Fuji Xerox Corporation Image-processing device, image-reading device, and image-forming device

Also Published As

Publication number Publication date
US20050286775A1 (en) 2005-12-29
US7421130B2 (en) 2008-09-02

Similar Documents

Publication Publication Date Title
JP2006014341A (ja) Mcuバッファを用いて画像データを格納するための方法及び装置
KR100282377B1 (ko) 비디오영상데이타전송방법및장치
JP4151684B2 (ja) 符号化装置、符号化方法および符号化プログラム、並びに撮像装置
JP2000132704A (ja) 画像情報処理装置及び方法
KR102669366B1 (ko) 비디오 처리 시스템
JP2008503914A (ja) 2つの高解像度画像をダウンスケール及び混合する装置及び方法
US7209141B2 (en) Macroblock padding
JP4971442B2 (ja) ピクセルデータ変換のための画像処理装置及び方法
JP5158096B2 (ja) 符号化用データ生成装置、符号化用データ生成方法、復号装置および復号方法
WO2019166008A1 (en) Method for processing projection-based frame that includes projection faces packed in cube-based projection layout with padding
CN114040246A (zh) 图形处理器的图像格式转换方法、装置、设备及存储介质
EP2787738B1 (en) Tile-based compression for graphic applications
US20120218292A1 (en) System and method for multistage optimized jpeg output
JP4270169B2 (ja) ラインバッファを使わずに画像を次元変換するための方法並びに装置
US7386178B2 (en) Method and apparatus for transforming the dimensions of an image
JP2005322233A (ja) 大型のオーバーレイされたカメラ画像を圧縮符号化するためのメモリ効率の良い方法及び装置
US7346220B2 (en) Method and apparatus for reducing the bandwidth required to transmit image data
US9317891B2 (en) Systems and methods for hardware-accelerated key color extraction
JP2003348355A (ja) 画像処理装置及びその制御方法
JP2004328178A (ja) 画像処理装置
JPH0531974A (ja) 画像処理装置
JP4274187B2 (ja) 表示データ伸張方法、表示データ圧縮伸張方法、表示データ伸張装置および表示データ圧縮伸張装置
JP2663922B2 (ja) 動画像符号化装置
JP2000322566A (ja) 画像表示装置及びその制御方法
US20240236355A9 (en) Packing of displacements data in video frames for dynamic mesh coding

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070720