JP3973089B2 - Image processing apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, image processing method, program, and recording medium

Info

Publication number
JP3973089B2
JP3973089B2 JP2002267692A JP2002267692A JP3973089B2 JP 3973089 B2 JP3973089 B2 JP 3973089B2 JP 2002267692 A JP2002267692 A JP 2002267692A JP 2002267692 A JP2002267692 A JP 2002267692A JP 3973089 B2 JP3973089 B2 JP 3973089B2
Authority
JP
Japan
Prior art keywords
pass filter
low
image processing
processing apparatus
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002267692A
Other languages
Japanese (ja)
Other versions
JP2004112004A (en
Inventor
宏幸 作山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002267692A priority Critical patent/JP3973089B2/en
Priority to US10/600,333 priority patent/US7330596B2/en
Publication of JP2004112004A publication Critical patent/JP2004112004A/en
Application granted granted Critical
Publication of JP3973089B2 publication Critical patent/JP3973089B2/en
Priority to US11/980,580 priority patent/US7522778B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、所定の分割単位毎に圧縮した画像を分割単位毎に伸長した場合に生じる分割単位境界の歪みを抑制する画像処理技術に係り、特に、JPEG2000により圧縮後に伸長した画像上のタイル境界歪みを抑制する目的に好適な画像処理装置及び方法に関する。
【0002】
【従来の技術】
画像データは、一旦圧縮してから蓄積し又は伝送し、必要な時又は場所で圧縮された画像データを伸長して出力し又は処理する場合が多い。画像データの圧縮には、画像をブロックと呼ばれる所定の分割単位で離散コサイン変換を用いて符号化するJPEGなどの画像圧縮方式が広く用いられている。このような画像圧縮方式の1つの問題点は、圧縮された画像を伸長した場合、伸長画像にブロック境界歪みが生じることである。このブロック境界歪みを目立ちにくくするため、ブロック境界歪みを検出し、伸長画像のブロック境界の画素にローパスフィルタをかける技術が知られている(特許文献1,2,3など参照)。また、後述の圧縮伸長処理における画像分割手法については非特許文献1に論じられている。
【0003】
なお、本願出願人により、本発明に関連のある発明が特許出願されている(特願平13−400647号,特願2002−109890号)。
【0004】
【特許文献1】
特開平5-316361号
【特許文献2】
特開平9-307855号
【特許文献3】
特許第2839987号
【非特許文献1】
J.X.Wei,M.R.Pickering,M.R.Frater and J.F.Arnold,”A New Method for Reducing Boundary Artifacts in Block-Based Wavelet Image Compression,”in VCIP 2000,K.N.Ngan,T.Sikora,M-T Sun Eds.,Proc.of SPIE Vol.4067,pp.1290-1295,20-23 June 2000,Perth,Australia
【0005】
【発明が解決しようとする課題】
近年、画像入出力技術の進歩により、画像に対する高精細化の要求が高まっている。画像入力装置として、デジタルカメラを例にあげると、300万以上の画素数を持つ高性能な電結合素子の低価格化が進み、普及価格帯の製品においても広く用いられるようになっている。画像出力・表示装置に関しても、レーザ・プリンタ、インクジェット・プリンタ等のハード・コピー分野における高精細化・低価格化は目を見張るものがあり、これはCRT、LCDディスプレイ等のソフト・コピー分野においても例外ではない。したがって、高精細画像を容易に取扱うことのできる圧縮伸長技術に対する要求も、今後ますます高まっていくことは必至である。
【0006】
こうした要求を満たす圧縮方式の一つとして、高圧縮率でも高画質な画像を復号可能なJPEG2000がある。このJPEG2000においては、画像を矩形領域(タイル)に分割することにより、少ないメモリ環境下で圧縮伸長処理を行うことが可能である。すなわち、個々のタイルが圧縮伸長プロセスを実行する際の基本単位となり、圧縮伸長動作はタイル毎に独立に行うことができるのである。
【0007】
このような分割処理はタイリングと呼ばれ、省メモリ化・高速化に有効な手法であるが、非特許文献1にも記載されているように、圧縮率の高い条件で圧縮伸長処理を行った場合には、伸長画像においてタイルの境界の不連続(タイル境界歪み)が目立ちやすいという問題がある。
【0008】
このタイル境界歪みを解決するために、隣接するタイル同士で境界を互いにオーバーラップさせて処理を行う手法も有効である。しかし、JPEG2000の基本仕様(JPEG2000 Part1)では、隣接するタイル境界を重複させないものとして規定されているため、タイル境界を重複させる手法は規定に準拠するという観点からは好ましくない。
【0009】
また、前記従来技術と同様に、タイル境界にローパスフィルタをかけることにより、タイル境界歪みの抑制を期待できる。この方法ならば、上述のような規定上の制約はない。
【0010】
本願出願人においても、タイル境界からの距離に応じて、ローパスフィルタの平滑化度を制御する手法;タイル境界からの距離が大きくなるにつれてローパスフィルタの平滑化度を徐々に弱くする手法;タイル境界の近傍の画素に対してエッジ量を算出し、そのエッジ量に応じてローパスフィルタの平滑化度を制御する手法;そのエッジ量が大きくなるにつれてローパスフィルタの平滑化度を徐々に弱くする手法;さらに、タイル境界からの距離とその画素でのエッジ量に応じてローパスフィルタを制御する手法、つまり、タイル境界から離れるにつれて、また、エッジ量が大きくなるにつれて、ローパスフィルタの平滑化度を弱くする手法を提案している(特願平13−400647号)。この手法を適用することにより、タイル境界歪みを抑制しつつ、タイル境界付近でのエッジ量が大きい場合にも帯状のぼやけた画像を発生させないようにすることができる。このような手法の高速化・処理量削減等を目的として、本願出願人は、縦方向のタイル境界には横方向の周波数成分を落とすようなローパスフィルタをかけ、横方向のタイル境界には縦方向の周波数成分を落とすようなローパスフィルタをかけ、タイル境界の交点には縦方向横方向ともに周波数成分を落とすようなローパスフィルタをかける手法も提案している(特願2002−109890号)。
【0011】
しかしながら、前記従来技術や前記提案手法では、JPEG2000のタイル境界歪みの特殊性のゆえに、期待するような効果を必ずしも達成できないことが判明した。JPEG2000のタイル境界歪みの最適な抑制のためには、以下に詳細に説明するように、タイル境界画素に適用するローパスフィルタの対象性についての十分な検討が欠かせないのである。
【0012】
よって、本発明の目的は、JPEG2000のタイル境界歪みの抑制のために極めて効果的な新しい画像処理装置及び方法を提供することにある。
【0013】
【課題を解決するための手段】
以下、添付図面を参照し、JPEG2000のタイル境界歪みの特殊性と関連付けて本発明を説明する。
【0014】
図1は、JPEG2000の基本的な圧縮・伸長処理の流れを示すブロック図である。圧縮処理の対象となる画像データは、各コンポーネント毎にタイル分割されて色変換・逆色変換部1000に入力され、ここで色変換(後述)を施される。色変換後のタイル画像は2次元ウェーブレット変換・逆変換部1001により2次元の離散ウェーブレット変換(順変換)を施され、得られたウェーブレット係数は量子化部156によって量子化された後にエントロピー符号化・復号化部1003により符号化される。JPEG2000では可逆圧縮(ロスレス圧縮)と非可逆圧縮(ロシィ圧縮)のいずれも可能であり、可逆圧縮の場合には量子化ステップ幅は常に1であり、実質的に量子化されない。エントロピー符号化・復号化部1003におけるエントロピー符号化には、ブロック分割、係数モデリング及び2値算術符号化からなるEBCOT(Embedded Block Coding with Optimized Truncation)と呼ばれるブロックベースのビットプレーン符号化方式が用いられる。符号化対象となるウェーブレット係数は正負の符号を持つ整数(あるいは実数表現された整数)であり、それらを決められた順序で走査しながら、係数を絶対値表現したものに対し上位ビットから下位ビットへとビットプレーン単位で符号化処理が実行される。エントロピー符号化・復号化部1003で生成された符号列はタグ処理部1004により所定のフォーマットのビットストリームとされて出力される。
【0015】
伸長処理は圧縮処理と逆の処理となる。圧縮された画像データ(符号データ)はタグ処理部1004に入力され、各コンポーネントの各タイルの符号列に分解される。この符号列はエントロピー符号化・復号化部1003によってエントロピー復号化される。復号化されたウェーブレット係数は量子化・逆量子化部1002で逆量子化されたのち、2次元ウェーブレット変換・逆変換部1001で2次元逆ウェーブレット変換を施されることにより、各コンポーネントの各タイルの画像が再生される。各コンポーネントの各タイル画像は色空間変換部152に入力され、逆色変換処理を施されてRGBなどのコンポーネントから構成されるタイル画像として出力される。
【0016】
本発明の画像処理装置又は方法は、色変換・逆色変換部1000により逆色変換後の画像データ1201(RGB値やCMY値)におけるタイル境界歪みの抑制、あるいは、逆色変換処理を施される前の画像データ1202(輝度値Y、色差値Cb,Cr)におけるタイル境界歪みの抑制に適用される。
【0017】
図2乃至図6は、16×16のモノクロ画像(あるいはカラー画像の1つのコンポーネント画像)に対して、JPEG2000で採用されている5x3変換と呼ばれるウェーブレット変換を2次元(垂直方向及び水平方向)で施す過程を説明するための図である。図2は変換前の原画像である。図示のようにXY座標をとり、あるxについて、Y座標がyである画素の画素値をP(y)(0≦y≦15)と表す。JPEG2000では、まず垂直方向(Y座標方向)に、Y座標が奇数(y=2i+1)の画素を中心にハイパスフィルタを施して係数C(2i+1)を得る。次に、Y座標が偶数(y=2i)の画素を中心にローパスフィルタを施して係数C(2i)を得る(これを全てのxについて行う)。ここで、ハイパスフィルタとローパスフィルタはそれぞれ式(1)と式(2)で表される。式中のfloor(x)は、xのフロア関数(実数xを、xを越えず、かつxに最も近い整数に置換する関数)である。
【0018】
C(2i+1)=P(2i+1)−floor((P(2i)+P(2i+2))/2) 式(1)
C(2i)=P(2i)+floor((C(2i-1)+C(2i+1)+2)/4) 式(2)
【0019】
なお、画像の端部においては、中心となる画素に対して隣接画素群が存在しないことがあり、この場合は「ミラリング」と呼ばれる手法によって不足する画素値を補うことになる。ミラリングは、文字通り境界を中心として画素値を線対称に折り返し、折り返した値を上記隣接画素群の値とみなす操作である。図7は画素値(又は係数値)のミラリングの模式図である。この図では、タイルの右側境界の画素Pの変換時に、斜線付きの丸印で示した画素値を、タイル内の白丸で示した画素値で補う様子を示している。
【0020】
簡単のため、ハイパスフィルタで得られる係数をH、ローパスフィルタで得られる係数をL、とそれぞれ表記すれば、前記垂直方向の変換によって図2の画像は図3のようなL係数、H係数の配列へと変換される。
【0021】
続いて、図3の係数配列に対して、水平方向に、X座標が奇数(=2i+1)の係数を中心にハイパスフィルタを施し、次にX座標が偶数(x=2i)の係数を中心にローパスフィルタを施す(これを全てのyについて行う。この場合、前記の式(1)、式(2)のP(2i)等は係数値を表すものと読み替える)。
【0022】
簡単のため、前記L係数を中心にローパスフィルタを施して得られる係数をLL、前記L係数を中心にハイパスフィルタを施して得られる係数をHL、前記H係数を中心にローパスフィルタを施して得られる係数をLH、前記H係数を中心にハイパスフィルタを施して得られる係数をHH、とそれぞれ表記すれば、図3の係数配列は図4の様な係数配列へと変換される。ここで同一の記号を付した係数群はサブバンドと呼ばれ、図4は4つのサブバンドで構成される。
【0023】
以上の処理で、1回のウェーブレット変換(1回のデコンポージション(分解))が終了し、上記LL係数だけを集めると(図5の様にサブバンド毎に集め、LLサブバンドだけ取り出すと)、ちょうど原画像の1/2の解像度の“画像”が得られる。このように、サブバンド毎に分類することをデインターリーブと呼び、図4のような状態に配置することをインターリーブと呼ぶ。
【0024】
2回目のウェーブレット変換は、該LLサブバンドを原画像と見なして、上記と同様の処理により行われる。その処理結果をインターリーブすると、図6に示すようなサブバンドの係数が得られる。なお、図5及び図6中の係数の接頭の1や2は、何回のウェーブレット変換で該係数が得られたかを示しており、デコンポージションレベルと呼ばれる。したがって、デコンポージションレベルが高いサブバンドほど、解像度が低いことになる。以上の議論において、1次元のみのウェーブレット変換をしたい場合には、いずれか一方向だけの処理を行えばよい。
【0025】
一方、ウェーブレット逆変換は、図4の様なインターリーブされた係数の配列に対して、まず水平方向に、X座標が偶数(x=2i)の係数を中心に逆ローパスフィルタを施し、次にX座標が奇数(x=2i+1)の係数を中心に逆ハイパスフィルタを施す。これを全てのyについて行う。ここで逆ローパスフィルタと逆ハイパスフィルタは、それぞれ次の式(3)と式(4)で表される。ウェーブレット変換(順変換)の場合と同様に、画像の端部においては、中心となる係数に対して隣接係数群が存在しないことがあり、この場合もミラリングによって係数値を補うことになる。
【0026】
P(2i)=C(2i)−floor((C(2i-1)+C(2i+1)+2)/4) 式(3)
P(2i+1)=C(2i+1)+floor((P(2i)+P(2i+2))/2) 式(4)
【0027】
以上の処理により、図4の係数配列は図3のような係数配列に変換(逆変換)される。続いて同様に、垂直方向に、Y座標が偶数(y=2i)の係数を中心に逆ローパスフィルタを施し、次にY座標が奇数(y=2i+1)の係数を中心に逆ハイパスフィルタを施す。これを全てのxについて行うことにより、1回のウェーブレット逆変換が終了し、図2の画像が再構成されることになる。なお、ウェーブレット変換が複数回施されている場合は、図2をLLサブバンドとみなし、HL等の他の係数を利用して同様の逆変換を繰り返すことにより画像が再構成される。
【0028】
以上のようなウェーブレット変換では、原画像の「2のべき乗分の1」の解像度成分を得やすいように、その処理単位となるタイルサイズは「2のべき乗」(すなわち偶数)の値をとるのが通常であり、また、前記XY座標の原点は図2のように画像の頂点にとるのが簡易である。このような条件で、図3のように垂直方向にフィルタを施す場合、(図2の画像全体を1つのタイルと見なして考えれば明らかなように)、タイルの上端に隣接する画素にはローパスのファイルタが、下端に隣接する画素にはハイパスのフィルタがそれぞれ施されることになる。同様に、図4のように水平方向にフィルタを施す場合、タイルの左端に隣接する画素にはローパスのフィルタが、右端に隣接する画素にはハイパスのフィルタが、それぞれ施されることになる。
【0029】
ここで前記非特許文献1が指摘しているように、ミラリングを行う場合、タイル境界下端のH係数に量子化誤差が生じると、該誤差が最終的な伸長画像の画素値の誤差として大きく現れることが知られている。同様に、タイル境界右端のH係数に量子化誤差が生じると、該誤差が最終的な画素値の誤差として大きく現れることが知られている。一方、タイル境界の上端と左端のL係数に量子化誤差が生じても、該誤差は最終的な伸長画像の画素値の誤差としては大きく現れないことが知られている。
【0030】
したがって、タイル内の画素に生じる画素値の誤差の平均値をとると、図8に示すような分布となる。ただし、左右上下に連続した8個のタイルについての分布であり、同図の(a)はタイルの左右方向の誤差の分布を、(b)はタイルの上下方向の誤差の分布をそれぞれ表す。図8から理解されるように、タイルの上端部よりもタイルの下端部で、タイルの左端部よりもタイルの右端部で、誤差は著しく大きな値をとる。すなわち、タイル境界を中心とした場合、画素値の平均的な誤差は極めて非対称である。
【0031】
こうした誤差分布の下で、タイル境界の方向に対して対称な重みを有するフィルタを用いると、例えば、図9(a)に示すように隣接した4つのタイルに関して、図9(b)に示すようなローパスフィルタをタイル0の右端の垂直方向の境界に、図9(c)に示すようなローパスフィルタをタイル1の下端の水平方向の境界にそれぞれ適用すると、上に述べた非対称な誤差とマッチせず、平滑化後の画素値に比較的大きな誤差が生じてしまう場合が起こる。図9(b)から明らかなように、大きな誤差を有する画素に対して最大の重み付け(=4)を行い。それよりも小さな誤差を有する画素に対して、その半分の重み(=2)しか与えないからである。すなわち、予め予想される画素の誤差の非対称性や大小関係に基づき、フィルタの重み係数自体を決定すべき場合があるのである。
【0032】
請求項1記載の発明による画像処理装置は、上に述べたようなタイル境界に生じる誤差の非対称性を考慮してタイル境界歪みを効果的に抑制しようとするもので、所定の分割単位(タイル)毎にウェーブレット変換を用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理装置であって、そのローパスフィルタの重み係数が分割単位境界の方向に対し非対称であることを特徴とするものである。
【0033】
また、請求項2記載の発明による画像処理装置は、タイル境界に生じる誤差の大小関係を考慮してタイル境界歪みを効果的に抑制しようとするもので、所定の分割単位(タイル)毎にウェーブレット変換を用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理装置であって、そのローパスフィルタの重み係数に、分割単位(タイル)内の垂直方向又は水平方向の分割境界からの距離が等しい画素についてとった平均的誤差の大小関係を反映させることを特徴とするものである。
【0034】
また、以上のようなフィルタは、タイル境界歪みの及ぶ、境界から所定範囲の画素について施す必要がある。例えば、前記5x3フィルタをデコンポージションレベル3で使用する場合、境界付近の8画素程度に施すことが考えられるが、図9(b)から明らかなように、フィルタをかける注目画素がタイル境界から遠ざかると、最も大きな誤差を有するH係数(矢印の係数)に乗じられるフィルタの重みは自然と小さくなる。すなわち、誤差の非対称性等は注目画素と境界との距離に依存し、例えば注目画素が境界から遠ざかるにつれてフィルタの非対称性を弱くしてよい(より対称なフィルタに近づけてよい)ことになる。前記非対称な誤差に対しては対称なローパスフィルタでは好ましくないが、誤差の非対称性が小さい場合には対称なフィルタを使った方がかえって弊害が少なく安全なこともあるのである。
【0035】
この点に鑑み、請求項3記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの重み係数の非対称の程度又はローパスフィルタの重み係数への前記平均的誤差の大小関係の反映の程度が、縦方向又は横方向の分割単位(タイル境界からの距離に依存することを特徴とするものである。すなわち、タイル境界からの距離に応じてローパスフィルタの重み係数を制御し、タイル境界歪みをより効果的に抑制しようとするものである。
【0036】
また、図9(b)から明らかなように、注目画素がタイル境界から遠ざかると、フィルタの及ぶ範囲がタイル境界からはずれることになる。この場合、上に述べた“タイル境界を中心とした誤差の非対称性”という前提は成立しない。
【0037】
請求項4記載の発明は、この点に着目してタイル境界歪みをより効果的に抑制しようとするもので、請求項1又は2に記載の画像処理装置において、ローパスフィルタのタップが分割単位(タイル境界をまたぐ場合にのみ、ローパスフィルタの重み係数を非対称とし又はローパスフィルタの重み係数に前記平均的誤差の大小関係を反映させることを特徴とするものである。
【0038】
また、図10に示すように、タイル境界に隣接する画素ではあっても、その位置がL係数に相当する場合には、最初からフィルタの重み係数が小さく設定されるのが通常であるため、誤差が非対称性であっても、弊害の少ない対称なフィルタでよい場合もある。
【0039】
この点に鑑み、請求項5記載の発明は、請求項1又は2記載の画像処理装置において、注目画素での前記平均的な誤差が大きい場合にのみ、ローパスフィルタの重み係数を非対称とし、又は、ローパスフィルタの重み係数に前記平均的誤差の大小関係を反映させることを特徴とする。すなわち、前記反映を、平均誤差の大きい位置の画素に対してのみ行うことにより、タイル境界歪みをより効果的に抑制しようとするものである。
【0040】
さて、例えばRGBの3コンポーネントからなるカラー画像に圧縮を施す場合、簡易にはRGB値のままでウェーブレット変換を行うことができる。しかし、圧縮率をあげるためには、色変換を施して1つの輝度と2つの色差の3つの新たなコンポーネントに変換し、変換後のコンポーネントに対して個々にウェーブレット変換を施すのが通常である。
【0041】
JPEG2000で採用されている色変換の例としては、RCT(Reversible Component Transform)と呼ばれる下記変換がある。
【0042】
輝度Y=floor((R+2G+B)/4)
色差Cr=R−G
色差Cb=B−G 式(5)
その逆変換は、
R=G+Cr
G=Y−floor((Cr+Cb)/4)
B=Cb+G 式(6)
である。
【0043】
ここで、上記誤差の非対称性の程度は、RGBの各コンポーネント間や輝度・色差の各コンポーネント間で異なる。その異なり方は量子化方法に依存はするが、例えば輝度・色差コンポーネントの場合では、色差の方を極端に量子化した場合には上記非対称性が輝度よりも色差において大きくなることがある。
【0044】
この点に鑑み、請求項6記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの重み係数の非対称の程度、又は、ローパスフィルタの重み係数への前記平均的誤差の大小関係の反映の程度を、画像のコンポーネントによって異ならせることを特徴とする。すなわち、前記反映をコンポーネントによって制御することにより、カラー画像におけるタイル境界歪みをより効果的に抑制しようとするものである。
【0045】
また、前記非対称性は、圧縮時のウェーブレット係数の量子化誤差に起因して生じるものであるため、圧縮率が高くなるほど大きくなる。
【0046】
よって、請求項7記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの重み係数の非対称の程度又はローパスフィルタの重み係数への前記平均的誤差の大小関係の反映の程度が、圧縮された画像の圧縮率によって異なることを特徴とする。すなわち、前記反映の程度を圧縮率に応じて制御することにより、タイル境界歪みをより効果的に抑制しようとするものである。
【0047】
また、前記非対称性の程度は、ウェーブレット変換(順・逆変換)の際のミラリングの範囲、すなわちウェーブレットフィルタのタップ長に依存し、周波数特性にもよるが、概ねタップ長が大きいほど非対称性の程度は大きくなる。
【0048】
よって、請求項8記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの重み係数の非対称の程度又はローパスフィルタの重み係数への前記平均的誤差の大小関係の反映の程度が、ウェーブレット変換に用いられるウェーブレットフィルタの種類に依存することを特徴とする。すなわち、前記反映の程度をウェーブレットフィルタの違いに応じて行うことにより、タイル境界歪みをより効果的に抑制しようとするものである。
【0049】
さて、非対称性、平均誤差の大小の反映という観点で論じたが、本発明において、前述の本願出願人が提案した手法を併用することは非常に効果的である。図8から明らかなように、画素に生じる誤差はタイル境界からの距離が大きくなる程小さくなる傾向にあるので、ローパスフィルタの平滑度もその距離が大きくなるほど弱くなるべきだからである。また、先の非対称性の議論と同様、タイル境界歪みという不連続性自体もコンポーネント、圧縮率、ウェーブレットフィルタのタップ長に依存するからである。特に、輝度・色差系がYCbCrである場合、人間の視覚特性上、Crに生じた誤差よりもCbに生じた誤差の方が知覚されにくいことが実験的に知られており、ローパスフィルタの強度自体もCbは弱くてよい場合がある。また、ローパスフィルタはタイル境界歪みを抑制するためのものであるが、タイル境界に、歪みではない実際の(=原画を反映した)エッジがある場合、その実際のエッジをも平滑化してしまう弊害を生じることがある。
【0050】
よって、請求項9記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの周波数特性が、分割単位の縦方向又は横方向の境界からの距離に依存することを特徴とする。このように、境界からの距離に応じてローパスフィルタの周波数特性を変えることにより、タイル境界歪みのより効果的な抑制が可能である。
【0051】
また、請求項10記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの周波数特性が、画像のコンポーネントによって異なることを特徴とするもので、カラー画像のタイル境界歪みをより効果的に抑制することができる。
【0052】
また、請求項11記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの周波数特性が、圧縮された画像の圧縮率に依存することを特徴とするものである。このように、圧縮率に応じた周波数特性をローパスフィルタに持たせることにより、タイル境界歪みをより効果的に抑制することができる。
【0053】
また、請求項12記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの周波数特性が、ウェーブレット変換に用いられたウェーブレットフィルタの種類によって異なることを特徴とし、タイル境界歪みをより効果的に抑制することができる。
【0054】
また、請求項13記載の発明は、請求項1又は2記載の画像処理装置において、ローパスフィルタの周波数特性が、分割単位境界付近のエッジ度に依存することを特徴とし、原画に存在するエッジへの弊害を生じることなくタイル境界歪みを効果的に抑制しようとするものである。
【0055】
また、請求項14記載の発明は、請求項9記載の画像処理装置において、ローパスフィルタの周波数特性が、分割単位境界付近のエッジ度にも依存することを特徴とするものである。このように、境界からの距離と原画に実際に存在するエッジの両方を考慮することにより、実際のエッジに対する弊害を生じることなくタイル境界歪みをより効果的に抑制することができる。
【0056】
また、請求項15記載の発明は、請求項1乃至14のいずれか1項記載の画像処理装置において、伸長された画像の逆色変換後にローパスフィルタを施す(RGBなどの画素値に施す)ことを特徴とし、タイル境界歪みの抑制のための計算が簡易になる利点がある。
【0057】
また、請求項16記載の発明は、請求項1乃至14のいずれか1項記載の画像処理装置において、伸長された画像の逆色変換前にローパスフィルタを施す(YCrCbなどの輝度値と色差値に施す)ことを特徴とし、特にエッジ度の算出を要する場合に有利である。
【0058】
また、請求項17記載の発明は、所定の分割単位(タイル)毎にウェーブレット変換を 用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理方法であって、そのローパスフィルタの重み係数が分割単位境界の方向に対し非対称であることを特徴とし、境界に生じる誤差の非対称性を考慮することによりタイル境界歪みを効果的に抑制することができる。
【0059】
また、請求項18記載の発明は、所定の分割単位(タイル)毎にウェーブレット変換を用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理方法であって、そのローパスフィルタの重み係数に、分割単位内の垂直方向又は水平方向の分割境界からの距離が等しい画素についてとった平均的誤差の大小関係を反映させることを特徴とし、境界に生じる誤差の大小関係を考慮することによりタイル境界歪みを効果的に抑制することができる。
【0060】
また、請求項19記載の発明は、請求項1乃至16のいずれか1項に記載の画像処理装置としてコンピュータを機能させるプログラムである。また、請求項20記載の発明は、請求項19記載のプログラムが記録されたコンピュータが読み取り可能な記録媒体である。
【0061】
【発明の実施の形態】
以上に説明した本発明の実施の形態について、図11乃至図22を参照して説明する。なお、ハードウェア、ソフトウェア、その組み合わせのいずれによっても本発明を実施可能であるが、ここではパソコンなどの汎用コンピュータシステム上でソフトウェアにより本発明を実施する形態について説明する。したがって、以下の説明における各ステップとその処理内容は、本発明の画像処理装置に含まれる対応手段及びその機能と理解すべきである。
【0062】
図11は、本発明の1つの実施の形態を説明するためのコンピュータシステムの簡略化したブロック図である。このコンピュータシステムは、CPU1100、メインメモリ1102、ハードディスク装置1104、モニタ装置1106をシステムバス1108で接続した概略構成である。メインメモリ1102には、本発明の画像処理装置の機能又は画像処理方法の処理手順を実行するための画像処理プログラム1110が置かれる。処理の全体的な流れは次の通りである。
【0063】
(1)CPU1100からの命令によって、ハードディスク装置1104より原画像をJPEG2000によって圧縮した画像データがメインメモリ1102に読み込まれる。(2)CPU1100は、画像処理プログラム1110に従って、メインメモリ1102より圧縮画像データを読み込んで伸長処理を行い、その伸長画像データに対してタイル境界歪みを抑制する処理を実行し、タイル境界歪みが抑制された画像データをメインメモリ1102上に生成する。(3)CPU1100からの命令によって、タイル境界歪みが抑制された画像データがモニタ装置1106に表示され、又は、ハードディスク装置1104に保存される。なお、インターネットやLANなどのネットワーク経由で圧縮画像データを取り込んで処理する形態も本発明に含まれることは当然である。
【0064】
上記(2)の処理段階のより詳しい手順を図12に示す。なお、ここでは、原画像は縦横ともに偶数画素数の同じ大きさの4つのタイルに分割されているものとする。したがって、タイルの右端及び下端はH係数の位置となり、同左端及び上端はL係数の位置となる。また、ここでは、圧縮画像データの圧縮処理においては、5×3ウェーブレットフィルタを用いてデコンポージション3のウェーブレット変換がなされている場合を想定して説明する。(9×7ウェーブレットフィルタが用いられる場合についても後述する)。
【0065】
図12のステップ1400において、全タイルの圧縮画像を伸長し、画素の特性値を得る。この特性値とは、例えばRGB値やYCbCr等の輝度・色差値のことである。図1に関連づけるならば、伸長画像データ1201に対してタイル境界歪み抑制を施す場合にはRGB値が特性値であり、伸長画像データ1202にタイル境界歪み抑制を施す場合には輝度Y、色差Cb、Crが特性値である。伸長画像の画素の特性値はメインメモリ1102の特定領域に保存される。なお、このステップもしくは手段は、伸長処理のためのステップもしくは手段であって、次のステップ1401からステップ1404がタイル境界歪みを抑制するための処理ステップもしくは手段である。
【0066】
ステップ1401において、タイル境界から所定距離以内の画素の特性値に、タイル境界歪みを抑制するためのローパスフィルタをかける。ここで、タイル境界からの距離とは、図13に示すような当該画素から境界への最短距離である。ここに示す例では、境界からの距離が3以下の画素に対してローパスフィルタをかけるものとして説明する。なお、3以下の距離としたのは、計算量を削減するためである。また、ローパスフィルタのタップ長は5として説明する。
【0067】
ステップ1402において、ローパスフィルタをかけた後の画素の特性値をメインメモリ1102の特定領域に保存する。
【0068】
を終了すると(ステップ1403,Yes)、ステップ1402で保存された特性値により、ステップ1400で保存された伸長画像の対応画素の特性値を置換する。これで、タイル境界歪みが抑制された画像データが得られる。
【0069】
図12中のステップ1401のより詳細な手順を図14のフローチャートに沿って説明する。
【0070】
まず、ローパスフィルタをかける特性値が輝度又はGならばk=5に設定し(ステップ2000,2001)、色差Cb、Cr又はB、Rならばk=4に設定する(ステップ2000,2002)。このkは、注目画素位置におけるローパスフィルタの重み(フィルタ中心の重み)を決定するための値であり、注目画素のタイル境界からの距離をdとすると、
ローパスフィルタの重み=k+64d
で与えられる。すなわち、この例では、境界からの距離によって、ローパスフィルタの中心の重みを変化させているわけである(請求項9)。また、
輝度Y又はGでは k=5
色差Cb又はBでは k=4
色差Cr又はRでは k=4
であり、コンポーネントによってローパスフィルタの中心の重みを変えているわけである(請求項10,15,16)。
【0071】
次のステップ2003で、タイル境界からの距離が3以内の画素の特性値を入力する。そして、ステップ2004で、その注目画素がタイル境界交点に接する画素であるかチェックする。タイル境界交点に接する画素の場合には、図17に示すような重み係数を持つローパスフィルタを適用する(ステップ2005)。注目画素がタイル境界交点に接しない場合には、垂直方向のタイル境界からの距離が3以内であるかチェックし(ステップ2006)、そうならば図15に示すような重み係数を持つローパスフィルタを適用し(ステップ2007)、そうならば図16に示すような重み係数を持つローパスフィルタを適用する(ステップ2008)。ただし、図15、図16及び図17に示すローパスフィルタの中心の重みは、輝度又はGのコンポーネントに適用する場合の値である。また、この例では、計算量を削減するため1次元又は十字状のローパスフィルタを適用するが、2次元のローパスフィルタを適用することも可能であることは勿論である。
【0072】
図15から分かるように、タイル右端近傍において、ローパスフィルタのタップがタイル境界をまたぐ場合にのみ、ローパスフィルタの重み係数を境界方向に非対称にしている(請求項1,3,4)。また、ローパスフィルタに平均誤差の大小を反映させるため、ローパスフィルタのH係数位置の重みを減らし(2100の部分)、L位置の重みを増加させる(2101の部分)とされている(請求項2)。また、タイル左端近傍においては、タップがタイル境界をまたぐ場合でも対称なローパスフィルタを適用する(請求項5)。図16及び図17に示すローパスフィルタにおいても、同様な考え方で重みが設定されている。
【0073】
なお、以上では、全てのコンポーネントについて、非対称なフィルタを使用する画素が存在したが、輝度に対してはこれをせず全て対称なフィルタを用いることが可能である(請求項6)。このような態様のためのローパスフィルタは以上の説明から明らかであるので図示しない。
【0074】
また、ステップ1401(図12)において圧縮率をチェックし、圧縮率が20を超える場合にのみ非対称なフィルタを使用し、20以下の圧縮率の場合には弊害の少ない対称なフィルタを用いることも可能である(請求項7)。
【0075】
さらに、この態様において、圧縮率が20以下の場合には、
輝度Y又はGに対し k=5
色差Cb又はBに対し k=4
色差Cr又はRに対し k=4
圧縮率が20を超える場合には、
輝度Y又はGに対し k=4
色差Cb又はBに対し k=3
色差Cr又はRに対し k=3
とすることもできる(請求項11)。一般に、圧縮率が大きいほど強いローパスフィルタを適用すべきだからである。このような態様のためのローパスフィルタの重み及び処理フローは以上の説明から明らかであるので図示しない。
【0076】
なお、計算量よりも正確さを優先し、図18に示すように、タイル左端近傍においてタップがタイル境界をまたぐ場合においても、フィルタを非対称にすることも可能であり、そのような態様も本発明に包含される。
【0077】
以上、5×3ウェーブレット変換の場合のローパスフィルタの例を示した。
【0078】
9×7ウェーブレット変換の場合には、図19又は図20のような構成のローパスフィルタを適用することができる(請求項8,12)。図19及び図20に示したローパスフィルタは垂直方向のタイル境界に適用されるフィルタの例であるが、これを回転すれば水平方向のタイル境界に適用されるフィルタとなり、また、垂直と水平を合わせれば図17と同様にタイル境界交点に適用されるフィルタを得られる。
【0079】
また、図12のステップ1401において、各注目画素に対し図21に示すようなエッジ度算出フィルタを適用してエッジ度を検出し、図15乃至図17に示したローパスフィルタの中心の重みを、エッジ度及びタイル境界からの距離の関数として設定することもできる(請求項13,14)。図22はそのようなフィルタの説明図である。ここに示す例では、
距離d=0の場合、
エッジ度算出フィルタで算出したエッジ量の絶対値abs(e)すなわちエッジ度が255以上ならば、ローパスフィルタの中心の重みmを
m=5+abs(E)
エッジ度が255未満ならば
m=5
としている。
また、距離d>0の場合、
m=max(5+64d、5+abs(E))
としている。このようなフィルタの重み制御により、原画像に実際に存在するエッジを保存しつつ、タイル境界歪みを効果的に抑制することができる。なお、図22に示したローパスフィルタは、5×3ウェーブレット変換の場合を想定している。
【0080】
なお、ローパスフィルタ係数は重みの和が1になるように正規化される。すなわち、
a b c
d e f
g h i
という画素値を有する3×3画素の中心の画素(画素値がeの画素)に
o p q
r s t
u v w
という重みを用いてローパスフィルタをかける場合、重みはそれらの和が1になるように正規化された状態で画素値に乗算されるので
Σ(o+p+q+r+s+t+u+v+w)=X とすると
ローパスフィルタをかけた後の中心画素の値は
(ao+bp+cq+dr+es+ft+gu+hv+iw)/X
となる。フィルタのマスク形状が1×nの場合も十字形状の場合も、ローパスフィルタの重みの和が1になるように正規化される点は同様である。
【0081】
以上説明した実施の形態における処理手順もしくは対応手段の機能をコンピュータ上で実現させるためのプログラム(アプリケーションプログラムに限らず、プリンタドライバ等のデバイスドライバも含む)、及び、同プログラムが記録された各種記録(記憶)媒体も本発明に包含される。
【0082】
【発明の効果】
以上に詳細に説明したように、本発明によれば、JPEG2000に準拠した画像圧縮アルゴリズムで圧縮された後に伸長された画像上のタイル境界歪みを極めて効果的に抑制することができるものであり、その効果は大きい。
【図面の簡単な説明】
【図1】 JPEG2000の圧縮・伸長処理の流れを説明するためのブロック図である。
【図2】 原画像と座標系を示す図である。
【図3】 図2の原画像に垂直方向に1次元ウェーブレット変換を行って得られる係数配列を示す図である。
【図4】 図3の係数に対し水平方向に1次元ウェーブレット変換を行って得られる係数配列を示す図である。
【図5】 図4の係数を並べ替えた係数配列を示す図である。
【図6】 デコンポージションレベル2の2次元ウェーブレット変換で得られる係数を並べ替えた係数配列を示す図である。
【図7】 タイル境界でのミラリングの説明図である。
【図8】 タイル内の画素に生じる画素値の2乗平均誤差の分布を示す図である。
【図9】 垂直方向及び水平方向のタイル境界に適用される対称性のローパスフィルタの例を示す図である。
【図10】 注目画素がL係数位置にある場合のローパスフィルタの適用を示す図である。
【図11】 本発明の実施の形態を説明するための簡略化されたブロック図である。
【図12】 本発明の実施の形態を説明するためのフローチャートである。
【図13】 タイル境界からの距離を説明するための図である。
【図14】 図12中のステップ1401の処理手順を説明するためのフローチャートである。
【図15】 本発明において垂直方向タイル境界に適用されるローパスフィルタの例を示す図である。
【図16】 本発明において水平方向タイル境界に適用されるローパスフィルタの例を示す図である。
【図17】 本発明においてタイル境界交点に接する画素に適用されるローパスフィルタの例を示す図である。
【図18】 本発明において垂直方向タイル境界に適用されるローパスフィルタの別の例を示す図である。
【図19】 本発明において垂直方向タイル境界に適用されるローパスフィルタの別の例を示す図である。
【図20】 本発明において垂直方向タイル境界に適用されるローパスフィルタの別の例を示す図である。
【図21】 エッジ量算出フィルタの例を示す図である。
【図22】 本発明においてタイル境界に適用されるローパスフィルタの別の例を示す図である。
【符号の説明】
1000 色変換・逆色変換部
1001 2次元ウェーブレット変換・逆変換部
1002 量子化・逆量子化部
1003 エントロピー符号化・復号化部
1004 タグ処理部
1100 CPU
1102 メインメモリ
1104 ハードディスク装置
1106 モニタ装置
1110 画像処理プログラム
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing technique for suppressing distortion of a division unit boundary that occurs when an image compressed for each predetermined division unit is expanded for each division unit, and in particular, a tile boundary on an image expanded after compression by JPEG2000. The present invention relates to an image processing apparatus and method suitable for the purpose of suppressing distortion.
[0002]
[Prior art]
  In many cases, image data is compressed and then stored or transmitted, and the compressed image data is decompressed and output or processed when necessary or at a place. For compression of image data, an image compression method such as JPEG for encoding an image using a discrete cosine transform in a predetermined division unit called a block is widely used. One problem with such an image compression scheme is that, when a compressed image is expanded, block boundary distortion occurs in the expanded image. In order to make this block boundary distortion inconspicuous, a technique is known in which block boundary distortion is detected and a low-pass filter is applied to pixels at the block boundary of the expanded image (see Patent Documents 1, 2, 3, etc.). Further, Non-Patent Document 1 discusses an image division method in the compression / decompression process described later.
[0003]
  The applicant of the present application has filed a patent application for an invention related to the present invention (Japanese Patent Application No. 13-4000064, Japanese Patent Application No. 2002-109890).
[0004]
[Patent Document 1]
      JP 5-316361
[Patent Document 2]
      JP-A-9-307855
[Patent Document 3]
      Patent No. 2839987
[Non-Patent Document 1]
      J. X. Wei, M. R. Pickering, M.M. R. Frater and J. F. Arnold, “A New Method for Reducing Boundary Artifacts in Block-Based Wavelet Image Compression,” in VCIP 2000, K. N. Ngan, T .; Sikora, M-T Sun Eds., Proc. of SPIE Vol. 4067, pp. 1290-1295, 20-23 June 2000, Perth, Australia
[0005]
[Problems to be solved by the invention]
  In recent years, with the advancement of image input / output technology, there is an increasing demand for higher definition of images. Taking a digital camera as an example of an image input device, a high-performance electronic device with more than 3 million pixels.loadAs the cost of coupling elements has been reduced, they are widely used in products in popular prices. As for image output and display devices, there is a remarkable increase in definition and price in the hard copy field such as laser printers and inkjet printers. This is in the soft copy field such as CRT and LCD displays. Is no exception. Therefore, the demand for compression / decompression technology that can easily handle high-definition images will inevitably increase in the future.
[0006]
  One compression method that satisfies these requirements is JPEG2000, which can decode high-quality images even at high compression rates. In JPEG2000, it is possible to perform compression / decompression processing in a small memory environment by dividing an image into rectangular regions (tiles). That is, each tile is a basic unit for executing the compression / decompression process, and the compression / decompression operation can be performed independently for each tile.
[0007]
  Such division processing is called tiling and is an effective technique for saving memory and speeding up. However, as described in Non-Patent Document 1, the compression / decompression processing is performed under a high compression ratio. In this case, there is a problem that discontinuity of tile boundaries (tile boundary distortion) is easily noticeable in the expanded image.
[0008]
  In order to solve this tile boundary distortion, it is also effective to perform processing by overlapping the boundaries between adjacent tiles. However, since the basic specification of JPEG2000 (JPEG2000 Part 1) stipulates that adjacent tile boundaries do not overlap, the method of overlapping tile boundaries is not preferable from the viewpoint of complying with the regulations.
[0009]
  Further, similarly to the conventional technique, it is possible to expect suppression of tile boundary distortion by applying a low pass filter to the tile boundary. With this method, there is no restriction on the regulation as described above.
[0010]
  In the present applicant, a method for controlling the smoothing degree of the low-pass filter according to the distance from the tile boundary; a technique for gradually decreasing the smoothing degree of the low-pass filter as the distance from the tile boundary increases; A method of calculating an edge amount for a pixel in the vicinity of and controlling the smoothing degree of the low-pass filter in accordance with the edge amount; a method of gradually decreasing the smoothing degree of the low-pass filter as the edge amount increases; Furthermore, the method of controlling the low-pass filter according to the distance from the tile boundary and the edge amount at the pixel, that is, the smoothness of the low-pass filter is weakened as the distance from the tile boundary increases and the edge amount increases. A method has been proposed (Japanese Patent Application No. 13-400767). By applying this method, it is possible to prevent a band-like blurred image from being generated even when the edge amount near the tile boundary is large while suppressing the tile boundary distortion. For the purpose of speeding up the processing and reducing the processing amount, the applicant of the present application applies a low-pass filter that drops the frequency component in the horizontal direction to the vertical tile boundary, and sets the vertical tile boundary to the vertical tile boundary. There has also been proposed a method of applying a low-pass filter that drops the frequency component in the direction and applying a low-pass filter that drops the frequency component in the vertical and horizontal directions at the intersection of the tile boundaries (Japanese Patent Application No. 2002-109890).
[0011]
  However, it has been found that the conventional technique and the proposed method cannot always achieve the expected effect because of the peculiarity of tile boundary distortion of JPEG2000. In order to optimally suppress the tile boundary distortion of JPEG2000, as will be described in detail below, it is indispensable to sufficiently study the objectivity of the low-pass filter applied to the tile boundary pixels.
[0012]
  Therefore, an object of the present invention is to provide a new image processing apparatus and method that are extremely effective for suppressing tile boundary distortion of JPEG2000.
[0013]
[Means for Solving the Problems]
  Hereinafter, the present invention will be described with reference to the accompanying drawings in connection with the peculiarities of tile boundary distortion of JPEG2000.
[0014]
  FIG. 1 is a block diagram showing the flow of basic compression / decompression processing of JPEG2000. Image data to be subjected to compression processing is divided into tiles for each component and input to the color conversion / inverse color conversion unit 1000, where color conversion (described later) is performed. The tile image after color conversion is subjected to two-dimensional discrete wavelet transformation (forward transformation) by a two-dimensional wavelet transformation / inverse transformation unit 1001, and the obtained wavelet coefficients are entropy-coded after being quantized by a quantization unit 156. Encoded by the decoding unit 1003 In JPEG2000, both lossless compression (lossless compression) and lossy compression (lossy compression) are possible. In the case of lossless compression, the quantization step width is always 1, and substantially no quantization is performed. The entropy coding in the entropy coding / decoding unit 1003 uses a block-based bit-plane coding method called EBCOT (Embedded Block Coding with Optimized Truncation) consisting of block division, coefficient modeling, and binary arithmetic coding. . The wavelet coefficient to be encoded is an integer with a positive or negative sign (or an integer expressed as a real number), and scans them in a predetermined order, while the coefficients are expressed in absolute values, from the upper bits to the lower bits Encoding processing is executed in bit plane units. The code string generated by the entropy encoding / decoding unit 1003 is output as a bit stream of a predetermined format by the tag processing unit 1004.
[0015]
  The decompression process is the reverse of the compression process. The compressed image data (code data) is input to the tag processing unit 1004 and decomposed into code strings of each tile of each component. This code string is entropy-decoded by the entropy encoding / decoding unit 1003. The decoded wavelet coefficients are dequantized by the quantization / inverse quantization unit 1002 and then subjected to the two-dimensional inverse wavelet transform by the two-dimensional wavelet transformation / inverse transformation unit 1001, whereby each tile of each component. Images are played back. Each tile image of each component is input to the color space conversion unit 152, subjected to reverse color conversion processing, and output as a tile image composed of components such as RGB.
[0016]
  The image processing apparatus or method according to the present invention is subjected to suppression of tile boundary distortion or reverse color conversion processing in the image data 1201 (RGB value or CMY value) after reverse color conversion by the color conversion / reverse color conversion unit 1000. This is applied to suppression of tile boundary distortion in image data 1202 (luminance value Y, color difference values Cb, Cr) before image processing.
[0017]
  FIGS. 2 to 6 show a two-dimensional (vertical and horizontal) wavelet transform called a 5 × 3 transform adopted in JPEG2000 for a 16 × 16 monochrome image (or one component image of a color image). It is a figure for demonstrating the process to give. FIG. 2 shows an original image before conversion. As shown in the figure, XY coordinates are taken, and for a certain x, the pixel value of a pixel whose Y coordinate is y is expressed as P (y) (0 ≦ y ≦ 15). In JPEG 2000, first, a coefficient C (2i + 1) is obtained by applying a high-pass filter in the vertical direction (Y-coordinate direction) around a pixel whose Y-coordinate is an odd number (y = 2i + 1). Next, a low-pass filter is applied around the pixel whose Y coordinate is an even number (y = 2i) to obtain a coefficient C (2i) (this is performed for all x). Here, the high-pass filter and the low-pass filter are expressed by Expression (1) and Expression (2), respectively. The floor (x) in the expression is a floor function of x (a function that replaces the real number x with an integer that does not exceed x and is closest to x).
[0018]
  C (2i + 1) = P (2i + 1) −floor ((P (2i) + P (2i + 2)) / 2) Equation (1)
  C (2i) = P (2i) + floor ((C (2i-1) + C (2i + 1) +2) / 4) Equation (2)
[0019]
  Note that there may be no adjacent pixel group at the edge of the image with respect to the central pixel, and in this case, a deficient pixel value is compensated by a technique called “mirroring”. Mirroring is an operation that literally folds the pixel value around the boundary, and regards the folded value as the value of the adjacent pixel group. FIG. 7 is a schematic diagram of pixel value (or coefficient value) mirroring. This figure shows how pixel values indicated by hatched circles are supplemented with pixel values indicated by white circles in the tile when the pixel P at the right boundary of the tile is converted.
[0020]
  For simplicity, if the coefficient obtained by the high-pass filter is expressed as H and the coefficient obtained by the low-pass filter is expressed as L, the image in FIG. 2 is converted into the L coefficient and the H coefficient as shown in FIG. Converted to an array.
[0021]
  Subsequently, with respect to the coefficient array of FIG.x= 2i + 1) is applied to the center of the coefficient, and then the low-pass filter is applied to the center of the coefficient whose X coordinate is an even number (x = 2i). (P, (2i), etc. in (1) and (2) are read as those representing coefficient values).
[0022]
  For simplicity, LL is obtained by applying a low-pass filter centered on the L coefficient, HL is obtained by applying a high-pass filter centered on the L coefficient, and is obtained by applying a low-pass filter centered on the H coefficient. 3 is converted into a coefficient array as shown in FIG. 4, if LH is a coefficient obtained, and HH is a coefficient obtained by applying a high-pass filter around the H coefficient. Here, coefficient groups with the same symbol are called subbands, and FIG. 4 is composed of four subbands.
[0023]
  With the above processing, one wavelet transform (one decomposition (decomposition)) is completed, and only the LL coefficients are collected (collected for each subband as shown in FIG. 5 and only the LL subband is taken out). ), An “image” having a resolution half that of the original image is obtained. In this way, the classification for each subband is called deinterleaving, and the arrangement in the state shown in FIG. 4 is called interleaving.
[0024]
  The second wavelet transform is performed by the same processing as described above, regarding the LL subband as an original image. The processing resultDeWhen interleaved, subband coefficients as shown in FIG. 6 are obtained. The prefixes 1 and 2 of the coefficients in FIGS. 5 and 6 indicate how many times the wavelet transform has been obtained, and are called a decomposition level. Therefore, the resolution is lower as the subband has a higher decomposition level. In the above discussion, when only one-dimensional wavelet transform is desired, processing in only one direction may be performed.
[0025]
  On the other hand, in the wavelet inverse transform, an inverse low-pass filter is first applied to the array of interleaved coefficients as shown in FIG. 4 in the horizontal direction, centering on the coefficient whose X coordinate is an even number (x = 2i), and then X An inverse high-pass filter is applied around a coefficient whose coordinates are odd (x = 2i + 1). This is done for all y. Here, the inverse low-pass filter and the inverse high-pass filter are expressed by the following equations (3) and (4), respectively. As in the case of the wavelet transform (forward transform), there may be no adjacent coefficient group for the center coefficient at the edge of the image. In this case, the coefficient value is supplemented by mirroring.
[0026]
  P (2i) = C (2i) −floor ((C (2i-1) + C (2i + 1) +2) / 4) Equation (3)
  P (2i + 1) = C (2i + 1) + floor ((P (2i) + P (2i + 2)) / 2) Equation (4)
[0027]
  Through the above processing, the coefficient array in FIG. 4 is converted (inversely converted) into a coefficient array as shown in FIG. Subsequently, similarly, in the vertical direction, an inverse low-pass filter is applied centering on a coefficient whose Y coordinate is an even number (y = 2i), and then an inverse high-pass filter is centered on a coefficient whose Y coordinate is an odd number (y = 2i + 1). Apply. By performing this operation for all x, one wavelet inverse transformation is completed and the image of FIG. 2 is reconstructed. If wavelet transformation is performed a plurality of times, FIG. 2 is regarded as an LL subband, and an image is reconstructed by repeating similar inverse transformation using other coefficients such as HL.
[0028]
  In the wavelet transform as described above, the tile size as a processing unit takes a value of “power of 2” (that is, an even number) so that the resolution component of “one power of 2” of the original image can be easily obtained. In addition, the origin of the XY coordinates is easily taken at the apex of the image as shown in FIG. Under such conditions, when a filter is applied in the vertical direction as shown in FIG. 3 (as is apparent when the entire image in FIG. 2 is considered as one tile), the pixels adjacent to the upper end of the tile are low-pass. In this filter, a pixel adjacent to the lower end is subjected to a high-pass filter. Similarly, when a filter is applied in the horizontal direction as shown in FIG. 4, a low-pass filter is applied to a pixel adjacent to the left end of the tile, and a high-pass filter is applied to a pixel adjacent to the right end.
[0029]
  Here, as pointed out by Non-Patent Document 1, when a mirroring is performed, if a quantization error occurs in the H coefficient at the lower end of the tile boundary, the error appears as a pixel value error in the final decompressed image. It is known. Similarly, it is known that when a quantization error occurs in the H coefficient at the right end of the tile boundary, the error appears as a final pixel value error. On the other hand, it is known that even if a quantization error occurs in the L coefficient at the upper and left ends of the tile boundary, the error does not appear as a large error in the pixel value of the final decompressed image.
[0030]
  Therefore, when the average value of the pixel value errors occurring in the pixels in the tile is taken, the distribution is as shown in FIG. However, the distribution is for eight tiles that are continuous in the left-right and up-down directions, in which FIG. As can be seen from FIG. 8, at the bottom edge of the tile rather than the top edge of the tile,Left edgeThan tileRight edgeThus, the error takes a remarkably large value. That is, when the tile boundary is the center, the average error of the pixel value is extremely asymmetric.
[0031]
  When a filter having a weight symmetrical to the tile boundary direction is used under such an error distribution, for example, as shown in FIG. 9B, four adjacent tiles as shown in FIG. When the low-pass filter is applied to the vertical boundary at the right end of the tile 0 and the low-pass filter as shown in FIG. 9C is applied to the horizontal boundary at the lower end of the tile 1, it matches the asymmetric error described above. In some cases, a relatively large error occurs in the pixel value after smoothing. As is clear from FIG. 9B, the maximum weighting (= 4) is performed on a pixel having a large error. This is because only a half weight (= 2) is given to a pixel having an error smaller than that. In other words, the filter weighting factor itself may be determined based on the pixel error asymmetry and the magnitude relationship expected in advance.
[0032]
  The image processing apparatus according to the first aspect of the present invention is to effectively suppress the tile boundary distortion in consideration of the asymmetry of the error generated at the tile boundary as described above. )EveryCompressed / decompressed using wavelet transformIn order to suppress distortion at the division unit boundary in the image, a low pass filter is applied to the pixels near the division unit boundary.An image processing apparatus for performingThe weighting factor of the low-pass filter is asymmetric with respect to the direction of the division unit boundary.
[0033]
  An image processing apparatus according to a second aspect of the present invention is intended to effectively suppress tile boundary distortion in consideration of the magnitude relationship of errors occurring at tile boundaries, and is a predetermined division unit.(tile)EveryCompressed / decompressed using wavelet transformIn order to suppress distortion at the division unit boundary in the image, a low pass filter is applied to the pixels near the division unit boundary.An image processing apparatus for performingFor weighting factor of low-pass filter, Taken for pixels with equal distance from the vertical or horizontal division boundaries in the division unit (tile)AverageNaReflects the magnitude relationship of errorsMakeIt is characterized by this.
[0034]
  Further, the filter as described above needs to be applied to pixels in a predetermined range from the boundary where the tile boundary distortion extends. For example, when the 5 × 3 filter is used at the decomposition level 3, it may be applied to about 8 pixels near the boundary. As is clear from FIG. 9B, the target pixel to be filtered is from the tile boundary. As the distance increases, the weight of the filter multiplied by the H coefficient (arrow coefficient) having the largest error naturally decreases. That is, the asymmetry of the error depends on the distance between the target pixel and the boundary. For example, as the target pixel moves away from the boundary, the asymmetry of the filter may be weakened (may be closer to a symmetric filter). A symmetric low-pass filter is not preferable for the asymmetric error, but when the error asymmetry is small, the use of a symmetric filter may be less harmful and safe.
[0035]
  In view of this point, the invention according to claim 3 is the image processing apparatus according to claim 1 or 2, wherein the weight coefficient of the low-pass filter is asymmetric orSaid to the weighting factor of the low pass filterAverageNaThe degree of reflection of the magnitude relationship between errors isVertical or horizontal division units (tile)It depends on the distance from the boundary. In other words, the weight coefficient of the low-pass filter is controlled according to the distance from the tile boundary, and the tile boundary distortion is more effectively suppressed.
[0036]
  As is clear from FIG. 9B, when the target pixel moves away from the tile boundary, the range covered by the filter deviates from the tile boundary. In this case, the premise that “the asymmetry of the error around the tile boundary” described above is not satisfied.
[0037]
  The invention described in claim 4 focuses on this point and tries to suppress the tile boundary distortion more effectively. In the image processing apparatus according to claim 1 or 2, the tap of the low-pass filter isDivision unit (tile)Only when crossing the boundary, the weighting factor of the low-pass filter is made asymmetric or the weighting factor of the low-pass filterNaIt is characterized by reflecting the magnitude relationship of errors.
[0038]
  Further, as shown in FIG. 10, even if the pixel is adjacent to the tile boundary, when the position corresponds to the L coefficient, the filter weight coefficient is usually set small from the beginning. Even if the error is asymmetric, a symmetric filter with less harmful effects may be sufficient.
[0039]
  In view of this point, the invention according to claim 5 is the pixel of interest in the image processing apparatus according to claim 1 or 2.The average atOnly when the error is large, the weighting factor of the low-pass filter is asymmetric, or the weighting factor of the low-pass filterNaIt is characterized by reflecting the magnitude relationship of errors. That is, tile reflection is more effectively suppressed by performing the reflection only on pixels at positions where the average error is large.
[0040]
  Now, for example, when compression is performed on a color image composed of three RGB components, wavelet transformation can be performed with the RGB values as they are. However, in order to increase the compression rate, it is usual to perform color conversion to convert three new components of one luminance and two color differences, and individually perform wavelet conversion on the converted components. .
[0041]
  As an example of color conversion adopted in JPEG2000, there is the following conversion called RCT (Reversible Component Transform).
[0042]
      Luminance Y = floor ((R + 2G + B) / 4)
      Color difference Cr = RG
      Color difference Cb = BG Formula (5)
Its inverse transform is
      R = G + Cr
      G = Y-floor ((Cr + Cb) / 4)
      B = Cb + G Formula (6)
It is.
[0043]
  Here, the degree of asymmetry of the error differs between RGB components and between luminance / color difference components. The difference depends on the quantization method. For example, in the case of a luminance / color difference component, when the color difference is extremely quantized, the asymmetry may be larger in the color difference than in the luminance.
[0044]
  In view of this point, the invention according to claim 6 is the image processing apparatus according to claim 1 or 2, wherein the weighting coefficient of the low-pass filter is asymmetric or the weighting coefficient of the low-pass filter.To the aboveAverageNaThe degree of reflection of the magnitude relation of the error is different depending on the image component. In other words, by controlling the reflection by the component, the tile boundary distortion in the color image is more effectively suppressed.
[0045]
  The asymmetry is caused by the quantization error of the wavelet coefficient at the time of compression, and becomes larger as the compression rate becomes higher.
[0046]
  Therefore, the invention according to claim 7 is the image processing apparatus according to claim 1 or 2, wherein the weighting factor of the low-pass filter is asymmetric orSaid to the weighting factor of the low pass filterAverageNaThe degree of reflection of the magnitude relationship of errors differs depending on the compression rate of the compressed image. That is, the reflectionDegree ofThe tile boundary distortion is more effectively suppressed by controlling in accordance with the compression rate.
[0047]
  The degree of asymmetry depends on the mirroring range in wavelet transform (forward / reverse transform), that is, the tap length of the wavelet filter, and depends on the frequency characteristics. The degree gets bigger.
[0048]
  Therefore, the invention according to claim 8 is the image processing apparatus according to claim 1 or 2, wherein the weighting factor of the low-pass filter is asymmetric orSaid to the weighting factor of the low pass filterAverageNaThe degree of reflection of the magnitude relationship between errors isWavelet transformIt depends on the type of wavelet filter used in the above. That is, the reflectionDegree ofThis is to suppress the tile boundary distortion more effectively by performing according to the difference of the wavelet filter.
[0049]
  Now, as discussed in terms of asymmetry and reflection of the average error, it is very effective to use the method proposed by the applicant of the present invention in combination with the present invention. As is apparent from FIG. 8, the error that occurs in the pixel tends to decrease as the distance from the tile boundary increases. Therefore, the smoothness of the low-pass filter should also decrease as the distance increases. Also, as in the previous discussion of asymmetry, the discontinuity itself, that is, the tile boundary distortion, depends on the component, the compression rate, and the tap length of the wavelet filter. In particular, when the luminance / color difference system is YCbCr, it is experimentally known that the error in Cb is less perceptible than the error in Cr due to human visual characteristics. In itself, Cb may be weak. The low-pass filter is for suppressing the tile boundary distortion. However, if there is an actual edge (that reflects the original image) that is not distorted at the tile boundary, the actual edge is also smoothed. May occur.
[0050]
  Therefore, according to a ninth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the frequency characteristic of the low-pass filter is a division unit.Vertical or horizontal directionIt depends on the distance from the boundary. As described above, the tile boundary distortion can be more effectively suppressed by changing the frequency characteristic of the low-pass filter in accordance with the distance from the boundary.
[0051]
  The image processing apparatus according to claim 10 is characterized in that in the image processing apparatus according to claim 1 or 2, the frequency characteristics of the low-pass filter differ depending on the component of the image. It can be effectively suppressed.
[0052]
  According to an eleventh aspect of the present invention, in the image processing apparatus according to the first or second aspect, the frequency characteristics of the low-pass filter depend on the compression rate of the compressed image. Thus, tile boundary distortion can be more effectively suppressed by providing the low-pass filter with frequency characteristics corresponding to the compression rate.
[0053]
  The invention according to claim 12 is the image processing apparatus according to claim 1 or 2, wherein the frequency characteristic of the low-pass filter isWavelet transformThe tile boundary distortion can be more effectively suppressed by being different depending on the type of wavelet filter used in the above.
[0054]
  According to a thirteenth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the frequency characteristics of the low-pass filter depend on the edge degree near the division unit boundary, and the edge existing in the original image Thus, the tile boundary distortion is effectively suppressed without causing any adverse effects.
[0055]
  The invention described in claim 14 is the image processing apparatus according to claim 9, wherein the frequency characteristic of the low-pass filter also depends on the edge degree near the division unit boundary. In this way, by considering both the distance from the boundary and the edge that actually exists in the original image, the tile boundary distortion can be more effectively suppressed without causing any adverse effects on the actual edge.
[0056]
  The invention described in claim 15 is the image processing apparatus according to any one of claims 1 to 14, wherein the low-pass filter is applied after the inverse color conversion of the expanded image (applied to pixel values such as RGB). And has an advantage that the calculation for suppressing the tile boundary distortion is simplified.
[0057]
  According to a sixteenth aspect of the present invention, in the image processing device according to any one of the first to fourteenth aspects, a low-pass filter is applied before the inverse color conversion of the expanded image (the luminance value and the color difference value such as YCrCb). This is particularly advantageous when the edge degree needs to be calculated.
[0058]
  Further, the invention according to claim 17 is provided for each predetermined division unit (tile).Wavelet transform Compressed and decompressed usingIn order to suppress distortion at the division unit boundary in the image, a low pass filter is applied to the pixels near the division unit boundary.An image processing method to be applied,The weighting factor of the low-pass filter is asymmetric with respect to the direction of the division unit boundaryage,Tile boundary distortion can be effectively suppressed by taking into consideration the asymmetry of the error occurring at the boundary.
[0059]
  The invention according to claim 18 is provided for each predetermined division unit (tile).Compressed / decompressed using wavelet transformIn order to suppress distortion at the division unit boundary in the image, a low pass filter is applied to the pixels near the division unit boundary.An image processing method to be applied,The weighting factor of the low-pass filter isFor pixels with the same distance from the vertical or horizontal division boundary within the division unitAverageNaReflects the magnitude relationship of errorsage,Tile boundary distortion can be effectively suppressed by considering the magnitude relationship of errors occurring at the boundary.
[0060]
  The invention according to claim 19 is the image processing according to any one of claims 1 to 16.As a deviceA program that causes a computer to function. The invention according to claim 20 is a computer-readable recording medium on which the program according to claim 19 is recorded.
[0061]
DETAILED DESCRIPTION OF THE INVENTION
  The embodiment of the present invention described above will be described with reference to FIGS. Although the present invention can be implemented by any of hardware, software, and combinations thereof, an embodiment in which the present invention is implemented by software on a general-purpose computer system such as a personal computer will be described here. Therefore, each step in the following description and its processing content should be understood as corresponding means and functions included in the image processing apparatus of the present invention.
[0062]
  FIG. 11 is a simplified block diagram of a computer system for explaining one embodiment of the present invention. This computer system has a schematic configuration in which a CPU 1100, a main memory 1102, a hard disk device 1104, and a monitor device 1106 are connected by a system bus 1108. The main memory 1102 stores an image processing program 1110 for executing the functions of the image processing apparatus of the present invention or the processing procedure of the image processing method. The overall flow of processing is as follows.
[0063]
  (1) In accordance with a command from the CPU 1100, image data obtained by compressing an original image by JPEG2000 from the hard disk device 1104 is read into the main memory 1102. (2) The CPU 1100 reads compressed image data from the main memory 1102 according to the image processing program 1110, performs decompression processing, executes processing for suppressing tile boundary distortion on the expanded image data, and suppresses tile boundary distortion. The generated image data is generated on the main memory 1102. (3) The image data in which the tile boundary distortion is suppressed is displayed on the monitor device 1106 or stored in the hard disk device 1104 according to a command from the CPU 1100. Of course, the present invention includes a mode in which compressed image data is captured and processed via a network such as the Internet or a LAN.
[0064]
  A more detailed procedure of the processing stage (2) is shown in FIG. Here, it is assumed that the original image is divided into four tiles having the same number of even pixels in the vertical and horizontal directions. Therefore, the right end and the lower end of the tile are the positions of the H coefficient, and the left end and the upper end of the tile are the positions of the L coefficient. In addition, here, in the compression processing of the compressed image data, a case where the wavelet transform of Decomposition 3 is performed using a 5 × 3 wavelet filter will be described. (The case where a 9 × 7 wavelet filter is used will also be described later).
[0065]
  In step 1400 of FIG. 12, the compressed image of all tiles is decompressed to obtain the characteristic value of the pixel. The characteristic values are luminance / color difference values such as RGB values and YCbCr. In relation to FIG. 1, when tile boundary distortion suppression is performed on the expanded image data 1201, RGB values are characteristic values, and when tile boundary distortion suppression is performed on the expanded image data 1202, luminance Y and color difference Cb. Cr is a characteristic value. The characteristic value of the pixel of the expanded image is stored in a specific area of the main memory 1102. This step or means is a step or means for decompression processing, and the next steps 1401 to 1404 are processing steps or means for suppressing tile boundary distortion.
[0066]
  In step 1401, a characteristic value of a pixel within a predetermined distance from the tile boundary is subjected to a low pass filter for suppressing tile boundary distortion. Here, the distance from the tile boundary is the shortest distance from the pixel to the boundary as shown in FIG. In the example shown here, description will be made assuming that a low-pass filter is applied to a pixel whose distance from the boundary is 3 or less. The reason why the distance is 3 or less is to reduce the amount of calculation. The description will be made assuming that the tap length of the low-pass filter is 5.
[0067]
  In step 1402, the characteristic value of the pixel after applying the low pass filter is stored in a specific area of the main memory 1102.
[0068]
Is completed (step 1403, Yes), the characteristic value of the corresponding pixel of the decompressed image stored in step 1400 is replaced with the characteristic value stored in step 1402. Thus, image data in which tile boundary distortion is suppressed is obtained.
[0069]
  A more detailed procedure of step 1401 in FIG. 12 will be described with reference to the flowchart of FIG.
[0070]
  First, if the characteristic value to which the low-pass filter is applied is luminance or G, k = 5 is set (steps 2000 and 2001), and if the color difference is Cb, Cr or B or R, k = 4 is set (steps 2000 and 2002). This k is a value for determining the weight of the low-pass filter at the target pixel position (weight of the filter center). If the distance from the tile boundary of the target pixel is d,
      Weight of low-pass filter = k + 64d
Given in. That is, in this example, the weight of the center of the low-pass filter is changed according to the distance from the boundary (claim 9). Also,
        For luminance Y or G, k = 5
        For color difference Cb or B, k = 4
        For color difference Cr or R, k = 4
The weight of the center of the low-pass filter is changed depending on the component (claims 10, 15, 16).
[0071]
  In the next step 2003, a characteristic value of a pixel whose distance from the tile boundary is 3 or less is input. In step 2004, it is checked whether the pixel of interest is a pixel in contact with the tile boundary intersection. If the pixel is in contact with the tile boundary intersection, a low-pass filter having a weighting coefficient as shown in FIG. 17 is applied (step 2005). If the pixel of interest does not touch the tile boundary intersection, it is checked whether the distance from the tile boundary in the vertical direction is within 3 (step 2006). If so, a weighting coefficient as shown in FIG.HaveA low-pass filter is applied (step 2007), and if so, a low-pass filter having a weighting coefficient as shown in FIG. 16 is applied (step 2008). However, the weight at the center of the low-pass filter shown in FIGS. 15, 16, and 17 is a value when applied to the luminance or G component. In this example, a one-dimensional or cross-shaped low-pass filter is applied to reduce the amount of calculation, but it is needless to say that a two-dimensional low-pass filter can also be applied.
[0072]
  As can be seen from FIG. 15, the weighting factor of the low-pass filter is asymmetrical in the boundary direction only when the tap of the low-pass filter crosses the tile boundary in the vicinity of the right end of the tile. Further, in order to reflect the magnitude of the average error in the low-pass filter, the weight of the H coefficient position of the low-pass filter is reduced (part 2100) and the weight of the L position is increased (part 2101). ). Further, in the vicinity of the left end of the tile, a symmetrical low-pass filter is applied even when the tap crosses the tile boundary. In the low-pass filters shown in FIGS. 16 and 17, weights are set in the same way.
[0073]
  In the above description, pixels using asymmetric filters exist for all components. However, it is possible to use all symmetrical filters without performing this for luminance. The low-pass filter for such an embodiment is not shown because it is clear from the above description.
[0074]
  Also, the compression rate is checked in step 1401 (FIG. 12), and an asymmetric filter is used only when the compression rate exceeds 20, and a symmetric filter with less harmful effects is used when the compression rate is 20 or less. It is possible (Claim 7).
[0075]
  Furthermore, in this aspect, when the compression rate is 20 or less,
      For luminance Y or G, k = 5
      K = 4 for color difference Cb or B
      K = 4 for color difference Cr or R
If the compression ratio exceeds 20,
      K = 4 for luminance Y or G
      K = 3 for color difference Cb or B
      K = 3 for color difference Cr or R
(Claim 11). This is because in general, a stronger low-pass filter should be applied as the compression ratio increases. The weight and processing flow of the low-pass filter for such an aspect are clear from the above description and are not shown.
[0076]
  In addition, priority is given to accuracy over calculation amount, and as shown in FIG. 18, even when the tap crosses the tile boundary in the vicinity of the left end of the tile, the filter can be asymmetrical. Included in the invention.
[0077]
  The example of the low-pass filter in the case of the 5 × 3 wavelet transform has been described above.
[0078]
  In the case of 9 × 7 wavelet transform, a low-pass filter having a configuration as shown in FIG. 19 or 20 can be applied (claims 8 and 12). The low-pass filter shown in FIGS. 19 and 20 is an example of a filter applied to the tile boundary in the vertical direction. If this filter is rotated, the filter is applied to the tile boundary in the horizontal direction. When combined, a filter applied to the tile boundary intersection can be obtained as in FIG.
[0079]
  In step 1401 of FIG. 12, an edge degree calculation filter as shown in FIG. 21 is applied to each target pixel to detect the edge degree, and the weight of the center of the low-pass filter shown in FIGS. It can also be set as a function of edge degree and distance from tile boundaries.13, 14). FIG. 22 is an explanatory diagram of such a filter. In the example shown here,
If the distance d = 0,
If the absolute value abs (e) of the edge amount calculated by the edge degree calculation filter, that is, the edge degree is 255 or more, the weight m at the center of the low-pass filter is set.
    m = 5 + abs (E)
If the edge degree is less than 255
    m = 5
It is said.
If the distance d> 0,
    m = max (5 + 64d, 5 + abs (E))
It is said. Such filter weight control can effectively suppress tile boundary distortion while preserving edges that actually exist in the original image. Note that the low-pass filter shown in FIG. 22 assumes a case of 5 × 3 wavelet transform.
[0080]
  Note that the low-pass filter coefficients are normalized so that the sum of the weights is 1. That is,
    a b c
    d e f
    g hi
In the center pixel of 3 × 3 pixels having a pixel value of (a pixel having a pixel value of e)
    o p q
    r st
    u v w
When the low-pass filter is applied using the weight, the weight is multiplied by the pixel value in a normalized state so that the sum of them becomes 1
Σ (o + p + q + r + s + t + u + v + w) = X
The value of the center pixel after applying the low-pass filter is
(Ao + bp + cq + dr + es + ft + gu + hv + iw) / X
It becomes. The same applies to the case where the filter mask shape is 1 × n and the cross shape is normalized so that the sum of the weights of the low-pass filter is 1.
[0081]
  A program (not limited to an application program, including a device driver such as a printer driver) for realizing the processing procedure or the function of the corresponding means in the embodiment described above on the computer, and various records in which the program is recorded (Storage) media are also encompassed by the present invention.
[0082]
【The invention's effect】
  As described in detail above, according to the present invention, it is possible to extremely effectively suppress tile boundary distortion on an image expanded after being compressed by an image compression algorithm compliant with JPEG2000, The effect is great.
[Brief description of the drawings]
FIG. 1 is a block diagram for explaining the flow of JPEG2000 compression / decompression processing;
FIG. 2 is a diagram showing an original image and a coordinate system.
3 is a diagram illustrating a coefficient array obtained by performing one-dimensional wavelet transform in the vertical direction on the original image of FIG. 2;
4 is a diagram showing a coefficient array obtained by performing a one-dimensional wavelet transform in the horizontal direction on the coefficients of FIG. 3; FIG.
FIG. 5 is a diagram showing a coefficient array in which the coefficients in FIG. 4 are rearranged.
FIG. 6 is a diagram showing a coefficient array in which coefficients obtained by a two-dimensional wavelet transform at a decomposition level 2 are rearranged.
FIG. 7 is an explanatory diagram of mirroring at a tile boundary.
FIG. 8 is a diagram illustrating a distribution of mean square errors of pixel values generated in pixels in a tile.
FIG. 9 is a diagram illustrating an example of a symmetric low-pass filter applied to vertical and horizontal tile boundaries.
FIG. 10 is a diagram illustrating application of a low-pass filter when a target pixel is located at an L coefficient position.
FIG. 11 is a simplified block diagram for explaining an embodiment of the present invention.
FIG. 12 is a flowchart for explaining an embodiment of the present invention;
FIG. 13 is a diagram for explaining a distance from a tile boundary.
FIG. 14 is a flowchart for explaining the processing procedure of step 1401 in FIG. 12;
FIG. 15 is a diagram illustrating an example of a low-pass filter applied to a vertical tile boundary in the present invention.
FIG. 16 is a diagram illustrating an example of a low-pass filter applied to a horizontal tile boundary in the present invention.
FIG. 17 is a diagram illustrating an example of a low-pass filter applied to a pixel in contact with a tile boundary intersection in the present invention.
FIG. 18 is a diagram showing another example of a low-pass filter applied to a vertical tile boundary in the present invention.
FIG. 19 is a diagram showing another example of a low-pass filter applied to a vertical tile boundary in the present invention.
FIG. 20 is a diagram illustrating another example of a low-pass filter applied to a vertical tile boundary in the present invention.
FIG. 21 is a diagram illustrating an example of an edge amount calculation filter.
FIG. 22 is a diagram showing another example of a low-pass filter applied to a tile boundary in the present invention.
[Explanation of symbols]
  1000 color conversion / reverse color conversion unit
  1001 Two-dimensional wavelet transform / inverse transform unit
  1002 Quantization / inverse quantization unit
  1003 Entropy encoding / decoding unit
  1004 Tag processing section
  1100 CPU
  1102 main memory
  1104 Hard disk device
  1106 Monitor device
  1110 Image processing program

Claims (20)

分割単位毎にウェーブレット変換を用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理装置であって、前記ローパスフィルタの重み係数が分割単位境界の方向に対し非対称であることを特徴とする画像処理装置。An image processing apparatus that applies a low-pass filter to pixels in the vicinity of a division unit boundary in order to suppress distortion of the division unit boundary in an image compressed and decompressed using wavelet transform for each division unit, the weight of the low-pass filter An image processing apparatus, wherein the coefficient is asymmetric with respect to the direction of the division unit boundary. 分割単位毎にウェーブレット変換を用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理装置であって、前記ローパスフィルタの重み係数に、分割単位内の垂直方向又は水平方向の分割境界からの距離が等しい画素についてとった平均的誤差の大小関係を反映させることを特徴とする画像処理装置。An image processing apparatus that applies a low-pass filter to pixels in the vicinity of a division unit boundary in order to suppress distortion of the division unit boundary in an image compressed and decompressed using wavelet transform for each division unit, the weight of the low-pass filter the coefficients, the image processing apparatus, characterized in that to reflect the average error magnitude of the distance taken for the same pixels from the vertical or horizontal division boundary in the dividing unit. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの重み係数の非対称の程度又は前記ローパスフィルタの重み係数への前記平均的誤差の大小関係の反映の程度が、分割単位の縦方向又は横方向の境界からの距離に依存することを特徴とする画像処理装置。The image processing apparatus according to claim 1 or 2, wherein the degree of reflection of the average error magnitude relationship to the degree or the weighting coefficient of the low-pass filter of the asymmetric weighting coefficients of the low-pass filter, the vertical division unit An image processing apparatus that depends on a distance from a boundary in a direction or a horizontal direction . 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの重み係数を非対称とし又は前記ローパスフィルタの重み係数に前記平均的誤差の大小関係を反映させるのは、前記ローパスフィルタのタップが分割単位境界をまたぐ場合であることを特徴とする画像処理装置。The image processing apparatus according to claim 1 or 2, wherein the weighting coefficients of the low pass filter with an asymmetric or to make reflect the average error magnitude of the weighting coefficients of the low pass filter taps of the low-pass filter An image processing apparatus, characterized in that it is a case where the division unit boundary is crossed. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの重み係数を非対称とし又は前記ローパスフィルタの重み係数に前記平均的誤差の大小関係を反映させるのは、注目画素での前記平均的な誤差が大きい場合であることを特徴とする画像処理装置。The image processing apparatus according to claim 1 or 2, wherein the make reflect an average error magnitude of the weighting coefficient is asymmetric or the weighting coefficient of the low-pass filter of the low-pass filter, the average in the pixel of interest An image processing apparatus characterized by having a large error . 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの重み係数の非対称の程度又は前記ローパスフィルタの重み係数への前記平均的な誤差の大小関係の反映の程度が、画像のコンポーネントによって異なることを特徴とする画像処理装置。3. The image processing apparatus according to claim 1, wherein the degree of asymmetry of the weighting factor of the low-pass filter or the degree of reflection of the magnitude relationship of the average error in the weighting factor of the low-pass filter depends on the component of the image. An image processing apparatus characterized by being different. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの重み係数の非対称の程度又は前記ローパスフィルタの重み係数への前記平均的誤差の大小関係の反映の程度が、圧縮された画像の圧縮率によって異なることを特徴とする画像処理装置。The image processing apparatus according to claim 1 or 2, the degree of reflection of the average error magnitude relationship to the degree or the weighting coefficient of the low-pass filter of the asymmetric weighting coefficients of the low pass filter, compressed image An image processing apparatus, which differs depending on the compression rate. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの重み係数の非対称の程度又は前記ローパスフィルタの重み係数への前記平均的誤差の大小関係の反映の程度が、ウェーブレット変換に用いられるウェーブレットフィルタの種類に依存することを特徴とする画像処理装置。The image processing apparatus according to claim 1 or 2, wherein the degree of reflection of the average error magnitude relationship to the degree or the weighting coefficient of the low-pass filter of the asymmetric weighting coefficients of the low-pass filter, using the wavelet transform the image processing apparatus being dependent on the type of wavelet filter to be. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの周波数特性が、分割単位の縦方向又は横方向の境界からの距離に依存することを特徴とする画像処理装置。The image processing apparatus according to claim 1, wherein the frequency characteristic of the low-pass filter depends on a distance from a vertical or horizontal boundary of a division unit. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの周波数特性が、画像のコンポーネントによって異なることを特徴とする画像処理装置。  The image processing apparatus according to claim 1, wherein a frequency characteristic of the low-pass filter varies depending on an image component. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの周波数特性が、圧縮された画像の圧縮率に依存することを特徴とする画像処理装置。  The image processing apparatus according to claim 1, wherein the frequency characteristics of the low-pass filter depend on a compression rate of the compressed image. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの周波数特性が、ウェーブレット変換に用いられるウェーブレットフィルタの種類によって異なることを特徴とする画像処理装置。3. The image processing apparatus according to claim 1, wherein a frequency characteristic of the low-pass filter differs depending on a type of a wavelet filter used for wavelet transform . 4. 請求項1又は2に記載の画像処理装置において、前記ローパスフィルタの周波数特性が、分割単位境界付近のエッジ度に依存することを特徴とする画像処理装置。  The image processing apparatus according to claim 1, wherein the frequency characteristic of the low-pass filter depends on an edge degree near a division unit boundary. 請求項9に記載の画像処理装置において、前記ローパスフィルタの周波数特性が、分割単位境界付近のエッジ度にも依存することを特徴とする画像処理装置。  The image processing apparatus according to claim 9, wherein the frequency characteristic of the low-pass filter also depends on an edge degree near a division unit boundary. 請求項1乃至14のいずれか1項に記載の画像処理装置において、伸長された画像の逆色変換後に前記ローパスフィルタが施されることを特徴とする画像処理装置。  The image processing apparatus according to claim 1, wherein the low-pass filter is applied after inverse color conversion of the decompressed image. 請求項1乃至14のいずれか1項に記載の画像処理装置において、伸長された画像の逆色変換前に前記ローパスフィルタが施されることを特徴とする画像処理装置。  15. The image processing apparatus according to claim 1, wherein the low-pass filter is applied before inverse color conversion of the decompressed image. 分割単位毎にウェーブレット変換を用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理方法であって、前記ローパスフィルタの重み係数が分割単位境界の方向に対し非対称であることを特徴とする画像処理方法。An image processing method for applying a low-pass filter to pixels in the vicinity of a division unit boundary in order to suppress distortion of the division unit boundary in an image compressed and decompressed using a wavelet transform for each division unit, the weight of the low-pass filter An image processing method, wherein the coefficient is asymmetric with respect to the direction of the division unit boundary. 分割単位毎にウェーブレット変換を用いて圧縮伸長された画像における分割単位境界の歪みを抑制するため、分割単位境界の近傍の画素に対しローパスフィルタを施す画像処理方法であって、前記ローパスフィルタの重み係数に、分割単位内の垂直方向又は水平方向の分割境界からの距離が等しい画素についてとった平均的誤差の大小関係を反映させることを特徴とする画像処理方法。An image processing method for applying a low-pass filter to pixels in the vicinity of a division unit boundary in order to suppress distortion of the division unit boundary in an image compressed and decompressed using a wavelet transform for each division unit, the weight of the low-pass filter the coefficients, an image processing method, characterized in that to reflect the average error magnitude of the distance taken for the same pixels from the vertical or horizontal division boundary in the dividing unit. 請求項1乃至16のいずれか1項に記載の画像処理装置としてコンピュータを機能させるためのプログラム。A program for causing a computer to function as the image processing equipment according to any one of claims 1 to 16. 請求項19に記載のプログラムが記録されたコンピュータが読み取り可能な記録媒体。  A computer-readable recording medium on which the program according to claim 19 is recorded.
JP2002267692A 2002-07-17 2002-09-13 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP3973089B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002267692A JP3973089B2 (en) 2002-09-13 2002-09-13 Image processing apparatus, image processing method, program, and recording medium
US10/600,333 US7330596B2 (en) 2002-07-17 2003-06-23 Image decoding technique for suppressing tile boundary distortion
US11/980,580 US7522778B2 (en) 2002-07-17 2007-10-31 Image decoding technique for suppressing tile boundary distortion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002267692A JP3973089B2 (en) 2002-09-13 2002-09-13 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004112004A JP2004112004A (en) 2004-04-08
JP3973089B2 true JP3973089B2 (en) 2007-09-05

Family

ID=32266119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002267692A Expired - Fee Related JP3973089B2 (en) 2002-07-17 2002-09-13 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP3973089B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609899B2 (en) 2004-05-28 2009-10-27 Ricoh Company, Ltd. Image processing apparatus, image processing method, and recording medium thereof to smooth tile boundaries
KR100695138B1 (en) 2005-01-21 2007-03-14 삼성전자주식회사 Image compressing apparatus and method thereof
US8098951B2 (en) * 2008-08-15 2012-01-17 Sharp Laboratories Of America, Inc. Image sharpening technique
JP5003739B2 (en) * 2009-10-01 2012-08-15 セイコーエプソン株式会社 Image display device and image display method
JP2010011485A (en) * 2009-10-01 2010-01-14 Seiko Epson Corp Image processing unit
JP6132610B2 (en) * 2013-03-21 2017-05-24 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2004112004A (en) 2004-04-08

Similar Documents

Publication Publication Date Title
US7302104B2 (en) Smoothing tile boundaries of images encoded and decoded by JPEG 2000
US7330596B2 (en) Image decoding technique for suppressing tile boundary distortion
JP4870743B2 (en) Selective chrominance decimation for digital images
JP4365957B2 (en) Image processing method and apparatus and storage medium
US7454080B1 (en) Methods and apparatus for improving quality of block-transform coded images
EP1351508A2 (en) Adaptive post-filtering for reducing noise in highly compressed image/video coding
US7333664B2 (en) Image compression method capable of reducing tile boundary distortion
JP3973089B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2004528791A (en) Inter-frame encoding method and apparatus
JP4726040B2 (en) Encoding processing device, decoding processing device, encoding processing method, decoding processing method, program, and information recording medium
US8150184B2 (en) Method and apparatus for encoding/decoding image, computer-readable program therefore, and information recording medium storing same program
JP3732674B2 (en) Color image compression method and color image compression apparatus
JP4636547B2 (en) Encoding device, program, and information recording medium
JP4189956B2 (en) Image data generation apparatus and image data generation method
JP4118049B2 (en) Image processing apparatus and method
JP2004056260A (en) Image decoder, image processor, program, recording medium and image decoding method
JP4107660B2 (en) Image processing apparatus, image processing method, program, and information recording medium
Marsh et al. Removal of Blocking Artifacts from JPEG-Compressed Images Using a Neural Network
JP5245771B2 (en) Encoding apparatus, encoding method, program, and recording medium
JP4111447B2 (en) Image processing apparatus, image processing method, program, and information recording medium
JP4189957B2 (en) Image data generation apparatus and image data generation method
JP4424672B2 (en) Image processing apparatus, image processing method, program, and information recording medium
JPH07262361A (en) Method and device for image processing
JP4010957B2 (en) Image processing apparatus, program, storage medium, and image forming apparatus
JP5412901B2 (en) Decoding device, image processing device, decoding method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070607

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130622

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees