JP4145086B2 - Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method - Google Patents

Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method Download PDF

Info

Publication number
JP4145086B2
JP4145086B2 JP2002208156A JP2002208156A JP4145086B2 JP 4145086 B2 JP4145086 B2 JP 4145086B2 JP 2002208156 A JP2002208156 A JP 2002208156A JP 2002208156 A JP2002208156 A JP 2002208156A JP 4145086 B2 JP4145086 B2 JP 4145086B2
Authority
JP
Japan
Prior art keywords
tile boundary
image
smoothing
frame
priority mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002208156A
Other languages
Japanese (ja)
Other versions
JP2004056264A (en
Inventor
水納  亨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002208156A priority Critical patent/JP4145086B2/en
Priority to US10/600,333 priority patent/US7330596B2/en
Publication of JP2004056264A publication Critical patent/JP2004056264A/en
Priority to US11/980,580 priority patent/US7522778B2/en
Application granted granted Critical
Publication of JP4145086B2 publication Critical patent/JP4145086B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像復号装置、画像処理装置、動画像表示システム、プログラム、記憶媒体及び画像復号方法に関する。
【0002】
【従来の技術】
画像入力技術およびその出力技術の進歩により、画像に対して高精細化の要求が、近年非常に高まっている。例えば、画像入力装置として、デジタルカメラ(Digital Camera)を例にあげると、300万以上の画素数を持つ高性能な電荷結合素子(CCD:Charge Coupled Device)の低価格化が進み、普及価格帯の製品においても広く用いられるようになってきた。そして、500万画素の製品も間近である。そして、このピクセル数の増加傾向は、なおしばらくは続くと言われている。
【0003】
一方、画像出力・表示装置に関しても、例えば、レーザプリンタ、インクジェットプリンタ、昇華型プリンタ等のハード・コピー分野における製品、そして、CRTやLCD(液晶表示デバイス)、PDP(プラズマ表示デバイス)等のフラットパネルディスプレイのソフト・コピー分野における製品の高精細化・低価格化は目を見張るものがある。
【0004】
こうした高性能・低価格な画像入出力製品の市場投入効果によって、高精細画像の大衆化が始まっており、今後はあらゆる場面で、高精細画像の需要が高まると予想されている。実際、パーソナルコンピュータ(Personal Computer)やインターネットをはじめとするネットワークに関連する技術の発達は、こうしたトレンドをますます加速させている。特に最近は、携帯電話やノートパソコン等のモバイル機器の普及速度が非常に大きく、高精細な画像を、あらゆる地点から通信手段を用いて伝送あるいは受信する機会が急増している。
【0005】
これらを背景に、高精細画像の取扱いを容易にする画像圧縮伸長技術に対する高性能化あるいは多機能化の要求は、今後ますます強くなっていくことは必至と思われる。
【0006】
そこで、近年においては、こうした要求を満たす画像圧縮方式の一つとして、高圧縮率でも高画質な画像を復元可能なJPEG2000という新しい方式が規格化されつつある。かかるJPEG2000においては、画像を矩形領域(タイル)に分割することにより、少ないメモリ環境下で圧縮伸張処理を行うことが可能である。すなわち、個々のタイルが圧縮伸長プロセスを実行する際の基本単位となり、圧縮伸長動作はタイル毎に独立に行うことができる。
【0007】
【発明が解決しようとする課題】
ところで、JPEG2000における分割処理は、タイリングと呼ばれ、省メモリ化・高速化に有効な手法であるが、「J. X. Wei, M. R. Pickering, M. R. Frater and J. F. Arnold, "A New Method for Reducing Boundary Artifacts in Block-Based Wavelet Image Compression," in VCIP 2000, K. N. Ngan, T. Sikora, M-T Sun Eds., Proc. of SPIE Vol. 4067, pp. 1290-1295, 20-23 June 2000, Perth, Australia」にも記載があるように、圧縮率の高い条件で圧縮伸長処理を行った場合には、伸張後の画像においてタイルの境界が不連続となるという問題がある。
【0008】
そこで、このような問題を解決すべく、タイル境界の近傍のみに均一なローパスフィルタをかけることにより、タイル境界を目立たなくするという技術が提案されている。
【0009】
また、このような1フレームのJPEG2000画像は、所定のフレームレート(単位時間に再生するフレーム数)で連続して表示することにより、動画像にすることが可能である。
【0010】
ところが、上述したようなローパスフィルタによる処理は比較的多くの演算量を必要とするため、フィルタ処理に時間がかかり、結果的に再生処理の遅れが引き起こされる場合がある。特に、動画像における再生処理の遅れは、音声とのずれや、コマ落ちなどの問題を生じることになる。
【0011】
本発明の目的は、復号処理速度とタイル境界の歪みの平滑化による画質とのバランスを図ることで、復号処理が再生に追いつかずにコマ落ちする等の悪影響を排除しつつ、タイル境界の歪みを抑制することができる画像復号装置、画像処理装置、動画像表示システム、プログラム、記憶媒体及び画像復号方法を提供することである。
【0012】
【課題を解決するための手段】
本発明の画像復号化装置は、画像が複数に分割されたタイル毎に画素値が離散ウェーブレット変換され圧縮符号化された複数のフレームを連続して復号する画像復号装置であって、
復号後の各フレームにおけるタイル境界の歪みを平滑化する、第一のタイル境界平滑化処理又は第二のタイル境界平滑化処理を行う、タイル境界平滑化手段と、前記タイル境界平滑化手段によるタイル境界歪みの平滑化処理について画質を優先させる画質優先モード又は処理速度を優先させる速度優先モードを選択するモード選択手段と、前記タイル境界平滑化手段による復号後の各フレームにおけるタイル境界歪みの平滑化処理について、前記モード選択手段による選択に従って、前記速度優先モードが選択された場合には、前記第一のタイル境界平滑化処理に切り替え、前記画質優先モードが選択された場合には、前記第二のタイル境界平滑化処理に切り替える、タイル境界平滑化切替手段とを有し、前記第一のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対して一様なローパスフィルタを施し、前記第二のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対し、該画素のタイル境界からの画素間距離と前記タイル境界近傍の画素の斜め方向のエッジ量が大きいほど平滑化度を小さく制御したローパスフィルタを施すことを特徴とする。
【0013】
したがって、モード選択手段による選択に従って画質優先モードと速度優先モードとが切り替えられ、タイル境界平滑化手段による復号後の各フレームにおけるタイル境界歪みの平滑化処理が実行される。これにより、画質を優先させる画質優先モードと処理速度を優先させる速度優先モードとを適宜選択してタイル境界歪みの平滑化処理を実行することが可能になる
【0032】
本発明の画像処理装置は、画像複数に分割されたタイル毎に画素値離散ウェーブレット変換され圧縮符号化された複数のフレームを連続して復号する本発明の画像復号装置の何れか一と、この画像復号装置により復号されたフレームに基づく画像を表示装置に表示させる画像表示装置と、を備える。
【0033】
したがって、本発明の画像復号装置と同様の作用を奏する画像処理装置を提供することが可能になる。
【0034】
本発明の動画像表示システムは、動画像を撮像する画像入力装置と、前記画像入力装置により撮像された動画像フレームごとに複数タイルに分割し、前記タイル毎に画素値を離散ウェーブレット変換し圧縮符号化する画像圧縮装置と、前記画像圧縮装置により圧縮符号化された複数のフレームを連続して復号する本発明の画像復号装置の何れか一と、前記画像復号装置により復号されたフレームに基づく画像を表示装置に表示させる画像表示装置と、を備える。
【0035】
したがって、本発明の画像復号装置と同様の作用を奏する動画像表示システムを提供することが可能になる。
【0036】
本発明のプログラムは、本発明の画像復号方法の何れか一をコンピュータに実行させる
【0037】
したがって、本発明の画像復号方法と同様の作用を奏するプログラムを提供することが可能になる
【0056】
本発明の記憶媒体は、本発明のプログラムの何れか一以上を記憶している。
【0057】
したがって、この記憶媒体に記憶されたプログラムをコンピュータに読み取らせることにより、本発明の画像復号方法と同様の作用を得ることが可能になる。
【0058】
本発明の画像復号化方法は、画像が複数に分割されたタイル毎に画素値が離散ウェーブレット変換され圧縮符号化された複数のフレームを連続して復号する画像復号方法であって、
復号後の各フレームにおけるタイル境界の歪みを平滑化する、第一のタイル境界平滑化処理又は第二のタイル境界平滑化処理を行う、タイル境界平滑化工程と、前記タイル境界平滑化工程におけるタイル境界歪みの平滑化処理について画質を優先させる画質優先モード又は処理速度を優先させる速度優先モードを選択するモード選択工程と、前記タイル境界平滑化工程による復号後の各フレームにおけるタイル境界歪みの平滑化処理について、前記モード選択工程による選択に従って、前記速度優先モードが選択された場合には、前記第一のタイル境界平滑化処理に切り替え、前記画質優先モードが選択された場合には、前記第二のタイル境界平滑化処理に切り替える、タイル境界平滑化切替工程とを有し、前記第一のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対して一様なローパスフィルタを施し、前記第二のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対し、該画素のタイル境界からの画素間距離と前記タイル境界近傍の画素の斜め方向のエッジ量が大きいほど平滑化度を小さく制御したローパスフィルタを施すことを特徴とする。
【0059】
したがって、モード選択工程による選択に従って画質優先モードと速度優先モードとが切り替えられ、タイル境界平滑化工程による復号後の各フレームにおけるタイル境界歪みの平滑化処理が実行される。これにより、画質を優先させる画質優先モードと処理速度を優先させる速度優先モードとを適宜選択してタイル境界歪みの平滑化処理を実行することが可能になる
【0078】
【発明の実施の形態】
最初に、本実施の形態の前提となる「階層符号化アルゴリズム」及び「JPEG2000アルゴリズム」の概要について説明する。
【0079】
図1は、JPEG2000方式の基本となる階層符号化アルゴリズムを実現するシステムの機能ブロック図である。このシステムは、色空間変換・逆変換部101、2次元ウェーブレット変換・逆変換部102、量子化・逆量子化部103、エントロピー符号化・復号化部104、タグ処理部105の各機能ブロックにより構成されている。
【0080】
このシステムが従来のJPEGアルゴリズムと比較して最も大きく異なる点の一つは変換方式である。JPEGでは離散コサイン変換(DCT:Discrete Cosine Transform)を用いているのに対し、この階層符号化アルゴリズムでは、2次元ウェーブレット変換・逆変換部102において、離散ウェーブレット変換(DWT:Discrete Wavelet Transform)を用いている。DWTはDCTに比べて、高圧縮領域における画質が良いという長所を有し、この点が、JPEGの後継アルゴリズムであるJPEG2000でDWTが採用された大きな理由の一つとなっている。
【0081】
また、他の大きな相違点は、この階層符号化アルゴリズムでは、システムの最終段に符号形成を行うために、タグ処理部105の機能ブロックが追加されていることである。このタグ処理部105で、画像の圧縮動作時には圧縮データが符号列データとして生成され、伸長動作時には伸長に必要な符号列データの解釈が行われる。そして、符号列データによって、JPEG2000は様々な便利な機能を実現できるようになった。例えば、ブロック・ベースでのDWTにおけるオクターブ分割に対応した任意の階層(デコンポジション・レベル)で、静止画像の圧縮伸長動作を自由に停止させることができるようになる(後述する図3参照)。
【0082】
原画像の入出力部分には、色空間変換・逆変換101が接続される場合が多い。例えば、原色系のR(赤)/G(緑)/B(青)の各コンポーネントからなるRGB表色系や、補色系のY(黄)/M(マゼンタ)/C(シアン)の各コンポーネントからなるYMC表色系から、YUVあるいはYCbCr表色系への変換又は逆変換を行う部分がこれに相当する。
【0083】
次に、JPEG2000アルゴリズムについて説明する。
【0084】
カラー画像は、一般に、図2に示すように、原画像の各コンポーネント111(ここではRGB原色系)が、矩形をした領域によって分割される。この分割された矩形領域は、一般にブロックあるいはタイルと呼ばれているものであるが、JPEG2000では、タイルと呼ぶことが一般的であるため、以下、このような分割された矩形領域をタイルと記述することにする(図2の例では、各コンポーネント111が縦横4×4、合計16個の矩形のタイル112に分割されている)。このような個々のタイル112(図2の例で、R00,R01,…,R15/G00,G01,…,G15/B00,B01,…,B15)が、画像データの圧縮伸長プロセスを実行する際の基本単位となる。従って、画像データの圧縮伸長動作は、コンポーネントごと、また、タイル112ごとに、独立に行われる。
【0085】
画像データの符号化時には、各コンポーネント111の各タイル112のデータが、図1の色空間変換・逆変換部101に入力され、色空間変換を施された後、2次元ウェーブレット変換部102で2次元ウェーブレット変換(順変換)が施されて、周波数帯に空間分割される。
【0086】
図3には、デコンポジション・レベル数が3の場合の、各デコンポジション・レベルにおけるサブバンドを示している。すなわち、原画像のタイル分割によって得られたタイル原画像(0LL)(デコンポジション・レベル0)に対して、2次元ウェーブレット変換を施し、デコンポジション・レベル1に示すサブバンド(1LL,1HL,1LH,1HH)を分離する。そして引き続き、この階層における低周波成分1LLに対して、2次元ウェーブレット変換を施し、デコンポジション・レベル2に示すサブバンド(2LL,2HL,2LH,2HH)を分離する。順次同様に、低周波成分2LLに対しても、2次元ウェーブレット変換を施し、デコンポジション・レベル3に示すサブバンド(3LL,3HL,3LH,3HH)を分離する。図3では、各デコンポジション・レベルにおいて符号化の対象となるサブバンドを、網掛けで表してある。例えば、デコンポジション・レベル数を3としたとき、網掛けで示したサブバンド(3HL,3LH,3HH,2HL,2LH,2HH,1HL,1LH,1HH)が符号化対象となり、3LLサブバンドは符号化されない。
【0087】
次いで、指定した符号化の順番で符号化の対象となるビットが定められ、図1に示す量子化・逆量子化部103で対象ビット周辺のビットからコンテキストが生成される。
【0088】
この量子化の処理が終わったウェーブレット係数は、個々のサブバンド毎に、「プレシンクト」と呼ばれる重複しない矩形に分割される。これは、インプリメンテーションでメモリを効率的に使うために導入されたものである。図4に示したように、一つのプレシンクトは、空間的に一致した3つの矩形領域からなっている。更に、個々のプレシンクトは、重複しない矩形の「コード・ブロック」に分けられる。これは、エントロピー・コーディングを行う際の基本単位となる。
【0089】
ウェーブレット変換後の係数値は、そのまま量子化し符号化することも可能であるが、JPEG2000では符号化効率を上げるために、係数値を「ビットプレーン」単位に分解し、画素あるいはコード・ブロック毎に「ビットプレーン」に順位付けを行うことができる。
【0090】
ここで、図5はビットプレーンに順位付けする手順の一例を示す説明図である。図5に示すように、この例は、原画像(32×32画素)を16×16画素のタイル4つで分割した場合で、デコンポジション・レベル1のプレシンクトとコード・ブロックの大きさは、各々8×8画素と4×4画素としている。プレシンクトとコード・ブロックの番号は、ラスター順に付けられており、この例では、プレンシクトが番号0から3まで、コード・ブロックが番号0から3まで割り当てられている。タイル境界外に対する画素拡張にはミラーリング法を使い、可逆(5,3)フィルタでウェーブレット変換を行い、デコンポジション・レベル1のウェーブレット係数値を求めている。
【0091】
また、タイル0/プレシンクト3/コード・ブロック3について、代表的な「レイヤ」構成の概念の一例を示す説明図も図5に併せて示す。変換後のコード・ブロックは、サブバンド(1LL,1HL,1LH,1HH)に分割され、各サブバンドにはウェーブレット係数値が割り当てられている。
【0092】
レイヤの構造は、ウェーブレット係数値を横方向(ビットプレーン方向)から見ると理解し易い。1つのレイヤは任意の数のビットプレーンから構成される。この例では、レイヤ0,1,2,3は、各々、1,3,1,3のビットプレーンから成っている。そして、LSB(Least Significant Bit:最下位ビット)に近いビットプレーンを含むレイヤ程、先に量子化の対象となり、逆に、MSB(Most Significant Bit:最上位ビット)に近いレイヤは最後まで量子化されずに残ることになる。LSBに近いレイヤから破棄する方法はトランケーションと呼ばれ、量子化率を細かく制御することが可能である。
【0093】
図1に示すエントロピー符号化・復号化部104では、コンテキストと対象ビットから確率推定によって、各コンポーネント111のタイル112に対する符号化を行う。こうして、原画像の全てのコンポーネント111について、タイル112単位で符号化処理が行われる。最後にタグ処理部105は、エントロピー符号化・復号化部104からの全符号化データを1本の符号列データに結合するとともに、それにタグを付加する処理を行う。
【0094】
図6には、この符号列データの1フレーム分の概略構成を示している。この符号列データの先頭と各タイルの符号データ(bit stream)の先頭にはヘッダ(メインヘッダ(Main header)、タイル境界位置情報やタイル境界方向情報等であるタイルパートヘッダ(tile part header))と呼ばれるタグ情報が付加され、その後に、各タイルの符号化データが続く。なお、メインヘッダ(Main header)には、符号化パラメータや量子化パラメータが記述されている。そして、符号列データの終端には、再びタグ(end of codestream)が置かれる。
【0095】
一方、符号化データの復号化時には、画像データの符号化時とは逆に、各コンポーネント111の各タイル112の符号列データから画像データを生成する。この場合、タグ処理部105は、外部より入力した符号列データに付加されたタグ情報を解釈し、符号列データを各コンポーネント111の各タイル112の符号列データに分解し、その各コンポーネント111の各タイル112の符号列データ毎に復号化処理(伸長処理)を行う。このとき、符号列データ内のタグ情報に基づく順番で復号化の対象となるビットの位置が定められるとともに、量子化・逆量子化部103で、その対象ビット位置の周辺ビット(既に復号化を終えている)の並びからコンテキストが生成される。エントロピー符号化・復号化部104で、このコンテキストと符号列データから確率推定によって復号化を行い、対象ビットを生成し、それを対象ビットの位置に書き込む。このようにして復号化されたデータは周波数帯域毎に空間分割されているため、これを2次元ウェーブレット変換・逆変換部102で2次元ウェーブレット逆変換を行うことにより、画像データの各コンポーネントの各タイルが復元される。復元されたデータは色空間変換・逆変換部101によって元の表色系の画像データに変換される。
【0096】
以上が、「JPEG2000アルゴリズム」の概要であり、静止画像、すなわち単フレームに対する方式を複数フレームに拡張したものが、「Motion JPEG2000アルゴリズム」である。すなわち、「Motion JPEG2000」は、図7に示すように、1フレームのJPEG2000画像を所定のフレームレート(単位時間に再生するフレーム数)で連続して表示することにより、動画像にするものである。
【0097】
以下、本発明の第一の実施の形態について説明する。なお、ここでは、Motion JPEG2000を代表とする動画像圧縮伸長技術に関する例について説明するが、いうまでもなく、本発明は以下の説明の内容に限定されるものではない。
【0098】
図8は本発明が適用される監視カメラシステム1を示すシステム構成図、図9はその機能ブロック図である。図8に示すように、本発明の動画像表示システムが適用される監視カメラシステム1は、画像記録装置として機能する監視カメラ1aと画像処理装置として機能するパーソナルコンピュータ(以下、PCという)1bとをインターネットであるネットワーク1cを介して接続したものである。
【0099】
図9に示すように、このような監視カメラシステム1の監視カメラ1aは、CCD、MOSイメージセンサ等の光電変換デバイスを用いて動画像を撮影する画像入力装置2と、この撮影した画像データを圧縮符号化する画像圧縮装置3とを備えている。一方、PC1bは、監視カメラ1aの画像圧縮装置3で生成された符号列データを伸長(復号)して動画像の画像データとする画像復号装置である画像伸長装置6と、この伸長後の画像データによる画像を表示する画像表示装置7と、監視カメラ1aの画像圧縮装置3で生成された符号列データを記憶する符号列記憶部9とを備えている。符号列記憶部9は、一般的なバッファとしての機能、あるいは、長期間に渡る動画像の符号列データの貯蔵庫として機能し、用途により使い分けられる。
【0100】
図10は、監視カメラシステム1のハードウエア構成の一例を示すブロック図である。監視カメラシステム1を構成する監視カメラ1a及びPC1bは、図10に示すように、コンピュータの主要部であって各部を集中的に制御するCPU(Central Processing Unit)11a,11bをそれぞれ備えており、このCPU11a,11bには、各種のROM(Read Only Memory)、RAM(Random Access Memory)からなる記憶媒体であるメモリ12a,12bと、ネットワーク1cと通信を行う所定の通信インターフェイス13a,13bと、ユーザから各種の操作を受付ける操作パネル18a,18bとが、バス14a,14bを介して接続されている。
【0101】
監視カメラ1aは、前述したように画像入力装置2と画像圧縮装置3とを備えており、これらの画像入力装置2、画像圧縮装置3も、バス14aを介してCPU11aに接続されている。
【0102】
PC1bは、画像表示装置7と、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等の表示装置であるディスプレイ19と、符号列記憶部9として機能する外部記憶装置であるHDD(Hard Disk Drive)15と、配布されたプログラム(例えば、動画処理プログラム)であるコンピュータソフトウェアを記憶した記憶媒体16からコンピュータソフトウェアを読み取るための機構であるドライブ17と、を備えており、これらの画像表示装置7、ディスプレイ19、HDD15、ドライブ17も、バス14bを介してCPU11bに接続されている。
【0103】
このような構成のPC1bのメモリ12b(のROM)には、動画像を処理する動画処理プログラム等の制御プログラムがそれぞれ記憶されている。この動画処理プログラムは本発明のプログラムを実施するものである。そして、この動画処理プログラムに基づいてCPU11bが実行する処理により、画像伸長装置6の機能を実現する。
【0104】
なお、記憶媒体16としては、CDやDVDなどの各種の光ディスク、各種光磁気ディスク、フレキシブルディスクなどの各種磁気ディスク、半導体メモリ等、各種方式のメディアを用いることができる。また、ネットワーク1cからプログラムをダウンロードし、メモリ12bにインストールするようにしてもよい。この場合に、送信側のサーバでプログラムを記憶している記憶装置も、この発明の記憶媒体である。なお、プログラムは、所定のOS(Operating System)上で動作するものであってもよいし、その場合に後述の各種処理の一部の実行をOSに肩代わりさせるものであってもよいし、所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含まれているものであってもよい。
【0105】
ここで、監視カメラシステム1の各部の動作について簡単に説明する。まず、監視カメラ1aの画像入力装置2は、CCD、MOSイメージセンサ等の光電変換デバイスを用いて動画像をフレーム単位でキャプチャし、動画像のデジタル画素値信号を画像圧縮装置3に出力する。画像圧縮装置3は、動画像のデジタル画素値信号を「Motion JPEG2000アルゴリズム」に従って圧縮符号化する。この画像圧縮装置3における処理により、元の動画像のR,G,Bの各コンポーネントの動画像データは、フレームごとに1又は複数(通常は複数)のタイルに分割され、このタイルごとに階層的に圧縮符号化された符号化データとなる。このようにして「Motion JPEG2000アルゴリズム」に従って生成された符号列データ(Motion JPEG2000データ)はネットワーク1cを介してPC1bに出力される。
【0106】
ネットワーク1cを介してPC1bに出力された符号列データ(Motion JPEG2000データ)は、PC1bにおいて、符号列記憶部9に格納され、また、画像伸長装置6で伸長処理される。そして、画像伸長装置6で伸長処理されて生成された動画像の画像データは、画像表示装置7に出力され、この伸長後の画像データによる画像がディスプレイ19に表示される。
【0107】
続いて、本発明の主要部分である画像伸長装置6について詳述する。ここで、図11は画像伸長装置6の機能ブロック図である。図11に示すように、CPU11bはコンピュータソフトウェアに基づいて動作することで、画像伸長装置6は、モード選択手段20、タグ処理手段21、エントロピー復号化手段22、逆量子化手段23、2次元ウェーブレット逆変換手段24、色空間逆変換手段25、タイル境界平滑化切替手段26、第一タイル境界平滑化手段27、第二タイル境界平滑化手段28の各機能を実現する。なお、タグ処理手段21、エントロピー復号化手段22、逆量子化手段23、2次元ウェーブレット逆変換手段24、色空間逆変換手段25で実現される機能については、図1で示した空間変換・逆変換部101、2次元ウェーブレット変換・逆変換部102、量子化・逆量子化部103、エントロピー符号化・復号化部104、タグ処理部105で説明したので、ここでの説明は省略する。
【0108】
モード選択手段20は、処理モードを指定する機能を発揮するものである。具体的には、モード選択手段20は、図12に示すようなモード指定画面Xをディスプレイ19に表示する。モード指定画面Xには、速度優先モードと画質優先モードとの何れか一方を選択させるためのラジオボタンBが設けられている。そして、操作者が、操作パネル18bを操作して一のラジオボタンBを指定した後、OKボタンAを操作することにより、処理モードが指定される。このようにして処理モードが指定されると、指定された処理モードを示す信号がタイル境界平滑化切替手段26に出力される。
【0109】
タイル境界平滑化切替手段26は、タイル境界の近傍の平滑化処理を第一タイル境界平滑化手段27と第二タイル境界平滑化手段28とのどちらで行うかを判定する機能を発揮するものであって、このタイル境界平滑化切替手段26には、色空間逆変換手段25によって得られたRGBデータが入力されるとともに、モード選択手段20から出力された処理モードを示す信号が入力される。
【0110】
そして、タイル境界平滑化切替手段26は、速度優先モードが選択されたと判定した場合には、第一タイル境界平滑化手段27に対して色空間逆変換手段25によって得られたRGBデータを出力し、画質優先モードが選択されたと判定した場合には、第二タイル境界平滑化手段28に対して色空間逆変換手段25によって得られたRGBデータを出力する。
【0111】
第一タイル境界平滑化手段27及び第二タイル境界平滑化手段28は、色空間逆変換手段25によって得られたRGBデータに対し、タイル境界の近傍の画素を平滑化してタイル境界の歪みを目立たなくするものである。図13は第一タイル境界平滑化手段27及び第二タイル境界平滑化手段28における処理の一例を示す説明図である。図13に示すように、第一タイル境界平滑化手段27及び第二タイル境界平滑化手段28は、タイル境界の近傍の画素(図13中、タイル境界画素を含む網掛け領域の画素)に対してローパスフィルタをかける。
【0112】
まず、第一タイル境界平滑化手段27における処理の具体例を示す。ここで、図14は縦方向タイル境界におけるローパスフィルタの一例を示す説明図である。図14に示すように、縦方向タイル境界a(図13参照)に対しては、縦方向タイル境界aに垂直なローパスフィルタ(1次元の横長のフィルタ)F1をかけることにより、縦方向のタイル境界歪みを抑制することができる。なお、本実施の形態では、1次元の横長のフィルタの例で説明したが、横方向の周波数成分を落とすような周波数特性を有するローパスフィルタであればいかなるフィルタであっても良い。
【0113】
図15は横方向タイル境界におけるローパスフィルタの一例を示す説明図である。図15に示すように、横方向タイル境界b(図13参照)に対しては、横方向タイル境界bに垂直なローパスフィルタ(1次元の縦長のフィルタ)F2をかけることにより、横方向のタイル境界歪みを抑制することができる。なお、本実施の形態では、1次元の縦長のフィルタの例で説明したが、縦方向の周波数成分を落とすような周波数特性を有するローパスフィルタであればいかなるフィルタであっても良い。
【0114】
図16は縦方向タイル境界と横方向タイル境界との交点の近傍におけるローパスフィルタの一例を示す説明図である。図16に示すように、縦方向タイル境界aと横方向タイル境界bとの交点の近傍に対しては、十字型のローパスフィルタF3をかけることにより、縦方向タイル境界aと横方向タイル境界bとの交点付近のタイル境界歪みを抑制することができる。なお、本実施の形態では、十字型のフィルタの例で説明したが、縦方向と横方向との周波数成分をともに落とすような周波数特性を有するローパスフィルタであればいかなるフィルタであっても良い。
【0115】
次に、第二タイル境界平滑化手段28における処理の具体例を示す。ここで、図17は縦方向タイル境界におけるローパスフィルタの一例を示す説明図である。図16に示すように、縦方向タイル境界a(図13参照)に対しては、縦方向タイル境界aに垂直なローパスフィルタ(1次元の横長のフィルタ)F4をかけることにより、縦方向のタイル境界歪みを抑制することができる。なお、本実施の形態では、1次元の横長のフィルタの例で説明したが、横方向の周波数成分を落とすような周波数特性を有するローパスフィルタであればいかなるフィルタであっても良い。
【0116】
図18は横方向タイル境界におけるローパスフィルタの一例を示す説明図である。図18に示すように、横方向タイル境界b(図13参照)に対しては、横方向タイル境界bに垂直なローパスフィルタ(1次元の縦長のフィルタ)F5をかけることにより、横方向のタイル境界歪みを抑制することができる。なお、本実施の形態では、1次元の縦長のフィルタの例で説明したが、縦方向の周波数成分を落とすような周波数特性を有するローパスフィルタであればいかなるフィルタであっても良い。
【0117】
図19は縦方向タイル境界と横方向タイル境界との交点の近傍におけるローパスフィルタの一例を示す説明図である。図19に示すように、縦方向タイル境界aと横方向タイル境界bとの交点の近傍に対しては、十字型のローパスフィルタF6をかけることにより、縦方向タイル境界aと横方向タイル境界bとの交点付近のタイル境界歪みを抑制することができる。なお、本実施の形態では、十字型のフィルタの例で説明したが、縦方向と横方向との周波数成分をともに落とすような周波数特性を有するローパスフィルタであればいかなるフィルタであっても良い。
【0118】
ところで、ローパスフィルタF4,F5,F6のフィルタ中心の重み付けの係数mはタイル境界からの画素間距離とタイル境界近傍の画素のエッジ量に応じて可変制御される。すなわち、第二タイル境界平滑化手段28は、タイル境界からの画素間距離とタイル境界近傍の画素のエッジ量に応じてローパスフィルタF4,F5,F6の強度を切り替えるような構成になっている。
【0119】
まず、タイル境界からの画素間距離の算出方法について説明する。図20は、タイル境界からの画素間距離の算出方法の一例を示す説明図である。図20に示すように、各画素において、上下左右からのタイル境界からの距離が算出される。それらの最小値を各画素におけるタイル境界からの距離として設定する。
【0120】
次に、タイル境界近傍の画素のエッジ量の算出方法について説明する。ここで、図21はエッジ量算出フィルタの一例を示す説明図である。タイル境界近傍の画素のエッジ量は、タイル境界近傍の画素に対し、図21に示したエッジ量算出フィルタを用いて算出する。このエッジ量算出フィルタは、斜め方向のエッジ量を算出している。これは、縦横方向のエッジ量を抽出しようとすると、タイル境界の境界部でエッジ量が大きく出てしまうため、タイル境界が目立ってしまうことを避けるためである。なお、タイル境界の方向は、符号化データに含まれる情報から取得する。
【0121】
すなわち、タイル境界からの画素間距離をdとし、タイル境界近傍の画素のエッジ量をEとすると、ローパスフィルタのフィルタ中心の重み付けの係数mは、下記の式(1)〜(3)の何れかに基づいて場合分けされて算出される。
【0122】
“d=0、かつ、abs(E)≧255”の場合
m=4+abs(E) ・・・(1)
“d=0、かつ、abs(E)<255”の場合
m=4 ・・・(2)
“d>0”の場合
m=max(4+64*d,4+abs(E)) ・・・(3)
これは、タイル境界からの画素間距離が大きいほど、また、タイル境界近傍の画素のエッジ量の絶対値が大きいほど、施すローパスフィルタの平滑化度を小さくするということを意味する。“d=0”の場合のみ独立に制御したのは、タイル境界の最近傍の画素に対してはある程度平滑化度の強いローパスフィルタを施さないと、タイル境界が目立ってしまうためである。
【0123】
これにより、画質優先モードの第二タイル境界平滑化手段28の場合にはローパスフィルタの強度を適応的に制御することから、画素に対して一様なローパスフィルタを施す速度優先モードの第一タイル境界平滑化手段27に比べて、品質の良い画像を再生することができる。
【0124】
また、画質優先モードの第二タイル境界平滑化手段28は、タイル境界からの画素間距離とタイル境界近傍の画素のエッジ量とに応じてローパスフィルタの強度を適応的に制御することから、タイル境界歪みを抑制しつつ、タイル境界近傍でエッジが強い場合に生じる画質劣化を抑制することができる。
【0125】
ここに、画質を優先させる画質優先モードと処理速度を優先させる速度優先モードとを適宜選択してタイル境界歪みの平滑化処理を実行することができるので、復号処理速度とタイル境界の歪みの平滑化による画質とのバランスを図ることで、復号処理が再生に追いつかずにコマ落ちする等の悪影響を排除しつつ、タイル境界の歪みを抑制することができる。
【0126】
なお、本実施の形態においては、「JPEG2000アルゴリズム」に従った画像圧縮伸長方式で説明したが、これに限るものではなく、圧縮符号にタイル境界位置情報が含まれるような画像圧縮伸長方式であれば、いかなる画像圧縮伸長方式を用いても良い。
【0127】
次に、本発明の第二の実施の形態について説明する。なお、第一の実施の形態において説明した部分と同一部分については同一符号を用い、説明も省略する(以降の実施の形態においても同様)。
【0128】
図22は本実施の形態の画像伸長装置6の機能ブロック図である。図22に示すように、本実施の形態は、第一の実施の形態のモード選択手段20に代えてモード選択手段30を備えたものである。
【0129】
モード選択手段30は、処理モードを指定する機能を発揮する点ではモード選択手段20と同様である。具体的には、モード選択手段30は、フレームの種類に応じて速度優先モードと画質優先モードとの何れか一方をフレーム毎に選択するものである。例えば、図23に示すように、時刻t0における「開始フレーム」と時刻tnにおける「最終フレーム」と時刻tkにおける「停止フレーム」の場合にのみ、画質優先モードを指定する。これは、動画再生中はタイル境界が目立ちにくいことから、タイル境界歪みが目立ちやすい「開始フレーム」「最終フレーム」「停止フレーム」のみに画質優先の平滑化処理を施すようにしたものである。このようにして処理モードが指定されると、指定された処理モードを示す信号がタイル境界平滑化切替手段26に出力される。
【0130】
ここに、静止画は動画に比べてタイル境界歪みが目立つことから、動画像の開始フレームと最終フレームと動画像の再生の停止に係る停止フレームとに画質優先モードを選択することにより、高速に、しかも、精度良く、タイル境界の歪みを抑制することができる。
【0131】
次に、本発明の第三の実施の形態について説明する。図24は本実施の形態の画像伸長装置6の機能ブロック図である。図24に示すように、本実施の形態は、第一の実施の形態のモード選択手段20に代えてモード選択手段40を備えたものである。
【0132】
モード選択手段40は、処理モードを指定する機能を発揮する点ではモード選択手段20と同様である。具体的には、モード選択手段40は、フレームレート(単位時間に再生するフレーム数)に応じて速度優先モードと画質優先モードとの何れか一方を選択するものである。すなわち、フレームレートが所定の閾値より大きい場合には、速度優先モードを選択し、それ以外は画質優先モードを選択するものである。例えば、
フレームレートが“5”より大きい → 速度優先モード
フレームレートが“5”以下 → 画質優先モード
のように制御する。これは、フレームレートが大きくなればなるほど再生速度が速くなり、タイル境界歪みが目立ちにくいためである。このようにして処理モードが指定されると、指定された処理モードを示す信号がタイル境界平滑化切替手段26に出力される。
【0133】
ここに、動画はフレームレートが大きくなるほどタイル境界歪みが目立ちにくいことから、フレームレートが所定の閾値よりも大きい場合には速度優先モードを選択し、フレームレートが所定の閾値よりも小さい場合には画質優先モードを選択することにより、復号処理が再生に追いつかずにコマ落ちする等の悪影響を排除しつつ、タイル境界の歪みを抑制することができる。
【0134】
次に、本発明の第四の実施の形態について説明する。図25は本実施の形態の画像伸長装置6の機能ブロック図である。図25に示すように、本実施の形態は、第一の実施の形態のモード選択手段20に代えてモード選択手段50を備えたものである。
【0135】
モード選択手段50は、処理モードを指定する機能を発揮する点ではモード選択手段20と同様である。具体的には、モード選択手段50は、各フレームの復号化される符号量に応じて速度優先モードと画質優先モードとの何れか一方をフレーム毎に選択するものである。
【0136】
JPEG2000では、動画の符号量(圧縮率)を所定の値にするために、フレーム毎に符号量が異なっている。例えば、情報量が密なフレームは符号量が大きく、シーンチェンジの後などの画質劣化が目立ちにくいフレームでは符号量は小さくなっている。また、JPEG2000では、伸長時に全ての符号を復号するのではなく、符号の所定の部分を復号することが可能になっている。
【0137】
一般に復号化される符号量が小さければ、そのフレームにおける圧縮率は大きくなり、タイル境界歪みが目立ちやすい。逆に、復号化される符号量が大きければ、そのフレームにおける圧縮率は小さくなり、タイル境界歪みは目立ちにくい。
【0138】
そこで、図26に示すように、復号化される符号量が所定の閾値より大きいときは速度優先モードを選択し、それ以外は画質優先モードを選択するものである。
【0139】
ここに、符号量の小さいフレームは圧縮率が大きいのでタイル境界歪みが目立つことから画質優先モードを選択し、符号量の大きいフレームは圧縮率が小さいのでタイル境界歪みが目立たないことから速度優先モードを選択することにより、全てのフレームについて最適なタイル境界歪みの平滑化処理を実行するので、品質の良い再生画像を得ることができる。
【0140】
次に、本発明の第五の実施の形態について説明する。本実施の形態は、第一の実施の形態とは、画像伸長装置6の機能が異なるものである。概略的には、すべてのタイル境界近傍画素にローパスフィルタをかけるのではなく、ローパスフィルタをかけるべきタイル境界を限定して、そのタイル境界近傍画素にのみにローパスフィルタをかけるようにしたものである。
【0141】
図27は本実施の形態の画像伸長装置6の機能ブロック図である。図27に示すように、CPU11bはコンピュータソフトウェア(画像処理プログラム)に基づいて動作することで、画像伸長装置6は、タグ処理手段21、エントロピー復号化手段22、逆量子化手段23、2次元ウェーブレット逆変換手段24、色空間逆変換手段25、タイル境界平滑化切替手段26、第一タイル境界平滑化手段27、第二タイル境界平滑化手段28、補正タイル境界限定手段29の各機能を実現する。
【0142】
補正タイル境界限定手段29は、第一タイル境界平滑化手段27及び第二タイル境界平滑化手段28においてローパスフィルタをかけるべきタイル境界を限定する機能を発揮するものである。
【0143】
ここで、図28及び図29は、ROI(Region Of Interest)領域内のタイル境界のみにローパスフィルタをかける処理の一例を示す説明図である。このROI領域とは、画像全体から切り出して拡大したり、他の部分に比べて強調したりする場合の、画像全体から見たある一部分である。
【0144】
図28は、ROI領域がタイル境界に沿った領域である場合について示すものである。図28(a)に示すようにROI境界が設定されたら、ローパスフィルタをかけるタイル境界は図28(b)に点線で示す部分に設定する。図28(b)に太線で示すROI境界部にはローパスフィルタをかけない。
【0145】
図29は、ROI領域がタイル境界に沿っていない領域である場合について示すものである。図29(a)に示すようにROI境界が設定されたら、ローパスフィルタをかけるタイル境界は図29(b)に点線で示す部分に設定する。タイル境界画素がROI内部か否かを演算によって算出し、該タイル境界画素がROI内部であればその画素にローパスフィルタをかける。該タイル境界画素がROI外部であれば、その画素にはローパスフィルタをかけない。
【0146】
なお、本実施の形態では、ROI内部か否かで、ローパスフィルタをかけるか否かを判定したが、それ以外にも、縦または横成分のエッジ量が大きい部分のタイル境界画素のみにローパスフィルタをかけるという制御を行っても良い。
【0147】
これにより、補正タイル境界限定手段29は、ローパスフィルタをかけるべきタイル境界画素を限定して、第一タイル境界平滑化手段27及び第二タイル境界平滑化手段28に対して色空間逆変換手段25によって得られたRGBデータを出力する。
【0148】
ここに、ローパスフィルタをかけるべきタイル境界画素を制御することにより、タイル境界歪み抑制のための処理時間を短縮することができる。特に、ROI領域内のタイル境界にのみローパスフィルタをかけることにより、タイル境界歪み抑制のための処理時間を短縮することができる。
【0149】
なお、各実施の形態においては、監視カメラシステム1を構成する動画像再生装置としてPC1bを適用したが、これに限るものではない。例えば、携帯情報端末(PDA)や携帯電話などを動画像再生装置として適用することもできる。
【0150】
本実施の形態によれば、静止画は動画に比べてタイル境界歪みが目立つことから、動画像の開始フレームと最終フレームとにのみ画質優先モードを選択することにより、高速に、しかも、精度良く、タイル境界の歪みを抑制することができる。
また、本実施の形態によれば、静止画は動画に比べてタイル境界歪みが目立つことから、動画像の再生の停止に係る停止フレームにも画質優先モードを選択することにより、高速に、しかも、精度良く、タイル境界の歪みを抑制することができる。
また、本実施の形態によれば、符号量の小さいフレームは圧縮率が大きいのでタイル境界歪みが目立つことから画質優先モードを選択し、符号量の大きいフレームは圧縮率が小さいのでタイル境界歪みが目立たないことから速度優先モードを選択することにより、全てのフレームについて最適なタイル境界歪みの平滑化処理を実行するので、品質の良い再生画像を得ることができる。
また、本実施の形態によれば、動画はフレームレートが大きくなるほどタイル境界歪みが目立ちにくいことから、フレームレートが所定の閾値よりも大きい場合には速度優先モードを選択し、フレームレートが所定の閾値よりも小さい場合には画質優先モードを選択することにより、復号処理が再生に追いつかずにコマ落ちする等の悪影響を排除しつつ、タイル境界の歪みを抑制することができる。
また、本実施の形態によれば、オーバーラップによるタイル境界歪みの平滑化処理に比して、より簡易な手法で、タイル境界の歪みを抑制することができる。
また、本実施の形態によれば、画質優先モードの場合にはローパスフィルタの強度を適応的に制御することから、画素に対して一様なローパスフィルタを施す速度優先モードに比べて、品質の良い画像を再生することができる。
また、本実施の形態によれば、タイル境界歪みを抑制しつつ、タイル境界近傍でエッジが強い場合に生じる画質劣化を抑制することができる。
また、本実施の形態によれば、ローパスフィルタをかけるべきタイル境界画素を制御することにより、タイル境界歪み抑制のための処理時間を短縮することができる。
また、本実施の形態によれば、ROI領域内のタイル境界にのみローパスフィルタをかけることにより、タイル境界歪み抑制のための処理時間を短縮することができる。
また、本実施の形態によれば、本発明の画像復号装置と同様の作用効果を奏する画像処理装置を提供することができる。
また、本実施の形態によれば、本発明の画像復号装置と同様の作用効果を奏する動画像表示システムを提供することができる。
また、本実施の形態によれば、記憶媒体に記憶されたプログラムをコンピュータに読み取らせることにより、本発明の画像復号方法と同様の作用効果を得ることができる。
また、各実施の形態においては、画像入力装置2及び画像圧縮装置3を備える監視カメラ1aと、動画像処理装置である画像伸長装置6及び画像表示装置7を備えるPC1bとをネットワーク1cを介して接続した監視カメラシステム1を動画像表示システムとして適用したが、これに限るものではない。例えば、画像入力装置2であるカメラ部と、画像圧縮装置3及び動画像処理装置である画像伸長装置6を備える制御部と、画像表示装置7であるディスプレイとを一体に備えるデジタルカメラ等を動画像表示システムとして適用しても何ら問題はない。
【0151】
【発明の効果】
本発明によれば、画質を優先させる画質優先モードと処理速度を優先させる速度優先モードとを適宜選択してタイル境界歪みの平滑化処理を実行することができる
【図面の簡単な説明】
【図1】本実施の形態の前提となるJPEG2000方式の基本となる階層符号化アルゴリズムを実現するシステムの機能ブロック図である。
【図2】原画像の各コンポーネントの分割された矩形領域を示す説明図である。
【図3】デコンポジション・レベル数が3の場合の、各デコンポジション・レベルにおけるサブバンドを示す説明図である。
【図4】プレシンクトを示す説明図である。
【図5】ビットプレーンに順位付けする手順の一例を示す説明図である。
【図6】符号列データの1フレーム分の概略構成を示す説明図である。
【図7】 Motion JPEG2000の概念を示す説明図である。
【図8】本発明の第一の実施の形態の監視カメラシステムを示すシステム構成図である。
【図9】その機能ブロック図である。
【図10】監視カメラシステムのハードウエア構成の一例を示すブロック図である。
【図11】画像伸長装置の機能ブロック図である。
【図12】モード指定画面を示す正面図である。
【図13】第一タイル境界平滑化手段及び第二タイル境界平滑化手段における処理の一例を示す説明図である。
【図14】第一タイル境界平滑化手段による縦方向タイル境界におけるローパスフィルタの一例を示す説明図である。
【図15】第一タイル境界平滑化手段による横方向タイル境界におけるローパスフィルタの一例を示す説明図である。
【図16】第一タイル境界平滑化手段による縦方向タイル境界と横方向タイル境界との交点の近傍におけるローパスフィルタの一例を示す説明図である。
【図17】第二タイル境界平滑化手段による縦方向タイル境界におけるローパスフィルタの一例を示す説明図である。
【図18】第二タイル境界平滑化手段による横方向タイル境界におけるローパスフィルタの一例を示す説明図である。
【図19】第二タイル境界平滑化手段による縦方向タイル境界と横方向タイル境界との交点の近傍におけるローパスフィルタの一例を示す説明図である。
【図20】タイル境界からの画素間距離の算出方法の一例を示す説明図である。
【図21】エッジ量算出フィルタの一例を示す説明図である。
【図22】本発明の第二の実施の形態の画像伸長装置の機能ブロック図である。
【図23】「開始フレーム」「最終フレーム」「停止フレーム」を示す説明図である。
【図24】本発明の第三の実施の形態の画像伸長装置の機能ブロック図である。
【図25】本発明の第四の実施の形態の画像伸長装置の機能ブロック図である。
【図26】復号化される符号量に応じたモード選択の一例を示す説明図である。
【図27】本発明の第五の実施の形態の画像伸長装置の機能ブロック図である。
【図28】ROI領域内のタイル境界のみにローパスフィルタをかける処理の一例を示す説明図である。
【図29】ROI領域内のタイル境界のみにローパスフィルタをかける処理の一例を示す説明図である。
【符号の説明】
1 動画像表示システム
1b 画像処理装置
2 画像入力装置
3 画像圧縮装置
6 画像復号装置
7 画像表示装置
16 記憶媒体
19 表示装置
20,30,40,50 モード選択手段
26 タイル境界平滑化切替手段
27,28 タイル境界平滑化手段
29 補正タイル境界限定手段
F1〜F6 ローパスフィルタ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image decoding device, an image processing device, a moving image display system, a program, a storage medium, and an image decoding method.
[0002]
[Prior art]
Due to advances in image input technology and output technology, the demand for higher definition of images has increased greatly in recent years. For example, taking a digital camera as an example of an image input device, the price of a high-performance charge coupled device (CCD) having a number of pixels of 3 million or more has progressed, and the spread price range has increased. It has come to be widely used in products. A product with 5 million pixels is also close. And it is said that this increasing trend in the number of pixels will continue for a while.
[0003]
On the other hand, with regard to image output / display devices, for example, products in the hard copy field such as laser printers, ink jet printers, sublimation printers, and flats such as CRTs, LCDs (liquid crystal display devices), and PDPs (plasma display devices). The high definition and low price of products in the soft copy field of panel displays are remarkable.
[0004]
Due to the market launch of these high-performance, low-priced image input / output products, high-definition images have become popular, and it is expected that demand for high-definition images will increase in all situations. In fact, the development of technologies related to networks such as personal computers and the Internet is accelerating these trends. In particular, recently, mobile devices such as mobile phones and notebook personal computers have become very popular, and opportunities for transmitting or receiving high-definition images from any point using communication means are rapidly increasing.
[0005]
Against this background, it is inevitable that the demand for higher performance or higher functionality for image compression / decompression technology that facilitates the handling of high-definition images will become stronger in the future.
[0006]
Thus, in recent years, a new method called JPEG2000, which can restore high-quality images even at a high compression rate, is being standardized as one of image compression methods that satisfy these requirements. In JPEG2000, it is possible to perform compression / decompression processing in a small memory environment by dividing an image into rectangular regions (tiles). That is, each tile becomes a basic unit for executing the compression / decompression process, and the compression / decompression operation can be performed independently for each tile.
[0007]
[Problems to be solved by the invention]
By the way, the division processing in JPEG2000 is called tiling, and it is an effective technique for saving memory and speeding up. However, "JX Wei, MR Pickering, MR Frater and JF Arnold," Block-Based Wavelet Image Compression, "in VCIP 2000, KN Ngan, T. Sikora, MT Sun Eds., Proc. Of SPIE Vol. 4067, pp. 1290-1295, 20-23 June 2000, Perth, Australia" As described, when the compression / decompression process is performed under a condition with a high compression rate, there is a problem in that the tile boundary becomes discontinuous in the expanded image.
[0008]
Therefore, in order to solve such a problem, a technique for making the tile boundary inconspicuous by applying a uniform low-pass filter only in the vicinity of the tile boundary has been proposed.
[0009]
Further, such a JPEG 2000 image of one frame can be converted into a moving image by being continuously displayed at a predetermined frame rate (the number of frames reproduced per unit time).
[0010]
However, since the processing using the low-pass filter as described above requires a relatively large amount of calculation, it takes time for the filtering processing, and as a result, a delay in the reproduction processing may be caused. In particular, a delay in reproduction processing in a moving image causes problems such as deviation from sound and frame dropping.
[0011]
The object of the present invention is to achieve a balance between the decoding processing speed and the image quality by smoothing the distortion at the tile boundary, thereby eliminating adverse effects such as frame dropping without the decoding process catching up with the reproduction, and the distortion at the tile boundary. Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method.
[0012]
[Means for Solving the Problems]
  An image decoding apparatus according to the present invention is an image decoding apparatus that continuously decodes a plurality of frames in which pixel values are discrete wavelet transformed and compression-coded for each tile obtained by dividing an image into a plurality of tiles.
  A tile boundary smoothing unit that performs a first tile boundary smoothing process or a second tile boundary smoothing process for smoothing distortion of a tile boundary in each frame after decoding, and a tile by the tile boundary smoothing unit Mode selection means for selecting an image quality priority mode that prioritizes image quality or a speed priority mode that prioritizes processing speed for boundary distortion smoothing processing, and smoothing of tile boundary distortion in each frame after decoding by the tile boundary smoothing means For processing, according to the selection by the mode selection means,speedWhen the priority mode is selected, switch to the first tile boundary smoothing process,image qualityAnd tile boundary smoothing switching means for switching to the second tile boundary smoothing process when the priority mode is selected, wherein the first tile boundary smoothing process is a tile in the decoded frame. A uniform low-pass filter is applied to pixels in the vicinity of the boundary, and the second tile boundary smoothing processing is performed on the pixels in the vicinity of the tile boundary in the decoded frame with respect to the inter-pixel distance from the tile boundary of the pixel. Edge amount in the diagonal direction of pixels near the tile boundaryThe greater the value, the smaller the smoothnessA controlled low-pass filter is applied.
[0013]
  Therefore, the image quality priority mode and the speed priority mode are switched according to the selection by the mode selection means, and the tile boundary distortion smoothing process in each frame after decoding by the tile boundary smoothing means is executed. As a result, it is possible to appropriately select the image quality priority mode that prioritizes the image quality and the speed priority mode that prioritizes the processing speed and execute the tile boundary distortion smoothing process.Become possible.
[0032]
  Of the present inventionImage processing deviceButDivide into multipleWasPixel value for each tileButDiscrete wavelet transformCompression encodingConsecutively decoded multiple framesAny one of the image decoding apparatuses of the present inventionAnd an image display device that displays on the display device an image based on the frame decoded by the image decoding device.
[0033]
  Therefore,Image decoding apparatus of the present inventionIt is possible to provide an image processing apparatus that exhibits the same effect as the above.
[0034]
  Of the present inventionThe moving image display system includes an image input device that captures a moving image,AboveCaptured by image input deviceWasVideoTheMultiple per frameofDivided into tilesThe aboveDiscrete wavelet transform of pixel values for each tileCompression codingAn image compression device,AboveDecodes multiple frames compression-encoded by image compression deviceAny one of the image decoding apparatuses of the present inventionWhen,AboveAn image display device that displays on the display device an image based on the frame decoded by the image decoding device.
[0035]
  Therefore,Image decoding apparatus of the present inventionIt is possible to provide a moving image display system having the same effect as the above.
[0036]
  The program of the present invention causes a computer to execute any one of the image decoding methods of the present invention..
[0037]
  Therefore,It is possible to provide a program having the same operation as the image decoding method of the present invention..
[0056]
  The present inventionStorage mediaOf the present inventionprogramAny one or more ofIs remembered.
[0057]
  Therefore, by having the computer read the program stored in this storage medium,Image decoding method of the present inventionIt is possible to obtain the same effect as.
[0058]
  The image decoding method of the present invention is an image decoding method for continuously decoding a plurality of frames in which pixel values are subjected to discrete wavelet transform and compression-coded for each tile obtained by dividing an image into a plurality of tiles.
  A tile boundary smoothing step for performing a first tile boundary smoothing process or a second tile boundary smoothing process for smoothing distortion of a tile boundary in each frame after decoding, and a tile in the tile boundary smoothing process A mode selection step of selecting an image quality priority mode that prioritizes image quality or a speed priority mode that prioritizes processing speed for boundary distortion smoothing processing, and smoothing of tile boundary distortion in each frame after decoding by the tile boundary smoothing step For processing, according to the selection by the mode selection step,speedWhen the priority mode is selected, switch to the first tile boundary smoothing process,image qualityA tile boundary smoothing switching step for switching to the second tile boundary smoothing process when the priority mode is selected, and the first tile boundary smoothing process includes a tile in a frame after decoding; A uniform low-pass filter is applied to pixels in the vicinity of the boundary, and the second tile boundary smoothing processing is performed on the pixels in the vicinity of the tile boundary in the decoded frame with respect to the inter-pixel distance from the tile boundary of the pixel. Edge amount in the diagonal direction of pixels near the tile boundaryThe greater the value, the smaller the smoothnessA controlled low-pass filter is applied.
[0059]
  Therefore, the image quality priority mode and the speed priority mode are switched according to the selection in the mode selection step, and the tile boundary distortion smoothing process in each frame after decoding in the tile boundary smoothing step is executed. As a result, it is possible to appropriately select the image quality priority mode that prioritizes the image quality and the speed priority mode that prioritizes the processing speed and execute the tile boundary distortion smoothing process.Become possible.
[0078]
DETAILED DESCRIPTION OF THE INVENTION
First, an outline of the “hierarchical encoding algorithm” and the “JPEG2000 algorithm” that are the premise of the present embodiment will be described.
[0079]
FIG. 1 is a functional block diagram of a system that implements a hierarchical encoding algorithm that is the basis of the JPEG2000 system. This system includes color space transform / inverse transform unit 101, two-dimensional wavelet transform / inverse transform unit 102, quantization / inverse quantization unit 103, entropy encoding / decoding unit 104, and tag processing unit 105. It is configured.
[0080]
One of the biggest differences between this system and the conventional JPEG algorithm is the conversion method. In JPEG, discrete cosine transform (DCT) is used. In this hierarchical coding algorithm, the two-dimensional wavelet transform / inverse transform unit 102 uses discrete wavelet transform (DWT). ing. DWT has the advantage of better image quality in the high compression region than DCT, and this is one of the main reasons why DWT is adopted in JPEG2000, which is a successor algorithm of JPEG.
[0081]
Another major difference is that in this hierarchical encoding algorithm, a functional block of the tag processing unit 105 is added in order to perform code formation at the final stage of the system. The tag processing unit 105 generates compressed data as code string data during an image compression operation, and interprets code string data necessary for decompression during the decompression operation. And JPEG2000 can realize various convenient functions by code string data. For example, the compression / decompression operation of a still image can be freely stopped at an arbitrary layer (decomposition level) corresponding to octave division in block-based DWT (see FIG. 3 described later).
[0082]
In many cases, color space conversion / inverse conversion 101 is connected to the input / output portion of the original image. For example, the RGB color system composed of R (red) / G (green) / B (blue) components of the primary color system and the Y (yellow) / M (magenta) / C (cyan) components of the complementary color system This corresponds to the part that performs conversion or reverse conversion from the YMC color system consisting of the above to the YUV or YCbCr color system.
[0083]
Next, the JPEG2000 algorithm will be described.
[0084]
As shown in FIG. 2, in a color image, each component 111 (RGB primary color system here) of an original image is generally divided by a rectangular area. This divided rectangular area is generally called a block or a tile. In JPEG2000, it is generally called a tile. Therefore, such a divided rectangular area is hereinafter referred to as a tile. (In the example of FIG. 2, each component 111 is divided into a total of 16 rectangular tiles 112, 4 × 4 in length and breadth). When such individual tiles 112 (R00, R01,..., R15 / G00, G01,..., G15 / B00, B01,..., B15 in the example of FIG. 2) execute the image data compression / decompression process. It becomes the basic unit. Therefore, the compression / decompression operation of the image data is performed independently for each component and for each tile 112.
[0085]
At the time of encoding image data, the data of each tile 112 of each component 111 is input to the color space conversion / inverse conversion unit 101 in FIG. A dimensional wavelet transform (forward transform) is applied to divide the space into frequency bands.
[0086]
FIG. 3 shows subbands at each decomposition level when the number of decomposition levels is three. In other words, the tile original image (0LL) (decomposition level 0) obtained by tile division of the original image is subjected to two-dimensional wavelet transform, and the subbands (1LL, 1HL, 1LH shown in the decomposition level 1) , 1HH). Subsequently, the low-frequency component 1LL in this hierarchy is subjected to two-dimensional wavelet transformation to separate the subbands (2LL, 2HL, 2LH, 2HH) indicated by the decomposition level 2. Similarly, the low-frequency component 2LL is also subjected to two-dimensional wavelet transform to separate subbands (3LL, 3HL, 3LH, 3HH) shown in the decomposition level 3. In FIG. 3, the subbands to be encoded at each decomposition level are indicated by shading. For example, when the number of decomposition levels is 3, subbands (3HL, 3LH, 3HH, 2HL, 2LH, 2HH, 1HL, 1LH, 1HH) indicated by shading are to be encoded, and the 3LL subband is encoded. It is not converted.
[0087]
Next, the bits to be encoded are determined in the specified encoding order, and the context is generated from the bits around the target bits by the quantization / inverse quantization unit 103 shown in FIG.
[0088]
The wavelet coefficients that have undergone the quantization process are divided into non-overlapping rectangles called “precincts” for each subband. This was introduced to use memory efficiently in implementation. As shown in FIG. 4, one precinct consists of three rectangular regions that are spatially coincident. Further, each precinct is divided into non-overlapping rectangular “code blocks”. This is the basic unit for entropy coding.
[0089]
The coefficient values after wavelet transform can be quantized and encoded as they are, but in JPEG2000, in order to increase the encoding efficiency, the coefficient values are decomposed into “bit plane” units, and each pixel or code block is divided. Ranking can be performed on “bitplanes”.
[0090]
Here, FIG. 5 is an explanatory diagram showing an example of a procedure for ranking the bit planes. As shown in FIG. 5, this example is a case where the original image (32 × 32 pixels) is divided into four 16 × 16 pixel tiles, and the size of the precinct and code block at the composition level 1 is Each is 8 × 8 pixels and 4 × 4 pixels. The numbers of the precinct and the code block are assigned in raster order. In this example, the number of assigns is assigned from numbers 0 to 3, and the code block is assigned from numbers 0 to 3. A mirroring method is used for pixel expansion outside the tile boundary, wavelet transform is performed with a reversible (5, 3) filter, and a wavelet coefficient value of decomposition level 1 is obtained.
[0091]
An explanatory diagram showing an example of the concept of a typical “layer” configuration for tile 0 / precinct 3 / code block 3 is also shown in FIG. The converted code block is divided into subbands (1LL, 1HL, 1LH, 1HH), and wavelet coefficient values are assigned to the subbands.
[0092]
The layer structure is easy to understand when the wavelet coefficient values are viewed from the horizontal direction (bit plane direction). One layer is composed of an arbitrary number of bit planes. In this example, layers 0, 1, 2, and 3 are made up of bit planes of 1, 3, 1, and 3, respectively. A layer including a bit plane close to LSB (Least Significant Bit) is subject to quantization first. Conversely, a layer close to MSB (Most Significant Bit) is quantized to the end. It will remain without being. A method of discarding from a layer close to the LSB is called truncation, and the quantization rate can be finely controlled.
[0093]
The entropy encoding / decoding unit 104 illustrated in FIG. 1 performs encoding on the tile 112 of each component 111 by probability estimation from the context and the target bit. In this way, encoding processing is performed in units of tiles 112 for all components 111 of the original image. Finally, the tag processing unit 105 performs a process of combining all the encoded data from the entropy encoding / decoding unit 104 into one code string data and adding a tag thereto.
[0094]
FIG. 6 shows a schematic configuration for one frame of the code string data. The header of this code string data and the head of the code data (bit stream) of each tile (main header, tile part header (tile part header which is tile boundary position information, tile boundary direction information, etc.)) Is added, followed by encoded data for each tile. In the main header, coding parameters and quantization parameters are described. A tag (end of codestream) is placed again at the end of the code string data.
[0095]
On the other hand, when the encoded data is decoded, the image data is generated from the code string data of each tile 112 of each component 111, contrary to the case of encoding the image data. In this case, the tag processing unit 105 interprets tag information added to the code string data input from the outside, decomposes the code string data into code string data of each tile 112 of each component 111, and Decoding processing (decompression processing) is performed for each code string data of each tile 112. At this time, the position of the bit to be decoded is determined in the order based on the tag information in the code string data, and the quantization / inverse quantization unit 103 determines the peripheral bits (that have already been decoded) of the target bit position. Context is generated from the sequence of The entropy encoding / decoding unit 104 performs decoding by probability estimation from the context and code string data, generates a target bit, and writes it in the position of the target bit. Since the data decoded in this way is spatially divided for each frequency band, the two-dimensional wavelet transform / inverse transform unit 102 performs two-dimensional wavelet inverse transform on each of the components of the image data. The tile is restored. The restored data is converted to original color system image data by the color space conversion / inverse conversion unit 101.
[0096]
The above is the outline of the “JPEG2000 algorithm”, and the “Motion JPEG2000 algorithm” is an extension of a still image, that is, a method for a single frame to a plurality of frames. That is, “Motion JPEG2000”, as shown in FIG. 7, is a moving image by continuously displaying a JPEG2000 image of one frame at a predetermined frame rate (the number of frames reproduced per unit time). .
[0097]
Hereinafter, a first embodiment of the present invention will be described. Here, an example relating to a moving image compression / decompression technique typified by Motion JPEG2000 will be described. Needless to say, the present invention is not limited to the contents of the following description.
[0098]
FIG. 8 is a system configuration diagram showing the surveillance camera system 1 to which the present invention is applied, and FIG. 9 is a functional block diagram thereof. As shown in FIG. 8, a surveillance camera system 1 to which the moving image display system of the present invention is applied includes a surveillance camera 1a that functions as an image recording device and a personal computer (hereinafter referred to as PC) 1b that functions as an image processing device. Are connected via a network 1c which is the Internet.
[0099]
As shown in FIG. 9, the monitoring camera 1a of such a monitoring camera system 1 includes an image input device 2 that captures a moving image using a photoelectric conversion device such as a CCD or MOS image sensor, and the captured image data. And an image compression apparatus 3 that performs compression encoding. On the other hand, the PC 1b decompresses (decodes) the code string data generated by the image compression device 3 of the surveillance camera 1a to generate image data of a moving image, and the decompressed image. An image display device 7 that displays an image based on data, and a code string storage unit 9 that stores code string data generated by the image compression device 3 of the surveillance camera 1a are provided. The code string storage unit 9 functions as a general buffer, or functions as a storage of code string data of moving images over a long period of time, and is used depending on the application.
[0100]
FIG. 10 is a block diagram illustrating an example of a hardware configuration of the surveillance camera system 1. As shown in FIG. 10, the surveillance camera 1a and the PC 1b constituting the surveillance camera system 1 are respectively provided with CPUs (Central Processing Units) 11a and 11b that are main parts of the computer and control each part centrally. The CPUs 11a and 11b include memories 12a and 12b that are storage media including various ROMs (Read Only Memory) and RAMs (Random Access Memory), predetermined communication interfaces 13a and 13b that communicate with the network 1c, and a user. The operation panels 18a and 18b for receiving various operations are connected via buses 14a and 14b.
[0101]
As described above, the monitoring camera 1a includes the image input device 2 and the image compression device 3, and the image input device 2 and the image compression device 3 are also connected to the CPU 11a via the bus 14a.
[0102]
The PC 1b includes an image display device 7, a display 19 that is a display device such as a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display), and an HDD (Hard Disk Drive) that is an external storage device that functions as the code string storage unit 9. ) 15 and a drive 17 that is a mechanism for reading the computer software from the storage medium 16 that stores the computer software that is a distributed program (for example, a moving image processing program), and these image display devices 7 The display 19, the HDD 15, and the drive 17 are also connected to the CPU 11b via the bus 14b.
[0103]
Control programs such as a moving image processing program for processing moving images are stored in the memory 12b (of the ROM) of the PC 1b having such a configuration. This moving image processing program implements the program of the present invention. Then, the function of the image expansion device 6 is realized by processing executed by the CPU 11b based on this moving image processing program.
[0104]
As the storage medium 16, various types of media such as various optical disks such as CD and DVD, various magnetic disks such as various magneto-optical disks and flexible disks, and semiconductor memories can be used. Alternatively, the program may be downloaded from the network 1c and installed in the memory 12b. In this case, the storage device storing the program in the server on the transmission side is also a storage medium of the present invention. Note that the program may operate on a predetermined OS (Operating System), and in that case, the OS may take over the execution of some of the various processes described later, It may be included as a part of a group of program files constituting the application software or OS.
[0105]
Here, the operation of each part of the surveillance camera system 1 will be briefly described. First, the image input device 2 of the surveillance camera 1a captures a moving image in units of frames using a photoelectric conversion device such as a CCD or a MOS image sensor, and outputs a digital pixel value signal of the moving image to the image compression device 3. The image compression apparatus 3 compresses and encodes the digital pixel value signal of the moving image according to the “Motion JPEG2000 algorithm”. By the processing in the image compression device 3, the moving image data of the R, G, and B components of the original moving image is divided into one or a plurality of (usually a plurality of) tiles for each frame, and each tile is layered. Thus, the encoded data is compressed and encoded. The code string data (Motion JPEG2000 data) generated according to the “Motion JPEG2000 algorithm” in this way is output to the PC 1b via the network 1c.
[0106]
The code string data (Motion JPEG2000 data) output to the PC 1b via the network 1c is stored in the code string storage unit 9 in the PC 1b, and is expanded by the image expansion device 6. Then, the image data of the moving image generated by the decompression process by the image decompression device 6 is output to the image display device 7, and an image based on the decompressed image data is displayed on the display 19.
[0107]
Next, the image expansion device 6 that is a main part of the present invention will be described in detail. Here, FIG. 11 is a functional block diagram of the image expansion device 6. As shown in FIG. 11, the CPU 11b operates based on computer software, so that the image decompression device 6 has a mode selection unit 20, a tag processing unit 21, an entropy decoding unit 22, an inverse quantization unit 23, and a two-dimensional wavelet. The functions of the inverse transformation unit 24, the color space inverse transformation unit 25, the tile boundary smoothing switching unit 26, the first tile boundary smoothing unit 27, and the second tile boundary smoothing unit 28 are realized. Note that the functions realized by the tag processing means 21, entropy decoding means 22, inverse quantization means 23, two-dimensional wavelet inverse transform means 24, and color space inverse transform means 25 are the spatial transform / inverse shown in FIG. Since the description has been given for the transform unit 101, the two-dimensional wavelet transform / inverse transform unit 102, the quantization / inverse quantization unit 103, the entropy encoding / decoding unit 104, and the tag processing unit 105, description thereof is omitted here.
[0108]
The mode selection means 20 exhibits a function for designating a processing mode. Specifically, the mode selection means 20 displays a mode designation screen X as shown in FIG. The mode designation screen X is provided with a radio button B for selecting either the speed priority mode or the image quality priority mode. Then, after the operator operates the operation panel 18b to designate one radio button B, the operator operates the OK button A to designate the processing mode. When the processing mode is designated in this way, a signal indicating the designated processing mode is output to the tile boundary smoothing switching means 26.
[0109]
The tile boundary smoothing switching unit 26 exhibits a function of determining whether the first tile boundary smoothing unit 27 or the second tile boundary smoothing unit 28 performs the smoothing process in the vicinity of the tile boundary. The tile boundary smoothing switching unit 26 receives the RGB data obtained by the color space inverse conversion unit 25 and the signal indicating the processing mode output from the mode selection unit 20.
[0110]
If the tile boundary smoothing switching unit 26 determines that the speed priority mode has been selected, the tile boundary smoothing switching unit 26 outputs the RGB data obtained by the color space inverse conversion unit 25 to the first tile boundary smoothing unit 27. If it is determined that the image quality priority mode is selected, the RGB data obtained by the color space inverse transform unit 25 is output to the second tile boundary smoothing unit 28.
[0111]
The first tile boundary smoothing means 27 and the second tile boundary smoothing means 28 smooth the pixels in the vicinity of the tile boundary with respect to the RGB data obtained by the color space inverse conversion means 25, thereby conspicuous the distortion of the tile boundary. It is something to lose. FIG. 13 is an explanatory diagram showing an example of processing in the first tile boundary smoothing means 27 and the second tile boundary smoothing means 28. As shown in FIG. 13, the first tile boundary smoothing means 27 and the second tile boundary smoothing means 28 apply to pixels in the vicinity of the tile boundary (pixels in the shaded area including the tile boundary pixels in FIG. 13). Apply a low pass filter.
[0112]
First, a specific example of processing in the first tile boundary smoothing means 27 will be shown. Here, FIG. 14 is an explanatory diagram illustrating an example of a low-pass filter at a vertical tile boundary. As shown in FIG. 14, a vertical tile boundary a (see FIG. 13) is subjected to a low-pass filter (one-dimensional horizontally long filter) F1 perpendicular to the vertical tile boundary a, so that the vertical tile boundary a Boundary distortion can be suppressed. In this embodiment, an example of a one-dimensional horizontally long filter has been described. However, any filter may be used as long as it has a frequency characteristic that reduces frequency components in the horizontal direction.
[0113]
FIG. 15 is an explanatory diagram illustrating an example of a low-pass filter at a horizontal tile boundary. As shown in FIG. 15, the horizontal tile boundary b (see FIG. 13) is subjected to a low-pass filter (one-dimensional vertical filter) F2 perpendicular to the horizontal tile boundary b, whereby a horizontal tile boundary b is applied. Boundary distortion can be suppressed. In the present embodiment, an example of a one-dimensional vertically long filter has been described. However, any filter may be used as long as the low-pass filter has a frequency characteristic that reduces frequency components in the vertical direction.
[0114]
FIG. 16 is an explanatory diagram showing an example of a low-pass filter in the vicinity of the intersection between the vertical tile boundary and the horizontal tile boundary. As shown in FIG. 16, by applying a cross-shaped low-pass filter F3 to the vicinity of the intersection between the vertical tile boundary a and the horizontal tile boundary b, the vertical tile boundary a and the horizontal tile boundary b are applied. Tile boundary distortion near the intersection with can be suppressed. In the present embodiment, an example of a cross-shaped filter has been described. However, any filter may be used as long as it has a frequency characteristic that reduces both the vertical and horizontal frequency components.
[0115]
Next, a specific example of processing in the second tile boundary smoothing means 28 will be shown. Here, FIG. 17 is an explanatory diagram showing an example of a low-pass filter at a vertical tile boundary. As shown in FIG. 16, a vertical tile boundary a (see FIG. 13) is subjected to a low-pass filter (one-dimensional horizontally long filter) F4 perpendicular to the vertical tile boundary a, whereby the vertical tile boundary a. Boundary distortion can be suppressed. In this embodiment, an example of a one-dimensional horizontally long filter has been described. However, any filter may be used as long as it has a frequency characteristic that reduces frequency components in the horizontal direction.
[0116]
FIG. 18 is an explanatory diagram showing an example of a low-pass filter at a horizontal tile boundary. As shown in FIG. 18, the horizontal tile boundary b (see FIG. 13) is subjected to a low-pass filter (one-dimensional vertical filter) F5 perpendicular to the horizontal tile boundary b to thereby apply a horizontal tile. Boundary distortion can be suppressed. In the present embodiment, an example of a one-dimensional vertically long filter has been described. However, any filter may be used as long as the low-pass filter has a frequency characteristic that reduces frequency components in the vertical direction.
[0117]
FIG. 19 is an explanatory diagram showing an example of a low-pass filter in the vicinity of the intersection between the vertical tile boundary and the horizontal tile boundary. As shown in FIG. 19, by applying a cross-shaped low-pass filter F6 to the vicinity of the intersection of the vertical tile boundary a and the horizontal tile boundary b, the vertical tile boundary a and the horizontal tile boundary b are applied. Tile boundary distortion near the intersection with can be suppressed. In the present embodiment, an example of a cross-shaped filter has been described. However, any filter may be used as long as it has a frequency characteristic that reduces both the vertical and horizontal frequency components.
[0118]
By the way, the weighting coefficient m at the filter center of the low-pass filters F4, F5, and F6 is variably controlled according to the inter-pixel distance from the tile boundary and the edge amount of the pixels near the tile boundary. That is, the second tile boundary smoothing means 28 is configured to switch the strength of the low-pass filters F4, F5, and F6 according to the inter-pixel distance from the tile boundary and the edge amount of the pixels near the tile boundary.
[0119]
First, a method for calculating the inter-pixel distance from the tile boundary will be described. FIG. 20 is an explanatory diagram illustrating an example of a method for calculating the inter-pixel distance from the tile boundary. As shown in FIG. 20, in each pixel, the distance from the tile boundary from the top, bottom, left, and right is calculated. Those minimum values are set as the distance from the tile boundary in each pixel.
[0120]
Next, a method for calculating the edge amount of pixels near the tile boundary will be described. Here, FIG. 21 is an explanatory diagram showing an example of an edge amount calculation filter. The edge amount of the pixel near the tile boundary is calculated using the edge amount calculation filter shown in FIG. 21 for the pixel near the tile boundary. This edge amount calculation filter calculates an edge amount in an oblique direction. This is for avoiding the conspicuous tile boundary because the edge amount becomes large at the boundary portion of the tile boundary when extracting the edge amount in the vertical and horizontal directions. Note that the direction of the tile boundary is acquired from information included in the encoded data.
[0121]
That is, when the inter-pixel distance from the tile boundary is d and the edge amount of the pixel near the tile boundary is E, the weighting coefficient m at the filter center of the low-pass filter is any of the following formulas (1) to (3). The calculation is performed for each case.
[0122]
When “d = 0 and abs (E) ≧ 255”
m = 4 + abs (E) (1)
When “d = 0 and abs (E) <255”
m = 4 (2)
When “d> 0”
m = max (4 + 64 * d, 4 + abs (E)) (3)
This means that the smoothing degree of the low-pass filter to be applied is reduced as the distance between pixels from the tile boundary is larger and as the absolute value of the edge amount of the pixel near the tile boundary is larger. The reason why the control is performed independently only in the case of “d = 0” is that the tile boundary becomes conspicuous unless the low-pass filter having a certain degree of smoothness is applied to the nearest pixel of the tile boundary.
[0123]
As a result, in the case of the second tile boundary smoothing means 28 in the image quality priority mode, the strength of the low pass filter is adaptively controlled. Therefore, the first tile in the speed priority mode in which a uniform low pass filter is applied to the pixels. Compared with the boundary smoothing means 27, it is possible to reproduce an image with good quality.
[0124]
Further, the second tile boundary smoothing means 28 in the image quality priority mode adaptively controls the strength of the low-pass filter according to the inter-pixel distance from the tile boundary and the edge amount of the pixels near the tile boundary. While suppressing the boundary distortion, it is possible to suppress the image quality degradation that occurs when the edge is strong near the tile boundary.
[0125]
Here, it is possible to appropriately select the image quality priority mode that prioritizes image quality and the speed priority mode that prioritizes processing speed and execute the tile boundary distortion smoothing process, so the decoding processing speed and tile boundary distortion smoothing can be performed. By achieving a balance with the image quality by the conversion, it is possible to suppress the distortion of the tile boundary while eliminating an adverse effect such as the frame dropping without the decoding process catching up with the reproduction.
[0126]
In this embodiment, the image compression / decompression method according to the “JPEG2000 algorithm” has been described. However, the present invention is not limited to this, and any image compression / decompression method in which the compression code includes tile boundary position information may be used. Any image compression / decompression method may be used.
[0127]
Next, a second embodiment of the present invention will be described. Note that the same parts as those described in the first embodiment are denoted by the same reference numerals, and description thereof is omitted (the same applies to the following embodiments).
[0128]
FIG. 22 is a functional block diagram of the image decompression apparatus 6 of the present embodiment. As shown in FIG. 22, the present embodiment includes a mode selection means 30 instead of the mode selection means 20 of the first embodiment.
[0129]
The mode selection unit 30 is the same as the mode selection unit 20 in that it exhibits a function of specifying a processing mode. Specifically, the mode selection unit 30 selects either the speed priority mode or the image quality priority mode for each frame according to the type of frame. For example, as shown in FIG. 23, the image quality priority mode is designated only in the case of “start frame” at time t0, “final frame” at time tn, and “stop frame” at time tk. This is because the tile boundary is not conspicuous during moving image reproduction, and only the “start frame”, “final frame”, and “stop frame” in which tile boundary distortion is conspicuous is subjected to smoothing processing with priority on image quality. When the processing mode is designated in this way, a signal indicating the designated processing mode is output to the tile boundary smoothing switching means 26.
[0130]
Here, since the tile boundary distortion is more conspicuous in the still image than in the moving image, by selecting the image quality priority mode for the start frame of the moving image, the final frame, and the stop frame related to the stop of the reproduction of the moving image, it can be performed at high speed. In addition, the distortion of the tile boundary can be suppressed with high accuracy.
[0131]
Next, a third embodiment of the present invention will be described. FIG. 24 is a functional block diagram of the image decompression apparatus 6 of this embodiment. As shown in FIG. 24, the present embodiment includes a mode selection means 40 instead of the mode selection means 20 of the first embodiment.
[0132]
The mode selection means 40 is the same as the mode selection means 20 in that it exhibits the function of specifying the processing mode. Specifically, the mode selection means 40 selects either the speed priority mode or the image quality priority mode according to the frame rate (the number of frames played back per unit time). That is, when the frame rate is larger than the predetermined threshold, the speed priority mode is selected, and the image quality priority mode is selected otherwise. For example,
Frame rate is higher than “5” → Speed priority mode
Frame rate is "5" or lower → Image quality priority mode
Control like this. This is because the higher the frame rate, the higher the reproduction speed and the less likely the tile boundary distortion is noticeable. When the processing mode is designated in this way, a signal indicating the designated processing mode is output to the tile boundary smoothing switching means 26.
[0133]
Here, since the tile boundary distortion becomes less conspicuous as the frame rate increases in the moving image, the speed priority mode is selected when the frame rate is larger than the predetermined threshold, and when the frame rate is smaller than the predetermined threshold. By selecting the image quality priority mode, it is possible to suppress the distortion of the tile boundary while eliminating an adverse effect such as frame dropping without the decoding process catching up with reproduction.
[0134]
Next, a fourth embodiment of the present invention will be described. FIG. 25 is a functional block diagram of the image decompression apparatus 6 according to this embodiment. As shown in FIG. 25, the present embodiment includes a mode selection means 50 in place of the mode selection means 20 of the first embodiment.
[0135]
The mode selection means 50 is the same as the mode selection means 20 in that it exhibits the function of specifying the processing mode. Specifically, the mode selection means 50 selects either the speed priority mode or the image quality priority mode for each frame in accordance with the code amount to be decoded for each frame.
[0136]
In JPEG2000, in order to set the code amount (compression rate) of a moving image to a predetermined value, the code amount is different for each frame. For example, a frame having a high information amount has a large code amount, and a frame having a small amount of image quality deterioration such as after a scene change has a small code amount. In JPEG2000, it is possible to decode a predetermined part of a code instead of decoding all codes at the time of decompression.
[0137]
In general, if the amount of code to be decoded is small, the compression rate in the frame increases, and tile boundary distortion tends to be conspicuous. Conversely, if the amount of code to be decoded is large, the compression rate in the frame is small, and tile boundary distortion is not noticeable.
[0138]
Therefore, as shown in FIG. 26, the speed priority mode is selected when the amount of codes to be decoded is larger than a predetermined threshold, and the image quality priority mode is selected otherwise.
[0139]
Here, select the image quality priority mode because the frame boundary distortion is conspicuous because the compression rate is large for frames with a small code amount, and the speed priority mode is selected because the frame boundary distortion is inconspicuous because the compression rate is small for frames with a large code amount. By selecting, the optimum tile boundary distortion smoothing process is executed for all frames, so that a high-quality reproduced image can be obtained.
[0140]
Next, a fifth embodiment of the present invention will be described. This embodiment is different from the first embodiment in the function of the image expansion device 6. In general, instead of applying a low-pass filter to all pixels near the tile boundary, the tile boundary to which the low-pass filter is applied is limited, and only the pixels near the tile boundary are subjected to the low-pass filter. .
[0141]
FIG. 27 is a functional block diagram of the image decompression apparatus 6 of the present embodiment. As shown in FIG. 27, the CPU 11b operates based on computer software (image processing program), so that the image decompression device 6 includes a tag processing unit 21, an entropy decoding unit 22, an inverse quantization unit 23, and a two-dimensional wavelet. The functions of the inverse transform unit 24, the color space inverse transform unit 25, the tile boundary smoothing switching unit 26, the first tile boundary smoothing unit 27, the second tile boundary smoothing unit 28, and the correction tile boundary limiting unit 29 are realized. .
[0142]
The corrected tile boundary limiting unit 29 has a function of limiting the tile boundary to be subjected to the low pass filter in the first tile boundary smoothing unit 27 and the second tile boundary smoothing unit 28.
[0143]
Here, FIG. 28 and FIG. 29 are explanatory diagrams illustrating an example of a process for applying a low-pass filter only to a tile boundary in a region of interest (ROI) region. This ROI region is a part of the entire image when it is cut out and enlarged from the entire image or emphasized as compared with other parts.
[0144]
FIG. 28 shows a case where the ROI region is a region along the tile boundary. When the ROI boundary is set as shown in FIG. 28 (a), the tile boundary to which the low-pass filter is applied is set in the portion indicated by the dotted line in FIG. 28 (b). A low-pass filter is not applied to the ROI boundary indicated by the bold line in FIG.
[0145]
FIG. 29 shows a case where the ROI region is a region not along the tile boundary. When the ROI boundary is set as shown in FIG. 29 (a), the tile boundary to which the low-pass filter is applied is set in the portion indicated by the dotted line in FIG. 29 (b). Whether the tile boundary pixel is inside the ROI is calculated by calculation. If the tile boundary pixel is inside the ROI, a low pass filter is applied to the pixel. If the tile boundary pixel is outside the ROI, no low pass filter is applied to the pixel.
[0146]
In the present embodiment, whether or not to apply the low pass filter is determined depending on whether or not it is inside the ROI, but other than that, the low pass filter is applied only to the tile boundary pixels of the portion where the edge amount of the vertical or horizontal component is large. You may perform control to apply.
[0147]
As a result, the corrected tile boundary limiting unit 29 limits the tile boundary pixels to be subjected to the low-pass filter, and performs the color space inverse conversion unit 25 with respect to the first tile boundary smoothing unit 27 and the second tile boundary smoothing unit 28. RGB data obtained by the above is output.
[0148]
Here, by controlling the tile boundary pixels to be subjected to the low-pass filter, the processing time for suppressing the tile boundary distortion can be shortened. In particular, the processing time for suppressing tile boundary distortion can be shortened by applying a low pass filter only to the tile boundary in the ROI region.
[0149]
In each of the embodiments, the PC 1b is applied as a moving image playback device that constitutes the surveillance camera system 1. However, the present invention is not limited to this. For example, a personal digital assistant (PDA), a mobile phone, or the like can be applied as a moving image playback device.
[0150]
  According to the present embodiment, since the tile boundary distortion is more conspicuous in the still image than in the moving image, the image quality priority mode is selected only for the start frame and the final frame of the moving image, and at high speed and with high accuracy. The distortion of the tile boundary can be suppressed.
In addition, according to the present embodiment, the tile boundary distortion is more conspicuous in the still image than in the moving image. Therefore, by selecting the image quality priority mode for the stop frame related to the stop of the playback of the moving image, the still image can be processed at high speed. The distortion of the tile boundary can be suppressed with high accuracy.
Also, according to the present embodiment, since the frame boundary distortion is conspicuous because the frame with a small code amount has a large compression rate, the image quality priority mode is selected, and since the frame with a large code amount has a small compression rate, the tile boundary distortion is small. Since the speed priority mode is selected because it is inconspicuous, optimal tile boundary distortion smoothing processing is executed for all frames, so that a high-quality reproduced image can be obtained.
In addition, according to the present embodiment, as the frame rate of a moving image increases, tile boundary distortion is less noticeable. Therefore, when the frame rate is larger than a predetermined threshold, the speed priority mode is selected and the frame rate is predetermined. By selecting the image quality priority mode when the threshold value is smaller than the threshold value, it is possible to suppress the distortion of the tile boundary while eliminating an adverse effect such as the frame dropping without the decoding process catching up with the reproduction.
Further, according to the present embodiment, it is possible to suppress the distortion of the tile boundary by a simpler method as compared with the process of smoothing the tile boundary distortion due to the overlap.
Further, according to the present embodiment, since the strength of the low-pass filter is adaptively controlled in the image quality priority mode, the quality is higher than that in the speed priority mode in which a uniform low-pass filter is applied to the pixels. A good image can be reproduced.
Further, according to the present embodiment, it is possible to suppress image quality degradation that occurs when an edge is strong near a tile boundary while suppressing tile boundary distortion.
Further, according to the present embodiment, it is possible to shorten the processing time for suppressing the tile boundary distortion by controlling the tile boundary pixels to be subjected to the low pass filter.
Further, according to the present embodiment, the processing time for suppressing the tile boundary distortion can be shortened by applying the low pass filter only to the tile boundary in the ROI region.
In addition, according to the present embodiment, it is possible to provide an image processing device that exhibits the same effects as the image decoding device of the present invention.
Further, according to the present embodiment, it is possible to provide a moving image display system that exhibits the same effects as the image decoding device of the present invention.
  Also,This embodimentAccording to the above, by causing the computer to read the program stored in the storage medium,Image decoding method of the present inventionThe same effect can be obtained.
  In each embodiment, the surveillance camera 1a including the image input device 2 and the image compression device 3, and the PC 1b including the image expansion device 6 and the image display device 7 which are moving image processing devices are connected via a network 1c. Although the connected surveillance camera system 1 is applied as a moving image display system, the present invention is not limited to this. For example, a digital camera or the like that integrally includes a camera unit that is the image input device 2, a control unit that includes the image compression device 3 and an image expansion device 6 that is a moving image processing device, and a display that is the image display device 7. There is no problem even if it is applied as an image display system.
[0151]
【The invention's effect】
  The present inventionAccording to the present invention, the image quality priority mode that prioritizes the image quality and the speed priority mode that prioritizes the processing speed are appropriately selected and the tile boundary distortion smoothing process is executed.be able to.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a system that realizes a hierarchical encoding algorithm that is the basis of a JPEG2000 system that is a premise of the present embodiment.
FIG. 2 is an explanatory diagram showing a divided rectangular area of each component of the original image.
FIG. 3 is an explanatory diagram showing subbands at each decomposition level when the number of decomposition levels is 3. FIG.
FIG. 4 is an explanatory diagram showing a precinct.
FIG. 5 is an explanatory diagram showing an example of a procedure for ranking bit planes;
FIG. 6 is an explanatory diagram illustrating a schematic configuration of one frame of code string data.
FIG. 7 is an explanatory diagram showing the concept of Motion JPEG2000.
FIG. 8 is a system configuration diagram showing the surveillance camera system according to the first embodiment of the present invention.
FIG. 9 is a functional block diagram thereof.
FIG. 10 is a block diagram illustrating an example of a hardware configuration of a monitoring camera system.
FIG. 11 is a functional block diagram of an image expansion apparatus.
FIG. 12 is a front view showing a mode designation screen.
FIG. 13 is an explanatory diagram illustrating an example of processing in the first tile boundary smoothing unit and the second tile boundary smoothing unit.
FIG. 14 is an explanatory diagram showing an example of a low-pass filter at a vertical tile boundary by the first tile boundary smoothing means.
FIG. 15 is an explanatory diagram showing an example of a low-pass filter at a horizontal tile boundary by the first tile boundary smoothing means.
FIG. 16 is an explanatory diagram illustrating an example of a low-pass filter in the vicinity of an intersection between a vertical tile boundary and a horizontal tile boundary by the first tile boundary smoothing unit.
FIG. 17 is an explanatory diagram showing an example of a low pass filter at a vertical tile boundary by the second tile boundary smoothing means.
FIG. 18 is an explanatory diagram showing an example of a low-pass filter at a horizontal tile boundary by the second tile boundary smoothing means.
FIG. 19 is an explanatory diagram illustrating an example of a low-pass filter in the vicinity of an intersection between a vertical tile boundary and a horizontal tile boundary by a second tile boundary smoothing unit.
FIG. 20 is an explanatory diagram illustrating an example of a method for calculating a distance between pixels from a tile boundary.
FIG. 21 is an explanatory diagram illustrating an example of an edge amount calculation filter;
FIG. 22 is a functional block diagram of an image expansion apparatus according to a second embodiment of the present invention.
FIG. 23 is an explanatory diagram showing “start frame”, “final frame”, and “stop frame”;
FIG. 24 is a functional block diagram of an image expansion apparatus according to a third embodiment of the present invention.
FIG. 25 is a functional block diagram of an image expansion apparatus according to a fourth embodiment of the present invention.
FIG. 26 is an explanatory diagram illustrating an example of mode selection according to the amount of codes to be decoded.
FIG. 27 is a functional block diagram of an image expansion apparatus according to a fifth embodiment of the present invention.
FIG. 28 is an explanatory diagram showing an example of a process for applying a low-pass filter only to a tile boundary in the ROI region.
FIG. 29 is an explanatory diagram illustrating an example of a process of applying a low pass filter only to the tile boundary in the ROI region.
[Explanation of symbols]
1 Moving image display system
1b Image processing apparatus
2 Image input device
3 Image compression device
6 Image decoding device
7 Image display device
16 storage media
19 Display device
20, 30, 40, 50 Mode selection means
26 Tile boundary smoothing switching means
27, 28 Tile boundary smoothing means
29 Correction tile boundary limiting means
F1-F6 low pass filter

Claims (18)

画像が複数に分割されたタイル毎に画素値が離散ウェーブレット変換され圧縮符号化された複数のフレームを連続して復号する画像復号装置であって、
復号後の各フレームにおけるタイル境界の歪みを平滑化する、第一のタイル境界平滑化処理又は第二のタイル境界平滑化処理を行う、タイル境界平滑化手段と、
前記タイル境界平滑化手段によるタイル境界歪みの平滑化処理について画質を優先させる画質優先モード又は処理速度を優先させる速度優先モードを選択するモード選択手段と、
前記タイル境界平滑化手段による復号後の各フレームにおけるタイル境界歪みの平滑化処理について、前記モード選択手段による選択に従って、前記速度優先モードが選択された場合には、前記第一のタイル境界平滑化処理に切り替え、前記画質優先モードが選択された場合には、前記第二のタイル境界平滑化処理に切り替える、タイル境界平滑化切替手段とを有し、
前記第一のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対して一様なローパスフィルタを施し、前記第二のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対し、該画素のタイル境界からの画素間距離と前記タイル境界近傍の画素の斜め方向のエッジ量が大きいほど平滑化度を小さく制御したローパスフィルタを施すことを特徴とする画像復号装置。
An image decoding device that continuously decodes a plurality of frames that have been subjected to discrete wavelet transform and compression-coded pixel values for each tile into which an image is divided into a plurality of tiles,
Tile boundary smoothing means for performing a first tile boundary smoothing process or a second tile boundary smoothing process for smoothing distortion of a tile boundary in each frame after decoding;
Mode selection means for selecting an image quality priority mode for prioritizing image quality or a speed priority mode for prioritizing processing speed for the smoothing processing of tile boundary distortion by the tile boundary smoothing means;
For smoothing processing of tile boundary distortion in each frame after decoding by the tile boundary smoothing means, when the speed priority mode is selected according to the selection by the mode selection means, the first tile boundary smoothing A tile boundary smoothing switching means for switching to the second tile boundary smoothing process when the image quality priority mode is selected.
The first tile boundary smoothing process applies a uniform low-pass filter to pixels near the tile boundary in the decoded frame, and the second tile boundary smoothing process includes a tile boundary in the decoded frame. Image decoding characterized by applying a low-pass filter that controls the degree of smoothing to a neighboring pixel as the inter-pixel distance from the tile boundary of the pixel and the edge amount in the diagonal direction of the pixel near the tile boundary increase. apparatus.
前記モード選択手段は、フレームの種類に応じて前記タイル境界平滑化手段によるタイル境界歪みの平滑化処理について前記画質優先モードと前記速度優先モードとの何れか一方をフレーム毎に選択し、動画像の開始フレームと最終フレームとについては前記画質優先モードとし、それ以外のフレームについては前記速度優先モードとすることを特徴とする請求項1記載の画像復号装置。The mode selection means selects one of the image quality priority mode and the speed priority mode for each frame for smoothing the tile boundary distortion by the tile boundary smoothing means according to the type of frame , the start frame for and the last frame and the image quality priority mode, the image decoding apparatus according to claim 1, characterized in that said speed priority mode in the case of other frames. 前記モード選択手段は、動画像の再生の停止に係る停止フレームについても前記画質優先モードとすることを特徴とする請求項2記載の画像復号装置。 It said mode selecting means, the image decoding apparatus according to claim 2, wherein also the image quality priority mode for stopping frame according to the stop of the reproduction of the moving image. 前記モード選択手段は、各フレームの復号対象となる符号量に応じて前記タイル境界平滑化手段によるタイル境界歪みの平滑化処理について前記画質優先モードと前記速度優先モードとの何れか一方をフレーム毎に選択し、復号対象となる符号量が小さい場合には前記画質優先モードとし、復号対象となる符号量が大きい場合には前記速度優先モードとすることを特徴とする請求項1記載の画像復号装置。The mode selection unit selects one of the image quality priority mode and the speed priority mode for each frame in a tile boundary distortion smoothing process by the tile boundary smoothing unit according to a code amount to be decoded for each frame. select, and the image quality priority mode when the decoding target code amount is small, the image decoding according to claim 1, wherein when a large amount of code to be decoded is characterized in that said speed priority mode apparatus. 前記モード選択手段は、フレームレートに応じて前記タイル境界平滑化手段によるタイル境界歪みの平滑化処理について前記画質優先モードと前記速度優先モードとの何れか一方をフレーム毎に選択し、フレームレートが所定の閾値以下の場合には前記画質優先モードとし、フレームレートが所定の閾値よりも大きい場合には前記速度優先モードとすることを特徴とする請求項1記載の画像復号装置。The mode selection means selects one of the image quality priority mode and the speed priority mode for each frame for the tile boundary distortion smoothing processing by the tile boundary smoothing means according to the frame rate , and the frame rate is in the case of less than a predetermined threshold value and the image quality priority mode, the image decoding apparatus according to claim 1, wherein the frame rate if greater than a predetermined threshold value, characterized in that said speed priority mode. タイル境界を限定する補正タイル境界限定手段を備え、
この補正タイル境界限定手段により限定されたタイル境界の近傍画素にのみ、前記タイル境界平滑化手段によるタイル境界の歪み平滑化処理を行うようにしたことを特徴とする請求項1ないしの何れか一記載の画像復号装置。
A correction tile boundary limiting means for limiting the tile boundary;
The corrected tile boundary limitation means in the vicinity of pixels of the limited tile boundary by only any one of claims 1 to 5, characterized in that to perform the distortion smoothing process tile boundaries by the tile boundary smoothing means An image decoding device according to claim 1.
前記補正タイル境界限定手段により限定されるタイル境界は、ROI(Region Of Interest)領域内であることを特徴とする請求項記載の画像復号装置。7. The image decoding apparatus according to claim 6, wherein the tile boundary defined by the corrected tile boundary limiting unit is in a ROI (Region Of Interest) area. 画像複数に分割されたタイル毎に画素値離散ウェーブレット変換され圧縮符号化された複数のフレームを連続して復号する請求項1ないしの何れか一記載の画像復号装置と、
この画像復号装置により復号されたフレームに基づく画像を表示装置に表示させる画像表示装置と、
を備えることを特徴とする画像処理装置。
The image decoding device according to any one of claims 1 to 7 , wherein a plurality of frames in which pixel values are subjected to discrete wavelet transform and compression-coded for each tile into which an image is divided into a plurality of frames are successively decoded;
An image display device for causing the display device to display an image based on the frame decoded by the image decoding device;
An image processing apparatus comprising:
動画像を撮像する画像入力装置と、
前記画像入力装置により撮像された動画像フレームごとに複数のタイルに分割し、前記タイル毎に画素値を離散ウェーブレット変換し圧縮符号化する画像圧縮装置と、
前記画像圧縮装置により圧縮符号化された複数のフレームを連続して復号する請求項1ないしの何れか一記載の画像復号装置と、
前記画像復号装置により復号されたフレームに基づく画像を表示装置に表示させる画像表示装置と、
を備えることを特徴とする動画像表示システム。
An image input device for capturing moving images;
An image compressing apparatus is divided into a plurality of tiles moving images captured per frame, a discrete wavelet transform compression coding the pixel values for each of the tile by the image input device,
The image decoding device according to any one of claims 1 to 7 , wherein a plurality of frames compressed and encoded by the image compression device are successively decoded;
An image display device for displaying an image based on the decoded frame by the image decoding apparatus on the display device,
A moving image display system comprising:
画像が複数に分割されたタイル毎に画素値が離散ウェーブレット変換され圧縮符号化された複数のフレームを連続して復号する画像復号方法であって、
復号後の各フレームにおけるタイル境界の歪みを平滑化する、第一のタイル境界平滑化処理又は第二のタイル境界平滑化処理を行う、タイル境界平滑化工程と、
前記タイル境界平滑化工程におけるタイル境界歪みの平滑化処理について画質を優先させる画質優先モード又は処理速度を優先させる速度優先モードを選択するモード選択工程と、
前記タイル境界平滑化工程による復号後の各フレームにおけるタイル境界歪みの平滑化処理について、前記モード選択工程による選択に従って、前記速度優先モードが選択された場合には、前記第一のタイル境界平滑化処理に切り替え、前記画質優先モードが選択された場合には、前記第二のタイル境界平滑化処理に切り替える、タイル境界平滑化切替工程とを有し、
前記第一のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対して一様なローパスフィルタを施し、前記第二のタイル境界平滑化処理は、復号後のフレームにおけるタイル境界近傍の画素に対し、該画素のタイル境界からの画素間距離と前記タイル境界近傍の画素の斜め方向のエッジ量が大きいほど平滑化度を小さく制御したローパスフィルタを施すことを特徴とする画像復号方法。
An image decoding method for continuously decoding a plurality of frames in which pixel values are discrete wavelet transformed and compressed and encoded for each tile into which an image is divided into a plurality of tiles,
A tile boundary smoothing step for performing a first tile boundary smoothing process or a second tile boundary smoothing process for smoothing distortion of tile boundaries in each frame after decoding;
A mode selection step of selecting an image quality priority mode that prioritizes image quality or a speed priority mode that prioritizes processing speed for the tile boundary distortion smoothing process in the tile boundary smoothing step;
In the tile boundary distortion smoothing process in each frame after decoding by the tile boundary smoothing step, when the speed priority mode is selected according to the selection by the mode selection step, the first tile boundary smoothing is performed. Switching to processing, and when the image quality priority mode is selected, the tile boundary smoothing switching step for switching to the second tile boundary smoothing processing,
The first tile boundary smoothing process applies a uniform low-pass filter to pixels near the tile boundary in the decoded frame, and the second tile boundary smoothing process includes a tile boundary in the decoded frame. Image decoding characterized by applying a low-pass filter that controls the degree of smoothing to a neighboring pixel as the inter-pixel distance from the tile boundary of the pixel and the edge amount in the diagonal direction of the pixel near the tile boundary increase. Method.
前記モード選択工程は、フレームの種類に応じて前記タイル境界平滑化工程によるタイル境界歪みの平滑化処理について前記画質優先モードと前記速度優先モードとの何れか一方をフレーム毎に選択し、動画像の開始フレームと最終フレームとについては前記画質優先モードとし、それ以外のフレームについては前記速度優先モードとすることを特徴とする請求項10記載の画像復号方法。The mode selection step selects one of the image quality priority mode and the speed priority mode for each frame for smoothing the tile boundary distortion in the tile boundary smoothing step according to the type of frame , 11. The image decoding method according to claim 10, wherein the first frame and the last frame are set to the image quality priority mode, and the other frames are set to the speed priority mode. 前記モード選択工程は、動画像の再生の停止に係る停止フレームについても前記画質優先モードとすることを特徴とする請求項11記載の画像復号方法。 It said mode selection step, image decoding method according to claim 11, wherein also the image quality priority mode for stopping frame according to the stop of the reproduction of the moving image. 前記モード選択工程は、各フレームの復号対象となる符号量に応じて前記タイル境界平滑化工程によるタイル境界歪みの平滑化処理について前記画質優先モードと前記速度優先モードとの何れか一方をフレーム毎に選択し、復号対象となる符号量が小さい場合には前記画質優先モードとし、復号対象となる符号量が大きい場合には前記速度優先モードとすることを特徴とする請求項10記載の画像復号方法。In the mode selection step, one of the image quality priority mode and the speed priority mode is set for each frame in the tile boundary distortion smoothing process in the tile boundary smoothing step according to the code amount to be decoded in each frame. select, and the image quality priority mode when the decoding target code amount is small, the image decoding according to claim 10, wherein when a large amount of code to be decoded is characterized in that said speed priority mode Method. 前記モード選択工程は、フレームレートに応じて前記タイル境界平滑化工程におけるタイル境界歪みの平滑化処理について前記画質優先モードと前記速度優先モードとの何れか 一方をフレーム毎に選択し、フレームレートが所定の閾値以下の場合には前記画質優先モードとし、フレームレートが所定の閾値よりも大きい場合には前記速度優先モードとすることを特徴とする請求項10記載の画像復号方法。The mode selection step selects one of the image quality priority mode and the speed priority mode for each frame for the tile boundary distortion smoothing process in the tile boundary smoothing step according to a frame rate , and the frame rate is wherein the image quality priority mode, image decoding method according to claim 10, wherein the frame rate if greater than a predetermined threshold value, characterized in that said speed priority mode when more than a predetermined threshold value. タイル境界を限定する補正タイル境界限定工程を備え、
この補正タイル境界限定工程において限定されたタイル境界の近傍画素にのみ、前記タイル境界平滑化工程においてタイル境界の歪み平滑化処理を行うようにしたことを特徴とする請求項10ないし14の何れか一記載の画像復号方法。
A correction tile boundary limiting step for limiting the tile boundary;
The corrected tile boundary limitation neighboring pixels of limited tile boundary in step only, one of the tile boundary smoothing the preceding claims 10, characterized in that to perform the distortion smoothing process tile boundary in step 14 The image decoding method according to one.
前記補正タイル境界限定工程において限定されるタイル境界は、ROI(Region Of Interest)領域内であることを特徴とする請求項15記載の画像復号方法。The image decoding method according to claim 15, wherein the tile boundary defined in the correction tile boundary limiting step is within an ROI (Region Of Interest) region. コンピュータに、請求項10ないし16の何れか一記載の画像復号方法を実行させるプログラム The computer program for executing the image decoding method of any one of claims 10 to 16. 請求項17記載のプログラムを格納したコンピュータ読取可能な記録媒体 A computer-readable recording medium storing the program according to claim 17 .
JP2002208156A 2002-07-17 2002-07-17 Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method Expired - Fee Related JP4145086B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002208156A JP4145086B2 (en) 2002-07-17 2002-07-17 Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method
US10/600,333 US7330596B2 (en) 2002-07-17 2003-06-23 Image decoding technique for suppressing tile boundary distortion
US11/980,580 US7522778B2 (en) 2002-07-17 2007-10-31 Image decoding technique for suppressing tile boundary distortion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002208156A JP4145086B2 (en) 2002-07-17 2002-07-17 Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method

Publications (2)

Publication Number Publication Date
JP2004056264A JP2004056264A (en) 2004-02-19
JP4145086B2 true JP4145086B2 (en) 2008-09-03

Family

ID=31932382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002208156A Expired - Fee Related JP4145086B2 (en) 2002-07-17 2002-07-17 Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method

Country Status (1)

Country Link
JP (1) JP4145086B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2553434C (en) 2004-04-23 2012-08-07 Sumitomo Electric Industries, Ltd. Coding method for motion-image data, decoding method, terminal equipment executing these, and two-way interactive system
US7609899B2 (en) 2004-05-28 2009-10-27 Ricoh Company, Ltd. Image processing apparatus, image processing method, and recording medium thereof to smooth tile boundaries
JP4526314B2 (en) * 2004-07-07 2010-08-18 シャープ株式会社 Video playback device
JP6465613B2 (en) * 2014-10-10 2019-02-06 キヤノン株式会社 Image processing apparatus, imaging apparatus, control method for image processing apparatus, and computer program

Also Published As

Publication number Publication date
JP2004056264A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
US7330596B2 (en) Image decoding technique for suppressing tile boundary distortion
JP4293740B2 (en) Image compression device
US7352908B2 (en) Image compression device, image decompression device, image compression/decompression device, program for executing on a computer to perform functions of such devices, and recording medium storing such a program
US8000542B2 (en) Apparatus and method for processing image data based on object movement speed within a frame
JP2005286472A (en) Image processing apparatus and image processing method
JP3952459B2 (en) Image processing apparatus, program, storage medium, and image processing method
JP4145086B2 (en) Image decoding apparatus, image processing apparatus, moving image display system, program, storage medium, and image decoding method
JP2004056260A (en) Image decoder, image processor, program, recording medium and image decoding method
JP4118049B2 (en) Image processing apparatus and method
JP2002369202A (en) Image compression device, image expansion device, image compressing method, image expanding method, program and recording medium stored with the program
JP2004064190A (en) Image processing apparatus, method, program, and recording medium
JP4241463B2 (en) Image processing device
JP2010206847A (en) Image processing apparatus
JP4124436B2 (en) Motion estimation device, program, storage medium, and motion estimation method
JP3954459B2 (en) Moving image processing apparatus, moving image processing method, and surveillance camera system
JP2006129248A (en) Image encoding and decoding method and apparatus thereof
JP4149144B2 (en) Image compression apparatus, method, program, and recording medium
JP4361755B2 (en) Moving image processing apparatus, program, storage medium, and moving image processing method
JP4201163B2 (en) Image processing apparatus, method, program, and recording medium
JP2004336405A (en) Dynamic image processing apparatus, program, storage medium, and dynamic image processing method
JP4040404B2 (en) Code string conversion apparatus and method, image processing apparatus, and image recording apparatus
JP4067460B2 (en) Image decoding apparatus, program, storage medium, and image decoding method
JP2004214983A (en) Image processing method
JP2004096695A (en) Image processing apparatus, image display device, program, storage medium, and image processing method
JP3961966B2 (en) Unnecessary part removing apparatus, image processing apparatus, program, storage medium, and unnecessary part removing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050617

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130627

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees