JP2004172944A - Image processing method, image processor and program for image processing - Google Patents

Image processing method, image processor and program for image processing Download PDF

Info

Publication number
JP2004172944A
JP2004172944A JP2002336143A JP2002336143A JP2004172944A JP 2004172944 A JP2004172944 A JP 2004172944A JP 2002336143 A JP2002336143 A JP 2002336143A JP 2002336143 A JP2002336143 A JP 2002336143A JP 2004172944 A JP2004172944 A JP 2004172944A
Authority
JP
Japan
Prior art keywords
frequency signal
image
signal component
component
coring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002336143A
Other languages
Japanese (ja)
Inventor
Takayuki Sugawara
隆幸 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2002336143A priority Critical patent/JP2004172944A/en
Publication of JP2004172944A publication Critical patent/JP2004172944A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method capable of improving image quality further for decoded image signals by eliminating mosquito noise generated in compression encoding in decoding and performing an appropriate enhancement processing, an image processor and a program for an image processing. <P>SOLUTION: The decoded image signals for which image signals compressed and encoded by using orthogonal transformation or the like are decoded are separated into low frequency signal components and high frequency signal components. For the high frequency signal components, signals equal to or lower than a prescribed coring level are converted to zero, a prescribed enhancement level is multiplied, the high frequency signal components are composited with the low frequency signal components and the decoded image signals are reconstituted. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、MPEGなどの圧縮符号化された画像データを復号化した画像に対する画質改善の画像処理方法、画像処理装置、及び画像処理用プログラムに関するものである。そして、この発明は特に、直交変換等を用いた圧縮で発生したモスキートノイズを復号時に除去することを可能とする画像処理方法、画像処理装置、及び画像処理用プログラムを提供することを目的としている。
【0002】
【従来の技術】
画像信号、音響信号、その他の各種信号をデジタル信号として、伝送,記録再生する場合には、情報量の圧縮伸長技術が用いられている。これは、例えば画像信号や音声信号等のデジタル化に当って、各サンプル値を均等に分割した信号レベルの内の一つの代表値で置き換える直線量子化(均等量子化)を行なっただけでは、伝送,記録再生の対象とされる信号の情報量が、非常に多い状態になるからである。
【0003】
従来から放送通信の技術分野、記録再生の技術分野においては、例えば、信号の変化の少ない部分で人間の視覚や聴覚が敏感であり、信号の変化の激しい部分ではある程度の誤差があっても、それを検知し難いという人間の視覚や聴覚の性質を、各サンプルあたりの情報量の低減のために利用するということの他に、多くの情報圧縮技術の適用により、伝送,記録再生の対象にされている各種情報についての高能率圧縮技術(情報の高能率符号化技術)の実用化が進められて来ていることは周知のとおりである。
【0004】
さて、現在実用化されているVHS(登録商標)方式のVTRからの再生信号を用いて表示された再生画像程度の画質の動画像における1時間当りの情報量は、おおよそ109Gビットである。また、我国における現行の標準方式のカラーテレビジョン方式の受信画像程度の画質の動画像における1時間当りの情報量は、おおよそ360Gビットである。これらの情報量よりもさらに大きな情報量を有する画像情報を、実用化されている現行の伝送路や記録媒体を用いて、伝送、記録再生させるために必要とされる画像情報の高能率圧縮方式についての実用化研究も盛んに行なわれている。
【0005】
ところで、現在、実用的な画像情報の高能率圧縮方式として提唱されている画像情報の高能率圧縮方式では、▲1▼自然画における隣接画素間では相関が高いという、画面内(フレーム内)相関々係を利用して行なう情報量の圧縮(空間的相関々係を利用して行なう情報量の圧縮)、▲2▼時間軸上に並ぶ画面間(フレーム間)相関々係を利用して行なう情報量の圧縮(時間的相関々係を利用して行なう情報量の圧縮)、▲3▼符号の出現確率の偏りによる情報量の圧縮、との3種類の異なる圧縮手段を組合わせて情報量の圧縮を行ない、高能率符号化が達成されるようにしている。前記した▲1▼の画面内(フレーム内)相関々係を利用して行なう画像の情報量の圧縮手段としては、従来から多くの手法が提案されて来ているが、近年になって、K−L(カルーネン・レーベ)変換、離散コサイン変換(DCT)、離散フーリエ変換、ウオルシュ・アダマール変換、等を代表例とする直交変換が採用されることが多くなった。
【0006】
例えば、ISO(国際標準化機構)の下に設立されたMPEG(MovingPicture Coding Expert Group)による国際標準化作業の結果として提唱された画像情報の高能率符号化方式(MPEG1方式,MPEG2方式と呼称されることもある)は、フレーム内符号化と、フレーム間符号化とを組合わせて、動き補償予測やフレーム間予測を施した状態で、動画像情報の高能率符号化を行なうのであるが、前記の直交変換として2次元離散コサイン変換(2次元DCT)を採用している。そして、前記の直交変換は、高能率符号化の対象にされる各1枚毎の画面の画像信号について、所定のブロックサイズ(N×M画素←横N画素×縦Mラインのブロックサイズ)を有する「単位のブロック」(前記のMPEG1方式,MPEG2方式では、8×8画素←横8画素×縦8ラインのブロックサイズのブロックが「単位のブロック」とされている)毎に分割された画像信号について行なわれる。
【0007】
前記単位のブロック毎に直交変換されることによって得られる(N×M)個の直交変換係数(前記のMPEG1方式,MPEG2方式では、8×8=64個のDCT変換係数)は、少なくとも前記単位のブロックの1個を含む予め定められた大きさの領域(前記のMPEG1方式,MPEG2方式において、「マクロブロック」の用語で呼称されている領域)毎に設定されている「ブロック量子化幅値」によって量子化される。「マクロブロック」とは、MPEG1方式,MPEG2方式で、輝度信号Yについての16×16画素(横16画素×縦16ライン)のブロックサイズの大きさの領域と、2つの色差信号Cr,Cbのそれぞれについての8×8画素(横8画素×縦8ライン)のブロックサイズの大きさの領域とからなる領域である。
【0008】
例えば、MPEG1方式,MPEG2方式において、前記「ブロック量子化幅値」は、[マクロブロック量子化特性値(またはマクロブロックの量子化スケール)QS×量子化マトリクス]として示される。
【0009】
前記のブロック量子化幅値によって量子化された直交変換係数(例えばDCT係数)は、それの直流成分(DC成分)と、交流成分(AC成分)とに分離される。前記の直交変換係数(例えばDCT係数)の直流成分は差分符号化され、また直交変換係数(例えばDCT係数)の交流成分は、ジグザグ走査された後にエントロピー符号化(符号の出現確率の偏りによる情報量圧縮…例えばハフマン方式のような可変長符号化)される。このように変換符号化された画像データはビットストリーム(ビット列)として出力される。
【0010】
次に、前述のように変換符号化された画像データに対する復号動作は、既述の符号化動作とは逆の操作で行なわれて出力画像が得られるのであるが、高能率符号化の過程において量子化が行なわれている場合には、避けることができない量子化誤差の存在により、出力画像中に量子化ノイズを生じさせる。そして、符号化の対象にされた画像の複雑さが、伝送レートに対して大きな場合に、前記の量子化ノイズが画像の品質を大きく劣化させることになる。従来の一般的なMPEGの符号化器を図9に、復号化器を図10に示す。
【0011】
図9に示す従来のMPEG符号化器について簡単に説明する。入力画像は動き補償予測器1で復号化した画像と、入力画像の差分とを差分器2で取ることで時間冗長部分を削減する。
【0012】
予測の方向は、過去、未来、両方からの3モード存在する。また、これらは16画素×16画素のMB(マクロブロック)ごとに切り替えて使用できる。予測方向は入力画像に与えられたピクチャタイプによって決定される。過去からの予測により符号化するモードと、予測をしないでそのMBを独立で符号化するモードとの2つのモードが存在するのがPピクチャーである。また、未来からの予測、過去からの予測、両方からの予測、独立で符号化する4つのモードが存在するのがBピクチャーである。そして、全てのMBを独立で符号化するのがIピクチャーである。
【0013】
動き補償は、動き領域をMBごとにパターンマッチングを行ってハーフペル精度で動きベクトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方向が存在し、何処からの予測かを示すMC(Motion Compensation)モードとともにMBの付加情報として伝送される。
【0014】
Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Picture)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が一つのGOPとして使用される。
【0015】
差分画像はDCT器3において直交変換が行われる。DCT(Discrete Cosine Transform)とは、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEGではMBを4分割し8×8のDCTブロックに対して、2次元DCTを行う。一般にビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。
【0016】
DCTされた画像データ(DCT係数)は量子化器4で量子化が行われる。量子化は量子化マトリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で叙算する。MPEG復号化器(デコーダー)で逆量子化するときは量子化値で乗算することにより、元のDCT係数に近似している値を得ることになる。
【0017】
量子化されたデータはVLC器5で可変長符号化される。量子化された値のうち直流(DC)成分は予測符号化のひとつであるDPCM(differential pulse code modulation )を使用する。また交流(AC)成分は 低域から高域にzigzag scanを行い、ゼロのラン長および有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。
【0018】
可変長符号化されたデータは一時バッファ6に蓄えられ、所定の転送レートで符号化データとして出力される。また、その出力されるデータのマクロブロック毎の発生符号量は、符号量制御器21に送信され、目標符号量に対する発生符号量との誤差符号量を量子化器4にフィードバックして量子化スケールを調整することで符号量制御される。
【0019】
量子化された画像データは逆量子化器7にて逆量子化、逆DCT器8にて逆DCTされ、加算器9を介して一時、画像メモリ10に蓄えられたのち、動き補償予測器1において、差分画像を計算するためのリファレンスの復号化画像として使用される。
【0020】
このようにしてMPEG符号化された符号化データを復号化するMPEG復号化器(デコーダー)を図10に示す。
【0021】
入来する符号化データ(ストリーム)はバッファ11でバッファリングされ、バッファ11からのデータはVLD器12に入力される。VLD器12では可変長復号化を行い、直流(DC)成分および交流(AC)成分を得る。交流(AC)成分データは低域から高域にzigzag scanの順で8x8のマトリックスに配置される。このデータは逆量子化器13に入力され、量子化マトリックスにて逆量子化される。逆量子化されたデータは逆DCT器14に入力されて逆DCTされ、画像データ(復号化データ)として出力される。また、復号化データは一時、画像メモリ16に蓄えられたのち、動き補償予測器17において、差分画像を計算するためのリファレンスの復号化画像として使用される。
【0022】
一般的に、前記した量子化ノイズを生じさせる量子化誤差の内で、低域成分の量子化誤差は、単位のブロック間に相関が無い状態の出力画像歪、所謂ブロック歪を画像中に生じさせ、また、量子化ノイズを生じさせる量子化誤差の内で、高域成分の量子化誤差は、リンギング状の出力画像歪、所謂モスキートノイズをエッジの周辺に生じさせる。ところで、前記のように画像中に生じる量子化ノイズは、画像の平坦部分では特に目立つものである。すなわち、低域から高域にかけて大きな映像信号レベルの変化がある場所に、小さなノイズが加算されているような量子化ノイズの波形の場合には、視覚特性上での感度差が小さいことからノイズは検知され難い。しかし、低域だけに大きな映像信号レベルの変化が存在している場合に、高域に小さなノイズが加算されているときは、前記のノイズが検知され易い。当然のことながら、大きなノイズが加算された場合には、低域,高域の如何に拘らずに致命的を符号化劣化として検知されてしまうことは、いうまでもない。
【0023】
そして、前記したような量子化ノイズの対策として、従来から採用されてきた方策の1つとして、復号画像における高域成分が少ない部分は、画像信号のノイズまたは量子化ノイズであると仮定し、画像信号の信号レベルが予め定められた信号レベル以下の部分の信号を信号がゼロの部分とみなす、というコアリング技術がある。前記のコアリング技術は古くからアナログ信号の微小なノイズの除去方法として使用されて来ていることは周知のとおりである(例えば、1991年2月「放送技術」第141頁〜第147頁参照)。
【0024】
また、本願と同一発明者による発明である特開平8−205158号には、以下の方法が示されている。まず、変換符号化された画像データと付加情報とによるビットストリームを復号して得た復号画像データからブロック量子化幅値検出部で検出された付加情報の内のブロック量子化幅情報と、画像メモリから得た画素アドレスとをコアリングレベルの決定部に与えて、コアリングレベル制御信号を発生させる。コアリング回路のコアリングレベルをブロック量子化幅情報と、画素アドレスとにより変化させることで、ブロック量子化幅値が大きな領域ではコアリングレベルが大きくなるので、エッジを保存しながらモスキートノイズの低減が容易に行なわれる。また単位ブロックの境界付近の画素に対するコアリングレベルが大きなコアリング動作を行なわせて、モスキートノイズとともにブロック歪をも効果的に軽減させる。
【0025】
【特許文献1】
特開平8−205158号公報
【0026】
【発明が解決しようとする課題】
MPEGなどの量子化を伴う画像符号化では、高能率符号化しようとしている画像の複雑さの程度が、伝送レートに対して大きな場合には、必ず画像の劣化が大きなものになる。ところで、2次元の視覚特性を考慮したウエイティングマトリクスは、基本的に高域成分に対応するブロック量子化幅値の方が大きく設定されるので、高域側に量子化ノイズが出現しやすい。そこで、復号画像信号を低周波信号成分と高周波信号成分とに分離し、分離した高周波信号成分にコアリング手段を施して、予め定められた信号レベル(コアリングレベル)以下をゼロに変換する。そして、前記低周波信号成分とコアリングされた高周波信号成分とを合成して出力させるようにすることが効果的である。
【0027】
しかし、前述したような劣化の発生した画像は、比較的量子化幅が大きいことが多いので、コアリングにより高域のノイズであるモスキートノイズだけを除去しても、本質的な画質改善には至らない。即ち、量子化によって画像全体がボケる方向で画質が劣化しており、改善が求められていた。
【0028】
一方、画質を改善するために、復号画像信号自体に対してエッジ強調を行って解像度を上げるなどのエンハンス技術があるが、エンハンス処理専用にエンハンスフィルタなどが別途必要となり、処理数が増え、コスト増加に繋がるという問題があった。
【0029】
本発明は、圧縮符号化で発生したモスキートノイズを復号時に除去すると共に適切なエンハンス処理を行って、復号画像信号に対してより一層の画質改善を実現できる画像処理方法、画像処理装置、及び画像処理用プログラムを提供することを目的としている。
【0030】
【課題を解決するための手段】
そこで、上記課題を解決するために本発明は、下記の画像処理方法、画像処理装置、及び画像処理用プログラムを提供するものである。
(1) 直交変換を用いた所定の符号化方式により符号化された画像データに対して復号化信号処理を施して得た復号画像信号を、低周波信号成分と高周波信号成分とに分離し、前記高周波信号成分に対して、所定のコアリングレベル以下の信号をゼロに変換した後、所定のエンハンスレベルを乗算し、前記低周波信号成分と前記エンハンスレベルの乗算された高周波信号成分とを合成するようにしてノイズ除去された復号画像信号を得ることを特徴とする画像処理方法。
(2) 直交変換を用いた所定の符号化方式により符号化された画像データに対して復号化信号処理を施して得た復号画像信号を、低周波信号成分と高周波信号成分とに分離する分離手段と、
分離された前記高周波信号成分に対して、所定のコアリングレベル以下の信号をゼロに変換させるコアリング手段と、
前記コアリングされた高周波信号成分に対して、所定のエンハンスレベルを乗算するエンハンス手段と、
前記低周波信号成分と前記エンハンス手段から出力される高周波信号成分とを合成する合成手段と、
を備えたことを特徴とする画像処理装置。
(3) 直交変換を用いた所定の符号化方式により符号化された画像データに対して復号化信号処理を施して得た復号画像信号を、低周波信号成分と高周波信号成分とに分離する分離機能と、
分離された前記高周波信号成分に対して、所定のコアリングレベル以下の信号をゼロに変換させるコアリング機能と、
前記コアリングされた高周波信号成分に対して、所定のエンハンスレベルを乗算するエンハンス機能と、
前記低周波信号成分と前記エンハンスされた高周波信号成分とを合成する合成機能と、
をコンピュータに実行させるための画像処理用プログラム。
【0031】
【発明の実施の形態】
図1〜図4を用いて本発明の実施例を適用した画像処理装置の具体的な内容を詳細に説明する。図1に示す入力端子1に供給される符号化データは、画面内(フレーム内)相関々係を利用する直交変換により画像の情報量の圧縮(空間的相関々係を利用して行なう情報量の圧縮)と、時間軸上に並ぶ画面間(フレーム間)相関々係を利用して行なう情報量の圧縮(時間的相関々係を利用して行なう情報量の圧縮)と、符号の出現確率の偏りによる情報量の圧縮との、3種類の異なる圧縮手段を組合わせて高能率変換符号化された画像データ(例えばMPEG1方式,MPEG2方式による画像データ)である。なお、本明細書の以下の記述においては、復号の対象にされている画像データが、MPEG1方式,MPEG2方式による画像データであるとして説明が行なわれている。
【0032】
ところで、MPEG1方式,MPEG2方式における動画像情報の高能率符号化は、2次元離散コサイン変換(2次元DCT)によるフレーム内符号化と、フレーム間符号化とを組合わせ、動き補償予測やフレーム間予測を施した状態で行なわれる。そして、高能率符号化の対象にされた各1枚毎の画面の画像信号は、8×8画素(横8画素×縦8ライン)のブロックサイズの「単位のブロック」毎に分割され、前記の各単位のブロック毎にDCTが行われる。そして、前記の各単位のブロック毎のそれぞれ64個のDCT変換係数は「ブロック量子化幅値」で量子化される。
【0033】
MPEG1方式,MPEG2方式において、前記「ブロック量子化幅値」は、「マクロブロック」の用語で呼称されている領域毎に設定されている「マクロブロック量子化特性値(またはマクロブロックの量子化スケール)QS」と、「量子化マトリクス」との積によって示される値である。ここで、「マクロブロック」は、輝度信号Yについての16×16画素(横16画素×縦16ライン)のブロックサイズの大きさの領域と、2つの色差信号Cr,Cbのそれぞれについての8×8画素(横8画素×縦8ライン)のブロックサイズの大きさの領域とからなる領域である。
【0034】
DCT変換係数を被除数とし、「ブロック量子化幅値」を除数として量子化が行われたDCT係数は、それの直流成分(DC成分)と、交流成分(AC成分)とに分離される。前記のDCT係数の直流成分は差分符号化され、またDCT係数の交流成分は、ジグザグ走査された後にエントロピー符号化(符号の出現確率の偏りによる情報量圧縮…例えばハフマン方式のような可変長符号化)される。このように変換符号化された画像データには、その画像データの復号時に必要とされる付加情報(例えば、ブロック量子化幅情報であるマクロブロック量子化特性値(またはマクロブロックの量子化スケール)QS、動きベクトル、予測モード情報等)が付加されてビットストリームとされている。
【0035】
図1において、このビットストリームが供給されるMPEG復号化器32(図10に示したものと同様の構成)内の可変長復号部(図10に示すブロック12に相当、以下同様)では、エントロピー符号化(可変長符号化)された画像データと、その画像データの復号時に必要とされる付加情報(例えば、ブロック量子化幅情報であるマクロブロック量子化特性値(またはマクロブロックの量子化スケール)QS、動きベクトル、予測モード情報等)とを復号する。
【0036】
可変長復号部12で復号された画像データと、ブロック量子化幅情報とは、逆量子化部13に供給される。また、動きベクトル、予測モード情報等は、動き補償予測部17に供給される。可変長復号部1で復号された画像データと、復号された付加情報中のブロック量子化幅情報とが与えられた逆量子化部13では、逆量子化動作を行なって得たDCT変換係数を逆直交変換部(逆DCT)14に供給する。
【0037】
逆直交変換部(逆DCT)14では、単位のブロック毎に2次元の逆DCTを行なって、周波数領域の画像データを時間軸領域の画像データに逆変換して、それを加算部15に供給する。加算部15に供給された時間軸領域の画像データは、フレーム内符号化、フレーム間符号化、の違いを示すコーディングタイプに従って、動き補償予測部13で動き補償された状態の画像データと加算するか、加算しないかして、出力画像データとされて画像メモリ16に格納される。ここまでが、図1に示すMPEG復号化器32の動作説明である。
【0038】
図1に示すMPEG復号化器32の出力は、図3(a)に相当する。この画像データを、図1に示す2次元LPF33に入力する。2次元LPF33は、例えば3x3の2次元フィルターであり、{1,2,1,2,4,2,1,2,1}の係数で、画像データの対応する画素データと乗算し、乗算結果を16で除算するフィルターである。このフィルターをかけると、画像の低周波信号成分の画像データが得られる。図3(b)に相当する。
【0039】
次に、この低周波信号成分の画像データを、MPEG復号化器32の出力画像データから演算器34で減算することで、MPEG復号化器32の出力画像データの高周波信号成分を分離する。分離された高周波成分の画像データは、プラスとマイナスの値を有する。図3(c)に相当する。
【0040】
この高周波信号成分の画像データは、図1に示すコアリング回路35に入力される。コアリング回路35には、MMI(マンマシーンインターフェース回路)36にユーザーによって入力されたコアリングレベルというパラメータがCPU37を介して送信される。
【0041】
コアリングレベルとは、図7に示すように0を中心に±CLというパラメータのことである。コアリングによる画像処理は、値が±CL以下の信号を0に変換するという処理である。復号画像データにおける高域成分のレベルの小さい信号は、圧縮時に発生したのモスキートノイズであることが多いので、このコアリングによる処理によって、ノイズを除去できることになる。
【0042】
但し、コンテンツによっては、モスキートノイズが少ない画像もある。そこで、本実施例のように、モスキートノイズの量に応じたコアリングを行えるように、外部のMMI36からコアリングレベルを設定できるようにしてもよい。設定の例としては図4に示すように、ユーザーが設定したレベル1、2、3はそれぞれ、コアリングレベル(CL)の値の2、4、6に相当するように規定する。この値が大きくなるほど、コアリングが多く作用するということになる。図3(d)に相当する。
【0043】
次に、コアリング回路35でコアリング処理を施した画像データ高周波信号成分はエンハンス回路38に入力される、エンハンス回路38では、コアリング回路35でレベルの小さいノイズが除去された画像データ高周波信号成分を増幅させる。増幅とは図8のように、例えばば最大値、最小値の間のゲインが、元が1.0と仮定すると、そのゲインをEL倍にするという処理である。ELとはエンハンスレベルである。
【0044】
エンハンス回路38には、MMI36にユーザーによって入力されたコアリングレベルというパラメータがCPU37を介して送信される。エンハンスレベルの設定方法は図5のようにユーザーが設定したレベル1、2、3はそれぞれ、エンハンスレベル(EL)の値の1.125、1.1875、1.25に相当するように規定する。このようにエンハンスされたデータは図3(e)に相当する。
【0045】
このエンハンスされた画像データ高周波信号成分は、2次元LPF32の出力データである画像データ低周波信号成分の画像データを演算器39で加算され、再構成された復号化画像として出力される。
【0046】
図2は、この画像処理装置の2次元LPFを、水平と垂直の1次元フィルタに置き換えた例である。1次元のLPFは、例えば{1,2,1}の係数で、画像データの対応する画素データと乗算し、計算結果を4で除算するフィルタである。このフィルタをかけると、画像の低周波信号成分の画像データが得られる。それ以外の構成は図1に示すものと同じなので、説明を省略する。1次元で構成するほうが、演算処理が少なくてすむ。しかし、2次元構成のほうが積和演算処理量は増加するが、斜めの帯域を取扱えるという利点が得られる。
【0047】
このように、上記実施例では、直交変換等を用いて圧縮され符号化された画像信号を復号した復号画像信号を、低周波信号成分と高周波信号成分とに分離し、前記高周波信号成分について、所定のコアリングレベル以下の信号をゼロに変換し、所定のエンハンスレベルを乗算して、その高周波信号成分を前記低周波信号成分と合成するようにして復号画像信号を再構成するようにした。従って、上記実施例は、復号画像信号から効果的にモスキートノイズを除去でき、さらには、モスキートノイズ除去後の画像データをエンハンスしているので、復号画像信号に対してより一層の画質改善効果を実現できる。また、上記実施例は、復号画像信号から分離されコアリングされた高周波信号成分に対してのみのエンハンス処理であるので、復号画像信号全体をエンハンス処理する場合に比べて、大幅に処理量、処理時間、コストを低減できる。
【0048】
さらにまた、コアリングレベルとエンハンスレベルはユーザーインターフェースにて変更可能としたので、コンテンツによってモスキートのノイズレベルが違う場合でもユーザーの好みで、コアリングとエンハンスのかかり方の強弱を設定できる。
【0049】
次に、図6を用いて、本発明の画像処理用プログラムの一実施例におけるアルゴリズムフローチャートを説明する。まず、始めにMMIからユーザーによってコアリングレベルとエンハンスレベルを設定する。次にMPEG画像の復号化を行う。次に1次元もしくは2次元のLPFを施し、復号画像データの低域周波数成分を得る。次に復号画像データから復号画像データの低域周波数成分を減算する。
【0050】
次に減算により得られた高域周波数成分の画像データに対して、画素ごとに、±コアリングレベル以下の画素データであるかどうかを判定する。判定の結果NOの画素はそのまま、YESの画素データは、レベルを0に変換する。次にその画素データにエンハンスレベルを乗算する。次にまだ画面内に処理対象の画素データが存在するかどうか判定する。まだ有るときには、±コアリングレベル以下の画素データであるかどうかの判定のブロックに戻る。画面内のデータ全てが処理終了となった場合には、処理後の画像データと低周波成分画像データを加算する。
【0051】
次にMPEG符号化画像がまだあるかを判定する。まだある場合には、MPEG復号化のブロックへ戻る。MPEG符号化画像がもう無い場合には、処理終了となる。このようなフローを用いて、本発明の画像処理機能をもつプログラムを実現できる。
【0052】
なお、本実施例では、画像処理装置として説明したが、MPEGなどの符号化データの記録された媒体の再生装置や、符号化データが伝送されてくるシステムの受信装置として使用することも勿論可能である。
【0053】
【発明の効果】
以上、詳細に説明したところから明らかなように本発明は、直交変換等を用いて圧縮され符号化された画像信号を復号した復号画像信号を、低周波信号成分と高周波信号成分とに分離し、前記高周波信号成分について、所定のコアリングレベル以下の信号をゼロに変換し、所定のエンハンスレベルを乗算して、その高周波信号成分を前記低周波信号成分と合成するようにして復号画像信号を再構成するようにした。従って、本発明は、復号画像信号から効果的にモスキートノイズを除去でき、さらには、モスキートノイズ除去後の画像データをエンハンスしているので、復号画像信号に対してより一層の画質改善効果を実現できる。また、本発明は、復号画像信号から分離されコアリングされた高周波信号成分に対してのみのエンハンス処理であるので、復号画像信号全体をエンハンス処理する場合(例えば、ハイパスフィルターなどを別に設けてエンハンス処理する場合)に比べて、大幅に処理量、処理時間、コストを低減できる。
【図面の簡単な説明】
【図1】本発明の一実施例を適用した画像処理装置を2次元LPFで実現する装置の構成例を示すブロック図である。
【図2】本発明の一実施例を適用した画像処理装置を1次元LPFで実現する装置の構成例を示すブロック図である。
【図3】一実施例の画像処理動作を説明するための図である。
【図4】一実施例のユーザー設定値とコアリングレベルの関係を示した説明図である。
【図5】一実施例のユーザー設定値とエンハンスレベルの関係を示した説明図である。
【図6】一実施例の画像処理アルゴリズムのフローチャートである。
【図7】一実施例のコアリングの動作を示す説明図である。
【図8】一実施例のエンハンスの動作を示す説明図である。
【図9】従来のMPEG符号化器のブロック図である。
【図10】従来のMPEG復号化器のブロック図である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing method, an image processing apparatus, and an image processing program for improving image quality of an image obtained by decoding image data that has been compression-encoded such as MPEG. It is another object of the present invention to provide an image processing method, an image processing apparatus, and an image processing program that can remove mosquito noise generated by compression using orthogonal transformation or the like at the time of decoding. .
[0002]
[Prior art]
When transmitting, recording, and reproducing an image signal, an audio signal, and other various signals as digital signals, a compression / expansion technique of an information amount is used. This is because, for example, when digitizing an image signal, an audio signal, or the like, linear quantization (equal quantization) in which each sample value is replaced with one representative value of signal levels obtained by equally dividing the sample value, This is because the amount of information of a signal to be transmitted, recorded, and reproduced becomes extremely large.
[0003]
Conventionally, in the technical field of broadcast communication, in the technical field of recording and reproduction, for example, human vision and hearing are sensitive in parts where signal changes are small, and even if there is some error in parts where signal changes are severe, In addition to using the characteristics of human vision and hearing that are difficult to detect to reduce the amount of information per sample, many information compression technologies have been applied to transmit, record, and reproduce. It is well known that high-efficiency compression technology (high-efficiency encoding technology of information) for various types of information has been put into practical use.
[0004]
By the way, the amount of information per hour in a moving image of a quality similar to a reproduced image displayed using a reproduced signal from a VHS (registered trademark) type VTR currently in practical use is approximately 109 Gbits. In addition, the amount of information per hour in a moving image having an image quality similar to that of a received image of the current standard color television system in Japan is approximately 360 Gbits. A high-efficiency compression method for image information required to transmit, record, and reproduce image information having a larger information amount than these information amounts using current practical transmission lines and recording media. Research on the practical application of has been actively conducted.
[0005]
By the way, in the high-efficiency compression method for image information, which is currently proposed as a high-efficiency compression method for practical image information, (1) the correlation between adjacent pixels in a natural image is high. Compression of the information amount performed by using the correlation (compression of the information amount performed by using the spatial correlation), (2) Performed by using the correlation between screens (inter-frames) arranged on the time axis Combination of three different types of compression means, namely, compression of information amount (compression of information amount by using temporal correlation), and (3) compression of information amount by bias of code appearance probability. In order to achieve highly efficient encoding. Many methods have been proposed as means for compressing the information amount of an image using the above-mentioned correlation (1) in the screen (in the frame). Orthogonal transforms such as -L (Karhunen-Loeve) transform, discrete cosine transform (DCT), discrete Fourier transform, Walsh-Hadamard transform, and the like are often used.
[0006]
For example, a highly efficient encoding method of image information (MPEG1 method, MPEG2 method) proposed as a result of international standardization work by MPEG (Moving Picture Coding Expert Group) established under ISO (International Organization for Standardization). ) Performs high-efficiency encoding of moving image information while performing motion compensation prediction and inter-frame prediction by combining intra-frame encoding and inter-frame encoding. A two-dimensional discrete cosine transform (two-dimensional DCT) is employed as the orthogonal transform. In the orthogonal transform, a predetermined block size (N × M pixels ← horizontal N pixels × vertical M line block size) is calculated for each screen image signal to be subjected to high-efficiency encoding. An image divided for each “unit block” (in the above-described MPEG1 system and MPEG2 system, a block having a block size of 8 × 8 pixels ← 8 horizontal pixels × 8 vertical lines is referred to as a “unit block”). Performed on signals.
[0007]
(N × M) orthogonal transform coefficients (8 × 8 = 64 DCT transform coefficients in the MPEG1 and MPEG2 systems) obtained by orthogonally transforming each block of the unit are at least the unit "Block quantization width value" set for each area of a predetermined size including one of the blocks (the area referred to by the term "macroblock" in the MPEG1 and MPEG2 systems). Is quantized. The “macro block” is an MPEG1 system or an MPEG2 system, which is an area having a block size of 16 × 16 pixels (16 horizontal pixels × 16 vertical lines) for the luminance signal Y and two color difference signals Cr, Cb. This is an area composed of a block size area of 8 × 8 pixels (8 horizontal pixels × 8 vertical lines) for each.
[0008]
For example, in the MPEG1 system and the MPEG2 system, the “block quantization width value” is indicated as [macroblock quantization characteristic value (or quantization scale of macroblock) QS × quantization matrix].
[0009]
The orthogonal transform coefficient (for example, DCT coefficient) quantized by the block quantization width value is separated into its DC component (DC component) and AC component (AC component). The DC component of the orthogonal transform coefficient (for example, DCT coefficient) is differentially coded, and the AC component of the orthogonal transform coefficient (for example, DCT coefficient) is subjected to zigzag scanning and then entropy-encoded (information based on the bias of the code appearance probability). Amount compression: variable-length encoding such as the Huffman method). The image data thus transformed and coded is output as a bit stream (bit string).
[0010]
Next, the decoding operation on the image data transformed and coded as described above is performed in the reverse operation of the above-described coding operation to obtain an output image. When quantization is performed, quantization noise is generated in the output image due to the unavoidable quantization error. Then, when the complexity of the image to be coded is large relative to the transmission rate, the quantization noise greatly degrades the quality of the image. FIG. 9 shows a conventional general MPEG encoder, and FIG. 10 shows a decoder.
[0011]
The conventional MPEG encoder shown in FIG. 9 will be briefly described. The difference between the input image and the image decoded by the motion compensation predictor 1 and the input image is calculated by a differentiator 2 to reduce a time redundant part.
[0012]
The prediction direction has three modes from the past, the future, and both. These can be switched and used for each MB (macroblock) of 16 pixels × 16 pixels. The prediction direction is determined by the picture type given to the input image. A P-picture has two modes: a mode for encoding based on prediction from the past and a mode for independently encoding the MB without performing prediction. A B picture has four modes for prediction from the future, prediction from the past, prediction from both, and independent encoding. An I-picture independently encodes all MBs.
[0013]
In motion compensation, a motion vector is detected with half-pel accuracy by performing pattern matching for each MB, and is predicted after shifting by the amount of motion. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the MB together with an MC (Motion Compensation) mode indicating where to predict the motion vector.
[0014]
A GOP (Group Of Picture) is referred to as a GOP (Group Of Picture) from an I picture to a picture before the next I picture. In general, about 15 pictures are used as one GOP.
[0015]
The orthogonal transformation is performed on the difference image in the DCT unit 3. DCT (Discrete Cosine Transform) is an orthogonal transform that performs discrete transform of an integral transform using a cosine function as an integral kernel into a finite space. In the MPEG, an MB is divided into four parts, and two-dimensional DCT is performed on an 8 × 8 DCT block. In general, since a video signal has many low-frequency components and few high-frequency components, when DCT is performed, coefficients concentrate on low frequencies.
[0016]
The DCT-processed image data (DCT coefficients) is quantized by a quantizer 4. In the quantization, a value obtained by multiplying an 8 × 8 two-dimensional frequency called a quantization matrix by a visual characteristic by a value called a quantization scale for multiplying the whole by a scalar is used as a quantization value, and the DCT coefficient is quantized. Calculate by value. When inverse quantization is performed by an MPEG decoder (decoder), a value close to the original DCT coefficient is obtained by multiplying by the quantization value.
[0017]
The quantized data is variable-length coded by the VLC unit 5. The direct current (DC) component of the quantized value uses DPCM (differential pulse code modulation) which is one of predictive coding. Huffman coding is performed on the alternating current (AC) component by performing a zigzag scan from a low band to a high band, using a run length of zero and an effective coefficient value as one event, and assigning a code having a short code length from a code having a high appearance probability. Is performed.
[0018]
The variable-length coded data is stored in a temporary buffer 6 and output as coded data at a predetermined transfer rate. The generated code amount of the output data for each macro block is transmitted to the code amount controller 21, and the error code amount between the generated code amount and the target code amount is fed back to the quantizer 4 to quantize the data. The code amount is controlled by adjusting.
[0019]
The quantized image data is inversely quantized by an inverse quantizer 7, inverse DCT by an inverse DCT unit 8, temporarily stored in an image memory 10 via an adder 9, and then stored in a motion compensation predictor 1. Is used as a reference decoded image for calculating a difference image.
[0020]
FIG. 10 shows an MPEG decoder (decoder) for decoding the coded data that has been MPEG-coded in this way.
[0021]
Incoming encoded data (stream) is buffered in a buffer 11, and data from the buffer 11 is input to a VLD unit 12. The VLD unit 12 performs variable length decoding to obtain a direct current (DC) component and an alternating current (AC) component. The alternating current (AC) component data is arranged in an 8 × 8 matrix in the order of zigzag scan from the low band to the high band. This data is input to the inverse quantizer 13 and is inversely quantized by the quantization matrix. The inversely quantized data is input to the inverse DCT unit 14, subjected to inverse DCT, and output as image data (decoded data). The decoded data is temporarily stored in the image memory 16 and then used by the motion compensation predictor 17 as a reference decoded image for calculating a difference image.
[0022]
Generally, among the quantization errors that cause the above-described quantization noise, the quantization error of the low-frequency component causes output image distortion in a state where there is no correlation between unit blocks, so-called block distortion, in the image. Also, among the quantization errors that cause quantization noise, the quantization error of the high-frequency component causes ringing-like output image distortion, so-called mosquito noise, around the edge. By the way, as described above, quantization noise generated in an image is particularly conspicuous in a flat portion of the image. That is, in the case of a quantization noise waveform in which a small noise is added at a place where a large video signal level changes from a low band to a high band, the noise difference is small due to a small sensitivity difference in visual characteristics. Is hard to detect. However, when there is a large change in the video signal level only in the low band, and when a small noise is added in the high band, the noise is easily detected. As a matter of course, when a large noise is added, a fatal error is detected as coding degradation regardless of the low frequency band and the high frequency band.
[0023]
As a countermeasure against the above-described quantization noise, as one of measures conventionally adopted, it is assumed that a portion having a low high-frequency component in a decoded image is noise or quantization noise of an image signal, There is a coring technique in which a signal in which a signal level of an image signal is equal to or lower than a predetermined signal level is regarded as a zero signal portion. It is well known that the above-described coring technique has been used as a method for removing minute noise from analog signals for a long time (see, for example, February 141, "Broadcasting Technology" pages 141 to 147). ).
[0024]
Also, Japanese Patent Application Laid-Open No. 8-205158, which is an invention by the same inventor as the present application, discloses the following method. First, the block quantization width information of the additional information detected by the block quantization width value detection unit from the decoded image data obtained by decoding the bit stream based on the transform-coded image data and the additional information, The pixel address obtained from the memory is supplied to a coring level determination unit to generate a coring level control signal. By changing the coring level of the coring circuit based on the block quantization width information and the pixel address, the coring level increases in areas where the block quantization width value is large, so that mosquito noise is reduced while preserving edges. Is easily performed. In addition, a coring operation with a large coring level is performed on pixels near the boundary of the unit block to effectively reduce mosquito noise and block distortion.
[0025]
[Patent Document 1]
JP-A-8-205158
[0026]
[Problems to be solved by the invention]
In image coding with quantization such as MPEG, if the degree of complexity of an image to be coded with high efficiency is large with respect to the transmission rate, image deterioration is always large. By the way, in the weighting matrix in consideration of the two-dimensional visual characteristic, since the block quantization width value corresponding to the high frequency component is basically set to be larger, quantization noise tends to appear on the high frequency side. Therefore, the decoded image signal is separated into a low-frequency signal component and a high-frequency signal component, and the separated high-frequency signal component is subjected to coring means to convert a signal level below a predetermined signal level (coring level) to zero. It is effective to combine the low-frequency signal component and the correlated high-frequency signal component and output the combined signal.
[0027]
However, the deteriorated image described above often has a relatively large quantization width. Therefore, even if only mosquito noise, which is a high-frequency noise, is removed by coring, the image quality cannot be substantially improved. I can't. That is, the image quality is degraded in the direction in which the entire image is blurred due to the quantization, and improvement has been required.
[0028]
On the other hand, in order to improve the image quality, there is an enhancement technique such as increasing the resolution by performing edge enhancement on the decoded image signal itself.However, an enhancement filter or the like dedicated to the enhancement processing is separately required, so that the number of processing increases and the cost increases. There was a problem that led to an increase.
[0029]
The present invention is directed to an image processing method, an image processing apparatus, and an image processing method capable of removing mosquito noise generated by compression encoding at the time of decoding and performing appropriate enhancement processing to further improve the image quality of a decoded image signal. The purpose is to provide a processing program.
[0030]
[Means for Solving the Problems]
Therefore, in order to solve the above problems, the present invention provides the following image processing method, image processing apparatus, and image processing program.
(1) A decoded image signal obtained by performing a decoding signal process on image data encoded by a predetermined encoding method using orthogonal transform is separated into a low-frequency signal component and a high-frequency signal component, The high-frequency signal component is converted to a signal having a predetermined coring level or less to zero, and then multiplied by a predetermined enhancement level, and the low-frequency signal component and the multiplied high-frequency signal component of the enhancement level are combined. An image processing method for obtaining a decoded image signal from which noise has been removed.
(2) Separation for separating a decoded image signal obtained by performing decoding signal processing on image data encoded by a predetermined encoding method using orthogonal transform into a low-frequency signal component and a high-frequency signal component Means,
Coring means for converting a signal having a predetermined coring level or less to zero for the separated high-frequency signal component,
Enhancement means for multiplying the correlated high-frequency signal component by a predetermined enhancement level,
Combining means for combining the low-frequency signal component and the high-frequency signal component output from the enhancing means,
An image processing apparatus comprising:
(3) Separation for separating a decoded image signal obtained by performing decoding signal processing on image data encoded by a predetermined encoding method using orthogonal transformation into a low-frequency signal component and a high-frequency signal component Features and
For the separated high-frequency signal component, a coring function for converting a signal having a predetermined coring level or less to zero,
An enhancement function of multiplying the correlated high-frequency signal component by a predetermined enhancement level,
A combining function of combining the low-frequency signal component and the enhanced high-frequency signal component;
Image processing program for causing a computer to execute.
[0031]
BEST MODE FOR CARRYING OUT THE INVENTION
The specific contents of the image processing apparatus to which the embodiment of the present invention is applied will be described in detail with reference to FIGS. The encoded data supplied to the input terminal 1 shown in FIG. 1 is obtained by compressing the amount of information of an image by orthogonal transformation using intra-frame (intra-frame) correlation (the amount of information performed using spatial correlation). Of information, compression of information amount using correlation between screens (frames) arranged on the time axis (compression of information amount using temporal correlation), and code appearance probability And image data (for example, image data according to the MPEG1 system and the MPEG2 system) that have been subjected to high-efficiency conversion coding by combining three types of different compression means, that is, compression of the information amount due to the deviation. In the following description of the present specification, description is made assuming that image data to be decoded is image data according to the MPEG1 system and the MPEG2 system.
[0032]
By the way, high-efficiency coding of moving image information in the MPEG1 system and the MPEG2 system combines intra-frame coding with two-dimensional discrete cosine transform (two-dimensional DCT) and inter-frame coding to perform motion compensation prediction and inter-frame coding. It is performed in a state where prediction has been made. Then, the image signal of each screen, which is a target of high-efficiency encoding, is divided into “unit blocks” having a block size of 8 × 8 pixels (horizontal 8 pixels × vertical 8 lines). DCT is performed for each unit block. Then, each of the 64 DCT transform coefficients for each block of each unit is quantized by a “block quantization width value”.
[0033]
In the MPEG1 system and the MPEG2 system, the “block quantization width value” refers to a “macroblock quantization characteristic value (or a macroblock quantization scale) set for each area referred to by the term“ macroblock ”. ) QS ”and“ quantization matrix ”. Here, the “macroblock” is an area of a block size of 16 × 16 pixels (16 horizontal pixels × 16 vertical lines) for the luminance signal Y and 8 × 16 pixels for each of the two color difference signals Cr and Cb. This is an area composed of an area having a block size of 8 pixels (8 horizontal pixels × 8 vertical lines).
[0034]
The DCT coefficient quantized using the DCT transform coefficient as a dividend and the “block quantization width value” as a divisor is separated into its DC component (DC component) and AC component (AC component). The DC component of the DCT coefficient is differentially coded, and the AC component of the DCT coefficient is subjected to zigzag scanning and then entropy coding (information compression by biasing the code appearance probability ... a variable length code such as the Huffman method). ). The image data thus transformed and encoded has additional information (for example, a macroblock quantization characteristic value (or a macroblock quantization scale) which is block quantization width information) required when decoding the image data. QS, motion vector, prediction mode information, etc.) are added to form a bit stream.
[0035]
In FIG. 1, the variable-length decoding unit (corresponding to the block 12 shown in FIG. 10 and the same hereinafter) in the MPEG decoder 32 (the same configuration as that shown in FIG. 10) to which this bit stream is supplied is entropy. Encoded (variable-length encoded) image data and additional information (for example, a macroblock quantization characteristic value (or a macroblock quantization scale that is block quantization width information) required when decoding the image data. ) QS, motion vector, prediction mode information, etc.).
[0036]
The image data decoded by the variable length decoding unit 12 and the block quantization width information are supplied to the inverse quantization unit 13. Further, the motion vector, the prediction mode information, and the like are supplied to the motion compensation prediction unit 17. The inverse quantization unit 13 to which the image data decoded by the variable length decoding unit 1 and the block quantization width information in the decoded additional information are given, converts the DCT transform coefficient obtained by performing the inverse quantization operation. It is supplied to an inverse orthogonal transform unit (inverse DCT) 14.
[0037]
The inverse orthogonal transform unit (inverse DCT) 14 performs two-dimensional inverse DCT for each unit block, inversely transforms image data in the frequency domain into image data in the time domain, and supplies it to the adding unit 15. I do. The image data in the time domain supplied to the addition unit 15 is added to the image data in a state where the motion compensation is performed by the motion compensation prediction unit 13 according to a coding type indicating a difference between intra-frame coding and inter-frame coding. Alternatively, the image data is stored in the image memory 16 as output image data by adding or not adding. The above is the description of the operation of the MPEG decoder 32 shown in FIG.
[0038]
The output of the MPEG decoder 32 shown in FIG. 1 corresponds to FIG. This image data is input to the two-dimensional LPF 33 shown in FIG. The two-dimensional LPF 33 is, for example, a 3 × 3 two-dimensional filter, and multiplies the corresponding pixel data of the image data by a coefficient of {1, 2, 1, 2, 4, 2, 1, 2, 1}, and a multiplication result is obtained. Is divided by 16. By applying this filter, image data of a low-frequency signal component of the image is obtained. It corresponds to FIG.
[0039]
Next, the image data of the low-frequency signal component is subtracted from the output image data of the MPEG decoder 32 by the arithmetic unit 34, thereby separating the high-frequency signal component of the output image data of the MPEG decoder 32. The separated high frequency component image data has positive and negative values. This corresponds to FIG.
[0040]
The image data of the high-frequency signal component is input to the coring circuit 35 shown in FIG. A parameter called a coring level input by a user to an MMI (man machine interface circuit) 36 is transmitted to the coring circuit 35 via the CPU 37.
[0041]
The coring level is a parameter of ± CL centering on 0 as shown in FIG. Image processing by coring is a process of converting a signal having a value of ± CL or less into 0. Since a signal having a low level of a high-frequency component in the decoded image data is often mosquito noise generated at the time of compression, noise can be removed by the coring processing.
[0042]
However, some images have little mosquito noise depending on the content. Therefore, as in the present embodiment, the coring level may be set from the external MMI 36 so that coring according to the amount of mosquito noise can be performed. As an example of the setting, as shown in FIG. 4, the levels 1, 2, and 3 set by the user are defined to correspond to the coring levels (CL) of 2, 4, and 6, respectively. The larger the value, the more the coring works. This corresponds to FIG.
[0043]
Next, the image data high-frequency signal component subjected to the coring processing by the coring circuit 35 is input to the enhancement circuit 38. The enhancement circuit 38 removes the low-level noise of the image data high-frequency signal by the coring circuit 35. Amplify components. As shown in FIG. 8, for example, assuming that the gain between the maximum value and the minimum value is 1.0, as shown in FIG. 8, the gain is set to EL times. EL is an enhancement level.
[0044]
A parameter called a coring level input by the user to the MMI 36 is transmitted to the enhancement circuit 38 via the CPU 37. The enhancement level is set in such a manner that levels 1, 2, and 3 set by the user as shown in FIG. 5 correspond to the enhancement level (EL) values of 1.125, 1.1875, and 1.25, respectively. . The data thus enhanced corresponds to FIG.
[0045]
The enhanced image data high-frequency signal component is added to the image data of the image data low-frequency signal component, which is output data of the two-dimensional LPF 32, by the arithmetic unit 39, and is output as a reconstructed decoded image.
[0046]
FIG. 2 is an example in which the two-dimensional LPF of this image processing apparatus is replaced with horizontal and vertical one-dimensional filters. The one-dimensional LPF is a filter that multiplies the corresponding pixel data of the image data by, for example, a coefficient of {1, 2, 1} and divides the calculation result by four. When this filter is applied, image data of a low-frequency signal component of the image is obtained. The other configuration is the same as that shown in FIG. The one-dimensional configuration requires less arithmetic processing. However, although the two-dimensional configuration increases the product-sum operation processing amount, it has the advantage of being able to handle oblique bands.
[0047]
Thus, in the above embodiment, a decoded image signal obtained by decoding an image signal compressed and encoded using an orthogonal transform or the like is separated into a low-frequency signal component and a high-frequency signal component. A signal below a predetermined coring level is converted to zero, multiplied by a predetermined enhancement level, and its high-frequency signal component is combined with the low-frequency signal component to reconstruct a decoded image signal. Therefore, in the above embodiment, the mosquito noise can be effectively removed from the decoded image signal, and the image data after the mosquito noise removal is enhanced, so that the image quality of the decoded image signal can be further improved. realizable. Further, in the above embodiment, since the enhancement processing is performed only on the high-frequency signal component separated from the decoded image signal and cored, the processing amount and the processing amount are significantly greater than when the entire decoded image signal is enhanced. Time and cost can be reduced.
[0048]
Furthermore, since the coring level and the enhancement level can be changed on the user interface, even if the noise level of the mosquito varies depending on the content, the strength of the coring and enhancement can be set according to the user's preference.
[0049]
Next, an algorithm flowchart in an embodiment of the image processing program of the present invention will be described with reference to FIG. First, a coring level and an enhancement level are set by the user from the MMI. Next, the MPEG image is decoded. Next, one-dimensional or two-dimensional LPF is performed to obtain a low-frequency component of the decoded image data. Next, the low frequency components of the decoded image data are subtracted from the decoded image data.
[0050]
Next, it is determined for each pixel whether or not the image data of the high frequency component obtained by the subtraction is pixel data equal to or less than ± coring level. As a result of the determination, the pixel of NO is left as it is, and the pixel data of YES converts the level to 0. Next, the pixel data is multiplied by the enhancement level. Next, it is determined whether or not the pixel data to be processed still exists in the screen. If there is still, the process returns to the block for determining whether the pixel data is equal to or lower than the ± coring level. When all the data in the screen has been processed, the processed image data and the low-frequency component image data are added.
[0051]
Next, it is determined whether there is still an MPEG encoded image. If there is, the process returns to the block for MPEG decoding. If there is no more MPEG encoded image, the process ends. Using such a flow, a program having an image processing function of the present invention can be realized.
[0052]
Although the present embodiment has been described as an image processing apparatus, it is of course possible to use the apparatus as a reproducing apparatus for a medium on which encoded data such as MPEG is recorded or a receiving apparatus of a system in which encoded data is transmitted. It is.
[0053]
【The invention's effect】
As is clear from the above description, the present invention separates a decoded image signal obtained by decoding an image signal compressed and encoded by using an orthogonal transform or the like into a low-frequency signal component and a high-frequency signal component. For the high-frequency signal component, a signal lower than a predetermined coring level is converted to zero, multiplied by a predetermined enhancement level, and the high-frequency signal component is combined with the low-frequency signal component to obtain a decoded image signal. Reconfigured. Therefore, according to the present invention, the mosquito noise can be effectively removed from the decoded image signal, and the image data after the mosquito noise removal is enhanced, so that the image quality of the decoded image signal is further improved. it can. In addition, since the present invention is an enhancement process only for a high-frequency signal component separated from a decoded image signal and cored, when the entire decoded image signal is enhanced (for example, the enhancement process is performed by separately providing a high-pass filter or the like). The processing amount, processing time, and cost can be greatly reduced as compared with the case of processing.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an apparatus that realizes an image processing apparatus to which an embodiment of the present invention is applied by using a two-dimensional LPF.
FIG. 2 is a block diagram illustrating a configuration example of an apparatus that realizes an image processing apparatus to which an embodiment of the present invention is applied by using a one-dimensional LPF.
FIG. 3 is a diagram illustrating an image processing operation according to an embodiment;
FIG. 4 is an explanatory diagram showing a relationship between a user setting value and a coring level according to one embodiment.
FIG. 5 is an explanatory diagram showing a relationship between a user setting value and an enhancement level in one embodiment.
FIG. 6 is a flowchart of an image processing algorithm according to one embodiment.
FIG. 7 is an explanatory diagram showing an operation of coring according to one embodiment.
FIG. 8 is an explanatory diagram showing an enhancement operation of one embodiment.
FIG. 9 is a block diagram of a conventional MPEG encoder.
FIG. 10 is a block diagram of a conventional MPEG decoder.

Claims (3)

直交変換を用いた所定の符号化方式により符号化された画像データに対して復号化信号処理を施して得た復号画像信号を、低周波信号成分と高周波信号成分とに分離し、前記高周波信号成分に対して、所定のコアリングレベル以下の信号をゼロに変換した後、所定のエンハンスレベルを乗算し、前記低周波信号成分と前記エンハンスレベルの乗算された高周波信号成分とを合成するようにしてノイズ除去された復号画像信号を得ることを特徴とする画像処理方法。A decoded image signal obtained by performing decoding signal processing on image data encoded by a predetermined encoding method using an orthogonal transform is separated into a low-frequency signal component and a high-frequency signal component, and the high-frequency signal After converting a signal below a predetermined coring level to zero, the component is multiplied by a predetermined enhancement level, and the low-frequency signal component and the high-frequency signal component multiplied by the enhancement level are combined. An image processing method for obtaining a decoded image signal from which noise has been removed. 直交変換を用いた所定の符号化方式により符号化された画像データに対して復号化信号処理を施して得た復号画像信号を、低周波信号成分と高周波信号成分とに分離する分離手段と、
分離された前記高周波信号成分に対して、所定のコアリングレベル以下の信号をゼロに変換させるコアリング手段と、
前記コアリングされた高周波信号成分に対して、所定のエンハンスレベルを乗算するエンハンス手段と、
前記低周波信号成分と前記エンハンス手段から出力される高周波信号成分とを合成する合成手段と、
を備えたことを特徴とする画像処理装置。
Separation means for separating a decoded image signal obtained by performing decoded signal processing on image data encoded by a predetermined encoding method using an orthogonal transform into a low-frequency signal component and a high-frequency signal component,
Coring means for converting a signal having a predetermined coring level or less to zero for the separated high-frequency signal component,
Enhancement means for multiplying the correlated high-frequency signal component by a predetermined enhancement level,
Combining means for combining the low-frequency signal component and the high-frequency signal component output from the enhancing means,
An image processing apparatus comprising:
直交変換を用いた所定の符号化方式により符号化された画像データに対して復号化信号処理を施して得た復号画像信号を、低周波信号成分と高周波信号成分とに分離する分離機能と、
分離された前記高周波信号成分に対して、所定のコアリングレベル以下の信号をゼロに変換させるコアリング機能と、
前記コアリングされた高周波信号成分に対して、所定のエンハンスレベルを乗算するエンハンス機能と、
前記低周波信号成分と前記エンハンスされた高周波信号成分とを合成する合成機能と、
をコンピュータに実行させるための画像処理用プログラム。
A separation function of separating a decoded image signal obtained by performing a decoding signal process on image data encoded by a predetermined encoding method using an orthogonal transform into a low-frequency signal component and a high-frequency signal component,
For the separated high-frequency signal component, a coring function for converting a signal having a predetermined coring level or less to zero,
An enhancement function of multiplying the correlated high-frequency signal component by a predetermined enhancement level,
A combining function of combining the low-frequency signal component and the enhanced high-frequency signal component;
Image processing program for causing a computer to execute.
JP2002336143A 2002-11-20 2002-11-20 Image processing method, image processor and program for image processing Pending JP2004172944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002336143A JP2004172944A (en) 2002-11-20 2002-11-20 Image processing method, image processor and program for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002336143A JP2004172944A (en) 2002-11-20 2002-11-20 Image processing method, image processor and program for image processing

Publications (1)

Publication Number Publication Date
JP2004172944A true JP2004172944A (en) 2004-06-17

Family

ID=32700062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002336143A Pending JP2004172944A (en) 2002-11-20 2002-11-20 Image processing method, image processor and program for image processing

Country Status (1)

Country Link
JP (1) JP2004172944A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009050889A1 (en) * 2007-10-15 2009-04-23 Panasonic Corporation Video decoding method and video encoding method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009050889A1 (en) * 2007-10-15 2009-04-23 Panasonic Corporation Video decoding method and video encoding method
JP5283628B2 (en) * 2007-10-15 2013-09-04 パナソニック株式会社 Video decoding method and video encoding method

Similar Documents

Publication Publication Date Title
KR100716998B1 (en) Encoder and Decoder for reducing blocking phenomenon, method therefor, and recording medium storing A program to implement thereof
US7853093B2 (en) System, medium, and method encoding/decoding a color image using inter-color-component prediction
US20100021071A1 (en) Image coding apparatus and image decoding apparatus
US7760964B2 (en) Method and architecture for temporal-spatial deblocking and deflickering with expanded frequency filtering in compressed domain
US6865229B1 (en) Method and apparatus for reducing the “blocky picture” effect in MPEG decoded images
CN1085471C (en) Method of reducing mosquito noise generated during decoding process of image data and device for decoding image data using the same
US20090268818A1 (en) Method and system for integrating noise filtering in predictive video coding
JPH06292173A (en) Video signal coding/decoding method
JP2005525014A (en) Sharpness enhancement system and method for encoded digital video
EP1845729A1 (en) Transmission of post-filter hints
JP3365784B2 (en) Image signal decoding device
JP2004528791A (en) Inter-frame encoding method and apparatus
JP2000078578A (en) Technique for video communication using encoding match filter device
JP2924691B2 (en) Quantization noise reduction method and image data decoding device
JP2900808B2 (en) Method for reducing mosquito noise generated when decoding image data and image data decoding apparatus
JP2901656B2 (en) Image coding device
JP2004172944A (en) Image processing method, image processor and program for image processing
US7161984B2 (en) Video reproduction apparatus with fast post-processing and method thereof
JP2900815B2 (en) Method and device for adaptive coring
JPH11298898A (en) Block distortion reduction circuit
JPH0779434A (en) Reception/reproduction device for digital picture signal
JP6200220B2 (en) Image processing apparatus, encoding apparatus, decoding apparatus, and program
JPH0522709A (en) Image signal decoder
JPH0686258A (en) Orthogonal transform encoder and decoder
JPH08191444A (en) Video signal decoder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070320