JP4053460B2 - Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium - Google Patents

Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP4053460B2
JP4053460B2 JP2003136111A JP2003136111A JP4053460B2 JP 4053460 B2 JP4053460 B2 JP 4053460B2 JP 2003136111 A JP2003136111 A JP 2003136111A JP 2003136111 A JP2003136111 A JP 2003136111A JP 4053460 B2 JP4053460 B2 JP 4053460B2
Authority
JP
Japan
Prior art keywords
image
noise
processing
block
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003136111A
Other languages
Japanese (ja)
Other versions
JP2004343334A (en
Inventor
和之 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2003136111A priority Critical patent/JP4053460B2/en
Publication of JP2004343334A publication Critical patent/JP2004343334A/en
Application granted granted Critical
Publication of JP4053460B2 publication Critical patent/JP4053460B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像の圧縮符号化されたデータの復号化と復号化されたデータへの中間調処理とを含む画像処理を行う構成の画像処理装置、画像形成装置、画像処理方法、画像処理プログラム、および記録媒体に関する。
【0002】
【従来の技術】
近年、オフィスオートメーション(Office Automation:OA)機器のデジタル化の進展、コンピュータの普及、さらには通信ネットワークの整備の進展に起因して、画像入力装置からコンピュータへの画像のデータの取込み、およびネットワークを介したコンピュータ間の画像データの送受等が、比較的容易に行われるようになっている。画像入力装置は、たとえばスキャナに代表される。コンピュータおよびOA機器に代表される画像処理装置に与えられた画像のデータは、ハードディスク装置およびDVD−RAM(Digital Versatile Disc - Random Access Memory)等に代表される記録媒体に格納される。画像処理装置内の画像のデータは、必要に応じて、カラープリンタに代表される画像出力装置によって顕像化されて出力される。カラープリンタの方式としては、たとえば、電子写真方式、インクジェット方式、および熱転写方式等が挙げられる。
【0003】
画像のデータは、一般に、文書のデータに比べて情報量が多く、ファイルサイズが大きくなる傾向にある。このため、画質の低下を抑制しつつ画像のデータを圧縮する様々な手法が、提案されている。現在、最も広く用いられている画像のデータの圧縮手法の一つとして、離散コサイン変換(Discrete Cosine Transform:DCT)を用いたブロック符号化法がある。
【0004】
ブロック符号化法では、まず、たとえば縦横8画素ずつ(8×8画素)の大きさの複数のブロックに、画像が分割される。次いで、2次元の直交変換である離散コサイン変換法を用いて、各ブロック内の濃度分布を示す信号の強度が、空間周波数成分であるDCT係数に変換される。続いて、ブロック毎に、DCT係数が量子化され、次いで、たとえばハフマン符号化に代表される可変長符号化を用いて、量子化されたDCT係数に対して符号化コードが割当てられる。
【0005】
画像のデータの圧縮に際しては、元の画像の高周波成分に相当するDCT係数を画像のデータから切捨てて該データを圧縮しても、復号化された該データが表す画像から高周波成分のDCT係数の切捨ての有無を視覚的に判別することは困難である。このような現象を利用して、DCT係数の量子化処理では、高周波成分のDCT係数に対して、低周波成分のDCT係数よりも大きな値で割算を行うことによって量子化し、情報量を削減している。
【0006】
上述のブロック符号化法を用いて符号化された画像のデータは、復号側の機器において、ブロック符号化法とは逆の手順となる復号化処理が施されることによって、元の画像のデータが復元される。すなわち、復号側の機器において、符号化された画像のデータに対して、デコード処理と逆量子化処理と逆直交変換処理とを施すことによって、画像の復号化されたデータが得られる。しかしながら、復号化時に、量子化処理による誤差が大きくなる、すなわち、量子化および逆量子化によって符号化前の画像と復元された元の画像とのDCT係数の違いが大きくなると、符号化済のデータを復号化しても、元の画像の正しい復元が困難になる。つまり、符号化前の元の画像と比較して、復号化されたデータが表す画像が歪んでおり、視覚的に目立ちやすいノイズの発生が見られる。具体的には、たとえばブロックノイズおよびリンギングノイズに代表されるノイズが、復号化されたデータが表す画像内に発生する。ブロックノイズは、画像がブロック状に分割されて見えるようなノイズである。リンギングノイズは、モスキートノイズとも呼ばれ、画像内の輪郭の周囲等に顕れる霧状あるいはリンギング状のノイズである。
【0007】
従来の画像処理装置では、ブロックノイズおよびリンギングノイズに代表されるノイズを復号化されたデータが表す画像内から低減するために、復号化された画像のデータに対して平滑化処理が施される。復号化された画像のデータに生じる歪みの種類およびレベルは、一般的には、多種多様である。このため、復号化された画像のデータの最も大きい歪みに合わせて平滑化処理を行うと、画像のデータにボヤケが生じ、場合によっては平滑化処理後の画像の画質が大きく低下する。また、画像のデータの中間的な歪みに合わせて平滑化処理を行うと、画像のデータに歪みが残り、画質が充分に改善されない。
【0008】
復号化されたデータが表す画像内からノイズを低減するために、以下のような第1の従来技術が提案されている(特許文献1)。第1の従来技術である画像信号復号化方法では、復号化されたデータが表す画像に生じる歪みの種類およびレベルに応じて、平滑化処理を用いて歪みの除去を行う。具体的には、第1の従来技術では、圧縮された画像のデータの復号化の際に、ブロック毎の直交変換係数に基づいて、歪みを判別する変数を複数個作成している。前記複数の変数に基づいて、歪みの有無、歪みのタイプ、および歪みのレベル、すなわち歪みの程度が判別され、さらに、歪みの判別結果に基づいてブロック毎に歪みを除去することによって、ノイズが低減されている。つまり、第1の従来技術では、画像内の各ブロックの歪みの種類および歪みの程度が分析されており、該分析結果に基づいて平滑化処理を行うことによって、復号化された画像のデータの歪みが低減されている。
【0009】
【特許文献1】
特開2001−346208号公報
【0010】
【発明が解決しようとする課題】
前述した第1の従来技術が用いられる場合、平滑化処理を用いて、復号化されたデータが表す画像内のノイズが低減される。しかしながら、画像処理装置から画像出力装置に画像のデータが渡される際に該画像のデータに施される中間調処理に関して、第1の従来技術は何の考慮もしていない。このため、第1の従来技術を用いて処理された画像のデータを画像出力装置に与えて該画像を顕像化して出力させる場合、出力された画像にボヤケおよびノイズが発生していることがある。つまり、第1の従来技術によって復号化された画像のデータであっても、プリントアウト等の手法で該画像が出力される場合、該画像内の歪みを完全に除去することは困難である。
【0011】
本発明は、画像の圧縮符号化されたデータに対して、復号化処理および中間調処理を施しつつ、復号化されたデータが示す画像からノイズを除去することができる画像処理装置、画像処理方法、画像形成装置、画像処理プログラム、および記録媒体を提供することである。
【0012】
【課題を解決するための手段】
本発明は、画像を表す圧縮符号化されたデータが与えられ、該圧縮符号化されたデータを復号化する復号処理部と、
復号化されたデータが表す画像を複数の画素を含む注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理することでブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択するノイズ判定部と、
ノイズ判定部の判定結果に基づいて、階調を再現させつつノイズを低減させるための中間調処理を、画像の復号化されたデータに対して施す階調再現処理部とを含むことを特徴とする画像処理装置である。
【0013】
本発明に従えば、画像処理装置は、圧縮符号化された画像のデータを復号化する復号処理部と、復号化された画像のデータに中間調処理を施す階調再現処理部との他に、復号化されたデータが表す画像内のノイズの発生状況をブロック単位で判定するノイズ判定部を含む。ノイズ判定部は、注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理する。閾値処理によって、ブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択する。中間調処理は、ノイズ判定部の判定結果に基づいて、階調を再現させるだけでなくノイズを低減させるように、適応的に実行されている。これによって、画像処理装置は、画像の復号化されたデータに対して中間調処理を施しつつ、圧縮符号化されたデータの復号化によって生じたノイズを、該復号化されたデータから効果的に除去することができる。
【0014】
また本発明の画像処理装置は、前記階調再現処理部が、前記復号化されたデータが表す画像を複数の画素を含む1以上のブロックに分割し、前記中間調処理をブロック毎に施すことを特徴とする。
【0015】
本発明に従えば、画像処理装置において、復号化されたデータが表す画像が1以上のブロックに分割され、階調再現処理部でブロック毎に異なる中間調処理が施される。この結果、各ブロックに生じるノイズの種類およびノイズの度合いに応じて、中間調処理に用いるパラメータを適応的に変化させることが可能となる。これによって、画像処理装置は、ブロックの境界でのテクスチャの発生を生じることなく、中間調処理を行うことができる。
【0016】
また本発明の画像処理装置は、前記階調再現処理部が、前記画像の復号化されたデータに対する誤差拡散処理を行うことによって中間調処理を実現するために、
(A)前記画像の復号化されたデータに基づき、該画像を構成する画素毎に、画素値と拡散誤差との和である拡散画素値を求める加算器と、
(B)予め定める量子化閾値に基づいて各画素の拡散画素値を量子化することによって、中間調処理された画像のデータの画素値となるべき量子化値を画素毎に求め、かつ、拡散画素値と量子化値との差である量子化誤差を画素毎にさらに求める量子化処理部と、
(C)予め定める誤差判定閾値に基づいて、量子化誤差を補正する誤差判定部と、
(D)予め定める拡散係数に基づいて、補正された量子化誤差を未処理の画素値に割振るための拡散誤差を算出する拡散係数設定部とを含み、
前記量子化閾値と誤差判定閾値と拡散係数とのうちの少なくとも1つが、前記ノイズ判定部の判定結果に基づいて切換えられることを特徴とする。
【0017】
本発明に従えば、画像処理装置において、中間調処理として、前記画像の復号化されたデータに対する誤差拡散処理が行われる。誤差拡散処理で用いられる量子化閾値と誤差判定閾値と拡散係数との3つの定数のうちの少なくとも1つが、ノイズ判定部の判定結果に応じて切換えられる。この結果、画像内のノイズの発生状態に応じて誤差拡散処理を適応的に変化させることが可能になる。つまり、上述の3つの定数のうちの少なくとも1つを切換えるという簡易な手法で、階調を再現するだけでなくノイズを低減させることが可能な誤差拡散処理を行うことができる。これによって、画像処理装置は、ブロックの境界でのテクスチャの発生を生じることなく、復号化されたデータからノイズを除去することが可能な中間調処理を、容易に行うことができる。
【0018】
また本発明の画像処理装置は、ノイズ判定部の判定結果に基づいて、ノイズを低減させるための空間フィルタ処理を、画像の復号化されたデータに対して施す空間フィルタ処理部をさらに含み、
前記階調再現処理部が、空間フィルタ処理を施された画像のデータに対して、中間調処理を施すことを特徴とする。
【0019】
本発明に従えば、画像処理装置において、階調再現処理部の処理に先だって、ノイズを低減させるための空間フィルタ処理が、画像の復号化されたデータに対して施される。この結果、空間フィルタ処理部においてノイズを低減させる処理が行われるだけでなく、階調再現処理部においてもノイズを低減させるように中間調処理が適応的に行われる。これによって、空間フィルタ処理部および階調再現処理部の双方においてノイズが低減されるので、画像処理装置は、復号化されたデータが表す画像からノイズをより効果的に除去することができる。
【0020】
また本発明は、上述の画像処理装置と、
中間調処理が施された画像のデータが与えられ、該画像のデータに基づいて画像を顕像化する画像出力装置とを含むことを特徴とする画像形成装置である。
【0021】
本発明に従えば、画像形成装置は、画像処理装置と画像出力装置とを含む。画像処理装置において、復号化されたデータが表す画像のブロック毎のノイズの発生状況に基づいて、画像の復号化されたデータに中間調処理が施されている。この結果、画像出力装置によって画像が顕像化されて出力される際に、出力された画像に生じるボヤケおよびノイズを低減することができる。これによって、画像形成装置は、品質のよい出力画像を提供することが可能になる。
【0022】
また本発明は、画像を表す圧縮符号化されたデータを復号化する処理と、
復号化されたデータが表す画像を複数の画素を含む注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理することでブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択する処理と、
ノイズの判定結果に基づいて、階調を再現させつつノイズを低減させるための中間調処理を、画像の復号化されたデータに対して施す処理とを含むことを特徴とする画像処理方法である。
【0023】
本発明に従えば、画像処理方法では、圧縮符号化された画像のデータの復号化処理と、復号化された画像のデータに中間調処理を施す中間調処理との他に、復号化されたデータが表す画像内のノイズの発生状況をブロック単位で判定するノイズ判定処理を含む。ノイズ判定処理は、注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理する。閾値処理によって、ブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択する。中間調処理は、ノイズ判定処理の判定結果に基づいて、階調を再現させるだけでなくノイズを低減させるように、適応的に実行されている。これによって、画像処理方法が適用される場合、圧縮符号化されたデータの復号化によって生じたノイズを、復号化されたデータから効果的に除去することができる。
【0024】
また本発明は、画像を表す圧縮符号化されたデータを復号化する機能と、
復号化されたデータが表す画像を複数の画素を含む注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理することでブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択する機能と、
ノイズの判定結果に基づいて、階調を再現させつつノイズを低減させるための中間調処理を、画像の復号化されたデータに対して施す機能とを、コンピュータに実現させることを特徴とする画像処理プログラムである。
【0025】
本発明に従えば、画像処理プログラムは、コンピュータによって実行される。これによってコンピュータは、圧縮符号化された画像のデータの復号化後に、復号化されたデータが表す画像内のノイズの発生状況を判定し、該ノイズの発生状況に応じた中間調処理を該復号化されたデータに施す。ノイズの発生状況を判定するにあたって、注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理する。閾値処理によって、ブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択する。これによって、画像処理プログラムは、汎用的なコンピュータを用いて、圧縮符号化されたデータの復号化によって生じたノイズを、復号化されたデータから効果的に除去することができる。
【0026】
また本発明は、上述の画像処理プログラムを記録していることを特徴とするコンピュータ読取り可能な記録媒体である。
【0027】
本発明に従えば、記録媒体は、コンピュータが実行すべき画像処理プログラムを記録しており、該画像処理プログラムをコンピュータに読取らせることが可能である。画像処理プログラムは、画像の圧縮符号化されたデータを復号化する機能と、復号化されたデータが表す画像内のノイズの発生状況をブロック単位で判定する機能と、階調を再現させつつノイズを低減させるための中間調処理を画像の復号化されたデータに対して施す機能とを、コンピュータに実現させる。このような記録媒体を用いれば、圧縮符号化されたデータの復号化によって生じたノイズを復号化されたデータから効果的に除去することが可能な画像処理プログラムを、汎用的なコンピュータに容易に供給することが可能になる。これによって、前記画像処理プログラムによって実現される機能の頒布が容易になる。
【0028】
【発明の実施の形態】
図1は、本発明の実施の一形態である画像形成装置1の全体的な構成を示すブロック図である。画像形成装置1は、画像処理装置3と、画像出力装置4とを含む。複数の画素から構成されている画像を表す圧縮符号化されたデータが、外部から画像処理装置3に与えられる。画像処理装置3は、基本的には、与えられた画像の圧縮符号化されたデータに対して各種の処理を施し、処理後の画像のデータを画像出力装置4に与える。画像出力装置4は、画像処理装置3から与えられた処理後の画像のデータに基づき、該画像を顕像化して出力する。
【0029】
図1の画像処理装置3は、画像の圧縮符号化されたデータの復号化に関するものである。概略的には、画像処理装置3は、画像の圧縮符号化されたデータの復号化を行い、かつ該復号化の際に生ずるノイズを検知して、検知結果に応じた適切なノイズ除去処理および中間調処理を該復号化された画像のデータに施す。中間調処理とは、基本的には、画像のデータに基づき、該画像の各画素の階調を再現するため処理である。以後の説明では、圧縮符号化されたデータおよび該データが示す画像を「符号化データ」および「圧縮画像」とそれぞれ略称し、復号化されたデータおよび該データが示す画像を「復号化データ」および「復元画像」と略称することがある。
【0030】
画像処理装置3は、復号処理部6と、ノイズ判定部7と、階調再現処理部8とを最低限含む。画像の符号化データは、復処理部6に与えられる。復処理部6は、画像の符号化データを復号化して、該画像の復号化データを出力する。ノイズ判定部7は、まず、復号化データが表す画像を、複数の画素を含む1以上のブロックに分割する。次いで、ノイズ判定部7は、ブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定する。階調再現処理部8は、ノイズ判定部7の判定結果に基づいて、階調を再現させつつノイズを低減させるための中間調処理を、画像の復号化データに対して施す。階調再現処理部8で処理された画像のデータが、画像処理装置3からの出力データとして、画像出力装置4に与えられる。
【0031】
このように図1の画像処理装置3は、復号処理部6と階調再現処理部8との他に、復元画像内のノイズの発生状況をブロック単位で判定するノイズ判定部7を含む。中間調処理は、ノイズ判定部7の判定結果に基づいて、階調を再現させるだけでなくノイズを低減させるように、適応的に実行されている。これによって、画像処理装置3は、画像の復号化データに対する中間調処理の際に、符号化データの復号化によって生じたノイズを考慮して処理を行っているので、該復号化データから該ノイズを効果的に除去することができる。
【0032】
また、画像処理装置3は、好ましくは、空間フィルタ処理部9をさらに含む。空間フィルタ処理部9は、階調再現処理部8の処理に先だって、ノイズ判定部7の判定結果に基づいて、ノイズを低減させるための空間フィルタ処理を、画像の復号化データに対して施す。代表的な空間フィルタ処理の1つは、平滑化処理である。この結果、空間フィルタ処理部9においてノイズを低減させる処理が行われるだけでなく、階調再現処理部8においてもノイズを低減させるように中間調処理が適応的に行われる。これによって、画像処理装置3は、空間フィルタ処理および中間調処理の双方において復元画像内のノイズを低減させるので、復元画像からノイズをより効果的に除去することができる。
【0033】
さらにまた、画像処理装置3の階調再現処理部8は、好ましくは、画像の復号化データを複数の画素を含む1以上のブロックに相当する部分に分割し、前記中間調処理をブロック毎に施す。この結果、各ブロックに生じるノイズの種類およびノイズの度合いに応じて、中間調処理に用いるパラメータを適応的に変化させることが可能となる。これによって、中間調処理に起因してブロックの境界でテクスチャが発生することが、未然に防止される。
【0034】
また、画像処理装置3内の階調再現処理部8において、中間調処理として、たとえば具体的には、画像の復号化データに対する誤差拡散処理が行われる。誤差拡散処理のために、階調再現処理部8は、加算器11と、量子化処理部12と、拡散係数設定部14とを含み、好ましくは、誤差判定部13をさらに含む。加算器11は、画像の復号化データに基づき、該画像を構成する画素毎に、画素値と拡散誤差との和である拡散画素値を求める。量子化処理部12は、予め設定されている量子化閾値THaに基づいて各画素の拡散画素値を量子化することによって、中間調処理された画像のデータの画素値となるべき量子化値を画素毎に求める。かつ、量子化処理部12は、拡散画素値と量子化値との差である量子化誤差を、画素毎にさらに求める。誤差判定部13は、予め設定された誤差判定閾値THbに基づいて、量子化誤差を補正する。拡散係数設定部14は、予め定める拡散係数THcに基づいて、補正された量子化誤差を未処理の画素値に割振るための拡散誤差を算出する。
【0035】
階調再現処理部8が誤差拡散処理を行う場合、好ましくは、量子化閾値THaと拡散係数THcとのうちの少なくとも1つが、ノイズ判定部7の判定結果に基づいて切換えられる。また誤差判定部13が含まれる場合、好ましくは、量子化閾値THaと誤差判定閾値THbと拡散係数THcとの3つの定数のうちの少なくとも1つが、ノイズ判定部7の判定結果に基づいて切換えられる。これらの結果、復元画像内のノイズの発生状態に応じて誤差拡散処理を適応的に変化させることが可能になる。つまり、上述の3つの定数のうちの少なくとも1つを切換えるという簡易な手法を用いて、階調を再現するだけでなくノイズを低減させることが可能な誤差拡散処理を行うことができる。これによって、画像処理装置3は、ブロックの境界でのテクスチャの発生を生じることなく、復号化されたデータからノイズを除去することが可能な中間調処理を、容易に行うことができる。
【0036】
以上説明したように、図1の画像処理装置3は、画像の符号化データの復号化に際して、ブロックノイズおよびリンギングノイズ等に代表されるノイズを低減させるための処理を行うとともに、画像の復号化データの出力のために該画像の各画素の階調を再現する中間調処理に際しても、ノイズを低減する処理を行っている。これによって、圧縮画像の符号化データの復号化に際してノイズによる歪みが残存した場合にも、中間調処理時に該歪みに起因するテクスチャの発生が低減されているので、出力される画像のデータの画質の低下が防止される。
【0037】
図1の画像形成装置1は、上述の画像処理装置3と画像の顕像化を行う画像出力装置4とを含む。画像の顕像化に先立ち、復元画像のブロック毎のノイズの発生状況に基づいて、階調を再現させつつノイズを低減させるための中間調処理が復号化データに施されている。このように中間調処理の際にノイズの除去が考慮されているので、画像が顕像化されて出力される際に、出力された画像に生じるボヤケおよびノイズが低減される。これによって、画像形成装置1は、出力される画像の品質を向上させることが可能になる。
【0038】
画像処理装置3内で画像のデータの表現に用いられる信号形態としては、いわゆるYCbCr信号形態、L信号形態、CMY信号形態、およびCMYK信号形態が挙げられる。YCbCr信号形態では、輝度信号成分Yと2種類の色差信号成分Cr,Cbとの3要素を組合せて色が表現される。CMY信号形態では、シアンとマゼンタと黄(イエロー)との減法混色の3色の要素を組合せて色が表現される。CMYK信号形態は、印刷の分野で多用されており、減法混色の3色に黒を加えた4色の要素を組合せて色が表現される。L信号形態は、いわゆるL色空間を用いている。L色空間は、1976年に国際照明委員会(CIE:Commission Internationale de l'Eclairage)で規格化された表色系の色空間であり、明度Lと色相および彩度をそれぞれ示す2つの色度a,bとの3要素を用いて色を表す。以下の説明では、シアンとマゼンタと黄との3色の組合わせを「CMY」と略称し、シアンとマゼンタと黄と黒(ブラック)との4色の組合わせを「CMYK」と略称する。
【0039】
図2は、図1の画像処理装置3の復元処理部20の機能的構成を示すブロック図である。復号処理部6およびノイズ判定部7は、復元処理部20に含まれる。図3は、図1の画像処理装置3の階調再現処理部8の機能的構成を示すブロック図である。図1の画像処理装置3の詳細な構成を、図1〜図3を参照しつつ、以下に説明する。以下の例では、画像のデータのデータ形式として、JPEG(Joint Photographic Experts Group)形式が採用されており、JPEG形式の画像のデータの符号化手法として、ハフマン符号化法が採用されている。また、以下の例では、デジタルカメラに代表される画像入力装置から画像処理装置3に、YCbCr信号形態の画像の符号化データが与えられている。
【0040】
復元処理部20は、復号処理部6とノイズ判定部7との他に、好ましくは、パラメータ算出部22および閾値格納部23をさらに含む。復号処理部6は、具体的には、可変長符号復号部25と、逆量子化部26と、逆直交変換部27とを含む。階調再現処理部8は、加算器11と量子化処理部12と誤差判定部13と拡散係数設定部14との他に、好ましくは、量子化閾値格納部31、拡散係数格納部32、誤差格納部33、および濃度判定部34をさらに含む。なお、誤差判定部13は、省略されてもよい。
【0041】
YCbCr信号形態の画像の符号化データは、可変長符号復号部25に与えられる。可変長符号復号部25は、与えられた画像の符号化データを復号化する。可変長符号復号部25の復号化処理によって、画像の符号化データから量子化DCT係数が分離される。逆量子化部26は、量子化DCT係数を逆量子化することによって、DCT係数を復元する。さらに逆直交変換部27は、復元されたDCT係数に対する逆直交変換を行うことによって、該復元されたDCT係数を画素データに変換する。得られた画素データは、復元画像の画素の色と濃度を示しており、図2の例ではYCbCr信号形態のデータになっている。得られた全ての画素データの集合が、YCbCr信号形態の画像の復号化データとして、入力階調補正部41に送信される。またYCbCr信号形態の画像の復号化データ内の輝度信号成分Yだけが、パラメータ算出部22に送信される。
【0042】
パラメータ算出部22は、逆量子化部26で得られた画像の復号化データ内の輝度信号成分Yを用いて、ノイズ判定パラメータを算出する。ノイズ判定パラメータは、復元画像内のノイズの有無を判定するためのパラメータである。判定されるべきノイズは、たとえば、ブロックノイズおよびリンギングノイズである。図2の例でパラメータ算出部22において輝度信号成分Yを用いてノイズの有無が判定されるのは、人間の目が、色差信号成分Cb,Crの変化よりもむしろ輝度信号成分Yの変化に敏感であることに起因する。勿論、ノイズ判定に2種類の色差信号成分Cb,Crのうちの少なくとも一方を用いてもよい。図2の例では、ノイズ判定パラメータとして、後述するように、復元画像内のブロック毎の画素データの分散が求められる。
【0043】
ノイズ判定部7は、パラメータ算出部22で求められたノイズ判定パラメータを予め設定されている判定閾値と比較して、ブロックノイズおよびリンギングノイズに代表されるノイズの発生状況をブロック毎に判定する。判定閾値は、閾値格納部23に予め格納されている。ノイズの発生状況は、たとえば具体的には、以下の第1〜第3状況要素によって規定される。第1状況要素としては、ブロックノイズおよびリンギングノイズの有無が判定される。第2状況要素としては、ブロックノイズが生じている場合のノイズのレベル、すなわち該場合のノイズの程度が判定される。第3状況要素としては、ブロックノイズおよびリンギングノイズのどちらも生じていない場合の平滑化のレベルが判定される。ノイズ判定部7の判定結果は、ノイズ判定信号として出力される。ノイズ判定信号は、階調再現処理部8に備えられている量子化処理部12、誤差判定部13、拡散係数設定部14、および濃度判定部34に与えられる。
【0044】
図1〜図3の例では、階調再現処理部8には、CMYK信号形態の画像の復号化データが与えられる。CMYK信号形態の画像の復号化データにおいて、画素のデータは、CMYKの各色の濃度をそれぞれ示す4種類の画素値の組合せで表される。階調再現処理部8内の各処理部は、たとえば、各画素の4種類の色に対して個別に処理を施す。以下の図3の説明では、任意の1つの被処理画素の任意の1種類の色に対する処理だけを説明する。
【0045】
階調再現処理部8の濃度判定部34は、階調再現処理部8に与えられた画像の復号化データ内の被処理画素の画素データに基づいて、該被処理画素の色の濃度レベルを判定し、量子化を行う際に適切な量子化閾値THaが設定されるように、量子化処理部12に対して濃度判定信号を出力する。加算器11は、濃度判定部34において濃度レベルが判定された被処理画素の画素値に対して、誤差格納部33に格納されている拡散誤差を加算する。この結果、画素値と拡散画素との和である被処理画素の拡散画素値が出力される。
【0046】
量子化処理部12は、与えられた被処理画素の拡散画素値と、量子化閾値格納部31に格納されている予め定める量子化閾値THaとを比較して、該拡散画素値の量子化を行う。これによって、中間調処理された画像のデータの被処理画素の画素値となるべき量子化値が求められる。被処理画素の量子化値は、中間調処理された画像のデータの被処理画素の画素値として、画像処理装置3から出力される。さらに、量子化処理部12は、被処理画素の拡散画素値と該被処理画素の量子化値との差である該被処理画素の量子化誤差を求める。
【0047】
拡散画素値の量子化時には、好ましくは、図2の復元処理部20内のノイズ判定部7から与えられるノイズ判定信号と図3の濃度判定部34から与えられる濃度判定信号とに基づいて、量子化処理部12で被処理画素に対して実際に用いられる量子化閾値THaが適宜切換えられる。このために、量子化閾値格納部31は、複数種類の量子化閾値THaを格納していてもよく、ノイズ判定信号および濃度判定信号に基づいて量子化閾値THaを逐次算出してもよい。
【0048】
拡散係数設定部14は、量子化処理部12で求められた被処理画素の量子化誤差と、拡散係数格納部32に格納されている予め定める拡散係数THcとに基づいて、復元画像内の未処理の画素の画素値に拡散すべき濃度を示す拡散誤差を求める。拡散係数設定部14で求められた拡散誤差は、誤差格納部33に格納される。誤差格納部33に格納された新たな拡散誤差が、加算器11によって、次の新たな画素の画素値と加算される。
【0049】
拡散誤差の算出時には、好ましくは、ノイズ判定部7から与えられるノイズ判定信号に基づいて、拡散係数設定部14で被処理画素に対して実際に用いられる拡散係数THcが適宜切換えられる。このために、拡散係数格納部32は、複数種類の拡散係数THcを格納していてもよく、ノイズ判定信号に基づいて拡散係数THcを逐次算出してもよい。
【0050】
誤差判定部13は、濃度判定部34において画素値を飽和させる処理を行わない状況下において、上述の量子化誤差の補正処理を行う為の処理部である。量子化誤差が補正された場合、拡散係数設定部14は、被処理画素の補正後の量子化誤差と拡散係数THcとに基づいて、拡散誤差を求める。誤差判定部13は、量子化処理部12によって得られた誤差を予め設定されている誤差判定閾値THbと比較し、該誤差の切捨ておよび丸込みのいずれか一方の補正処理を行うか否かを判定する。補正処理を行うと判定された場合、量子化処理部12からの量子化誤差を選択された補正手法で補正して、補正された量子化誤差である判定誤差を拡散係数設定部14に与える。
【0051】
誤差判定部13における補正の有無の判定は、ノイズ判定部7から与えられるノイズ判定信号、および、濃度判定部34から与えられる濃度判定信号に基づいて行われる。たとえば、補正前の量子化誤差の絶対値が20以下ならば、補正後の量子化誤差が0に補正され、補正前の量子化誤差の絶対値が20より大きいならば、補正後の量子化誤差は補正前の値がそのまま用いられる。結果として、誤差判定部13において量子化誤差が補正される状況は、濃度判定部34において画素値を飽和させる処理が行われる状況と同じになる。このため、濃度判定部34において画素値の飽和処理が行われる場合、誤差判定部13が省略されてもよい。以下の説明では、濃度判定部34において画素値の飽和処理が行われるものとして、誤差判定部13については必要に応じて説明する。
【0052】
図3の階調再現処理部8において、濃度判定部34の画素値の飽和処理が行われない場合の詳細な処理手順は、以下のとおりである。最初に、濃度判定部34が、階調再現処理部8に入力された画像のデータ内の任意の1つの画素の画素値に対して、ノイズ判定信号に基づいた濃度判定を行い、濃度判定信号を量子化処理部12に出力する。次いで、前記画素の画素値に対して、誤差格納部33に格納されている該画素に対する拡散誤差が加算器11によって加算され、加算結果が量子化処理部12へ出力される。量子化処理部12は、濃度判定信号およびノイズ判定信号に基づいて、量子化閾値格納部31に格納されている量子化閾値THaを選択し、選択された量子化閾値THaと拡散誤差が加算された画素値とを比較する。量子化処理部12での比較によって算出される量子化誤差が、ノイズ判定信号に基づいて、誤差判定部13において判定され、判定誤差が求められる。最後に、拡散係数設定部14が、判定誤差およびノイズ判定信号に基づいて、拡散係数格納部32から拡散係数THcを選択し、未処理の次の画素に対する拡散誤差を選択された拡散係数THcと前記判定誤差とに基づいて算出し、該拡散誤差を誤差格納部33に格納する。
【0053】
図3の階調再現処理部8において、量子化処理部12において濃度判定信号およびノイズ判定信号に基づいて量子化閾値THaを選択しない場合、すなわち、量子化閾値THaの選択の代わりに誤差判定部13において誤差の切捨てまたは丸込み等の補正を行う場合の詳細な処理手順は、以下のとおりである。最初に、濃度判定部34が、与えられた画像のデータの任意の1つの画素に対して、ノイズ判定信号に基づく濃度判定を行い、濃度判定信号を誤差判定部13に出力する。次いで、前記画素の画素値に対し、誤差格納部33に格納されている該画素に対する拡散誤差を加算器11によって加算し、量子化処理部12へ出力する。量子化処理部12は、予め定められている量子化閾値THaと拡散誤差が加算された画素値とを比較する。量子化処理部12での比較によって算出される量子化誤差が、ノイズ判定信号に基づいて誤差判定部13にて判定され、判定誤差が求められる。最後に、拡散係数設定部14が、前記判定誤差およびノイズ判定信号に基づいて、拡散係数格納部32から拡散係数THcを選択し、未処理の次の画素に対する選択された拡散係数THcと前記判定誤差とに基づいて算出し、該拡散誤差を誤差格納部33に格納する。
【0054】
図4は、図1の画像処理装置3において行われる画像処理を説明するためのフローチャートである。なお図4では、図1の画像処理装置3における画像処理のうち、ノイズ判定処理とノイズ除去処理と階調再現処理とについて詳しく説明しており、他の処理の説明は省略している。
【0055】
画像処理装置3に対して、外部から画像の符号化データが与えられると、ステップS0からステップS1に進む。なお、図4の例では、画像の符号化データが可変長符号で表現されているものとする。まず、ステップS1では、図2に示す可変長符号復号部25が、可変長符号で表現された画像の符号化データを復号化し、量子化DCT係数を分離する。ステップS2では、逆量子化部26が、得られた量子化DCT係数を逆量子化することによって、DCT係数を復元する。ステップS3では、逆直交変換部27が、復元されたDCT係数を逆直交変換することによって、画素データに変換する。得られた全ての画素データの集合が、画像の復号化データとして、入力階調補正部41に送信される。かつ、画像の復号化データ内の輝度信号成分Yだけが、パラメータ算出部22に与えられる。
【0056】
次いで、ステップS4では、パラメータ算出部22が、変換された画像の復号化データの輝度信号成分Yを用いて、ブロックノイズおよびリンギングノイズを含むノイズの有無を判定するためのノイズ判定パラメータを算出する。なお、ブロックノイズは画像の平坦部に発生する傾向にあり、リンギングノイズは、画像のエッジ部に発生する傾向にある。画像のエッジ部とは、画像内に写る像の輪郭の周囲等を指す。このため、ステップS5では、ブロックノイズおよびリンギングノイズの有無を判定するために、ノイズ判定部7が、まず画像の平坦部およびエッジ部のノイズの有無を、ノイズ判定パラメータに基づいて判定する。画像の平坦部にノイズがあると判定された場合、次いで、ステップS6において、ブロックノイズのレベルが求められる。
【0057】
ステップS4〜ステップS6の具体的な手順は、以下のとおりである。図4の例では、たとえば、ノイズ判定パラメータとして、図5(A)に示すような3×3ブロック群を用いて、ブロック単位の画素値の分散が用いられる。3×3ブロック群は、単一の注目ブロックB5と、該注目ブロックの周辺の8つの周辺ブロックB1〜B4,B6〜B9から成る3行3列のブロック群である。3×3ブロック群を構成する任意の1つのブロックは、たとえば図5(B)に示すように、8行8列分の64個の画素P0〜P63から成る。ステップS4〜ステップS6の処理は、復元画像が1以上のブロックに分割された後に、注目ブロックを変更しつつ、3×3ブロック群単位で行われる。
【0058】
まずステップS4では、与えられた輝度信号成分Yに基づいて、図5に示す3×3ブロック群毎に、各ブロックB1〜B9内の全画素P0〜P63の画素値の分散Var(1)〜Var(9)が算出される。任意の単一のブロックBx(x=1〜9)の分散Var(x)は、次式によって表される。次式において、「P(i)」はi番目の画素の画素値の輝度信号成分である。iは0以上63以下の整数であり(i=0〜63)、xは1以上9以下の整数である(x=1〜9)。
【0059】
【数1】

Figure 0004053460
【0060】
次に、ステップS5では、最初に、被処理3×3ブロック群の分散平均値ALLVARが算出される。3×3ブロック群の分散平均値ALLVARは、該3×3ブロック群内の全ブロックの分散Var(1)〜Var(9)の平均値である。分散平均値ALLVARは、次式に示すように、3×3ブロック群内の全ブロックの分散Var(1)〜Var(9)の和ALLSUMを3×3ブロック群内の全ブロックの数で除算したものである。
【0061】
【数2】
Figure 0004053460
【0062】
次いで、ステップS5では、被処理3×3ブロック群の分散平均値ALLVarと、閾値格納部23に予め格納されている第1ノイズ判定閾値TH1とが比較される。分散平均値ALLVarが第1ノイズ判定閾値TH1以下であれば、画像内においてノイズが生じる可能性のある平坦部に被処理3×3ブロック群の注目ブロックB5が位置すると判定して、ステップS5からステップS6に進む。
【0063】
ステップS6では、被処理3×3ブロック群の全ブロックの分散Var(1)〜Var(9)と、閾値格納部23に予め格納されている第2ノイズ判定閾値TH2とが比較される。被処理3×3ブロック群の全ブロックの分散Var(1)〜Var(9)が第2ノイズ判定閾値TH2よりも大きければ、ステップS6からステップS10に進む。被処理3×3ブロック群の全ブロックの分散Var(1)〜Var(9)が第2ノイズ判定閾値TH2以下であれば、ステップS6からステップS11に進む。
【0064】
ステップS6における比較処理は、具体的には、被処理3×3ブロック群の各ブロックの分散Var(1)〜Var(9)を第2ノイズ判定閾値TH2とそれぞれ比較することによって行われる。すなわち、被処理3×3ブロック群の全ブロックの分散Var(1)〜Var(9)が第2ノイズ判定閾値TH2より大きいとは、ブロックの分散Var(1)〜Var(9)の全てが第2ノイズ判定閾値TH2より大きいことを意味する。このように、ステップS6では、全ブロックの分散Var(1)〜Var(9)と第2ノイズ判定閾値TH2とを比較して、注目ブロックに生じているブロックノイズのレベルを判定している。すなわち、全ブロックの分散Var(1)〜Var(9)が大きいということは、上記3×3ブロック群に生じているブロックノイズのレベルが高いことを意味する。
【0065】
全ブロックの分散が第2ノイズ判定閾値TH2よりも大きい場合、ステップS10において、第1ブロックノイズ除去フィルタF1を用いる空間フィルタ処理を注目ブロックを構成する各画素に対して施すことによって、平滑化が行われる。第1ブロックノイズ除去フィルタF1は、たとえば図6(A)に示すような、比較的強い効果のあるブロックノイズ除去用のフィルタである。全ブロックの分散が第2ノイズ判定閾値TH2以下である場合、ステップS11において、第2ブロックノイズ除去フィルタF2を用いる空間フィルタ処理を注目ブロックを構成する各画素に対して施すことによって、平滑化が行われる。第2ブロックノイズ除去フィルタF2は、たとえば図6(B)に示すような、比較的弱い効果のあるブロックノイズ除去用のフィルタであり、少なくとも、第1ブロックノイズ除去フィルタF1よりも平滑化効果が弱い。
【0066】
前述のステップS5において、被処理3×3ブロック群の分散平均値ALLVarが第1ノイズ判定閾値TH1より大きい場合、画像内においてリンギングノイズが生じる可能性のあるエッジ部に被処理3×3ブロック群の注目ブロックB5が位置するか否かを判定するために、ステップS5からステップS7に進む。リンギングノイズの有無は、ステップS7およびステップS8で2段階に判定される。
【0067】
ステップS7では、被処理3×3ブロック群の全ブロックのうち、注目ブロックB5を除く8つの周辺ブロックB1〜B4,B6〜B9の分散Var(1)〜Var(4),Var(6)〜Var(9)のうちの少なくとも1つが、第1ノイズ判定閾値TH1未満であるか否かが判定される。さらに、ステップS7では、注目ブロックの分散Var(5)が第1ノイズ判定閾値TH1以上であるか否かが判定される。これらの判定結果に基づき、全周辺ブロックB1〜B4,B6〜B9の分散Var(1)〜Var(4),Var(6)〜Var(9)のうちの少なくとも1つが第1ノイズ判定閾値TH1未満であり、かつ、注目ブロックの分散Var(5)が第1ノイズ判定閾値TH1以上である場合、被処理3×3ブロック群内の注目ブロックB5にリンギングノイズが生じていると判定され、ステップS7からステップS12に進む。周辺ブロックB1〜B4,B6〜B9の分散Var(1)〜Var(4),Var(6)〜Var(9)が全て第1ノイズ判定閾値TH1以上である場合、または注目ブロックの分散Var(5)が第1ノイズ判定閾値TH1未満である場合、すなわちステップS7の条件に該当しない場合、ステップS7からステップS8に進む。
【0068】
ステップS8では、ステップS7の条件とは異なる条件に基づいて、リンギングノイズの有無が再度判定される。具体的には、被処理3×3ブロック群の全ブロックの分散Var(1)〜Var(9)と該被処理3×3ブロック群の分散値の分散VarVarとを用いて次式3に示すリンギングノイズの判定値が算出され、算出された該判定値に基づいてリンギングノイズの有無が判定される。3×3ブロック群の分散値の分散VarVarは、次式4によって算出される。
【0069】
【数3】
Figure 0004053460
【0070】
ステップS8では、式3に基づいて算出されたリンギングノイズの判定値と、閾値格納部23に格納されている第4ノイズ判定閾値TH4とが比較される。第4ノイズ判定閾値TH4は、たとえば、0である。判定値が第4ノイズ判定閾値TH4よりも大であれば、リンギングノイズが生じていると判定されて、ステップS8からステップS12に進む。判定値が第4ノイズ判定閾値TH4よりも小であれば、リンギングノイズは生じていないと判定されて、ステップS8からステップS9に進む。
【0071】
ステップS7またはステップS8からステップS12に進んだ場合、被処理3×3ブロック群の注目ブロックB5にはリンギングノイズが生じている。このため、ステップS12において、たとえば、注目ブロックB5を構成する各画素に対して図6(C)に示すようなリンギングノイズ除去用のフィルタF3を用いる空間フィルタ処理を施すことによって、平滑化が行われる。
【0072】
ステップS9では、ブロックノイズおよびリンギングノイズの双方が生じていない注目ブロックB5に対する平滑化処理に係る判定が行われる。ステップS9では、被処理3×3ブロック群のブロック間の連続性に基づいて、平滑化処理の強度が調整される。具体的には、注目ブロックの分散Var(5)が、予め設定されている第3ノイズ判定閾値TH3以下である場合には、ブロック間の連続性が比較的保たれていると判断され、ステップS9からステップS13に進む。ステップS13では、注目ブロックB5を構成する各画素に対して第1平滑化フィルタF4を用いる空間フィルタ処理を施すことによって、平滑化が行われる。第1平滑化フィルタF4は、たとえば図6(D)に示すような、比較的弱い効果のある平滑化処理用のフィルタである。
【0073】
また、注目ブロックの分散Var(5)が第3ノイズ判定閾値TH3よりも大きいと判定された場合、ブロック間の連続性が比較的失われていると判断され、ステップS9からステップS14に進む。ステップS14では、注目ブロックB5を構成する各画素に対して第2平滑化フィルタF5を用いる空間フィルタ処理を施すことによって、平滑化が行われる。第2平滑化フィルタF5は、たとえば図6(E)に示すような、比較的強い効果のある平滑化処理用のフィルタであり、少なくとも第1平滑化フィルタF4よりも効果が強い。
【0074】
以上説明したように、画像処理装置3は、3×3ブロック群を単位としてブロックノイズおよびリンギングノイズのノイズ判定を行い、ノイズ判定の結果に基づいてノイズの除去処理を行っている。画像処理装置3は、ステップS10〜S14のノイズ除去処理を行った後、各ブロック内の画素に対して中間調処理を施す。すなわち、図4のステップS15〜ステップS18において、ノイズの種類およびノイズのレベルに基づいて誤差拡散処理が行われる。
【0075】
表1は、図4のステップS15〜ステップS18で用いられる量子化閾値THaの具体的な例を示す。ステップS15〜ステップS18および表1の説明では、画素の画素値が256階調で表されると仮定する。たとえば、画素値が256階調で表される場合、低濃度部の画素とは、0以上20以下の画素値を有する画素である。高濃度部の画素とは、236以上255以下の画素値を有する画素である。また中濃度部の画素とは、21以上235以下の画素値を有する画素である。
【0076】
【表1】
Figure 0004053460
【0077】
ステップS10において第1ブロックノイズ除去フィルタF1を用いてブロックノイズが除去された注目ブロックB5は、ステップS10からステップS15に進んで処理される。ステップS15では、ブロックノイズが隣接するブロック間の境界に生じることに着目し、注目ブロックB5内の境界2画素領域AR1内の画素に対して、下記の誤差拡散処理を行う。境界2画素領域AR1は、図7において右上がりの斜線を付して示す領域であり、注目ブロックB5の境界部分に位置する2画素分の領域である。
【0078】
ステップS15の具体的な誤差拡散処理は以下のとおりである。復元画像内において、ステップS10において処理された注目ブロックB5は、隣接するブロックB1〜B4,B6〜B9との間に連続性を有するので、復元画像内の平坦な部分に相当する。このため、まず、誤差拡散処理によって頻繁に画素値が反転しないように、境界2画素領域AR1のうちの低濃度および高濃度の画素に対して、図3に示す濃度判定部34において、以下のような画素値の飽和処理が行われる。具体的には、低濃度部の画素に対しては、画素値が0に飽和させられる。また、高濃度部の画素に対しては、画素値が255に飽和させられる。中間濃度部の画素に対しては、画素値の飽和処理は施されず、元の画素値が保たれる。また、濃度判定部34において画素値を飽和させる代わりに、濃度判定部34の濃度判定信号に基づいて誤差判定部13で誤差の切捨てまたは丸込みが行われてもよい。濃度判定部34における飽和処理後、図3で説明したように、注目ブロックB5の各画素の画素値に対して、誤差格納部33に格納されている拡散誤差が加算される。
【0079】
次いで、ステップS5〜ステップS9において行われたノイズ判定によって得られたノイズ判定信号と、濃度判定部34において行われた濃度判定によって得られた濃度判定信号とに基づいて、量子化処理部12が量子化処理を行う。具体的には、ステップS10において処理された注目ブロックB5は、比較的大きいブロックノイズが発生しているブロックであるので、量子化閾値格納部31に格納された量子化閾値THaのうち、表1の「誤差拡散(1)」に示す量子化閾値THaを用いて量子化が行われる。
【0080】
ステップS15の量子化処理では、濃度判定部34によって被処理画素が低濃度部または高濃度部の画素であると判定された場合、表1に示すように、レベル1の量子化閾値THaとして64を用い、レベル3の量子化閾値THaとして192を用いる。また、濃度判定部34によって被処理画素が中間濃度部の画素であると判定された場合、表1に示すように、レベル1の量子化閾値THaとして180を用い、レベル3の量子化閾値THaとして76を用いる。これによって、中間濃度部の画素では、誤差拡散処理によって画素値を反転させやすくすることが可能になる。このように、ステップS15の量子化処理では、中間濃度部の画素に対しては、誤差拡散処理による信号値の反転を起こりやすくするために、量子化閾値THaを高濃度側で低く、かつ低濃度側で高く設定する。
【0081】
次いで、上述したように、拡散係数設定部14が拡散係数THcを決定する。拡散係数THcは、ノイズ判定信号に基づいて定められる。ブロックノイズが発生する可能性のあるブロックに対しては、図8(A)に示すような第1誤差拡散範囲Dif1の拡散係数THcが設定され、第1誤差拡散範囲Dif1を用いて誤差拡散処理が行われる。
【0082】
なお、上述の例では、低濃度部または高濃度部の画素の画素値を0または255に飽和させる場合について説明したが、誤差判定部13が量子化誤差を0に補正するようにしてもよい。すなわち、濃度判定部34が入力された画素の濃度を判定し、得られた濃度判定結果に基づいて、低濃度部または高濃度部と判定された画素については、誤差判定部13において設定される判定誤差を0に設定してもよい。
【0083】
また、ステップS15の量子化処理では、注目ブロックB5内の境界2画素領域AR1以外の領域の画素に対しては、濃度判定部34における濃度判定を行わずに、誤差拡散処理が行われる。すなわち、注目ブロックB5内の境界2画素領域AR1外の画素の濃度に応じて、量子化閾値THaを変化させて量子化することなく、誤差拡散処理を行えばよい。
【0084】
ステップS11において第2ブロックノイズ除去フィルタF2を用いてブロックノイズが除去された注目ブロックB5は、ステップS11からステップS16に進んで処理される。ステップS16では、ブロックノイズが隣接するブロック間の境界に残りやすいことに着目し、注目ブロックB5内の境界1画素領域AR2内の画素に対して、下記の誤差拡散処理を行う。境界1画素領域AR2は、図7において右下がりの斜線を付して示す領域であり、注目ブロックB5の境界部分に位置する1画素分の領域である。すなわち、ステップS16の処理は、ステップS15で処理対象となった境界2画素領域AR1のうち、注目ブロックの境界側に位置する1画素分の領域に対して行われる。
【0085】
ステップS16の具体的な誤差拡散処理は以下のとおりである。まず、図3に示す濃度判定部34が、ステップS15で行った処理と同様に、濃度判定を行う。すなわち、低濃度部または高濃度部の画素は飽和させられ、中間濃度部の画素に対する飽和処理は行われない。次いで、表1の「誤差拡散(2)」に示す量子化閾値THaを用いて、量子化処理部12が量子化を行う。量子化処理部12は、ステップS15で行った処理と同様に、低濃度部または高濃度部と中間濃度部とで、量子化閾値THaを変化させて量子化を行う。続いて、拡散係数設定部14が、ノイズ判定信号に基づいて、図8(A)に示す第1誤差拡散範囲Dif1の拡散係数THcを設定し、第1誤差拡散範囲Dif1を用いて誤差拡散処理を行う。なお、ステップS16においても、ステップS15で説明したように、濃度判定部34が低濃度部または高濃度部の画素の画素値を飽和させるのではなく、誤差判定部13が量子化誤差を0に設定するようにしてもよい。ステップS16の量子化処理では、注目ブロックB5内の境界1画素領域AR2以外の領域の画素に対しては、濃度判定部34の濃度判定を行わずに、誤差拡散処理が行われる。すなわち、注目ブロックB5内の境界1画素領域AR2外の画素の濃度に応じて、量子化閾値THaを変化させて量子化することなく、誤差拡散処理を行えばよい。
【0086】
ステップS12においてリンギングノイズ除去フィルタF3を用いてブロックノイズが除去された注目ブロックB5は、ステップS12からステップS17に進んで処理される。リンギングノイズは、ブロック内の位置には関係なく、画素濃度のコントラストの高い部分に特に発生しやすいので、ステップS17では、誤差拡散処理による誤差の蓄積によって画素値の反転が頻繁に起こりにくくなるように、処理が行われる。ステップS17では、ブロック内の全画素に対して処理が行われる。
【0087】
ステップS17の具体的な誤差拡散処理は以下のとおりである。まず、濃度判定部34が、ステップS15およびステップS16で行ったように、低濃度部または高濃度部の画素を飽和させ、中間濃度部の画素に対しては飽和処理を行わない。次いで、表1の「誤差拡散(3)」に示す量子化閾値THaを用いて、量子化処理部12が量子化を行う。ステップS17では、ステップS15およびステップS16と異なり、低濃度部と高濃度部と中間濃度部とに関係なく、注目ブロックB5内の全ての画素に対して、相互に同じ量子化閾値THaを用いて量子化が行われる。続いて、拡散係数設定部14が、ノイズ判定信号に基づいて、図8(B)に示す第2誤差拡散範囲Dif2の拡散係数THcを設定し、第2誤差拡散範囲Dif2を用いて誤差拡散処理を行う。第1誤差拡散範囲Dif1のほうが第2誤差拡散範囲Dif2よりも、処理すべき注目画素を中心とした処理範囲が広い。なお、ステップS15およびステップS16において説明したように、ステップS17でも、濃度判定部34が低濃度部または高濃度部の画素の画素値を飽和させるのではなく、誤差判定部13が量子化誤差を0に設定するようにしてもよい。
【0088】
また、ブロックノイズおよびリンギングノイズのいずれも生じていないと判定され、ステップS13およびステップS14において、第1および第2平滑化フィルタF4,F5を用いて平滑化処理された注目ブロックB5は、ステップS13およびステップS14からステップS18に進んで処理される。ステップS18に進んだ注目ブロックB5は歪みの生じていない領域内に位置するので、濃度判定部34の濃度判定を行わず、表1の「誤差拡散(4)」に示す量子化閾値THaを用いて、量子化処理部12が量子化を行う。つまり、量子化処理部12は、低濃度部と高濃度部と中間濃度部に関係なく、注目ブロックB5内の全ての画素に対して相互に同じ量子化閾値THaを用いて量子化を行う。続いて、拡散係数設定部14が、ノイズ判定信号に基づいて、図8(B)に示す第2誤差拡散範囲Dif2の拡散係数THcを設定し、第2誤差拡散範囲Dif2を用いて誤差拡散処理を行う。ステップS18の処理は、ステップS17と同様、注目ブロックB5内の全画素に対して行われる。
【0089】
このように、図4のステップS15〜ステップS18では、ノイズ判定信号に基づいて、ノイズの種類およびノイズのレベルに応じた誤差拡散処理を行うとともに、濃度判定部34で判定された濃度判定信号にも基づいて誤差拡散処理を行っている。これによって、ステップS4〜ステップS14で行われる空間フィルタ処理部9のノイズ除去処理だけではなく、階調再現処理部8で行われる誤差拡散処理に際しても、量子化閾値THaおよび誤差判定閾値THbあるいは拡散係数THcを切換えるという簡易な手法を用いて、ノイズの種類およびノイズのレベルに応じた処理を行うことができる。復元画像内の全ての画素について誤差拡散処理が施された後、ステップS15〜ステップS18からステップS19に進み、図4のフローチャートが完了する。
【0090】
以上説明したように、図1の画像処理装置3は、具体的には、画像の符号化データを復号化することによって得られたデータに対して、ブロック毎の分散を求めることによって、ブロックノイズおよびリンギングノイズに代表されるノイズの発生の有無、該ノイズの種類、およびノイズのレベルを求める。さらに、画像処理装置3では、求められた各ノイズに応じたノイズ除去処理を行い、さらに、該ノイズに応じた適切な中間調処理を行う。これによって、画像処理装置3は、画像の復号化データからノイズを効果的に除去することができる。
【0091】
次に、上述した画像処理方法を実行する画像処理装置3のより詳細な構成について、図1に基づいて説明する。図1の画像処理装置3は、復元処理部20と階調再現処理部8と空間フィルタ処理部9との他に、入力階調補正部41、色空間変換部42、色補正部43、黒生成下色除去部44、出力階調補正部45、および画像記憶部46を含む。画像形成装置1は、画像処理装置3と画像出力装置4との他に、操作パネル48を含む。画像処理装置3と画像出力装置4とを含む画像形成装置1は、たとえば、所謂複合機またはプリンタによって実現される。操作パネル48は、画像形成装置1の利用者によって操作され、操作結果が画像処理装置3および画像出力装置4に与えられ、適宜処理される。
【0092】
画像処理装置3には、各種の画像入力装置で生成された画像のデータが、インターフェイスを介して入力されている。与えられる画像のデータとしては、たとえば、デジタルカメラで撮像された画像の符号化データ、およびコンピュータ上でソフトウェアを用いて動画からキャプチャされた静止画像のデータが挙げられる。画像入力装置と画像処理装置3との間のインターフェイスの規格としては、USB(Universal Serial Bus)およびIEEE1394(Institute of Electrical and Electronic Engineers:米国電気電子学会)が挙げられる。画像処理装置3に与えられる画像の符号化データは、たとえばJPEGに代表される規格のデータとしてフォーマットされている。
【0093】
画像処理装置3に与えられた画像のデータは、画像処理装置3内において、復元処理部20、入力階調補正部41、空間フィルタ処理部9、色空間変換部42、色補正部43、黒生成下色除去部44、出力階調補正部45、および階調再現処理部8の順で順次送られる。画像処理装置3に与えられた画像のデータは、最初はYCbCr信号形態のデジタルカラー信号であり、最終的に、CMYK信号形態のデジタルカラー信号である画像のデータとして、画像処理装置3から画像出力装置4へ出力される。
【0094】
復元処理部20は、YCbCr信号形態の画像の符号化データを復号化し、逆量子化処理および逆直交変換処理をさらに行うことによって、YCbCr信号形態の画像の符号化データをYCbCr信号形態の該画像の復号化データに変換する。さらに復元処理部20は、得られた復号化データが示す復元画像にブロックノイズおよびリンギングノイズが生じているか否かを判定し、ノイズの発生状況の判定結果をノイズ判定信号として出力する。
【0095】
入力階調補正部41は、復号処理部6で復号化されたYCbCr信号方式の画像の復号化データの画素のデータに対して、トーンスケールの補正処理およびカラーバランスの補正処理を、必要に応じて施す。空間フィルタ処理部9は、入力階調補正部41より入力されるYCbCr信号の画像のデータに対して、ノイズ判定信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによってブロックノイズやリンギングノイズを防ぐように処理するものである。
【0096】
色空間変換部42は、YCbCr信号形態の画像の復号化データの色空間をL表色系の色空間に変換する。色空間変換後のL信号形態の画像の復号化データが、後段の色補正部43に入力される。色補正部43は、与えられたL信号形態の画像の復号化データに対して、画像出力装置4の特性に合わせた色補正を施し、色空間変換後のCMY信号形態の画像の復号化データに変換する。色補正後のCMY信号形態の画像の復号化データが、後段の黒生成下色除去部44に入力される。
【0097】
黒生成下色除去部44は、色補正部43から与えられるCMY信号形態の画像のデータに基づき、黒生成処理と下色除去処理とを行い、CMY信号形態の画像のデータをCMYK信号形態の画像のデータに変換する。黒生成処理は、CMY信号形態の画像のデータに含まれるCMYの3色の色信号から黒信号を生成する処理である。下色除去処理は、CMY信号形態の画像のデータに含まれるCMYの3色の色信号から黒の色信号分を差引いて新たなCMYの色信号を生成する処理である。CMYK信号形態の画像のデータは、画素毎に、黒生成処理で生成された黒の色信号と下色除去処理で生成されたCMYの色信号とを含む。
【0098】
黒生成処理の一例として、スケルトンブラックを用いて黒生成を行なう手法がある。スケルトンブラックを用いる手法では、被処理画素に対する黒生成処理および下色除去処理が同時に行われる。前記手法では、具体的には、被処理画素の色信号が、以下の連立式で示すように変換される。以下の連立式では、スケルトンカーブの入出力特性を「y=f(x)」、入力されるCMY信号形態の画素の各色信号を「C」,「M」,「Y」、出力されるCMYK信号形態の画素の各色信号を「C#」,「M#」,「Y#」,「K#」、UCR(Under Color Removal)率を「α」(0<α<1)と表す。UCR率αは、0より大きく1未満の数値である。
Figure 0004053460
【0099】
出力階調補正部45は、与えられたCMYK信号形態の画像の復号化データに対して、画像出力装置4の階調再現特性に応じた出力階調補正処理を施す。出力階調補正処理は、たとえば、画素毎の色の濃度を示す信号から成る画像のデータを、網点面積率を示す信号からなる画像のデータに変換する処理である。
【0100】
階調再現処理部8は、出力階調補正後のCMYK信号形態の画像の復号化データに対して、いわゆる中間調生成処理である中間調処理を施す。さらに、階調再現処理部8は、CMYK信号形態の画像の復号化データに対して、空間フィルタ処理部9と同様に、ノイズ判定信号に基づく上述の誤差拡散処理を行う。中間調処理は、前記復号化データが表す復元画像を画素に分離して、該画像内の階調がそれぞれ再現されるように、画素の濃度を定める処理である。
【0101】
復元処理部20〜階調再現処理部8までの各処理部20,41,9,42〜45,8における処理が順次施された画像の復号化データは、好ましくは、たとえば、画像記憶部46に一旦記憶され、所定のタイミングで読出されて、画像出力装置4に入力される。画像出力装置4は、与えられた画像の復号化データに基づき、該画像を顕像化する。画像出力装置4は、たとえば、電子写真方式およびインクジェット方式に代表される処理方式を用いる印刷装置によって実現される。印刷装置は、顕像化された該画像を、紙等で実現される記録媒体上に出力する。また画像出力装置4は、記録媒体への印刷装置に限らず、他の形態の画像出力装置4で実現されてもよい。たとえば、画像出力装置4は、表示装置によって実現されてもよい。陰極線管(Cathode Ray Tube:CRT)装置および液晶ディスプレイに代表される表示装置は、顕像化された該画像を、自己が備える画面上に表示させる。この場合、画像処理装置3において、黒生成下色除去部44は不要であるので省略される。
【0102】
図9は、本発明の他の実施の形態である画像形成装置61の構成を示すブロック図である。図1では、復号処理部6とノイズ判定部7と階調再現処理部8とを画像処理装置3が含む構成を説明している。図9の画像形成装置61では、前述の復号処理部6とノイズ判定部7と階調再現処理部8との機能とをコンピュータ63に実現させるための画像処理プログラム64を予め用意し、該画像処理プログラム64を汎用的なコンピュータ63にインストールして実行させることによって、画像処理装置3が実現されている。これによって、コンピュータ63は、画像の符号化データの復号化後に、復元画像内のノイズの発生状況を判定し、該ノイズの発生状況に応じた中間調処理を画像の復号化データに施す。これによって、画像処理プログラム64は、汎用的なコンピュータ63を用いて、圧縮符号化されたデータの復号化によって生じたノイズを、復号化されたデータから効果的に除去することができる。
【0103】
図9の構成の画像形成装置61は、具体的には、コンピュータ63が、アプリケーションソフトウエア71、プリンタドライバ72、通信ポートドライバ73、通信ポート74、中央演算処理装置(Central Processing Unit:CPU)75、および記憶部76を含む。図9の例では、画像処理プログラム64は、アプリケーションソフトウエア71内のプログラムとプリンタドライバ72内のプログラムとに分割されている。通信ポート74は、たとえば、RS232C規格に基づく通信ポート74、またはLAN用の通信ポート74で実現される。アプリケーションソフトウエア71とプリンタドライバ72と通信ポート74ドライバ73とは、たとえば記憶部76に記憶される。中央演算処理装置75が、アプリケーションソフトウエア71とプリンタドライバ72と通信ポート74ドライバ73とに含まれるプログラムを実行する。
【0104】
デジタルカメラで撮像された画像のデータおよび動画からキャプチャされた静止画像のデータに代表される画像の符号化データは、コンピュータ63に与えられる。図9の例では、与えられた画像の符号化データに対して、ノイズ判定処理およびノイズ除去処理がアプリケーションソフトウェアによって実行され、処理が施された復元画像がプリンタから出力される。
【0105】
アプリケーションソフトウエア71のプログラムは、図1の復号処理部6と図1のノイズ判定部7との機能をコンピュータ63に実行させる。好ましくは、アプリケーションソフトウエア71のプログラムは、図1の空間フィルタ処理部9の機能をコンピュータ63にさらに実行させる。これらの結果、コンピュータ63に与えられた画像の符号化データに対して復号化処理が施され、得られた画像の復号化データに対して、復元画像のノイズ判定処理とノイズ除去用の空間フィルタ処理とが、コンピュータ63によって施される。
【0106】
プリンタドライバ72のプログラムは、概略的には、空間フィルタ処理後の画像の復号化データに対するノイズ除去処理を含む中間調処理を、コンピュータ63に実行させる。具体的には、プリンタドライバ72のプログラムを実行するコンピュータ63は、空間フィルタ処理後の画像のデータに対して、図1の色補正部43の処理と図1の黒生成下色除去部44の処理と図1の出力階調補正部45の処理と図1の階調再現処理部8の処理とを施す。プリンタドライバ72のプログラムを実行するコンピュータ63は、さらに、プリンタ言語翻訳部77を実現している。プリンタ言語翻訳部77は、中間調処理後の画像の復号化データをプリンタ言語に変換する。プリンタ言語変換後の画像の復号化データは、通信ポート74ドライバ73および通信ポート74を介して、画像出力装置4であるプリンタに与えられる。
【0107】
また上述の画像処理プログラム64は、コンピュータ読取り可能な記録媒体に記録されていることが好ましい。このような記録媒体を用いれば、画像の符号化データの復号化によって生じたノイズを画像の復号化データから効果的に除去することが可能な画像処理プログラム64を、汎用的なコンピュータ63に容易に供給することが可能になる。これによって、前記画像処理プログラム64を記録した記録媒体が持ち運び自在に提供可能になるので、前記画像処理プログラム64によって実現される機能を容易に頒布することができる。
【0108】
本実施の形態では、具体的には、コンピュータ63内の中央演算処理装置75が画像処理プログラム64を実行している。画像処理プログラム64を格納している記録媒体であるプログラムメディアとして、たとえば、コンピュータ63の記憶部76に用いられる不揮発性メモリそのものが用いられてもよい。または、コンピュータ63の記憶部76が外部記憶装置として媒体読取り装置を設けているならば、該媒体読取り装置に着脱自在に挿入可能であって、かつ該媒体読取り装置に挿入することで内部のプログラムをコンピュータ63に読取らせることが可能な記録媒体を、前記プログラムメディアとして用いてもよい。
【0109】
中央演算処理装置75は、記録媒体に格納されている画像処理プログラム64は、たとえば、コンピュータ63内の中央演算処理装置75が該記録媒体に直接アクセスして実行される構成を有する。または、記録媒体に格納されている画像処理プログラム64は、記録媒体から一旦読出され、記憶部76内のプログラム記憶エリアにダウンロードされて、ダウンロードされた該画像処理プログラム64が中央演算処理装置75に実行される構成であってもよい。プログラムメディアが上述の2種類の形態のいずれであっても、画像処理プログラム64の構成は、上述の2種類のどちらでもよい。なお、プログラムのダウンロードのためのプログラムは、コンピュータ63に予め格納されているものとする。
【0110】
画像処理プログラム64を格納している記録媒体であるプログラムメディアは、好ましくは、コンピュータ63本体と分離可能に構成されている。プログラムメディアとして用いられる記録媒体としては、たとえば、テープ系記録媒体、ディスク系記録媒体、カード系記録媒体、およびメモリ系記録媒体が挙げられる。テープ系記録媒体としては、たとえば、磁気テープおよびカセットテープが挙げられる。ディスク系記録媒体としては、たとえば、フロッピー(R)ディスクおよびハードディスク装置に代表される磁気ディスク媒体、CD−ROM(Compact Disc−Read Only Memory)およびDVD(Digital Video Disc)に代表される光ディスク媒体、ならびに、MO(Magneto-Optic Disc)およびMD(Mini Disc)に代表される光磁気ディスク媒体が挙げられる。カード系記録媒体としては、所謂メモリカードを含むIC(Integrated Circuit)カードおよび光カードが挙げられる。メモリ系記録媒体は、たとえば、不揮発性の半導体メモリが挙げられる。不揮発性の半導体メモリは、たとえば、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、およびフラッシュROMを含む。このように、プログラムメディアに用いられる記録媒体は、固定的にプログラムを担持する媒体であればよい。
【0111】
また上述した画像処理プログラム64は、記録媒体を介してコンピュータ63に与えられる状況に限らず、伝送媒体を介した通信によってコンピュータ63に与えられてもよい。伝送媒体としては、電話回線網の伝送路、LAN(Local Area Network)およびWAN(Wide Area Network)等を用いたコンピュータネットワークの伝送路、およびコンピュータを接続する伝送ケーブル等が挙げられる。これによって、画像処理装置3の実現がより容易になる。具体的には、図9の画像処理装置3がインターネットを含む通信ネットワークに接続可能な構成を有する場合、通信ネットワークから画像処理プログラム64がダウンロードされてもよい。通信ネットワークから画像処理プログラム64がダウンロードされる場合、ダウンロード用のプログラムは、コンピュータ63本体に予め格納しておいてもよく、または別の記録媒体からコンピュータ63に事前にインストールされればよい。
【0112】
以上説明したように、図1および図9の画像処理装置3は、具体的には、圧縮符号化された画像のデータを復号化することによって得られたデータに対して、ブロック毎の分散を求めることによって、ブロックノイズおよびリンギングノイズに代表されるノイズの発生の有無、該ノイズの種類、およびノイズのレベルが求められる。さらに、画像処理装置3では、求められた各ノイズに応じたノイズ除去処理を行い、さらに、該ノイズに応じた適切な中間調処理を行う。
【0113】
第1ならびに第2の実施の形態の画像形成装置1,61および画像処理装置3は、本発明の画像形成装置および画像処理装置3の例示であり、主要な構成および動作が等しければ、他の様々な形で実現することができる。特に画像処理装置3の各構成部品の詳細な構成および動作は、同じ効果が得られるならば、上述の構成および動作に限らず、他の構成および動作によって実現されてもよい。画像処理装置3の処理部は、個別の回路によってそれぞれ実現される構成に限らず、1または複数の処理部の機能を実現するための制御ソフトウェアをコンピュータに実行させることによって、機能的に実現されてもよい。
【0114】
【発明の効果】
以上のように本発明によれば、画像処理装置は、圧縮符号化された画像のデータを復号化し、復号化されたデータが表す画像内のノイズの発生状況をブロック単位で判定して、判定結果に基づいて、階調を再現させるだけでなくノイズを低減させるような中間調処理を該復号化されたデータに施す。これによって、画像処理装置は、中間調処理を行いつつ、画像の復号化されたデータ内のノイズを効果的に除去することができる。
【0115】
また本発明によれば、画像処理装置において、復号化されたデータが表す画像が1以上のブロックに分割され、中間調処理がブロック毎に施される。これによって、画像処理装置は、中間調処理後の画像内のブロックの境界でのテクスチャの発生を防止することができる。さらにまた本発明によれば、画像処理装置において、中間調処理として、画像の復号化されたデータに対する誤差拡散処理が行われる。誤差拡散処理で用いられる量子化閾値と誤差判定閾値と拡散係数との3つの定数のうちの少なくとも1つが、画像内のノイズの発生状況の判定結果に応じて切換えられる。これによって、画像処理装置は、中間調処理後の画像内のブロックの境界でのテクスチャの発生を、容易に防止することができる。
【0116】
また本発明によれば、画像処理装置において、階調再現処理部の処理に先だって、ノイズを低減させるための空間フィルタ処理が、画像の復号化されたデータに対して施される。これによって、画像処理装置は、復号化されたデータが表す画像からノイズをより効果的に除去することができる。
【0117】
さらにまた以上のように本発明によれば、画像形成装置は、画像のブロック毎のノイズの発生状況に基づいて該画像の復号化されたデータに中間調処理を施し、中間調処理が施された画像のデータに基づいて画像を顕像化する。これによって、画像形成装置は、品質のよい出力画像を提供することが可能になる。
【0118】
また以上のように本発明によれば、画像処理方法は、圧縮符号化された画像のデータの復号化処理と、復号化されたデータが表す画像内のノイズの発生状況をブロック単位で判定するノイズ判定処理とを行い、ノイズ判定処理の判定結果に基づいて、階調を再現させるだけでなくノイズを低減させるような中間調処理を該画像の復号化されたデータに施す。これによって、画像処理方法が適用される場合、圧縮符号化されたデータの復号化によって生じたノイズを、復号化されたデータから効果的に除去することができる。
【0119】
さらにまた以上のように本発明によれば、画像処理プログラムは、画像の圧縮符号化されたデータを復号化する機能と、復号化されたデータが表す画像内のノイズの発生状況をブロック単位で判定する機能と、階調を再現させつつノイズを低減させるための中間調処理を画像の復号化されたデータに対して施す機能とを、コンピュータに実現させる。これによって、画像処理プログラムは、汎用的なコンピュータを用いて、圧縮符号化されたデータの復号化によって生じたノイズを、復号化されたデータから効果的に除去することができる。また以上のように本発明によれば、記録媒体は、上述の画像処理プログラムを記録しており、該画像処理プログラムをコンピュータに読取らせることが可能である。これによって、前記画像処理プログラムによって実現される機能の頒布が容易になる。
【図面の簡単な説明】
【図1】本発明の実施の一形態である画像形成装置1の全体的な構成を示すブロック図である。
【図2】図1の画像処理装置3の復元処理部20の機能的構成を示すブロック図である。
【図3】図1の画像処理装置3の階調再現処理部8の機能的構成を示すブロック図である。
【図4】図1の画像処理装置3において行われる画像処理を説明するためのフローチャートである。
【図5】図1の画像処理装置のノイズ判定部7において行われるノイズ判定処理で用いられる3×3ブロック群の構成を示す模式図である。
【図6】図1の画像処理装置の空間フィルタ処理部9で用いられるフィルタの構成を示す模式図である。
【図7】図1の画像処理装置の階調再現処理部8において行われる誤差拡散処理で処理対象となる領域を示す模式図である。
【図8】図1の画像処理装置の階調再現処理部8において行われる誤差拡散処理で用いられる誤差拡散範囲を示す模式図である。
【図9】本発明の実施の他の形態である画像形成装置61の全体的な構成を示すブロック図である。
【符号の説明】
1,61 画像形成装置
3 画像処理装置
4 画像出力装置
6 復号処理部
7 ノイズ判定部
8 階調再現処理部
9 空間フィルタ処理部
11 加算器
12 量子化処理部
13 誤差判定部
14 拡散係数設定部
63 コンピュータ
64 画像処理プログラム
THa 量子化閾値
THb 誤差判定閾値
THc 拡散係数
B5 注目ブロック
B1〜B4,B6〜B9 周辺ブロック[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, and an image processing program configured to perform image processing including decoding of image compression-encoded data and halftone processing on the decoded data. And a recording medium.
[0002]
[Prior art]
In recent years, due to the progress of digitalization of office automation (OA) equipment, the spread of computers, and the development of communication networks, the acquisition of image data from an image input device to a computer and the network The transmission and reception of image data between computers via the computer can be performed relatively easily. The image input device is represented by a scanner, for example. Image data given to an image processing device typified by a computer and OA equipment is stored in a recording medium typified by a hard disk device, a DVD-RAM (Digital Versatile Disc-Random Access Memory), or the like. The image data in the image processing apparatus is visualized and output by an image output apparatus typified by a color printer, if necessary. Examples of the color printer system include an electrophotographic system, an inkjet system, and a thermal transfer system.
[0003]
Image data generally has a larger amount of information and a larger file size than document data. For this reason, various methods for compressing image data while suppressing deterioration in image quality have been proposed. Currently, as one of the most widely used image data compression methods, there is a block coding method using a discrete cosine transform (DCT).
[0004]
In the block coding method, first, an image is divided into a plurality of blocks each having a size of 8 pixels vertically and horizontally (8 × 8 pixels), for example. Next, using a discrete cosine transform method that is a two-dimensional orthogonal transform, the intensity of the signal indicating the density distribution in each block is transformed into a DCT coefficient that is a spatial frequency component. Subsequently, the DCT coefficient is quantized for each block, and then an encoded code is assigned to the quantized DCT coefficient using, for example, variable length coding represented by Huffman coding.
[0005]
When compressing the image data, the DCT coefficient corresponding to the high frequency component of the original image is cut off from the image data and the data is compressed, and the DCT coefficient of the high frequency component of the image represented by the decoded data is compressed. It is difficult to visually determine the presence or absence of truncation. Utilizing this phenomenon, the DCT coefficient quantization process quantizes the DCT coefficient of the high frequency component by dividing it by a larger value than the DCT coefficient of the low frequency component, thereby reducing the amount of information. is doing.
[0006]
The image data encoded using the above-described block encoding method is subjected to a decoding process that is the reverse of the block encoding method in the decoding side device, whereby the original image data is obtained. Is restored. In other words, the decoding-side device performs decoding processing, inverse quantization processing, and inverse orthogonal transform processing on the encoded image data, thereby obtaining image-decoded data. However, when decoding, an error due to quantization processing increases, that is, if the difference in DCT coefficients between the image before encoding and the original image restored by quantization and inverse quantization increases, Even if the data is decoded, it is difficult to correctly restore the original image. That is, compared to the original image before encoding, the image represented by the decoded data is distorted, and the occurrence of noise that is visually noticeable is seen. Specifically, for example, noise represented by block noise and ringing noise is generated in an image represented by decoded data. Block noise is noise that makes an image appear to be divided into blocks. Ringing noise is also referred to as mosquito noise, and is foggy or ringing noise that appears around the contour of an image.
[0007]
In a conventional image processing apparatus, in order to reduce noise typified by block noise and ringing noise from within an image represented by decoded data, smoothing processing is performed on the decoded image data. . The types and levels of distortions that occur in decoded image data are generally diverse. For this reason, when the smoothing process is performed in accordance with the largest distortion of the decoded image data, the image data is blurred, and in some cases, the image quality of the image after the smoothing process is greatly reduced. If smoothing processing is performed in accordance with intermediate distortion of image data, distortion remains in the image data, and the image quality is not sufficiently improved.
[0008]
In order to reduce noise from the image represented by the decoded data, the following first conventional technique has been proposed (Patent Document 1). In the first conventional image signal decoding method, distortion is removed using a smoothing process in accordance with the type and level of distortion generated in an image represented by decoded data. Specifically, in the first conventional technique, when decoding compressed image data, a plurality of variables for determining distortion are created based on orthogonal transform coefficients for each block. Based on the plurality of variables, the presence / absence of distortion, the type of distortion, and the level of distortion, that is, the degree of distortion, are determined, and further, noise is removed by removing distortion for each block based on the determination result of distortion. Has been reduced. That is, in the first prior art, the type of distortion and the degree of distortion of each block in the image are analyzed, and by performing smoothing processing based on the analysis result, the data of the decoded image is analyzed. Distortion is reduced.
[0009]
[Patent Document 1]
JP 2001-346208 A
[0010]
[Problems to be solved by the invention]
When the first prior art described above is used, noise in the image represented by the decoded data is reduced using a smoothing process. However, the first prior art makes no consideration regarding halftone processing performed on image data when the image data is transferred from the image processing apparatus to the image output apparatus. For this reason, when data of an image processed using the first conventional technique is given to an image output device to visualize and output the image, blur and noise are generated in the output image. is there. That is, even in the case of image data decoded by the first conventional technique, when the image is output by a technique such as printout, it is difficult to completely remove the distortion in the image.
[0011]
The present invention relates to an image processing apparatus and an image processing method capable of removing noise from an image indicated by decoded data while performing decoding processing and halftone processing on compression-encoded data of the image An image forming apparatus, an image processing program, and a recording medium are provided.
[0012]
[Means for Solving the Problems]
The present invention is provided with a decoding processing unit that is provided with compression-encoded data representing an image and decodes the compression-encoded data.
The image represented by the decoded data contains multiple pixels The target block and the surrounding blocks around the target block Divided into By calculating the variance of the pixel values of all pixels for each block and performing threshold processing based on the calculated variance Determines whether or not noise is generated in the block for each block, and determines the type of noise and the degree of occurrence of noise for blocks with noise And selecting a noise removal filter to be used for the spatial filter processing based on the determination result A noise determination unit;
A gradation reproduction processing unit that performs halftone processing for reducing the noise while reproducing the gradation based on the determination result of the noise determination unit, on the decoded data of the image, An image processing apparatus.
[0013]
According to the present invention, the image processing apparatus includes a decoding processing unit that decodes compression-encoded image data and a gradation reproduction processing unit that performs halftone processing on the decoded image data. In addition, a noise determination unit that determines the occurrence of noise in the image represented by the decoded data in units of blocks. The noise determination unit divides the block of interest into peripheral blocks around the block of interest, calculates the variance of pixel values of all pixels for each block, and performs threshold processing based on the calculated variance. Whether or not noise is generated in the block is determined for each block by threshold processing, and for the block in which noise is generated, the type of the noise and the degree of occurrence of the noise are determined, and based on the determination result The noise removal filter used for the spatial filter processing is selected. The halftone process is adaptively executed based on the determination result of the noise determination unit so as to not only reproduce the gradation but also reduce the noise. Thus, the image processing apparatus effectively performs the halftone process on the decoded data of the image, and effectively eliminates the noise generated by the decoding of the compression encoded data from the decoded data. Can be removed.
[0014]
In the image processing apparatus of the present invention, the gradation reproduction processing unit divides the image represented by the decoded data into one or more blocks including a plurality of pixels, and performs the halftone processing for each block. It is characterized by.
[0015]
According to the present invention, in the image processing apparatus, the image represented by the decoded data is divided into one or more blocks, and a halftone process different for each block is performed in the gradation reproduction processing unit. As a result, it is possible to adaptively change parameters used for halftone processing according to the type of noise generated in each block and the degree of noise. As a result, the image processing apparatus can perform halftone processing without generating a texture at a block boundary.
[0016]
In the image processing apparatus of the present invention, the gradation reproduction processing unit performs halftone processing by performing error diffusion processing on the decoded data of the image.
(A) based on the decoded data of the image, for each pixel constituting the image, an adder that obtains a diffusion pixel value that is the sum of a pixel value and a diffusion error;
(B) By quantizing the diffusion pixel value of each pixel based on a predetermined quantization threshold, a quantization value to be the pixel value of the halftone processed image data is obtained for each pixel, and diffusion is performed A quantization processing unit that further obtains a quantization error, which is a difference between the pixel value and the quantization value, for each pixel;
(C) an error determination unit that corrects a quantization error based on a predetermined error determination threshold;
(D) a diffusion coefficient setting unit that calculates a diffusion error for allocating a corrected quantization error to an unprocessed pixel value based on a predetermined diffusion coefficient;
At least one of the quantization threshold, the error determination threshold, and the diffusion coefficient is switched based on a determination result of the noise determination unit.
[0017]
According to the present invention, in the image processing apparatus, error diffusion processing is performed on the decoded data of the image as halftone processing. At least one of the three constants of the quantization threshold, the error determination threshold, and the diffusion coefficient used in the error diffusion process is switched according to the determination result of the noise determination unit. As a result, it is possible to adaptively change the error diffusion process according to the noise generation state in the image. That is, it is possible to perform error diffusion processing that not only reproduces gradation but also reduces noise by a simple method of switching at least one of the above three constants. Thus, the image processing apparatus can easily perform halftone processing that can remove noise from the decoded data without generating a texture at a block boundary.
[0018]
The image processing apparatus of the present invention further includes a spatial filter processing unit that performs spatial filter processing for reducing noise on the decoded data of the image based on the determination result of the noise determination unit,
The gradation reproduction processing unit performs halftone processing on image data that has been subjected to spatial filter processing.
[0019]
According to the present invention, in the image processing apparatus, prior to the processing of the gradation reproduction processing unit, spatial filter processing for reducing noise is performed on the decoded data of the image. As a result, not only processing for reducing noise is performed in the spatial filter processing unit, but also halftone processing is adaptively performed in the tone reproduction processing unit so as to reduce noise. Thus, noise is reduced in both the spatial filter processing unit and the gradation reproduction processing unit, so that the image processing apparatus can more effectively remove noise from the image represented by the decoded data.
[0020]
The present invention also provides the above-described image processing apparatus,
An image forming apparatus comprising: an image output device which receives image data subjected to halftone processing and visualizes the image based on the image data.
[0021]
According to the present invention, the image forming apparatus includes an image processing apparatus and an image output apparatus. In the image processing apparatus, halftone processing is performed on the decoded data of the image based on the noise generation state for each block of the image represented by the decoded data. As a result, it is possible to reduce blurring and noise that occur in the output image when the image is visualized and output by the image output apparatus. As a result, the image forming apparatus can provide a high-quality output image.
[0022]
The present invention also includes a process for decoding compression-coded data representing an image;
The image represented by the decoded data contains multiple pixels The target block and the surrounding blocks around the target block Divided into By calculating the variance of the pixel values of all pixels for each block and performing threshold processing based on the calculated variance Determines whether or not noise is generated in the block for each block, and determines the type of noise and the degree of occurrence of noise for blocks with noise And selecting a noise removal filter to be used for the spatial filter processing based on the determination result Processing,
An image processing method comprising: performing halftone processing for reducing noise while reproducing gradation based on a determination result of noise on the decoded data of the image .
[0023]
According to the present invention, in the image processing method, in addition to the decoding process of the compression-encoded image data and the halftone process for performing the halftone process on the decoded image data, the decoded image data is decoded. It includes a noise determination process for determining the occurrence of noise in an image represented by data in units of blocks. The noise determination process is divided into a target block and peripheral blocks around the target block, calculates a variance of pixel values of all pixels for each block, and performs threshold processing based on the calculated variance. Whether or not noise is generated in the block is determined for each block by threshold processing, and for the block in which noise is generated, the type of the noise and the degree of occurrence of the noise are determined, and based on the determination result The noise removal filter used for the spatial filter processing is selected. The halftone process is adaptively executed based on the determination result of the noise determination process so that not only the gradation is reproduced but also the noise is reduced. Thereby, when the image processing method is applied, noise generated by decoding the compression-encoded data can be effectively removed from the decoded data.
[0024]
The present invention also includes a function of decoding compression-coded data representing an image,
The image represented by the decoded data contains multiple pixels The target block and the surrounding blocks around the target block Divided into By calculating the variance of the pixel values of all pixels for each block and performing threshold processing based on the calculated variance Determines whether or not noise is generated in the block for each block, and determines the type of noise and the degree of occurrence of noise for blocks with noise And selecting a noise removal filter to be used for the spatial filter processing based on the determination result Function and
An image characterized by causing a computer to realize a function of performing halftone processing for reducing noise while reproducing gradation based on a determination result of noise on the decoded data of the image It is a processing program.
[0025]
According to the present invention, the image processing program is executed by a computer. As a result, after decoding the compression-encoded image data, the computer determines the occurrence of noise in the image represented by the decoded data, and performs halftone processing according to the occurrence of the noise. To the data. In determining the noise occurrence state, the block is divided into the block of interest and peripheral blocks around the block of interest, the variance of pixel values of all pixels is calculated for each block, and threshold processing is performed based on the calculated variance. Whether or not noise is generated in the block is determined for each block by threshold processing, and for the block in which noise is generated, the type of the noise and the degree of occurrence of the noise are determined, and based on the determination result The noise removal filter used for the spatial filter processing is selected. Thus, the image processing program can effectively remove noise generated by decoding the compression-encoded data from the decoded data using a general-purpose computer.
[0026]
The present invention also provides a computer-readable recording medium on which the above-described image processing program is recorded.
[0027]
According to the present invention, the recording medium records an image processing program to be executed by a computer, and the computer can read the image processing program. The image processing program has a function for decoding the compression-coded data of the image, a function for determining the noise occurrence status in the image represented by the decoded data, and a noise while reproducing the gradation. And a function of applying halftone processing to the decoded data of the image to reduce the image quality. If such a recording medium is used, an image processing program capable of effectively removing noise generated by decoding compression-encoded data from the decoded data can be easily obtained on a general-purpose computer. It becomes possible to supply. This facilitates the distribution of functions realized by the image processing program.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing an overall configuration of an image forming apparatus 1 according to an embodiment of the present invention. The image forming apparatus 1 includes an image processing device 3 and an image output device 4. Compressed and encoded data representing an image composed of a plurality of pixels is given to the image processing apparatus 3 from the outside. Basically, the image processing device 3 performs various processes on the compression-encoded data of the given image, and gives the processed image data to the image output device 4. The image output device 4 visualizes and outputs the image based on the processed image data given from the image processing device 3.
[0029]
The image processing apparatus 3 in FIG. 1 relates to decoding of data that has been compression-encoded for an image. Schematically, the image processing apparatus 3 performs decoding of data that has been compression-encoded for an image, detects noise generated during the decoding, and performs appropriate noise removal processing according to the detection result and A halftone process is performed on the decoded image data. The halftone process is basically a process for reproducing the gradation of each pixel of the image based on the image data. In the following description, the compression-encoded data and the image indicated by the data are abbreviated as “encoded data” and “compressed image”, respectively, and the decoded data and the image indicated by the data are indicated as “decoded data”. And may be abbreviated as “restored image”.
[0030]
The image processing device 3 includes at least a decoding processing unit 6, a noise determination unit 7, and a gradation reproduction processing unit 8. The encoded data of the image is given to the reprocessing unit 6. The reprocessing unit 6 decodes the encoded data of the image and outputs the decoded data of the image. The noise determination unit 7 first divides an image represented by the decoded data into one or more blocks including a plurality of pixels. Next, the noise determination unit 7 determines whether or not noise is generated in the block for each block, and determines the type of noise and the degree of occurrence of the noise regarding the block in which noise is generated. Based on the determination result of the noise determination unit 7, the gradation reproduction processing unit 8 performs halftone processing for reducing the noise while reproducing the gradation on the decoded data of the image. The image data processed by the gradation reproduction processing unit 8 is given to the image output device 4 as output data from the image processing device 3.
[0031]
As described above, the image processing apparatus 3 in FIG. 1 includes the noise determination unit 7 that determines the occurrence of noise in the restored image in units of blocks in addition to the decoding processing unit 6 and the gradation reproduction processing unit 8. The halftone process is adaptively executed based on the determination result of the noise determination unit 7 so as to not only reproduce the gradation but also reduce the noise. As a result, the image processing apparatus 3 performs processing in consideration of noise generated by decoding the encoded data during halftone processing on the decoded data of the image. Can be effectively removed.
[0032]
The image processing apparatus 3 preferably further includes a spatial filter processing unit 9. Prior to the processing of the gradation reproduction processing unit 8, the spatial filter processing unit 9 performs spatial filter processing for reducing noise on the decoded data of the image based on the determination result of the noise determination unit 7. One typical spatial filter process is a smoothing process. As a result, not only a process for reducing noise is performed in the spatial filter processing unit 9, but also a halftone process is adaptively performed in the gradation reproduction processing unit 8 so as to reduce noise. As a result, the image processing device 3 reduces noise in the restored image in both the spatial filter processing and the halftone processing, so that noise can be more effectively removed from the restored image.
[0033]
Furthermore, the gradation reproduction processing unit 8 of the image processing device 3 preferably divides the decoded data of the image into portions corresponding to one or more blocks including a plurality of pixels, and performs the halftone processing for each block. Apply. As a result, it is possible to adaptively change parameters used for halftone processing according to the type of noise generated in each block and the degree of noise. This prevents a texture from being generated at the block boundary due to the halftone process.
[0034]
Further, in the gradation reproduction processing unit 8 in the image processing device 3, for example, specifically, error diffusion processing is performed on decoded image data as halftone processing. For error diffusion processing, the gradation reproduction processing unit 8 includes an adder 11, a quantization processing unit 12, and a diffusion coefficient setting unit 14, and preferably further includes an error determination unit 13. The adder 11 obtains a diffusion pixel value that is the sum of the pixel value and the diffusion error for each pixel constituting the image based on the decoded data of the image. The quantization processing unit 12 quantizes the diffusion pixel value of each pixel based on a preset quantization threshold THa, thereby obtaining a quantization value to be a pixel value of the halftone processed image data. Obtained for each pixel. And the quantization process part 12 calculates | requires the quantization error which is a difference of a diffused pixel value and a quantization value for every pixel further. The error determination unit 13 corrects the quantization error based on a preset error determination threshold value THb. The diffusion coefficient setting unit 14 calculates a diffusion error for allocating the corrected quantization error to an unprocessed pixel value based on a predetermined diffusion coefficient THc.
[0035]
When the gradation reproduction processing unit 8 performs error diffusion processing, preferably at least one of the quantization threshold THa and the diffusion coefficient THc is switched based on the determination result of the noise determination unit 7. When the error determination unit 13 is included, preferably at least one of the three constants of the quantization threshold THa, the error determination threshold THb, and the diffusion coefficient THc is switched based on the determination result of the noise determination unit 7. . As a result, it is possible to adaptively change the error diffusion process according to the noise generation state in the restored image. That is, using a simple method of switching at least one of the three constants described above, it is possible to perform error diffusion processing that not only reproduces gradation but also reduces noise. As a result, the image processing apparatus 3 can easily perform halftone processing that can remove noise from the decoded data without generating a texture at a block boundary.
[0036]
As described above, the image processing apparatus 3 in FIG. 1 performs processing for reducing noise typified by block noise and ringing noise when decoding encoded image data, and also decodes the image. In the halftone process for reproducing the gradation of each pixel of the image for data output, a process for reducing noise is performed. As a result, even when distortion due to noise remains during decoding of the encoded data of the compressed image, the generation of texture due to the distortion during halftone processing is reduced, so the image quality of the output image data Is prevented.
[0037]
An image forming apparatus 1 in FIG. 1 includes the above-described image processing apparatus 3 and an image output apparatus 4 that performs image visualization. Prior to the visualization of the image, the decoded data is subjected to halftone processing for reducing the noise while reproducing the gradation based on the noise generation state for each block of the restored image. As described above, since noise removal is considered in the halftone process, blurring and noise generated in the output image are reduced when the image is visualized and output. As a result, the image forming apparatus 1 can improve the quality of the output image.
[0038]
As a signal form used to represent image data in the image processing apparatus 3, a so-called YCbCr signal form, L * a * b * Examples include signal forms, CMY signal forms, and CMYK signal forms. In the YCbCr signal form, the color is expressed by combining three elements of the luminance signal component Y and the two types of color difference signal components Cr and Cb. In the CMY signal form, a color is expressed by combining three subtractive color elements of cyan, magenta, and yellow. The CMYK signal form is widely used in the field of printing, and a color is expressed by combining four color elements obtained by adding black to three subtractive colors. L * a * b * The signal form is so-called L * a * b * Color space is used. L * a * b * The color space is a color space of the color system standardized by the Commission Internationale de l'Eclairage (CIE) in 1976. * And two chromaticities a indicating hue and saturation, respectively * , B * The color is expressed using the three elements. In the following description, a combination of three colors of cyan, magenta, and yellow is abbreviated as “CMY”, and a combination of four colors of cyan, magenta, yellow, and black (black) is abbreviated as “CMYK”.
[0039]
FIG. 2 is a block diagram illustrating a functional configuration of the restoration processing unit 20 of the image processing apparatus 3 of FIG. The decoding processing unit 6 and the noise determination unit 7 are included in the restoration processing unit 20. FIG. 3 is a block diagram showing a functional configuration of the gradation reproduction processing unit 8 of the image processing apparatus 3 of FIG. A detailed configuration of the image processing apparatus 3 in FIG. 1 will be described below with reference to FIGS. In the following example, the JPEG (Joint Photographic Experts Group) format is adopted as the data format of the image data, and the Huffman coding method is adopted as the encoding method of the image data in the JPEG format. In the following example, encoded data of an image in the form of a YCbCr signal is given from an image input device typified by a digital camera to the image processing device 3.
[0040]
The restoration processing unit 20 preferably further includes a parameter calculation unit 22 and a threshold storage unit 23 in addition to the decoding processing unit 6 and the noise determination unit 7. Specifically, the decoding processing unit 6 includes a variable length code decoding unit 25, an inverse quantization unit 26, and an inverse orthogonal transform unit 27. In addition to the adder 11, the quantization processing unit 12, the error determination unit 13, and the diffusion coefficient setting unit 14, the gradation reproduction processing unit 8 is preferably a quantization threshold storage unit 31, a diffusion coefficient storage unit 32, an error A storage unit 33 and a density determination unit 34 are further included. The error determination unit 13 may be omitted.
[0041]
The encoded data of the image in the YCbCr signal format is given to the variable length code decoding unit 25. The variable length code decoding unit 25 decodes encoded data of a given image. By the decoding process of the variable-length code decoding unit 25, the quantized DCT coefficients are separated from the encoded data of the image. The inverse quantization unit 26 restores the DCT coefficient by inversely quantizing the quantized DCT coefficient. Further, the inverse orthogonal transform unit 27 performs inverse orthogonal transform on the restored DCT coefficient, thereby transforming the restored DCT coefficient into pixel data. The obtained pixel data indicates the color and density of the pixel of the restored image, and in the example of FIG. 2 is data in the form of a YCbCr signal. A set of all obtained pixel data is transmitted to the input gradation correction unit 41 as decoded data of an image in the YCbCr signal format. Also, only the luminance signal component Y in the decoded data of the image in the YCbCr signal format is transmitted to the parameter calculation unit 22.
[0042]
The parameter calculation unit 22 calculates a noise determination parameter using the luminance signal component Y in the decoded image data obtained by the inverse quantization unit 26. The noise determination parameter is a parameter for determining the presence or absence of noise in the restored image. The noise to be determined is, for example, block noise and ringing noise. In the example of FIG. 2, the presence or absence of noise is determined by the parameter calculation unit 22 using the luminance signal component Y because the human eye is not the change of the color difference signal components Cb and Cr but the change of the luminance signal component Y. Due to being sensitive. Of course, at least one of the two types of color difference signal components Cb and Cr may be used for noise determination. In the example of FIG. 2, as described later, the variance of pixel data for each block in the restored image is obtained as the noise determination parameter.
[0043]
The noise determination unit 7 compares the noise determination parameter obtained by the parameter calculation unit 22 with a predetermined determination threshold, and determines the occurrence of noise typified by block noise and ringing noise for each block. The determination threshold is stored in the threshold storage unit 23 in advance. For example, the noise occurrence state is specifically defined by the following first to third situation elements. As the first situation element, the presence or absence of block noise and ringing noise is determined. As the second situation element, the level of noise when block noise occurs, that is, the degree of noise in that case is determined. As the third situation element, the level of smoothing when neither block noise nor ringing noise occurs is determined. The determination result of the noise determination unit 7 is output as a noise determination signal. The noise determination signal is given to the quantization processing unit 12, the error determination unit 13, the diffusion coefficient setting unit 14, and the density determination unit 34 provided in the gradation reproduction processing unit 8.
[0044]
In the example of FIGS. 1 to 3, the gradation reproduction processing unit 8 is provided with the decoded data of the image in the CMYK signal format. In the decoded data of the image in the CMYK signal format, the pixel data is represented by a combination of four types of pixel values each indicating the density of each color of CMYK. Each processing unit in the gradation reproduction processing unit 8 individually processes, for example, four types of colors of each pixel. In the following description of FIG. 3, only processing for any one kind of color of any one pixel to be processed will be described.
[0045]
The density determination unit 34 of the gradation reproduction processing unit 8 determines the density level of the color of the pixel to be processed based on the pixel data of the pixel to be processed in the decoded data of the image given to the gradation reproduction processing unit 8. The density determination signal is output to the quantization processing unit 12 so that an appropriate quantization threshold THa is set when performing the determination and the quantization. The adder 11 adds the diffusion error stored in the error storage unit 33 to the pixel value of the pixel to be processed whose density level has been determined by the density determination unit 34. As a result, the diffusion pixel value of the pixel to be processed that is the sum of the pixel value and the diffusion pixel is output.
[0046]
The quantization processing unit 12 compares the given diffusion pixel value of the pixel to be processed with a predetermined quantization threshold THa stored in the quantization threshold storage unit 31 to quantize the diffusion pixel value. Do. As a result, a quantization value to be the pixel value of the pixel to be processed of the halftone processed image data is obtained. The quantized value of the pixel to be processed is output from the image processing device 3 as the pixel value of the pixel to be processed of the halftone processed image data. Further, the quantization processing unit 12 obtains a quantization error of the pixel to be processed that is a difference between the diffusion pixel value of the pixel to be processed and the quantization value of the pixel to be processed.
[0047]
When quantizing the diffusion pixel value, it is preferable to quantize based on the noise determination signal provided from the noise determination unit 7 in the restoration processing unit 20 in FIG. 2 and the density determination signal provided from the density determination unit 34 in FIG. The quantization threshold THa actually used for the pixel to be processed in the quantization processing unit 12 is appropriately switched. For this purpose, the quantization threshold value storage unit 31 may store a plurality of types of quantization threshold values THa, and may sequentially calculate the quantization threshold value THa based on the noise determination signal and the density determination signal.
[0048]
Based on the quantization error of the pixel to be processed obtained by the quantization processing unit 12 and the predetermined diffusion coefficient THc stored in the diffusion coefficient storage unit 32, the diffusion coefficient setting unit 14 A diffusion error indicating the density to be diffused to the pixel value of the pixel to be processed is obtained. The diffusion error obtained by the diffusion coefficient setting unit 14 is stored in the error storage unit 33. The new diffusion error stored in the error storage unit 33 is added to the pixel value of the next new pixel by the adder 11.
[0049]
When calculating the diffusion error, preferably, the diffusion coefficient THc actually used for the pixel to be processed is appropriately switched by the diffusion coefficient setting unit 14 based on the noise determination signal given from the noise determination unit 7. For this purpose, the diffusion coefficient storage unit 32 may store a plurality of types of diffusion coefficients THc, or may sequentially calculate the diffusion coefficient THc based on the noise determination signal.
[0050]
The error determination unit 13 is a processing unit for performing the above-described quantization error correction process in a situation where the density determination unit 34 does not perform the process of saturating the pixel value. When the quantization error is corrected, the diffusion coefficient setting unit 14 obtains the diffusion error based on the corrected quantization error of the pixel to be processed and the diffusion coefficient THc. The error determination unit 13 compares the error obtained by the quantization processing unit 12 with a preset error determination threshold value THb, and determines whether or not to perform correction processing of either the error truncation or rounding. judge. When it is determined that correction processing is to be performed, the quantization error from the quantization processing unit 12 is corrected by the selected correction method, and the determination error that is the corrected quantization error is given to the diffusion coefficient setting unit 14.
[0051]
The determination of the presence or absence of correction in the error determination unit 13 is performed based on the noise determination signal provided from the noise determination unit 7 and the density determination signal provided from the density determination unit 34. For example, if the absolute value of the quantization error before the correction is 20 or less, the quantization error after the correction is corrected to 0, and if the absolute value of the quantization error before the correction is larger than 20, the quantization after the correction is performed. As the error, the value before correction is used as it is. As a result, the situation in which the quantization error is corrected in the error determination unit 13 is the same as the situation in which the pixel determination is performed in the density determination unit 34. For this reason, when the pixel value saturation processing is performed in the density determination unit 34, the error determination unit 13 may be omitted. In the following description, it is assumed that the pixel value saturation process is performed in the density determination unit 34, and the error determination unit 13 will be described as necessary.
[0052]
In the gradation reproduction processing unit 8 of FIG. 3, the detailed processing procedure when the pixel value saturation processing of the density determination unit 34 is not performed is as follows. First, the density determination unit 34 performs density determination based on the noise determination signal for the pixel value of any one pixel in the image data input to the gradation reproduction processing unit 8, and the density determination signal Is output to the quantization processing unit 12. Next, the diffusion error for the pixel stored in the error storage unit 33 is added to the pixel value of the pixel by the adder 11, and the addition result is output to the quantization processing unit 12. The quantization processing unit 12 selects the quantization threshold THa stored in the quantization threshold storage unit 31 based on the density determination signal and the noise determination signal, and the selected quantization threshold THa and the diffusion error are added. Compare the measured pixel value. The quantization error calculated by the comparison in the quantization processing unit 12 is determined by the error determination unit 13 based on the noise determination signal, and the determination error is obtained. Finally, the diffusion coefficient setting unit 14 selects the diffusion coefficient THc from the diffusion coefficient storage unit 32 based on the determination error and the noise determination signal, and selects the diffusion error for the unprocessed next pixel as the selected diffusion coefficient THc. Calculation is performed based on the determination error, and the diffusion error is stored in the error storage unit 33.
[0053]
In the gradation reproduction processing unit 8 of FIG. 3, when the quantization processing unit 12 does not select the quantization threshold THa based on the density determination signal and the noise determination signal, that is, instead of selecting the quantization threshold THa, the error determination unit The detailed processing procedure for correcting error truncation or rounding at 13 is as follows. First, the density determination unit 34 performs density determination based on a noise determination signal for any one pixel of given image data, and outputs the density determination signal to the error determination unit 13. Next, a diffusion error for the pixel stored in the error storage unit 33 is added to the pixel value of the pixel by the adder 11 and output to the quantization processing unit 12. The quantization processing unit 12 compares a predetermined quantization threshold THa with the pixel value to which the diffusion error is added. The quantization error calculated by the comparison in the quantization processing unit 12 is determined by the error determination unit 13 based on the noise determination signal, and the determination error is obtained. Finally, the diffusion coefficient setting unit 14 selects the diffusion coefficient THc from the diffusion coefficient storage unit 32 based on the determination error and the noise determination signal, and selects the selected diffusion coefficient THc for the next unprocessed pixel and the determination The diffusion error is calculated based on the error and stored in the error storage unit 33.
[0054]
FIG. 4 is a flowchart for explaining image processing performed in the image processing apparatus 3 of FIG. In FIG. 4, among the image processing in the image processing apparatus 3 of FIG. 1, noise determination processing, noise removal processing, and gradation reproduction processing are described in detail, and descriptions of other processing are omitted.
[0055]
When encoded image data is given to the image processing apparatus 3 from the outside, the process proceeds from step S0 to step S1. In the example of FIG. 4, it is assumed that the encoded data of the image is expressed by a variable length code. First, in step S1, the variable-length code decoding unit 25 shown in FIG. 2 decodes encoded data of an image expressed by a variable-length code and separates quantized DCT coefficients. In step S2, the inverse quantization unit 26 restores the DCT coefficient by inverse quantization of the obtained quantized DCT coefficient. In step S3, the inverse orthogonal transform unit 27 performs transform to pixel data by performing inverse orthogonal transform on the restored DCT coefficient. A set of all obtained pixel data is transmitted to the input tone correction unit 41 as decoded image data. Further, only the luminance signal component Y in the decoded data of the image is given to the parameter calculation unit 22.
[0056]
Next, in step S4, the parameter calculation unit 22 calculates a noise determination parameter for determining presence / absence of noise including block noise and ringing noise using the luminance signal component Y of the decoded data of the converted image. . Note that block noise tends to occur in a flat portion of an image, and ringing noise tends to occur in an edge portion of the image. The edge part of the image refers to the periphery of the contour of the image shown in the image. For this reason, in step S5, in order to determine the presence / absence of block noise and ringing noise, the noise determination unit 7 first determines the presence / absence of noise in the flat portion and the edge portion of the image based on the noise determination parameter. If it is determined that there is noise in the flat portion of the image, then the level of block noise is obtained in step S6.
[0057]
The specific procedure of step S4 to step S6 is as follows. In the example of FIG. 4, for example, variance of pixel values in units of blocks is used as a noise determination parameter using a 3 × 3 block group as shown in FIG. The 3 × 3 block group is a 3 × 3 block group including a single target block B5 and eight peripheral blocks B1 to B4 and B6 to B9 around the target block. One arbitrary block constituting the 3 × 3 block group is composed of 64 pixels P0 to P63 for 8 rows and 8 columns, as shown in FIG. 5B, for example. The processes in steps S4 to S6 are performed in units of 3 × 3 block groups while changing the target block after the restored image is divided into one or more blocks.
[0058]
First, in step S4, based on the given luminance signal component Y, for each 3 × 3 block group shown in FIG. 5, the variances Var (1) ˜V (1) ˜ of the pixel values of all the pixels P0 to P63 in each block B1 to B9. Var (9) is calculated. The variance Var (x) of any single block Bx (x = 1 to 9) is expressed by the following equation. In the following expression, “P (i)” is a luminance signal component of the pixel value of the i-th pixel. i is an integer of 0 to 63 (i = 0 to 63), and x is an integer of 1 to 9 (x = 1 to 9).
[0059]
[Expression 1]
Figure 0004053460
[0060]
Next, in step S5, first, the variance average value ALLVAR of the 3 × 3 block group to be processed is calculated. The variance average value ALLVAR of the 3 × 3 block group is an average value of variances Var (1) to Var (9) of all the blocks in the 3 × 3 block group. The variance average value ALLVAR is calculated by dividing the sum ALLSUM of the variances Var (1) to Var (9) of all blocks in the 3 × 3 block group by the number of all blocks in the 3 × 3 block group as shown in the following equation. It is a thing.
[0061]
[Expression 2]
Figure 0004053460
[0062]
Next, in step S5, the variance average value ALLVar of the 3 × 3 block group to be processed is compared with the first noise determination threshold value TH1 stored in the threshold value storage unit 23 in advance. If the variance average value ALLVar is equal to or less than the first noise determination threshold value TH1, it is determined that the target block B5 of the 3 × 3 block group to be processed is located in a flat portion where noise may occur in the image, and from step S5 Proceed to step S6.
[0063]
In step S6, the variances Var (1) to Var (9) of all the blocks of the 3 × 3 block group to be processed are compared with the second noise determination threshold TH2 stored in the threshold storage unit 23 in advance. If the variances Var (1) to Var (9) of all blocks in the 3 × 3 block group to be processed are larger than the second noise determination threshold value TH2, the process proceeds from step S6 to step S10. If the variances Var (1) to Var (9) of all blocks in the 3 × 3 block group to be processed are equal to or less than the second noise determination threshold TH2, the process proceeds from step S6 to step S11.
[0064]
Specifically, the comparison process in step S6 is performed by comparing the variances Var (1) to Var (9) of each block of the 3 × 3 block group to be processed with the second noise determination threshold value TH2. That is, the variances Var (1) to Var (9) of all the blocks in the 3 × 3 block group to be processed are larger than the second noise determination threshold value TH2. All of the variances of the blocks Var (1) to Var (9) It means that it is larger than the second noise judgment threshold TH2. As described above, in step S6, the variances Var (1) to Var (9) of all the blocks are compared with the second noise determination threshold value TH2, and the level of block noise generated in the block of interest is determined. That is, a large variance Var (1) to Var (9) of all the blocks means that the level of block noise generated in the 3 × 3 block group is high.
[0065]
When the variance of all the blocks is larger than the second noise determination threshold TH2, smoothing is performed by applying spatial filter processing using the first block noise removal filter F1 to each pixel constituting the target block in step S10. Done. The first block noise removal filter F1 is a block noise removal filter having a relatively strong effect, for example, as shown in FIG. If the variance of all blocks is equal to or smaller than the second noise determination threshold TH2, smoothing is performed by applying spatial filter processing using the second block noise removal filter F2 to each pixel constituting the target block in step S11. Done. The second block noise removing filter F2 is a filter for removing block noise having a relatively weak effect as shown in FIG. 6B, for example, and has a smoothing effect at least as compared with the first block noise removing filter F1. weak.
[0066]
When the variance average value ALLVar of the 3 × 3 block group to be processed is larger than the first noise determination threshold TH1 in step S5 described above, the 3 × 3 block group to be processed at an edge portion where ringing noise may occur in the image. In order to determine whether or not the target block B5 is located, the process proceeds from step S5 to step S7. The presence / absence of ringing noise is determined in two stages in steps S7 and S8.
[0067]
In step S7, among all the blocks of the 3 × 3 block group to be processed, the variances Var (1) to Var (4), Var (6) to 8 neighboring blocks B1 to B4 and B6 to B9 excluding the target block B5 are used. It is determined whether at least one of Var (9) is less than the first noise determination threshold TH1. Furthermore, in step S7, it is determined whether or not the variance Var (5) of the block of interest is greater than or equal to the first noise determination threshold value TH1. Based on these determination results, at least one of the variances Var (1) to Var (4) and Var (6) to Var (9) of all the peripheral blocks B1 to B4 and B6 to B9 is the first noise determination threshold value TH1. If the variance Var (5) of the target block is greater than or equal to the first noise determination threshold TH1, it is determined that ringing noise has occurred in the target block B5 in the processed 3 × 3 block group, and the step Proceed from step S7 to step S12. When the variances Var (1) to Var (4) and Var (6) to Var (9) of the peripheral blocks B1 to B4 and B6 to B9 are all equal to or higher than the first noise determination threshold TH1, or the variance Var ( When 5) is less than the first noise determination threshold TH1, that is, when the condition of step S7 is not met, the process proceeds from step S7 to step S8.
[0068]
In step S8, the presence / absence of ringing noise is determined again based on conditions different from those in step S7. Specifically, using the variance Var (1) to Var (9) of all the blocks of the 3 × 3 block group to be processed and the variance VarVar of the variance value of the 3 × 3 block group to be processed, A ringing noise determination value is calculated, and the presence or absence of ringing noise is determined based on the calculated determination value. The variance VarVar of the variance value of the 3 × 3 block group is calculated by the following equation 4.
[0069]
[Equation 3]
Figure 0004053460
[0070]
In step S <b> 8, the ringing noise determination value calculated based on Expression 3 is compared with the fourth noise determination threshold value TH <b> 4 stored in the threshold value storage unit 23. The fourth noise determination threshold value TH4 is 0, for example. If the determination value is larger than the fourth noise determination threshold value TH4, it is determined that ringing noise has occurred, and the process proceeds from step S8 to step S12. If the determination value is smaller than the fourth noise determination threshold TH4, it is determined that no ringing noise has occurred, and the process proceeds from step S8 to step S9.
[0071]
When the process proceeds from step S7 or step S8 to step S12, ringing noise is generated in the target block B5 of the 3 × 3 block group to be processed. Therefore, in step S12, smoothing is performed, for example, by applying a spatial filter process using a ringing noise elimination filter F3 as shown in FIG. 6C to each pixel constituting the target block B5. Is called.
[0072]
In step S9, a determination related to the smoothing process is performed on the target block B5 in which both block noise and ringing noise are not generated. In step S9, the strength of the smoothing process is adjusted based on the continuity between the blocks of the 3 × 3 block group to be processed. Specifically, when the variance Var (5) of the block of interest is equal to or less than a preset third noise determination threshold TH3, it is determined that the continuity between the blocks is relatively maintained, and the step Proceed from step S9 to step S13. In step S13, smoothing is performed by performing spatial filter processing using the first smoothing filter F4 on each pixel constituting the target block B5. The first smoothing filter F4 is a smoothing filter having a relatively weak effect as shown in FIG. 6D, for example.
[0073]
On the other hand, if it is determined that the variance Var (5) of the block of interest is larger than the third noise determination threshold TH3, it is determined that the continuity between the blocks is relatively lost, and the process proceeds from step S9 to step S14. In step S14, smoothing is performed by applying a spatial filter process using the second smoothing filter F5 to each pixel constituting the target block B5. The second smoothing filter F5 is a filter for smoothing processing having a relatively strong effect, for example, as shown in FIG. 6E, and is more effective than at least the first smoothing filter F4.
[0074]
As described above, the image processing apparatus 3 performs noise determination of block noise and ringing noise in units of 3 × 3 block groups, and performs noise removal processing based on the noise determination result. The image processing apparatus 3 performs halftone processing on the pixels in each block after performing the noise removal processing in steps S10 to S14. That is, in steps S15 to S18 in FIG. 4, error diffusion processing is performed based on the type of noise and the level of noise.
[0075]
Table 1 shows a specific example of the quantization threshold THa used in steps S15 to S18 in FIG. In the description of Step S15 to Step S18 and Table 1, it is assumed that the pixel value of the pixel is represented by 256 gradations. For example, when the pixel value is represented by 256 gradations, the low density portion pixel is a pixel having a pixel value of 0 or more and 20 or less. The pixel in the high density portion is a pixel having a pixel value of 236 or more and 255 or less. The middle density pixel is a pixel having a pixel value of 21 or more and 235 or less.
[0076]
[Table 1]
Figure 0004053460
[0077]
The block of interest B5 from which block noise has been removed using the first block noise removal filter F1 in step S10 proceeds from step S10 to step S15 and is processed. In step S15, paying attention to the fact that block noise occurs at the boundary between adjacent blocks, the following error diffusion processing is performed on the pixels in the boundary two-pixel area AR1 in the target block B5. The boundary two-pixel area AR1 is an area indicated by a diagonal line rising to the right in FIG. 7, and is an area corresponding to two pixels located at the boundary portion of the target block B5.
[0078]
Specific error diffusion processing in step S15 is as follows. In the restored image, the target block B5 processed in step S10 has continuity with the adjacent blocks B1 to B4 and B6 to B9, and thus corresponds to a flat portion in the restored image. For this reason, first, in order to prevent the pixel value from being frequently inverted by the error diffusion process, the following is performed in the density determination unit 34 shown in FIG. 3 for the low density and high density pixels in the boundary 2 pixel area AR1. Such pixel value saturation processing is performed. Specifically, the pixel value is saturated to 0 for the low density pixel. Further, the pixel value is saturated to 255 for the pixels in the high density portion. The pixels in the intermediate density portion are not subjected to pixel value saturation processing, and the original pixel values are maintained. Further, instead of saturating the pixel value in the density determination unit 34, the error determination unit 13 may perform error truncation or rounding based on the density determination signal of the density determination unit 34. After the saturation process in the density determination unit 34, as described in FIG. 3, the diffusion error stored in the error storage unit 33 is added to the pixel value of each pixel of the block of interest B5.
[0079]
Next, based on the noise determination signal obtained by the noise determination performed in steps S5 to S9 and the density determination signal obtained by the density determination performed in the density determination unit 34, the quantization processing unit 12 Quantization processing is performed. Specifically, since the block of interest B5 processed in step S10 is a block in which relatively large block noise is generated, among the quantization thresholds THa stored in the quantization threshold storage unit 31, Table 1 Quantization is performed using the quantization threshold THa shown in “Error diffusion (1)”.
[0080]
In the quantization process in step S15, when the density determination unit 34 determines that the pixel to be processed is a low density part or a high density part pixel, as shown in Table 1, the level 1 quantization threshold THa is 64. And 192 is used as the level 3 quantization threshold THa. When the density determination unit 34 determines that the pixel to be processed is an intermediate density pixel, as shown in Table 1, 180 is used as the level 1 quantization threshold THa, and the level 3 quantization threshold THa. 76 is used. Thereby, in the pixels in the intermediate density portion, it is possible to easily invert the pixel values by error diffusion processing. As described above, in the quantization process in step S15, for the pixels in the intermediate density portion, the quantization threshold THa is set low on the high density side and low in order to easily cause the signal value to be inverted by the error diffusion process. Set higher on the density side.
[0081]
Next, as described above, the diffusion coefficient setting unit 14 determines the diffusion coefficient THc. The diffusion coefficient THc is determined based on the noise determination signal. For blocks in which block noise may occur, the diffusion coefficient THc of the first error diffusion range Dif1 as shown in FIG. 8A is set, and error diffusion processing is performed using the first error diffusion range Dif1. Is done.
[0082]
In the above example, the case where the pixel value of the pixel in the low density portion or the high density portion is saturated to 0 or 255 has been described. However, the error determination unit 13 may correct the quantization error to 0. . That is, the density determination unit 34 determines the density of the input pixel, and the error determination unit 13 sets the pixels determined to be the low density part or the high density part based on the obtained density determination result. The determination error may be set to 0.
[0083]
In the quantization process in step S15, the error diffusion process is performed on the pixels in the area other than the boundary 2-pixel area AR1 in the target block B5 without performing the density determination in the density determination unit 34. That is, the error diffusion process may be performed without changing the quantization threshold THa according to the density of the pixels outside the boundary two-pixel area AR1 in the target block B5.
[0084]
The block of interest B5 from which block noise has been removed using the second block noise removal filter F2 in step S11 proceeds from step S11 to step S16 and is processed. In step S16, focusing on the fact that block noise tends to remain at the boundary between adjacent blocks, the following error diffusion processing is performed on the pixels in the boundary 1 pixel area AR2 in the target block B5. The boundary 1-pixel area AR2 is an area indicated by diagonally slanting lines in FIG. 7, and is an area for one pixel located at the boundary portion of the target block B5. That is, the process of step S16 is performed on an area for one pixel located on the boundary side of the target block in the boundary two-pixel area AR1 that is the processing target in step S15.
[0085]
The specific error diffusion process in step S16 is as follows. First, the density determination unit 34 shown in FIG. 3 performs density determination in the same manner as the process performed in step S15. That is, the pixels in the low density portion or the high density portion are saturated, and the saturation process is not performed on the pixels in the intermediate density portion. Next, the quantization processing unit 12 performs quantization using the quantization threshold THa shown in “Error diffusion (2)” in Table 1. The quantization processing unit 12 performs quantization by changing the quantization threshold THa between the low density part or the high density part and the intermediate density part, similarly to the process performed in step S15. Subsequently, the diffusion coefficient setting unit 14 sets the diffusion coefficient THc of the first error diffusion range Dif1 shown in FIG. 8A based on the noise determination signal, and performs error diffusion processing using the first error diffusion range Dif1. I do. Also in step S16, as described in step S15, the density determination unit 34 does not saturate the pixel values of the low density part or high density part pixels, but the error determination unit 13 sets the quantization error to 0. You may make it set. In the quantization process in step S16, the error diffusion process is performed on the pixels in the area other than the boundary 1 pixel area AR2 in the target block B5 without performing the density determination by the density determination unit 34. That is, the error diffusion process may be performed without changing the quantization threshold THa and performing quantization according to the density of the pixels outside the boundary 1 pixel area AR2 in the target block B5.
[0086]
The block of interest B5 from which block noise has been removed using the ringing noise removal filter F3 in step S12 proceeds from step S12 to step S17 and is processed. Ringing noise is particularly likely to occur in a high-contrast portion of the pixel density regardless of the position in the block. Therefore, in step S17, pixel values are less likely to be frequently inverted due to error accumulation by error diffusion processing. The process is performed. In step S17, processing is performed on all the pixels in the block.
[0087]
The specific error diffusion process in step S17 is as follows. First, as performed in steps S15 and S16, the density determination unit 34 saturates the pixels in the low density part or the high density part, and does not perform saturation processing on the pixels in the intermediate density part. Next, the quantization processing unit 12 performs quantization using the quantization threshold THa shown in “Error diffusion (3)” in Table 1. In step S17, unlike steps S15 and S16, the same quantization threshold THa is used for all pixels in the target block B5 regardless of the low density portion, the high density portion, and the intermediate density portion. Quantization is performed. Subsequently, the diffusion coefficient setting unit 14 sets the diffusion coefficient THc of the second error diffusion range Dif2 shown in FIG. 8B based on the noise determination signal, and performs error diffusion processing using the second error diffusion range Dif2. I do. The first error diffusion range Dif1 has a wider processing range centered on the target pixel to be processed than the second error diffusion range Dif2. As described in step S15 and step S16, also in step S17, the density determination unit 34 does not saturate the pixel values of the pixels in the low density part or the high density part, but the error determination unit 13 introduces a quantization error. You may make it set to 0.
[0088]
In addition, it is determined that neither block noise nor ringing noise is generated, and the target block B5 smoothed using the first and second smoothing filters F4 and F5 in step S13 and step S14 is step S13. The process proceeds from step S14 to step S18. Since the block of interest B5 that has proceeded to step S18 is located in an area where distortion has not occurred, the density determination by the density determination unit 34 is not performed, and the quantization threshold THa shown in “Error diffusion (4)” in Table 1 is used. Thus, the quantization processing unit 12 performs quantization. That is, the quantization processing unit 12 performs the quantization using the same quantization threshold THa on all the pixels in the target block B5 regardless of the low density part, the high density part, and the intermediate density part. Subsequently, the diffusion coefficient setting unit 14 sets the diffusion coefficient THc of the second error diffusion range Dif2 shown in FIG. 8B based on the noise determination signal, and performs error diffusion processing using the second error diffusion range Dif2. I do. The process of step S18 is performed on all the pixels in the target block B5, similarly to step S17.
[0089]
As described above, in steps S15 to S18 in FIG. 4, based on the noise determination signal, the error diffusion process according to the noise type and the noise level is performed, and the density determination signal determined by the density determination unit 34 is applied. Based on the above, error diffusion processing is performed. Thus, not only the noise removal processing of the spatial filter processing unit 9 performed in steps S4 to S14 but also the error diffusion processing performed in the gradation reproduction processing unit 8, the quantization threshold THa and the error determination threshold THb or the diffusion Using a simple method of switching the coefficient THc, processing according to the type of noise and the level of noise can be performed. After error diffusion processing has been performed for all pixels in the restored image, the process proceeds from step S15 to step S18 to step S19, and the flowchart of FIG. 4 is completed.
[0090]
As described above, the image processing device 3 in FIG. 1 specifically obtains block noise by obtaining a variance for each block with respect to data obtained by decoding encoded data of an image. The presence / absence of noise typified by ringing noise, the type of noise, and the noise level are obtained. Further, the image processing apparatus 3 performs a noise removal process corresponding to each obtained noise, and further performs an appropriate halftone process corresponding to the noise. As a result, the image processing apparatus 3 can effectively remove noise from the decoded data of the image.
[0091]
Next, a more detailed configuration of the image processing apparatus 3 that executes the above-described image processing method will be described with reference to FIG. The image processing apparatus 3 in FIG. 1 includes an input tone correction unit 41, a color space conversion unit 42, a color correction unit 43, a black color in addition to the restoration processing unit 20, the gradation reproduction processing unit 8, and the spatial filter processing unit 9. A generation undercolor removal unit 44, an output tone correction unit 45, and an image storage unit 46 are included. The image forming apparatus 1 includes an operation panel 48 in addition to the image processing apparatus 3 and the image output apparatus 4. The image forming apparatus 1 including the image processing apparatus 3 and the image output apparatus 4 is realized by, for example, a so-called multifunction machine or printer. The operation panel 48 is operated by a user of the image forming apparatus 1, and the operation result is given to the image processing apparatus 3 and the image output apparatus 4 to be appropriately processed.
[0092]
Image data generated by various image input devices is input to the image processing device 3 via an interface. Examples of the given image data include encoded data of an image captured by a digital camera, and still image data captured from a moving image using software on a computer. Examples of the interface standard between the image input device and the image processing device 3 include USB (Universal Serial Bus) and IEEE 1394 (Institute of Electrical and Electronic Engineers). The encoded data of the image given to the image processing device 3 is formatted, for example, as standard data represented by JPEG.
[0093]
The image data given to the image processing device 3 is stored in the image processing device 3 in the restoration processing unit 20, the input tone correction unit 41, the spatial filter processing unit 9, the color space conversion unit 42, the color correction unit 43, and the black. The generated lower color removal unit 44, the output gradation correction unit 45, and the gradation reproduction processing unit 8 are sequentially transmitted in this order. The image data supplied to the image processing device 3 is initially a digital color signal in the form of a YCbCr signal, and finally is output from the image processing device 3 as image data in the form of a digital color signal in the form of a CMYK signal. It is output to the device 4.
[0094]
The restoration processing unit 20 decodes the encoded data of the image in the YCbCr signal format, and further performs inverse quantization processing and inverse orthogonal transform processing, thereby converting the encoded data of the image in the YCbCr signal format into the image in the YCbCr signal format. To decrypted data. Further, the restoration processing unit 20 determines whether or not block noise and ringing noise are generated in the restored image indicated by the obtained decoded data, and outputs the determination result of the noise occurrence state as a noise determination signal.
[0095]
The input tone correction unit 41 performs tone scale correction processing and color balance correction processing on the pixel data of the decoded data of the YCbCr signal system image decoded by the decoding processing unit 6 as necessary. Apply. The spatial filter processing unit 9 performs spatial filter processing using a digital filter on the image data of the YCbCr signal input from the input tone correction unit 41 based on the noise determination signal, thereby correcting the spatial frequency characteristics. Processing is performed to prevent block noise and ringing noise.
[0096]
The color space conversion unit 42 converts the color space of the decoded data of the image in the YCbCr signal format to L * a * b * Convert to the color space of the color system. L after color space conversion * a * b * The decoded data of the signal form image is input to the color correction unit 43 in the subsequent stage. The color correction unit 43 receives the given L * a * b * The decoded image data in the signal form is subjected to color correction in accordance with the characteristics of the image output device 4 and converted into the decoded image data in the CMY signal form after color space conversion. The decoded data of the image in the CMY signal format after color correction is input to the subsequent black generation and under color removal unit 44.
[0097]
The black generation / under color removal unit 44 performs black generation processing and under color removal processing based on the CMY signal format image data supplied from the color correction unit 43, and converts the CMY signal format image data into the CMYK signal format. Convert to image data. The black generation process is a process of generating a black signal from the three color signals of CMY included in the image data in the CMY signal format. The under color removal process is a process for generating a new CMY color signal by subtracting the black color signal from the three CMY color signals included in the image data in the CMY signal format. The image data in the CMYK signal format includes, for each pixel, a black color signal generated by the black generation process and a CMY color signal generated by the under color removal process.
[0098]
As an example of the black generation process, there is a method of generating black using skeleton black. In the method using skeleton black, black generation processing and under color removal processing are simultaneously performed on a pixel to be processed. Specifically, in the above method, the color signal of the pixel to be processed is converted as shown by the following simultaneous equations. In the following simultaneous equations, the input / output characteristic of the skeleton curve is “y = f (x)”, the input color signals of the pixels in the CMY signal form are “C”, “M”, “Y”, and the output CMYK. Each color signal of the pixel in the signal form is represented as “C #”, “M #”, “Y #”, “K #”, and the UCR (Under Color Removal) rate is represented by “α” (0 <α <1). The UCR rate α is a numerical value greater than 0 and less than 1.
Figure 0004053460
[0099]
The output tone correction unit 45 performs output tone correction processing corresponding to the tone reproduction characteristics of the image output device 4 on the decoded image data in the CMYK signal format. The output tone correction process is a process for converting image data composed of a signal indicating the color density of each pixel into image data composed of a signal indicating a halftone dot area ratio, for example.
[0100]
The gradation reproduction processing unit 8 performs halftone processing which is so-called halftone generation processing on the decoded data of the image in the CMYK signal format after the output gradation correction. Further, the gradation reproduction processing unit 8 performs the above-described error diffusion processing based on the noise determination signal on the decoded data of the image in the CMYK signal format, similarly to the spatial filter processing unit 9. The halftone process is a process of determining the pixel density so that the restored image represented by the decoded data is separated into pixels, and the gradations in the image are reproduced.
[0101]
The decoded data of the image subjected to the processing in each of the processing units 20, 41, 9, 42 to 45, 8 from the restoration processing unit 20 to the gradation reproduction processing unit 8 is preferably, for example, the image storage unit 46. Are once stored, read at a predetermined timing, and input to the image output device 4. The image output device 4 visualizes the image based on the decoded data of the given image. The image output device 4 is realized by, for example, a printing device that uses a processing method represented by an electrophotographic method and an inkjet method. The printing apparatus outputs the visualized image on a recording medium realized by paper or the like. The image output device 4 is not limited to a printing device for recording media, and may be realized by an image output device 4 of another form. For example, the image output device 4 may be realized by a display device. A display device typified by a cathode ray tube (CRT) device and a liquid crystal display displays the visualized image on a screen included in the display device. In this case, in the image processing apparatus 3, the black generation and under color removal unit 44 is unnecessary and is omitted.
[0102]
FIG. 9 is a block diagram showing a configuration of an image forming apparatus 61 according to another embodiment of the present invention. FIG. 1 illustrates a configuration in which the image processing apparatus 3 includes a decoding processing unit 6, a noise determination unit 7, and a gradation reproduction processing unit 8. In the image forming apparatus 61 in FIG. 9, an image processing program 64 for causing the computer 63 to realize the functions of the decoding processing unit 6, the noise determination unit 7, and the gradation reproduction processing unit 8 is prepared in advance. The image processing apparatus 3 is realized by installing and executing the processing program 64 in a general-purpose computer 63. Thus, after decoding the encoded data of the image, the computer 63 determines the noise occurrence state in the restored image, and applies halftone processing according to the noise occurrence state to the decoded image data. As a result, the image processing program 64 can effectively remove noise generated by decoding the compression-encoded data from the decoded data using the general-purpose computer 63.
[0103]
In the image forming apparatus 61 configured as shown in FIG. 9, specifically, the computer 63 includes application software 71, a printer driver 72, a communication port driver 73, a communication port 74, and a central processing unit (CPU) 75. And a storage unit 76. In the example of FIG. 9, the image processing program 64 is divided into a program in the application software 71 and a program in the printer driver 72. The communication port 74 is realized by, for example, a communication port 74 based on the RS232C standard or a communication port 74 for LAN. The application software 71, the printer driver 72, and the communication port 74 driver 73 are stored in the storage unit 76, for example. The central processing unit 75 executes programs included in the application software 71, the printer driver 72, and the communication port 74 driver 73.
[0104]
Image encoded data represented by image data captured by a digital camera and still image data captured from a moving image is supplied to a computer 63. In the example of FIG. 9, noise determination processing and noise removal processing are executed by application software on the encoded data of a given image, and a processed restored image is output from the printer.
[0105]
The program of the application software 71 causes the computer 63 to execute the functions of the decoding processing unit 6 in FIG. 1 and the noise determination unit 7 in FIG. Preferably, the program of the application software 71 causes the computer 63 to further execute the function of the spatial filter processing unit 9 of FIG. As a result, decoding processing is performed on the encoded data of the image given to the computer 63, and noise determination processing of the restored image and a spatial filter for noise removal are performed on the obtained decoded data of the image. Processing is performed by the computer 63.
[0106]
The program of the printer driver 72 generally causes the computer 63 to execute halftone processing including noise removal processing on the decoded image data after the spatial filter processing. Specifically, the computer 63 that executes the program of the printer driver 72 performs the processing of the color correction unit 43 in FIG. 1 and the black generation and under color removal unit 44 in FIG. 1 on the image data after the spatial filter processing. The processing, the processing of the output tone correction unit 45 of FIG. 1, and the processing of the tone reproduction processing unit 8 of FIG. The computer 63 that executes the program of the printer driver 72 further realizes a printer language translation unit 77. The printer language translation unit 77 converts the decoded data of the image after halftone processing into a printer language. The decoded image data after the printer language conversion is given to the printer which is the image output device 4 via the communication port 74 driver 73 and the communication port 74.
[0107]
The image processing program 64 described above is preferably recorded on a computer-readable recording medium. If such a recording medium is used, a general-purpose computer 63 can easily use an image processing program 64 that can effectively remove noise generated by decoding of encoded image data from the decoded image data. It becomes possible to supply to. As a result, the recording medium on which the image processing program 64 is recorded can be provided in a portable manner, so that the functions realized by the image processing program 64 can be easily distributed.
[0108]
In the present embodiment, specifically, the central processing unit 75 in the computer 63 executes the image processing program 64. As a program medium that is a recording medium in which the image processing program 64 is stored, for example, a non-volatile memory used for the storage unit 76 of the computer 63 may be used. Alternatively, if the storage unit 76 of the computer 63 is provided with a medium reading device as an external storage device, it can be removably inserted into the medium reading device, and the internal program can be inserted into the medium reading device. A recording medium that can be read by the computer 63 may be used as the program medium.
[0109]
The central processing unit 75 has a configuration in which the image processing program 64 stored in the recording medium is executed by the central processing unit 75 in the computer 63 directly accessing the recording medium, for example. Alternatively, the image processing program 64 stored in the recording medium is once read from the recording medium, downloaded to the program storage area in the storage unit 76, and the downloaded image processing program 64 is sent to the central processing unit 75. It may be configured to be executed. Regardless of the two types of program media described above, the configuration of the image processing program 64 may be either of the two types described above. It is assumed that the program for downloading the program is stored in the computer 63 in advance.
[0110]
The program medium which is a recording medium storing the image processing program 64 is preferably configured to be separable from the computer 63 main body. Examples of the recording medium used as the program medium include a tape recording medium, a disk recording medium, a card recording medium, and a memory recording medium. Examples of the tape recording medium include a magnetic tape and a cassette tape. Examples of the disk recording medium include a magnetic disk medium represented by a floppy (R) disk and a hard disk device, an optical disk medium represented by a CD-ROM (Compact Disc-Read Only Memory) and a DVD (Digital Video Disc), In addition, magneto-optical disk media represented by MO (Magneto-Optic Disc) and MD (Mini Disc) can be mentioned. Examples of the card-type recording medium include an IC (Integrated Circuit) card including a so-called memory card and an optical card. Examples of the memory recording medium include a nonvolatile semiconductor memory. Nonvolatile semiconductor memories include, for example, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), and flash ROM. Thus, the recording medium used for the program medium may be a medium that carries the program in a fixed manner.
[0111]
Further, the above-described image processing program 64 is not limited to the situation given to the computer 63 via a recording medium, but may be given to the computer 63 by communication via a transmission medium. Examples of the transmission medium include a transmission line of a telephone line network, a transmission line of a computer network using a LAN (Local Area Network) and a WAN (Wide Area Network), and a transmission cable for connecting computers. This makes it easier to implement the image processing device 3. Specifically, when the image processing apparatus 3 of FIG. 9 has a configuration that can be connected to a communication network including the Internet, the image processing program 64 may be downloaded from the communication network. When the image processing program 64 is downloaded from the communication network, the download program may be stored in advance in the computer 63 main body, or may be installed in advance in the computer 63 from another recording medium.
[0112]
As described above, the image processing apparatus 3 in FIGS. 1 and 9 specifically distributes the block-by-block distribution to the data obtained by decoding the compression-encoded image data. By obtaining, the presence / absence of noise represented by block noise and ringing noise, the type of noise, and the level of noise are obtained. Further, the image processing apparatus 3 performs a noise removal process corresponding to each obtained noise, and further performs an appropriate halftone process corresponding to the noise.
[0113]
The image forming apparatuses 1 and 61 and the image processing apparatus 3 according to the first and second embodiments are examples of the image forming apparatus and the image processing apparatus 3 of the present invention. It can be realized in various forms. In particular, the detailed configuration and operation of each component of the image processing apparatus 3 are not limited to the above-described configuration and operation as long as the same effect can be obtained, and may be realized by other configurations and operations. The processing unit of the image processing apparatus 3 is not limited to a configuration realized by individual circuits, but is functionally realized by causing a computer to execute control software for realizing the functions of one or more processing units. May be.
[0114]
【The invention's effect】
As described above, according to the present invention, the image processing apparatus decodes the compression-encoded image data, and determines the noise occurrence status in the image represented by the decoded data in units of blocks. Based on the result, halftone processing that not only reproduces the gradation but also reduces noise is performed on the decoded data. As a result, the image processing apparatus can effectively remove noise in the decoded data of the image while performing halftone processing.
[0115]
According to the invention, in the image processing apparatus, the image represented by the decoded data is divided into one or more blocks, and halftone processing is performed for each block. As a result, the image processing apparatus can prevent the occurrence of textures at the block boundaries in the image after halftone processing. Furthermore, according to the present invention, in the image processing apparatus, error diffusion processing is performed on the decoded data of the image as halftone processing. At least one of the three constants of the quantization threshold, the error determination threshold, and the diffusion coefficient used in the error diffusion process is switched according to the determination result of the noise occurrence state in the image. As a result, the image processing apparatus can easily prevent the occurrence of texture at the boundary of blocks in the image after halftone processing.
[0116]
According to the present invention, in the image processing apparatus, prior to the processing of the gradation reproduction processing unit, spatial filter processing for reducing noise is performed on the decoded data of the image. As a result, the image processing apparatus can more effectively remove noise from the image represented by the decoded data.
[0117]
Furthermore, as described above, according to the present invention, the image forming apparatus performs halftone processing on the decoded data of the image based on the noise generation state for each block of the image, and the halftone processing is performed. The image is visualized based on the image data. As a result, the image forming apparatus can provide a high-quality output image.
[0118]
Further, as described above, according to the present invention, the image processing method determines the decoding process of the compression-encoded image data and the noise occurrence status in the image represented by the decoded data in units of blocks. Noise determination processing is performed, and based on the determination result of the noise determination processing, halftone processing that not only reproduces gradation but also reduces noise is performed on the decoded data of the image. Thereby, when the image processing method is applied, noise generated by decoding the compression-encoded data can be effectively removed from the decoded data.
[0119]
Furthermore, as described above, according to the present invention, the image processing program decodes the function of decoding the compression-encoded data of the image and the occurrence of noise in the image represented by the decoded data in units of blocks. The computer is allowed to realize a function of determining and a function of performing halftone processing for reproducing noise and reducing noise while reproducing the gradation, on the decoded data of the image. Thus, the image processing program can effectively remove noise generated by decoding the compression-encoded data from the decoded data using a general-purpose computer. As described above, according to the present invention, the recording medium records the above-described image processing program, and the computer can read the image processing program. This facilitates the distribution of functions realized by the image processing program.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of an image forming apparatus 1 according to an embodiment of the present invention.
2 is a block diagram illustrating a functional configuration of a restoration processing unit 20 of the image processing apparatus 3 in FIG.
3 is a block diagram showing a functional configuration of a gradation reproduction processing unit 8 of the image processing apparatus 3 of FIG.
4 is a flowchart for explaining image processing performed in the image processing apparatus 3 of FIG. 1; FIG.
5 is a schematic diagram illustrating a configuration of a 3 × 3 block group used in noise determination processing performed in a noise determination unit 7 of the image processing apparatus in FIG. 1;
6 is a schematic diagram illustrating a configuration of a filter used in the spatial filter processing unit 9 of the image processing apparatus in FIG. 1. FIG.
7 is a schematic diagram showing a region to be processed in error diffusion processing performed in the gradation reproduction processing unit 8 of the image processing apparatus in FIG. 1; FIG.
8 is a schematic diagram showing an error diffusion range used in error diffusion processing performed in the gradation reproduction processing unit 8 of the image processing apparatus of FIG.
FIG. 9 is a block diagram showing an overall configuration of an image forming apparatus 61 according to another embodiment of the present invention.
[Explanation of symbols]
1,61 Image forming apparatus
3 Image processing device
4 Image output device
6 Decryption processing unit
7 Noise judgment part
8 gradation reproduction processing section
9 Spatial filter processing section
11 Adder
12 Quantization processing section
13 Error judgment part
14 Diffusion coefficient setting part
63 computer
64 Image processing program
THa Quantization threshold
THb Error judgment threshold
THc diffusion coefficient
B5 attention block
B1-B4, B6-B9 peripheral block

Claims (8)

画像を表す圧縮符号化されたデータが与えられ、該圧縮符号化されたデータを復号化する復号処理部と、
復号化されたデータが表す画像を複数の画素を含む注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理することでブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択するノイズ判定部と、
ノイズ判定部の判定結果に基づいて、階調を再現させつつノイズを低減させるための中間調処理を、画像の復号化されたデータに対して施す階調再現処理部とを含むことを特徴とする画像処理装置。
A compression processing unit that receives compression-encoded data representing an image and decodes the compression-encoded data;
The image represented by the decoded data is divided into a target block including a plurality of pixels and peripheral blocks around the target block, and a variance of pixel values of all pixels is calculated for each block, and threshold processing is performed based on the calculated variance. Whether or not noise is generated in the block is determined for each block, and for the block in which noise is generated, the type of noise and the degree of occurrence of the noise are determined , and based on the determination result A noise determination unit for selecting a noise removal filter to be used for spatial filter processing ;
A gradation reproduction processing unit that performs halftone processing for reducing the noise while reproducing the gradation based on the determination result of the noise determination unit, on the decoded data of the image, An image processing apparatus.
前記階調再現処理部が、前記復号化されたデータが表す画像を複数の画素を含む1以上のブロックに分割し、前記中間調処理をブロック毎に施すことを特徴とする請求項1記載の画像処理装置。  The gradation reproduction processing unit divides an image represented by the decoded data into one or more blocks including a plurality of pixels, and performs the halftone processing for each block. Image processing device. 前記階調再現処理部が、前記画像の復号化されたデータに対する誤差拡散処理を行うことによって中間調処理を実現するために、
(A)前記画像の復号化されたデータに基づき、該画像を構成する画素毎に、画素値と拡散誤差との和である拡散画素値を求める加算器と、
(B)予め定める量子化閾値に基づいて各画素の拡散画素値を量子化することによって、中間調処理された画像のデータの画素値となるべき量子化値を画素毎に求め、かつ、拡散画素値と量子化値との差である量子化誤差を画素毎にさらに求める量子化処理部と、
(C)予め定める誤差判定閾値に基づいて、量子化誤差を補正する誤差判定部と、
(D)予め定める拡散係数に基づいて、補正された量子化誤差を未処理の画素値に割振るための拡散誤差を算出する拡散係数設定部とを含み、
前記量子化閾値と誤差判定閾値と拡散係数とのうちの少なくとも1つが、前記ノイズ判定部の判定結果に基づいて切換えられることを特徴とする請求項1または2記載の画像処理装置。
In order for the gradation reproduction processing unit to perform halftone processing by performing error diffusion processing on the decoded data of the image,
(A) based on the decoded data of the image, for each pixel constituting the image, an adder that obtains a diffusion pixel value that is the sum of a pixel value and a diffusion error;
(B) By quantizing the diffusion pixel value of each pixel based on a predetermined quantization threshold, a quantization value to be the pixel value of the halftone processed image data is obtained for each pixel, and diffusion is performed A quantization processing unit that further obtains a quantization error, which is a difference between the pixel value and the quantization value, for each pixel;
(C) an error determination unit that corrects a quantization error based on a predetermined error determination threshold;
(D) a diffusion coefficient setting unit that calculates a diffusion error for allocating a corrected quantization error to an unprocessed pixel value based on a predetermined diffusion coefficient;
The image processing apparatus according to claim 1, wherein at least one of the quantization threshold, the error determination threshold, and the diffusion coefficient is switched based on a determination result of the noise determination unit.
ノイズ判定部の判定結果に基づいて、ノイズを低減させるための空間フィルタ処理を、画像の復号化されたデータに対して施す空間フィルタ処理部をさらに含み、
前記階調再現処理部が、空間フィルタ処理を施された画像のデータに対して、中間調処理を施すことを特徴とする請求項1〜3のうちのいずれか1項記載の画像処理装置。
A spatial filter processing unit that performs spatial filtering on the decoded data of the image based on the determination result of the noise determination unit;
The image processing apparatus according to claim 1, wherein the gradation reproduction processing unit performs halftone processing on image data that has been subjected to spatial filter processing.
請求項1〜4のうちのいずれか1項記載の画像処理装置と、
中間調処理が施された画像のデータが与えられ、該画像のデータに基づいて画像を顕像化する画像出力装置とを含むことを特徴とする画像形成装置。
An image processing device according to any one of claims 1 to 4,
An image forming apparatus, comprising: an image output device that receives image data subjected to halftone processing and visualizes the image based on the image data.
画像を表す圧縮符号化されたデータを復号化する処理と、
復号化されたデータが表す画像を複数の画素を含む注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理することでブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択する処理と、
ノイズの判定結果に基づいて、階調を再現させつつノイズを低減させるための中間調処理を、画像の復号化されたデータに対して施す処理とを含むことを特徴とする画像処理方法。
A process of decoding compression-encoded data representing an image;
The image represented by the decoded data is divided into a target block including a plurality of pixels and peripheral blocks around the target block, and a variance of pixel values of all pixels is calculated for each block, and threshold processing is performed based on the calculated variance. Whether or not noise is generated in the block is determined for each block, and for the block in which noise is generated, the type of noise and the degree of occurrence of the noise are determined , and based on the determination result A process of selecting a noise removal filter to be used for the spatial filter process ;
An image processing method comprising: performing halftone processing for reducing noise while reproducing gradation based on a determination result of noise on the decoded data of the image.
画像を表す圧縮符号化されたデータを復号化する機能と、
復号化されたデータが表す画像を複数の画素を含む注目ブロックと注目ブロック周辺の周辺ブロックとに分割し、ブロック毎に全画素の画素値の分散を算出し、算出した分散に基づいて閾値処理することでブロック内にノイズが生じているか否かをブロック毎に判定し、かつ、ノイズが生じているブロックに関しては、該ノイズの種類および該ノイズの発生度合いを判定し、判定結果に基づいて空間フィルタ処理に用いるノイズ除去フィルタを選択する機能と、
ノイズの判定結果に基づいて、階調を再現させつつノイズを低減させるための中間調処理を、画像の復号化されたデータに対して施す機能とを、コンピュータに実現させることを特徴とする画像処理プログラム。
A function of decoding compression-coded data representing an image;
The image represented by the decoded data is divided into a target block including a plurality of pixels and peripheral blocks around the target block, and a variance of pixel values of all pixels is calculated for each block, and threshold processing is performed based on the calculated variance. Whether or not noise is generated in the block is determined for each block, and for the block in which noise is generated, the type of noise and the degree of occurrence of the noise are determined , and based on the determination result A function of selecting a noise removal filter used for spatial filter processing ;
An image characterized by causing a computer to realize a function of performing halftone processing for reducing noise while reproducing gradation based on a determination result of noise on the decoded data of the image Processing program.
請求項7記載の画像処理プログラムを記録していることを特徴とするコンピュータ読取り可能な記録媒体。  A computer-readable recording medium on which the image processing program according to claim 7 is recorded.
JP2003136111A 2003-05-14 2003-05-14 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium Expired - Fee Related JP4053460B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003136111A JP4053460B2 (en) 2003-05-14 2003-05-14 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003136111A JP4053460B2 (en) 2003-05-14 2003-05-14 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004343334A JP2004343334A (en) 2004-12-02
JP4053460B2 true JP4053460B2 (en) 2008-02-27

Family

ID=33526185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003136111A Expired - Fee Related JP4053460B2 (en) 2003-05-14 2003-05-14 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP4053460B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104735295A (en) * 2013-12-24 2015-06-24 佳能株式会社 Information processing apparatus and information processing method
US9300844B2 (en) 2013-12-24 2016-03-29 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US9369609B2 (en) 2013-12-24 2016-06-14 Canon Kabushiki Kaisha Information processing apparatus E.G. printing apparatus to print image based on data to be printed, determines parameter to be used based on degree of compression when error diffusion processing is performed on expanded image data

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224076B2 (en) * 2006-11-29 2012-07-17 Panasonic Corporation Image processing method and image processing apparatus
US10123050B2 (en) * 2008-07-11 2018-11-06 Qualcomm Incorporated Filtering video data using a plurality of filters
JP2010211498A (en) * 2009-03-10 2010-09-24 Kyodo Printing Co Ltd Image processing program and image processing system
WO2010131296A1 (en) * 2009-05-14 2010-11-18 株式会社 東芝 Image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104735295A (en) * 2013-12-24 2015-06-24 佳能株式会社 Information processing apparatus and information processing method
US9277099B2 (en) 2013-12-24 2016-03-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US9300844B2 (en) 2013-12-24 2016-03-29 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US9369609B2 (en) 2013-12-24 2016-06-14 Canon Kabushiki Kaisha Information processing apparatus E.G. printing apparatus to print image based on data to be printed, determines parameter to be used based on degree of compression when error diffusion processing is performed on expanded image data
CN104735295B (en) * 2013-12-24 2018-01-05 佳能株式会社 Message processing device and information processing method

Also Published As

Publication number Publication date
JP2004343334A (en) 2004-12-02

Similar Documents

Publication Publication Date Title
JP4145665B2 (en) Image processing apparatus and image processing method
JP4732488B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium
US7486829B2 (en) Apparatus and method for image processing, and computer product
JP4176114B2 (en) Image compression apparatus, image reading apparatus including the same, image processing apparatus including the image compression apparatus, image forming apparatus including the same, and image compression processing method
JP2008227759A (en) Image processing device, image forming device, image processing method, image processing program, and computer readable recording medium
JP4053460B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2004312387A (en) Image processing method, image processing device, image forming device, image pickup device, and computer program
JP2018019239A (en) Imaging apparatus, control method therefor and program
JP3804906B2 (en) Line image processing method and recording medium
JP2010278933A (en) Image processing device, image forming device, image processing method, program and recording medium
JP4040528B2 (en) Image processing apparatus, image processing method, image processing program, recording medium storing image processing program, and image forming apparatus including image processing apparatus
JP5521766B2 (en) Image data encoding method
Fung et al. A POCS-based restoration algorithm for restoring halftoned color-quantized images
JP6024363B2 (en) Image processing device
JP4011494B2 (en) Image processing apparatus, image processing method, program, and recording medium
KR100676226B1 (en) Method for post-processing of moving picture codec and Method for its edge compensation and improvement filtering
JP3117331B2 (en) Image data processing device
CN117014557B (en) Compression method and device for document image, electronic equipment and storage medium
JP4926128B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, computer program, recording medium, and image processing method
JP4024735B2 (en) Image processing method, image processing apparatus, image forming apparatus, imaging apparatus, and computer program
JP2008271131A (en) Method and device for image processing, and image forming apparatus
JP2004341620A (en) Interpolation processing method, interpolation processing program, recording medium with its program recorded thereon, image processor and image forming apparatus
JP3262834B2 (en) Color image processing equipment
JPH06303425A (en) Image area separating method
JP2002064712A (en) Image processing unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4053460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101214

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111214

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121214

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees