JP4116193B2 - Color image processing apparatus and color image processing method - Google Patents

Color image processing apparatus and color image processing method Download PDF

Info

Publication number
JP4116193B2
JP4116193B2 JP13512599A JP13512599A JP4116193B2 JP 4116193 B2 JP4116193 B2 JP 4116193B2 JP 13512599 A JP13512599 A JP 13512599A JP 13512599 A JP13512599 A JP 13512599A JP 4116193 B2 JP4116193 B2 JP 4116193B2
Authority
JP
Japan
Prior art keywords
image
image data
separation
compression
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13512599A
Other languages
Japanese (ja)
Other versions
JP2000333001A (en
Inventor
熱河 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP13512599A priority Critical patent/JP4116193B2/en
Publication of JP2000333001A publication Critical patent/JP2000333001A/en
Application granted granted Critical
Publication of JP4116193B2 publication Critical patent/JP4116193B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
本発明は、画像データ圧縮機能を搭載した、例えば1ドラムタイプのカラー複写機、カラーファクシミリのようなカラー画像再生装置において、原稿を高画質に再生するために像域分離装置を備えたカラー画像処理装置及びカラー画像処理方法に関する。
【0002】
【従来の技術】
カラー複写機では、読み取った原稿データから、Y(イエロー)、M(マゼンタ)、C(シアン)、K(ブラック)の4色データを作成し、4色面の版を順に作成し重ね合わせてフルカラー画像を再現する。その際一般に、像域分離を行って領域ごとに異なる方法でモアレ除去や網点除去、エッジ強調などを行うことで、高画質な出力を得ることができる。このような像域分離によって分離される領域として一般に、網点領域、エッジ領域、有彩無彩領域等がある。
【0003】
ところが近年、高速処理や編集処理のために、読み込んだカラー画像を一度ページメモリに格納することが行われている。例えば、1ドラムタイプのカラー複写機においては、画像を一度メモリに読み込み、CMYK版を作る際に、順次読み出すといった処理が行われることがある。
【0004】
しかし、画像の高解像度化に伴いカラー画像の情報量は増大しており、読み取った画像信号をそのままメモリに入れると、必要なメモリは膨大なものになる。例えば、解像度600dpi、階調24ビット/ピクセル、用紙サイズA3の場合、256メガバイトもの容量となってしまう。そこでメモリコスト削減のために、圧縮符号化を行うことも多くなってきている。
【0005】
【発明が解決しようとする課題】
しかし、圧縮符号化の後に像域分離を行おうとすると、圧縮符号化により一般に画像は劣化しているため、従来の無圧縮画像用の像域分離では領域が正しく判定されない不具合がある。このような不具合が大きいのは、局所的な変化が激しい領域の分離、特に網点分離である。
【0006】
これは、一般的な圧縮方式では画像情報のうち交流成分情報〔ここで言う交流成分は周波数変換をする場合に得られる交流成分だけでなく、画像の局所的な構造情報一般を言う。例えば、GBTCにおけるマップビット(ブロック内最大値と最小値の間で各画素を量子化する係数)などである〕を削減してしまうところ、網点領域には複雑な高周波成分が多く、これら複雑な交流成分を再現することと、効果的な圧縮符号化とが両立しないという事情による。また、網点領域以外にも、エッジ領域なども交流成分を削除することにより分離が困難となる領域である。
【0007】
一方、圧縮符号化の前に像域分離を行おうとすると、全ての分離結果をメモリに保存して置かなければならないため、分離メモリが増大してしまう。
なお、特開平5−145751号公報には、4回スキャン機を対象に、各スキャン間での分離結果の違いによる画質劣化を防止すべく、第1回目のスキャン時に得られた分離情報をメモリに記憶し、これを各スキャン時に共通して分離結果として用いる技術が提案されている。
【0008】
本発明は、各スキャン間での分離結果のばらつきを防止する上記従来例とは異なり、圧縮符号化による分離結果の変化を防止することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明は、1回のスキャンで原稿を読み取って画像データを入力する画像入力手段と、前記画像入力手段によって入力された画像データを圧縮符号化する圧縮手段と、前記圧縮手段によって圧縮符号化された画像データを記憶する記憶手段と、前記記憶手段に記憶された画像データを伸長する伸長手段と、前記画像入力手段によって入力された画像データであって、前記圧縮手段により圧縮符号化される前の画像データから画像データのエッジ分離情報及び網点分離情報を取得する第1の領域分離手段と、前記伸長手段により伸長された画像データから色分離情報を取得する第2の領域分離手段と、前記エッジ分離情報、網点分離情報及び前記色分離情報に基づき、領域判定を行う領域判定手段と、前記領域判定手段の判定結果に基づき、前記伸長手段によって伸長された画像データに画像処理を施す画像処理手段と、を有することを特徴とするカラー画像処理装置である。
【0011】
また上記目的を達成するために、請求項記載の発明は、画像入力装置の1回のスキャンで原稿を読み取って画像データを得る画像入力工程と、前記画像入力工程によって得られた画像データを圧縮符号化する圧縮工程と、前記圧縮工程によって圧縮符号化された画像データを記憶する記憶工程と、前記記憶工程に記憶された画像データを伸長する伸長工程と、前記画像入力工程によって得られた画像データであって、前記圧縮工程により圧縮符号化される前の画像データから画像データのエッジ分離情報及び網点分離情報を取得する第1の領域分離工程と、前記伸長手段により伸長された画像データから色分離情報を取得する第2の領域分離工程と、前記エッジ分離情報、網点分離情報及び前記色分離情報に基づき、領域判定を行う領域判定工程と、前記領域判定工程の判定結果に基づき、前記伸長工程によって伸長された画像データに画像処理を施す画像処理工程と、を有することを特徴とするカラー画像処理方法である。
【0012】
圧縮技術を用いて情報量を削減し、かつ圧縮符号化後の画像で像域分離を行うことによる誤分離を防止することにより、低コストで高画質なカラー画像処理装置を提供するために、本発明では、上述したように、圧縮符号化による誤分離が顕著な網点分離及びエッジ分離に関して、圧縮符号化前の画像で分離結果を求め、これをメモリに保持することにより、画質劣化を抑えるようにしたものである。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を添付図面に従って説明する。
図1は本発明の実施の形態を示すカラー画像処理装置のブロック図である。
このカラー画像処理装置は、スキャナ等の画像入力装置101、データをエントロピー符号化する圧縮伸長回路102、圧縮されたデータを保持するページメモリ103、反射率リニアな信号を濃度リニアな信号に変換するLog変換回路104、平滑化フィルタからなるフィルタ回路105、色を合わせるための色補正回路106、K信号分だけ各色材の信号から減じるUCR回路107を備えている。
【0014】
また同様に、絵柄用のディザを用いて中間調を表現する階調処理回路108、画像を各領域に分離する像域分離回路109、プリンタなどの画像出力装置110、圧縮前の信号から網点領域のみを分離するための網点分離部111、網点分離の結果を記憶するための網点分離結果メモリ112、圧縮前の信号からエッジ領域のみを分離するためのエッジ分離部113、エッジ分離の結果を記憶するためのエッジ分離結果メモリ114を備えている。
【0015】
画像入力装置101から読み込まれたデジタル画像データ(8ビット信号とする)は、エッジ分離部113、網点分離部111に送られると共に、RGB信号として圧縮伸長回路102に送られる。
【0016】
エッジ分離部113は、読み取られた直後の信号により原稿中からエッジ領域を検出する回路である。この具体的な構成については、例えば論文「文字/絵柄(網点、写真)混在画像の像域分離方式」(電子情報通信学会論文誌Vol.J75−DI1No.1pp39−47 1992.1)に記載された方法を用いる。
【0017】
この方法を詳述すると、エッジ分離は入力画像データにエッジ強調を施した後、閾値TH1,TH2(TH1>TH2)を用いて3値化(注目画素がTH1よりも大きければ白画素、TH2よりも小さければ黒画素)し、3値化後の黒画素と白画素の連続性をパターンマッチングにより検出し、5×5画素のブロック内において黒連続画素及び白連続画素が1個以上存在する場合に注目画素をエッジ領域と判断し、それ以外は非エッジ領域と判断することで行う(画素単位の処理)。
【0018】
網点分離部111は、読み取られた直後の信号により、原稿中から網点領域を検出する回路である。この具体的な構成については、例えば論文「文字/絵柄(網点、写真)混在画像の像域分離方式」(電子情報通信学会論文誌Vol.J75−DI1No.1pp39−47 1992.1)に記載された方法を用いる。
【0019】
この方法を詳述すると、網点領域の濃度変化は文字領域のそれと大きく異なる点に着目し、ピーク画素の検出、網点領域の検出、網点領域の補正を行い、網点領域を分離するものである。ピーク画素の検出は、例えば3×3画素のブロックにおいて、中心画素の濃度レベルLが周囲のすべての画素のそれよりも高い、あるいは低く、かつ、Lと中心画素を挟んで対角線に存在する対画素の濃度レベルa,bが4対ともに|2×L−a−b|>TH3(閾値)であるとき、中心画素をピーク画素とする。
【0020】
網点領域の検出は、例えば、4×4画素を単位とした4つのブロックにおいて、ピーク画素を含むブロックが2ブロック以上存在すれば、注目ブロックを網点候補領域とし、それ以外は非網点候補領域と判定する。網点/非網点候補領域を判定した後、注目ブロックを中心とした9つのブロックにおいて、4ブロック以上が網点候補領域であれば注目ブロックを網点領域とし、そうでなければ注目ブロックを非網点領域とする(ブロック単位の処理)。
【0021】
圧縮伸長回路102では、まず、画像信号を変換してエントロピーを減少させ、次いで圧縮する。圧縮の方法として、例えばここでは固定長圧縮を行う。具体的には、変換部では例えば色変換及びサブバンド変換によって画像の統計的電力を局在させ、エントロピーを減少させる。色変換の例として、ここではYIQ変換を用いる。
【0022】
Y=0.3R+0.59G+0.11B
I=0.74(R−Y)−0.27(B−Y)
Q=0.48(R−Y)+0.41(B−Y)
【0023】
また、サブバンド変換の例としては、図2に示すように、ハールウェーブレット変換を用いる。これは、2×2画素ブロックの画素値a(左上)、b(右上)、c(左下)、d(右下)を、4つの係数LL,HL,LH,HHに分解する変換方法である。ここで各係数の性質について概説すると、LL係数はブロック内の直流成分(4画素平均)を表し、HL,LH,HH係数は交流成分を表している。さらに交流成分のうちでもHL係数は横エッジを、LH係数は縦エッジを、そしてHH係数は斜めエッジを表す情報である。
【0024】
変換後の係数の圧縮は、例えば次のように行う。
まず、I,Q係数をサブサンプリングして情報量を削減する。この際、視覚的な画質を考慮して文字部と絵柄部で異なるサブサンプリングを行う等、適応的なサブサンプリングを行うと効果的である。また、Y係数については前述のハールウェーブレット変換を行い、得られた係数LL(8ビット)、HL(9ビット)、LH(9ビット)、HH(10ビット)を量子化することで情報量を削減する。
【0025】
この際、視覚的な画質を考慮して文字部と絵柄部で異なる量子化を行う等、適応的な量子化を行うと効果的であり、また、交流成分の量子化についてはベクトル量子化が有効である。最後に、量子化後の値を1つの符号(例えば12ビット)に埋め込み、固定長圧縮する。この場合、適応的な量子化や適応的なサブサンプリングを行った場合には領域情報も符号に埋め込む必要がある。
【0026】
圧縮された符号は、ページメモリ103に保持され、第2版作成時にはページメモリ103から読み出された圧縮符号が圧縮時と逆の手順で復号化され、伸長された画像データR′,G′,B′が得られる。
【0027】
入力データは圧縮伸長回路102に送られ、K版作成時には同時にLog変換回路104にも送られる。一方、C,M,Y版作成時には圧縮伸長後のデータがLog変換回路104に送られる。Log変換回路104では信号の特性を反射率空間から濃度空間へ変換するようなテーブル変換を行う。ここで、出力信号はインク量を表す。
【0028】
フィルタ回路105は各種フィルタで構成され、後述する像域分離回路109がその画像信号が属すると判断した領域に従い、最も適当なフィルタ処理を施す。例えば、絵柄部に対しては平滑化フィルタ処理を施し、文字部に対してはエッジ強調フィルタ処理を施す。
【0029】
色補正回路106はスキャナでの色分解フィルタの濁り成分、あるいはインクの濁り成分を除去するための回路であり、一般に、マスキング方式、四面体補間法、三角柱補間法などがある。
【0030】
ここではマスキング方式を用いることとし、変換式を以下に示す。
C=k11×c+k12×m+k13×y+k14
M=k21×c+k22×m+k23×y+k24
Y=k31×c+k32×m+k33×y+k34
ここで定数k11〜k34は実験により決定する。
【0031】
UCR回路107は、像域分離回路109からの領域判断情報に基づき、処理を次のように切り替える。すなわち、黒文字領域においては、Kをスルーにし、C=M=Y=0にする。色文字領域においては、K,C,M,Yをスルーにし、上記以外すなわち絵柄領域においては、
K′=0.6×K
C′=C−K′
M′=M−K′
Y′=Y−K′
とする。
【0032】
階調処理回路108では、サイズの異なる2種類のディザテーブルを用意し、像域分離回路109からの信号が色文字、黒文字の場合はサイズの小さなディザテーブル(例えば1×1)で処理を行い、それ以外の場合にはサイズの大きなディザテーブル(例えば2×2)で処理を行い、処理後のデータは画像出力装置110に送られ、出力される。
【0033】
次に像域分離回路109について説明する。本実施形態では、像域分離回路109は図3に示すように、色分離回路121及び判定回路122を有する。色分離回路121は例えば、次の2つのステップからなる。すなわち、第1ステップでは注目画素のmax(c−m,m−y,y−c)を求め、この値がTH4(閾値)よりも大きい場合、注目画素を有彩画素とする。第2ステップでは、注目ブロック(4×4画素)において上記有彩画素を計数し、この係数値が所定の閾値TH5よりも大きい場合、注目ブロックを色ブロックとする(ブロック単位の処理)。
【0034】
判定回路122は、色分離回路121から得られた結果、網点分離結果メモリ112に格納された網点分離結果、エッジ分離結果114に格納されたエッジ分離結果(全てオン、オフ)を受けて、次のような判定を行う。すなわち、エッジ分離(オン)、網点分離(オフ)、色分離(オフ)により黒文字領域信号を発生し、エッジ分離(オン)、網点分離(オフ)、色分離(オン)により色文字領域信号を発生し、それ以外は全て絵柄領域信号を発生する。これらの領域信号がフィルタ回路105、UCR回路107及び階調処理回路108に送られ、前記のように各領域に最適な処理を行う。
【0035】
以上の構成において、以下本発明を説明する。
本実施形態における圧縮符号化法は上述のように、I,Q信号については高周波HL,LH,HHを全て破棄するサブサンプリングを行い、またY信号については高周波をベクトル量子化する方法である。
【0036】
ところで、圧縮符号化により画像情報を削減する際、一般に削減により生じる劣化が最も目に付かない情報は交流成分、特に斜めのエッジに関する情報である。例えば、直流成分を削減すると、画像の色味が変化してしまう等の非常に大きな劣化が生じ、時には元画像が認識できなくなってしまうのに対し、交流成分を全て削除しても、単に解像度の落ちたぼやけた画像が得られるだけなので、交流成分を積極的に削減する方が目に見える画質劣化は少ない。また、交流成分のうちでも、縦エッジや横エッジを削減すると、文字のエッジ部に欠けやぼけ等が生じ、劣化が目に付くのに対し、斜めエッジの劣化は目につきづらい。
【0037】
このような事情より、画像を圧縮する際には交流成分、特に斜めエッジを表すHH係数をより削減して情報量を減らすことが一般に行われている。また、カラー画像の場合には輝度情報の方が色差情報よりも重要度は高く、従って、色差情報は輝度情報に比して大きく削減される。本実施形態における圧縮方式もこのような一般的手法に則ったものである。
【0038】
このような事情より、一般に色差の斜めエッジ及び輝度の斜めエッジ(または色変換をしない圧縮符号化を用いる場合には各色の斜めエッジ)は圧縮符号化により劣化してしまう。すなわち、圧縮符号化により画像の斜め方向のエッジはだれてしまう。
【0039】
一方、網点の像域分離は、一般に斜めエッジがだれると困難になってしまう。例えば上述の網点分離法は、「3×3画素ブロックにおいて中心画素の濃度レベルLが周囲のすべての画素のそれよりも高い、あるいは低く、かつ、Lと中心画素を挟んで対角線に存在する対画素の濃度レベルa,bが4対ともに|2×L−a−b|>TH3(閾値)である」ことを判定条件とするところ、斜めエッジのだれが生じると、明らかに|2×L−a−b|がTH3を超えにくくなってしまう。
【0040】
このように、網点領域は斜めエッジを多く含んだ複雑なエッジ構造を持つ領域であるために、効率的な圧縮符号化を行った後に、網点領域を高精度に像域分離することは非常に難しい。
【0041】
そこで本発明のように、圧縮符号化後に分離することが非常に困難な網点領域を圧縮前に予め分離し、その結果を分離メモリ112に記憶して置けば、上記の困難は解消され、効率的な圧縮を行いつつ、かつ高精度の像域分離を行うことが可能となる。
【0042】
また同様な事情より、一般に色差・輝度の縦エッジや横エッジ(または色変換をしない圧縮符号化を用いる場合には各色の縦エッジや横エッジ)も圧縮符号化により劣化してしまう。縦エッジや横エッジの劣化は画質上目に付くために一般に斜めエッジよりは情報が多く割り当てられ、よって斜めエッジほどだれてしまうことはないが、やはり圧縮符号化により一般には縦エッジや横エッジもだれてしまう。
【0043】
一方、エッジ分離は、エッジがだれると困難になってしまう。例えば、上述のエッジ分離法は、「入力画像データにエッジ強調を施した後、閾値TH1,TH2(TH1>TH2)を用いて3値化(注目画素がTH1よりも大きければ白画素、TH2よりも小さければ黒画素)し、3値化後の黒画素と白画素の連続性をパターンマッチングにより検出し、5×5画素のブロック内において黒連続画素及び白連続画素が1個以上存在する場合に注目画素をエッジ領域と判断し、それ以外は非エッジ領域と判断することで行う」ところ、エッジのだれが生じると3値化の結果に変化が生じ、黒画素、白画素と判断される画素が少なくなってしまう。
【0044】
このように、圧縮符号化の際に交流成分を積極的に削減するという圧縮側の事情を考慮すれば、効率的な圧縮符号化を行った後にエッジ領域を高精度に像域分離することは難しい。
【0045】
そこで本発明のように、圧縮符号化後に分離することが困難なエッジ領域を圧縮前に予め分離し、その結果を分離メモリ114に記憶しておけば、上記の困難は解消され、効率的な圧縮を行いつつ、かつ高精度の像域分離を行うことが可能となる。
【0046】
本発明によれば、圧縮符号化を用いることでページメモリを削減することができ、メモリコストを低く抑えることができる。また、像域分離を圧縮符号化前に行い、結果をメモリに保存しておくことにより、圧縮符号化による誤分離に起因した画質の劣化を抑えることができる。さらに、圧縮符号化後の画像データでは分離が困難な像域分離のみを圧縮符号化前に行うことにより、必要以上に分離メモリを使用しなくて済むという利点を持つ。
【0047】
また本発明によれば、圧縮符号化後の画像データでは高精度の分離が困難な網点分離を圧縮符号化前に行うことにより、誤分離を気にせずに効果的な圧縮符号化ができ、メモリコストが節減できるとともに高精度な像域分離が可能となる。
【0048】
また本発明によれば、圧縮符号化後の画像データでは高精度の分離が困難なエッジ分離を圧縮符号化前に行うことにより、誤分離を気にせずに効果的な圧縮符号化ができ、メモリコストが節減できるとともに高精度な像域分離が可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態を示すカラー画像処理装置のブロック図である。
【図2】ハールウェーブレット変換方法を示す図である。
【図3】像域分離回路のブロック図である。
【符号の説明】
101 画像入力装置
102 圧縮伸長回路
103 ページメモリ
104 Log変換回路
105 フィルタ回路
106 色補正回路
107 UCR回路
108 階調処理回路
109 像域分離回路
110 画像出力装置
111 網点分離部
112 網点分離結果メモリ
113 エッジ分離部
114 エッジ分離結果メモリ
[0001]
The present invention provides a color image equipped with an image area separation device for reproducing a document with high image quality in a color image reproduction device such as a one-drum type color copying machine or color facsimile equipped with an image data compression function. The present invention relates to a processing apparatus and a color image processing method .
[0002]
[Prior art]
In a color copying machine, four-color data of Y (yellow), M (magenta), C (cyan), and K (black) is created from the read document data, and four-color planes are sequentially created and superimposed. Reproduces a full color image. At that time, generally, image area separation is performed, and moire removal, halftone dot removal, edge enhancement, and the like are performed by a method that is different for each region. In general, there are a halftone dot region, an edge region, a chromatic achromatic region, and the like as regions separated by such image region separation.
[0003]
However, in recent years, a read color image is once stored in a page memory for high-speed processing and editing processing. For example, in a one-drum type color copying machine, an image may be read once into a memory and sequentially read when a CMYK plate is produced.
[0004]
However, the amount of color image information is increasing as the resolution of the image is increased. If the read image signal is directly stored in the memory, the necessary memory becomes enormous. For example, when the resolution is 600 dpi, the gradation is 24 bits / pixel, and the paper size is A3, the capacity is 256 megabytes. Therefore, compression encoding is often performed to reduce memory costs.
[0005]
[Problems to be solved by the invention]
However, if image region separation is performed after compression encoding, the image is generally deteriorated by compression encoding. Therefore, there is a problem that the region is not correctly determined by conventional image region separation for uncompressed images. Such inconvenience is large in the separation of regions where local changes are severe, particularly the halftone dot separation.
[0006]
This is AC component information of image information in a general compression method (the AC component here refers not only to the AC component obtained when frequency conversion is performed, but also general structural information of an image. For example, when the map bit in GBTC (the coefficient for quantizing each pixel between the maximum value and the minimum value in the block) is reduced, the halftone dot region has many complex high-frequency components, and these complex This is due to the fact that reproducible alternating current components are not compatible with effective compression coding. In addition to the halftone dot region, the edge region and the like are regions that are difficult to separate by deleting the AC component.
[0007]
On the other hand, if image area separation is performed before compression coding, all the separation results must be stored in the memory, which increases the separation memory.
In Japanese Patent Laid-Open No. 5-145551, separation information obtained at the time of the first scan is stored in a memory in order to prevent image quality deterioration due to a difference in separation results between scans for a four-time scanner. A technique has been proposed in which the data is stored in the memory and used as a separation result in common for each scan.
[0008]
An object of the present invention is to prevent a change in separation result due to compression encoding, unlike the above-described conventional example that prevents variation in separation results between scans.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, according to the first aspect of the present invention, an image input unit that reads an original in one scan and inputs image data, and compression-encodes the image data input by the image input unit. Compression means; storage means for storing image data compressed and encoded by the compression means; decompression means for decompressing image data stored in the storage means; and image data input by the image input means. First separation means for obtaining edge separation information and halftone separation information of the image data from the image data before being compressed and encoded by the compression means; and color separation from the image data decompressed by the decompression means second segmentation means for obtaining information, on the basis of the edge separation information, halftone separation information and said color separation information, and region determination means for performing area determination, Based on the determination result of the serial area determining means, a color image processing apparatus characterized by having an image processing unit that performs image processing on the decompressed image data by the decompression means.
[0011]
In order to achieve the above object, the invention described in claim 2 includes an image input step for obtaining image data by reading a document by one scan of the image input device, and image data obtained by the image input step. Obtained by the compression step for compression encoding, the storage step for storing the image data compressed and encoded by the compression step, the expansion step for expanding the image data stored in the storage step, and the image input step A first region separation step for obtaining edge separation information and halftone separation information of the image data from the image data before being compressed and encoded by the compression step; and the image decompressed by the decompression means a second segmentation step of obtaining color separation information from the data, on the basis of the edge separation information, halftone separation information and said color separation information, region-size performing area determination A step, based on the determination result of the region determination step, a color image processing method characterized by having an image processing step of performing image processing on the decompressed image data by the decompression process.
[0012]
In order to provide a low-cost and high-quality color image processing apparatus by reducing the amount of information using compression technology and preventing erroneous separation due to image area separation in an image after compression encoding, In the present invention, as described above, with regard to halftone dot separation and edge separation, in which erroneous separation due to compression coding is significant, the separation result is obtained from an image before compression coding, and this is stored in a memory, thereby degrading image quality. It is something to be suppressed.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block diagram of a color image processing apparatus showing an embodiment of the present invention.
This color image processing apparatus includes an image input device 101 such as a scanner, a compression / decompression circuit 102 for entropy-encoding data, a page memory 103 for holding compressed data, and a signal having a linear reflectance and converting it to a signal having a linear density. A log conversion circuit 104, a filter circuit 105 including a smoothing filter, a color correction circuit 106 for matching colors, and a UCR circuit 107 for subtracting K signals from each color material signal are provided.
[0014]
Similarly, a gradation processing circuit 108 for expressing halftones using a dither for a picture, an image area separation circuit 109 for separating an image into each area, an image output device 110 such as a printer, and a halftone dot from a signal before compression. Halftone separation unit 111 for separating only the region, halftone separation result memory 112 for storing the result of halftone separation, edge separation unit 113 for separating only the edge region from the signal before compression, edge separation The edge separation result memory 114 is stored for storing the results.
[0015]
Digital image data (8-bit signal) read from the image input device 101 is sent to the edge separation unit 113 and the halftone dot separation unit 111 and also sent to the compression / decompression circuit 102 as an RGB signal.
[0016]
The edge separation unit 113 is a circuit that detects an edge region from a document based on a signal immediately after being read. This specific configuration is described in, for example, a paper “Image Area Separation Method of Mixed Character / Picture (Half Dots and Photos)” (Electronic Information and Communication Society Transactions Vol. J75-DI1No. 1pp39-47 1992.1). Used method.
[0017]
This method will be described in detail. Edge separation is performed after edge enhancement is performed on input image data, and then ternarization is performed using threshold values TH1, TH2 (TH1> TH2) (if the target pixel is larger than TH1, white pixel, TH2 If it is smaller, it is a black pixel), and the continuity between the ternarized black pixel and the white pixel is detected by pattern matching, and one or more black continuous pixels and white continuous pixels exist in a 5 × 5 pixel block The pixel of interest is determined to be an edge region, and the other pixels are determined to be non-edge regions (processing in units of pixels).
[0018]
A halftone dot separation unit 111 is a circuit that detects a halftone dot region in a document based on a signal immediately after being read. This specific configuration is described in, for example, a paper “Image Area Separation Method of Mixed Character / Picture (Half Dots and Photos)” (Electronic Information and Communication Society Transactions Vol. J75-DI1No. 1pp39-47 1992.1). Used method.
[0019]
This method will be described in detail. Focusing on the fact that the density change of the halftone dot area is significantly different from that of the character area, peak pixel detection, halftone dot area detection, halftone dot area correction is performed, and the halftone dot area is separated. Is. For example, in a 3 × 3 pixel block, the peak pixel is detected by a pair of pixels in which the density level L of the central pixel is higher or lower than that of all the surrounding pixels and is located on a diagonal line across L and the central pixel. When the density levels a and b of the pixels are | 2 × L−a−b |> TH3 (threshold), the center pixel is set as the peak pixel.
[0020]
For example, in the detection of a halftone dot region, if there are two or more blocks including peak pixels in four blocks each having 4 × 4 pixels as a unit, the target block is determined as a halftone dot candidate region, and other than that, a non-halftone dot is detected. It is determined as a candidate area. After judging the halftone / non-halftone dot candidate area, in the nine blocks centered on the target block, if more than 4 blocks are halftone dot candidate areas, the target block is set as the halftone dot area, otherwise the target block is selected. A non-halftone area is set (block unit processing).
[0021]
The compression / decompression circuit 102 first converts the image signal to reduce entropy and then compresses it. As a compression method, for example, fixed length compression is performed here. Specifically, the conversion unit localizes the statistical power of the image by, for example, color conversion and subband conversion, and reduces entropy. Here, YIQ conversion is used as an example of color conversion.
[0022]
Y = 0.3R + 0.59G + 0.11B
I = 0.74 (R−Y) −0.27 (B−Y)
Q = 0.48 (R−Y) +0.41 (B−Y)
[0023]
As an example of the subband transform, Haar wavelet transform is used as shown in FIG. This is a conversion method for decomposing pixel values a (upper left), b (upper right), c (lower left), and d (lower right) of a 2 × 2 pixel block into four coefficients LL, HL, LH, and HH. . Here, the characteristics of each coefficient will be outlined. The LL coefficient represents a DC component (average of four pixels) in the block, and the HL, LH, and HH coefficients represent an AC component. Further, among the AC components, the HL coefficient is information representing a horizontal edge, the LH coefficient is representing a vertical edge, and the HH coefficient is information representing an oblique edge.
[0024]
The compression of the coefficient after conversion is performed as follows, for example.
First, the amount of information is reduced by sub-sampling the I and Q coefficients. At this time, it is effective to perform adaptive sub-sampling such as performing different sub-sampling in the character part and the picture part in consideration of visual image quality. For the Y coefficient, the Haar wavelet transform described above is performed, and the obtained coefficient LL (8 bits), HL (9 bits), LH (9 bits), and HH (10 bits) are quantized to reduce the amount of information. Reduce.
[0025]
At this time, it is effective to perform adaptive quantization such as performing different quantization in the character part and the picture part in consideration of visual image quality, and vector quantization is used for the quantization of AC components. It is valid. Finally, the quantized value is embedded in one code (for example, 12 bits) and fixed-length compressed. In this case, when adaptive quantization or adaptive subsampling is performed, it is necessary to embed region information in the code.
[0026]
The compressed code is held in the page memory 103, and when the second version is created, the compressed code read from the page memory 103 is decoded in the reverse procedure of the compression, and decompressed image data R ', G' , B ′.
[0027]
The input data is sent to the compression / decompression circuit 102, and is also sent to the Log conversion circuit 104 at the same time when the K version is created. On the other hand, when the C, M, and Y versions are created, the data after compression / expansion is sent to the log conversion circuit 104. The log conversion circuit 104 performs table conversion to convert the signal characteristics from the reflectance space to the density space. Here, the output signal represents the ink amount.
[0028]
The filter circuit 105 is composed of various filters, and performs the most appropriate filter processing according to the area that the image area separation circuit 109 described later determines that the image signal belongs to. For example, smoothing filter processing is performed on the pattern portion, and edge enhancement filter processing is performed on the character portion.
[0029]
The color correction circuit 106 is a circuit for removing the turbidity component of the color separation filter in the scanner or the turbidity component of the ink, and generally includes a masking method, a tetrahedral interpolation method, a triangular prism interpolation method, and the like.
[0030]
Here, the masking method is used, and the conversion formula is shown below.
C = k11 * c + k12 * m + k13 * y + k14
M = k21 * c + k22 * m + k23 * y + k24
Y = k31 * c + k32 * m + k33 * y + k34
Here, the constants k11 to k34 are determined by experiments.
[0031]
The UCR circuit 107 switches processing as follows based on the area determination information from the image area separation circuit 109. That is, in the black character region, K is set to “through” and C = M = Y = 0. In the color character area, K, C, M, and Y are set to “Through”.
K ′ = 0.6 × K
C ′ = C−K ′
M ′ = M−K ′
Y '= Y-K'
And
[0032]
The gradation processing circuit 108 prepares two types of dither tables having different sizes. When the signal from the image area separation circuit 109 is a color character or a black character, the dither table is processed with a small size dither table (for example, 1 × 1). In other cases, processing is performed with a large dither table (for example, 2 × 2), and the processed data is sent to the image output device 110 and output.
[0033]
Next, the image area separation circuit 109 will be described. In the present embodiment, the image area separation circuit 109 includes a color separation circuit 121 and a determination circuit 122 as shown in FIG. The color separation circuit 121 includes, for example, the following two steps. That is, in the first step, max (cm, my, yc) of the target pixel is obtained, and when this value is larger than TH4 (threshold), the target pixel is set as a chromatic pixel. In the second step, the chromatic pixels are counted in the target block (4 × 4 pixels), and when the coefficient value is larger than a predetermined threshold TH5, the target block is set as a color block (block unit processing).
[0034]
The determination circuit 122 receives the result obtained from the color separation circuit 121, the halftone separation result stored in the halftone separation result memory 112, and the edge separation result (all on and off) stored in the edge separation result 114. The following determination is made. That is, a black character area signal is generated by edge separation (on), halftone separation (off), and color separation (off), and a color character area is generated by edge separation (on), halftone separation (off), and color separation (on). A signal is generated, and all others generate a picture area signal. These region signals are sent to the filter circuit 105, the UCR circuit 107, and the gradation processing circuit 108, and optimum processing is performed for each region as described above.
[0035]
In the above configuration, the present invention will be described below.
As described above, the compression coding method in the present embodiment is a method of performing sub-sampling for discarding all the high frequencies HL, LH, and HH for the I and Q signals, and vector quantizing the high frequency for the Y signal.
[0036]
By the way, when image information is reduced by compression coding, information that is most hardly noticeable in deterioration caused by the reduction is information on an AC component, particularly, an oblique edge. For example, if the direct current component is reduced, a very large deterioration such as a change in the color of the image occurs, and sometimes the original image cannot be recognized. Therefore, it is only possible to obtain a blurred image with a drop in the image quality. Further, even when the vertical edge and the horizontal edge are reduced among AC components, the edge portion of the character is chipped or blurred, and the deterioration is noticeable, while the deterioration of the oblique edge is difficult to see.
[0037]
Under such circumstances, when compressing an image, it is a common practice to reduce the amount of information by further reducing AC components, particularly HH coefficients representing oblique edges. In the case of a color image, the luminance information is more important than the color difference information. Therefore, the color difference information is greatly reduced compared to the luminance information. The compression method in the present embodiment is also in accordance with such a general method.
[0038]
Under such circumstances, generally, the diagonal edge of the color difference and the diagonal edge of the luminance (or the diagonal edge of each color when compression encoding without color conversion is used) are deteriorated by the compression encoding. In other words, the edge in the oblique direction of the image is lost due to the compression encoding.
[0039]
On the other hand, image area separation of halftone dots is generally difficult when a slanted edge is sagged. For example, the halftone dot separation method described above is “in the 3 × 3 pixel block, the density level L of the central pixel is higher or lower than that of all the surrounding pixels, and exists on a diagonal line with L and the central pixel in between. When the determination condition is that the density levels a and b of the two pixels are | 2 × L−a−b |> TH3 (threshold) for all four pairs, it is clearly | 2 × L−a−b | does not easily exceed TH3.
[0040]
As described above, since the halftone dot region is a region having a complex edge structure including many oblique edges, it is not possible to perform high-precision image region separation after performing efficient compression coding. very difficult.
[0041]
Therefore, as in the present invention, if the halftone dot region that is very difficult to separate after compression encoding is separated in advance before compression, and the result is stored in the separation memory 112, the above difficulty is solved, It is possible to perform image area separation with high accuracy while performing efficient compression.
[0042]
For the same reason, generally, the vertical edge and horizontal edge of color difference / luminance (or the vertical edge and horizontal edge of each color when using compression encoding without color conversion) are also deteriorated by compression encoding. Deterioration of vertical and horizontal edges is conspicuous in terms of image quality, so more information is generally assigned than diagonal edges, so it is not as distorted as diagonal edges. You will be drowned.
[0043]
On the other hand, the edge separation becomes difficult when the edge falls. For example, the above-described edge separation method is “after performing edge emphasis on input image data, it is ternarized using threshold values TH1, TH2 (TH1> TH2) (if the target pixel is larger than TH1, white pixel, TH2 If it is smaller, it is a black pixel), and the continuity between the ternarized black pixel and the white pixel is detected by pattern matching, and one or more black continuous pixels and white continuous pixels exist in a 5 × 5 pixel block This is done by determining the pixel of interest as an edge region and determining the other as a non-edge region. ”However, if an edge drift occurs, the result of ternarization changes, and it is determined as a black pixel or a white pixel. There will be fewer pixels.
[0044]
In this way, considering the situation on the compression side of actively reducing the AC component during compression encoding, it is possible to perform image region separation with high accuracy after performing efficient compression encoding. difficult.
[0045]
Therefore, if the edge region that is difficult to be separated after compression coding is separated in advance before compression as in the present invention and the result is stored in the separation memory 114, the above-mentioned difficulty is eliminated and efficient. It is possible to perform image area separation with high accuracy while performing compression.
[0046]
According to the present invention , the page memory can be reduced by using compression encoding, and the memory cost can be kept low. Further, image area separation is performed before compression coding, and the result is stored in a memory, so that deterioration in image quality due to erroneous separation due to compression coding can be suppressed. Furthermore, by performing only image area separation, which is difficult to separate with image data after compression coding, before compression coding, there is an advantage that it is not necessary to use a separation memory more than necessary.
[0047]
Further, according to the present invention, by performing halftone dot separation, which is difficult to separate with high accuracy in image data after compression coding, before compression coding, effective compression coding can be performed without worrying about erroneous separation. Therefore, the memory cost can be reduced and the image area separation can be performed with high accuracy.
[0048]
Further, according to the present invention, by performing edge separation, which is difficult to separate with high accuracy in image data after compression coding, before compression coding, effective compression coding can be performed without worrying about erroneous separation, The memory cost can be reduced and the image area separation can be performed with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram of a color image processing apparatus showing an embodiment of the present invention.
FIG. 2 is a diagram illustrating a Haar wavelet transform method.
FIG. 3 is a block diagram of an image area separation circuit.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 101 Image input device 102 Compression / decompression circuit 103 Page memory 104 Log conversion circuit 105 Filter circuit 106 Color correction circuit 107 UCR circuit 108 Gradation processing circuit 109 Image area separation circuit 110 Image output device 111 Halftone separation unit 112 Halftone separation result memory 113 Edge separation unit 114 Edge separation result memory

Claims (2)

1回のスキャンで原稿を読み取って画像データを入力する画像入力手段と、
前記画像入力手段によって入力された画像データを圧縮符号化する圧縮手段と、
前記圧縮手段によって圧縮符号化された画像データを記憶する記憶手段と、
前記記憶手段に記憶された画像データを伸長する伸長手段と、
前記画像入力手段によって入力された画像データであって、前記圧縮手段により圧縮符号化される前の画像データから画像データのエッジ分離情報及び網点分離情報を取得する第1の領域分離手段と、
前記伸長手段により伸長された画像データから色分離情報を取得する第2の領域分離手段と、
前記エッジ分離情報、網点分離情報及び前記色分離情報に基づき、領域判定を行う領域判定手段と、
前記領域判定手段の判定結果に基づき、前記伸長手段によって伸長された画像データに画像処理を施す画像処理手段と、
を有することを特徴とするカラー画像処理装置。
Image input means for reading a document in one scan and inputting image data;
Compression means for compressing and encoding image data input by the image input means;
Storage means for storing image data compression-encoded by the compression means;
Decompression means for decompressing the image data stored in the storage means;
First region separation means for obtaining edge separation information and halftone separation information of image data from image data input by the image input means and before being compressed and encoded by the compression means;
Second region separation means for obtaining color separation information from the image data decompressed by the decompression means;
Area determination means for performing area determination based on the edge separation information, halftone dot separation information and the color separation information ;
Image processing means for performing image processing on the image data expanded by the expansion means based on the determination result of the area determination means;
A color image processing apparatus comprising:
画像入力装置の1回のスキャンで原稿を読み取って画像データを得る画像入力工程と、
前記画像入力工程によって得られた画像データを圧縮符号化する圧縮工程と、
前記圧縮工程によって圧縮符号化された画像データを記憶する記憶工程と、
前記記憶工程に記憶された画像データを伸長する伸長工程と、
前記画像入力工程によって得られた画像データであって、前記圧縮工程により圧縮符号化される前の画像データから画像データのエッジ分離情報及び網点分離情報を取得する第1の領域分離工程と、
前記伸長手段により伸長された画像データから色分離情報を取得する第2の領域分離工程と、
前記エッジ分離情報、網点分離情報及び前記色分離情報に基づき、領域判定を行う領域判定工程と、
前記領域判定工程の判定結果に基づき、前記伸長工程によって伸長された画像データに画像処理を施す画像処理工程と、
を有することを特徴とするカラー画像処理方法。
An image input step of obtaining image data by reading a document in one scan of the image input device;
A compression step of compressing and encoding the image data obtained by the image input step;
A storage step of storing the image data compressed and encoded by the compression step;
A decompression step of decompressing the image data stored in the storage step;
A first region separation step of obtaining edge separation information and halftone separation information of the image data from the image data obtained by the image input step before being compressed and encoded by the compression step;
A second region separation step of obtaining color separation information from the image data decompressed by the decompression means;
A region determination step for performing region determination based on the edge separation information, halftone dot separation information and the color separation information ;
An image processing step for performing image processing on the image data expanded by the expansion step based on the determination result of the region determination step;
A color image processing method comprising:
JP13512599A 1999-05-17 1999-05-17 Color image processing apparatus and color image processing method Expired - Fee Related JP4116193B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13512599A JP4116193B2 (en) 1999-05-17 1999-05-17 Color image processing apparatus and color image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13512599A JP4116193B2 (en) 1999-05-17 1999-05-17 Color image processing apparatus and color image processing method

Publications (2)

Publication Number Publication Date
JP2000333001A JP2000333001A (en) 2000-11-30
JP4116193B2 true JP4116193B2 (en) 2008-07-09

Family

ID=15144414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13512599A Expired - Fee Related JP4116193B2 (en) 1999-05-17 1999-05-17 Color image processing apparatus and color image processing method

Country Status (1)

Country Link
JP (1) JP4116193B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4078132B2 (en) 2002-06-28 2008-04-23 キヤノン株式会社 Image processing apparatus and method

Also Published As

Publication number Publication date
JP2000333001A (en) 2000-11-30

Similar Documents

Publication Publication Date Title
US5432870A (en) Method and apparatus for compressing and decompressing images of documents
JPH04320160A (en) Picture signal compression expansion device and area identification processing unit
US5956425A (en) Image processing apparatus and method
US5706368A (en) Image processing apparatus and method having detection of background color and encoding of color image data
US8023749B2 (en) Image compressing apparatus and image reading apparatus including the same, image processing apparatus including image compressing apparatus and image forming apparatus including the same, image compression processing method, computer program thereof, and recording medium
US8452112B2 (en) Image encoding apparatus and method of controlling the same
US6486981B1 (en) Color image processing method and apparatus thereof
US20070071334A1 (en) Image processing apparatus and method
EP1103918B1 (en) Image enhancement on JPEG compressed image data
US6088130A (en) Image processing apparatus and method
JP4001284B2 (en) Image processing apparatus and image processing method
JP3193086B2 (en) Adaptive encoding apparatus and decoding apparatus for color document image
US6665447B1 (en) Method for enhancing image data by sharpening
JP4898601B2 (en) Image processing apparatus, image processing method, and program thereof
JP3108133B2 (en) Adaptive coding of color document images
JP4116193B2 (en) Color image processing apparatus and color image processing method
JPH09205647A (en) Image coder, image decoder and image processor
JP2003283821A (en) Image processor
JP3778710B2 (en) Color image processing device
JP3842909B2 (en) Image processing device
JPH06178122A (en) Adaptive encoding device for color image
JP3595601B2 (en) Image communication method and apparatus
Barthel et al. New technology for raster document image compression
JP4105846B2 (en) Image processing device
JP3931468B2 (en) Image area separating apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050121

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080417

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees