JP2007243330A - 画像処理装置、および網点文字の情報出力方法 - Google Patents
画像処理装置、および網点文字の情報出力方法 Download PDFInfo
- Publication number
- JP2007243330A JP2007243330A JP2006059938A JP2006059938A JP2007243330A JP 2007243330 A JP2007243330 A JP 2007243330A JP 2006059938 A JP2006059938 A JP 2006059938A JP 2006059938 A JP2006059938 A JP 2006059938A JP 2007243330 A JP2007243330 A JP 2007243330A
- Authority
- JP
- Japan
- Prior art keywords
- halftone dot
- halftone
- character
- background
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】入力された画像データの網点背景中の網点文字を抽出し、網点背景中の網点文字の品質を向上させることが可能となる。
【解決手段】入力された画像データから網点以外の文字領域を検知する文字検知部11と、入力された画像データから網点領域を検知する網点検知部12と、この網点領域の検知結果から、網点背景に対して網点背景中に形成される網点文字が有する特徴点を捉えることで画像データから網点背景中の網点文字領域を抽出する網点文字抽出部20と、これらの結果から像域分離判定結果を出力する像域分離判定部13とを備えた。
【選択図】図3
【解決手段】入力された画像データから網点以外の文字領域を検知する文字検知部11と、入力された画像データから網点領域を検知する網点検知部12と、この網点領域の検知結果から、網点背景に対して網点背景中に形成される網点文字が有する特徴点を捉えることで画像データから網点背景中の網点文字領域を抽出する網点文字抽出部20と、これらの結果から像域分離判定結果を出力する像域分離判定部13とを備えた。
【選択図】図3
Description
本発明は、画像データを処理する画像処理装置等に係り、より詳しくは、入力された画像データに対して像域分離処理を行う画像処理装置等に関する。
従来、複写機やファクシミリ、プリンタなどにおいて、入力された画像に、文字や線画などの文字領域と写真や絵柄などの絵柄領域とが混在する場合がある。このような混在した画像を再生する際には、例えば文字領域と絵柄領域とを分離し、例えば文字領域には解像度を重視した処理を施し、絵柄領域には階調性を重視した処理を施す等、領域に応じて異なった処理を施すことが画像品質の面から望ましい。
ここで、公報記載の従来技術として、文字や線画領域を判定するとともに、その文字や線画の背景を白地領域検出部や網点領域検出部などにより異なる複数のパターンに区別して判定し、文字や線画および判定された背景領域に応じて異なる画像処理を施すようにする技術が存在する(例えば、特許文献1参照。)。また、他の公報記載の技術として、明度信号(L*)に基づいて注目画素を含む周辺画素の明度値の平均を周辺画素平均部で求め、色信号(a*b* )に基づいて彩度値(C* )を彩度算出部で算出し、周辺画素平均部で求めた平均値に彩度算出部で算出した彩度値(C*)を加算して得られる閾値を比較器の閾値として明度信号(L* )と比較することにより、文字領域と写真領域との識別を行う技術が存在する(例えば、特許文献2参照。)。
更に他の特許文献として、画像データを任意の複数の領域に分け、各領域ごとに領域中の全画素に対する網点画素の割合を求め、求めた割合の最大値を利用することで、網点絵柄と網文字との判別を行う技術が存在する(例えば、特許文献3参照。)。例えば、この特許文献3では、画像データを複数領域に分け、各領域ごとに、割合(網点画素/領域中の全画素)を求め、求めた割合の最大値を利用して判別を行っている。
しかしながら、従来の技術では、文字/写真の分離を行える場合であっても、例えば、網点背景中に網点文字(マイクロソフト社(商標)のPower Point(商標)文書、各種の印刷色文字、グレー文字など)が存在する場合には、この網点文字を抽出することができない。これは、網点文字も網点構造を有することから、従来技術では背景と同様に網点絵柄と判定されてしまうためである。その結果、網点抽出された網点文字(網点背景中の網点文字を含む)は、非文字の処理が行われてしまい、シャープ感が低下する。また、彩度補正等が十分に行われず画質が劣化してしまう。
上記特許文献1の背景領域抽出部では、網点画像かベタ画像かを判定しているが、網点の文字があった場合には、例えばパターンマッチングにより網点成分を見て、そのまま網点画像と判断し、背景領域としての処理を施してしまう。
また、上記特許文献2では、背景中のエッジを良好に検出することが可能である。しかし、文字か写真かの識別を超えて、網点背景中の網点文字を検出することについては、新たな課題として残されていた。
また、上記特許文献2では、背景中のエッジを良好に検出することが可能である。しかし、文字か写真かの識別を超えて、網点背景中の網点文字を検出することについては、新たな課題として残されていた。
更に、上記特許文献3では、各領域ごとに割合(網点画素/領域中の全画素)を求め、求めた割合、即ち網点の密度の最大値が、ある閾値以上であった場合には、網点文字であっても網点絵柄と判別してしまう。従って、白背景中の網点文字などを抽出することは可能であるが、網点中の網点文字は網点絵柄と判別してしまい、画質が大きく劣化してしまう。
本発明は、以上のような技術的課題を解決するためになされたものであって、その目的とするところは、網点背景中の網点文字を良好に抽出することにある。
また他の目的は、網点背景中の網点文字について背景領域に応じた判別を行うことにある。
更に他の目的は、網点背景中の網点文字の画質を改善することにある。
また他の目的は、網点背景中の網点文字について背景領域に応じた判別を行うことにある。
更に他の目的は、網点背景中の網点文字の画質を改善することにある。
かかる目的を達成するために、本発明が適用される画像処理装置は、画像データを入力する画像入力部と、入力された画像データから網点以外の文字領域を検知する文字検知部と、入力された画像データから網点領域を検知する網点検知部と、この網点領域の検知結果から、網点背景に対して網点背景中に形成される網点文字が有する特徴点を捉えることで画像データから網点背景中の網点文字領域を抽出する網点文字抽出部とを備えている。ここで、「網点背景中の網点文字」とは、網点背景と網点文字とが併設して設けられているものであり、網点文字が網点背景の完全に内部にあるものに限定されない。以下、同様である。
ここで、この網点文字抽出部は、入力された画像データの色情報が変化する領域を抽出することにより網点背景中の網点文字を抽出することを特徴としている。また、この網点文字抽出部は、画像データにおける注目画素とこの注目画素を含む周囲の画素との間の、明度差、彩度差、および色相角度差の少なくとも何れか1つから網点背景中の網点文字を抽出することを特徴としている。
更に、この網点文字抽出部は、画像データの網点領域の中の網点スクリーン角の変化を検知することにより網点背景中の網点文字を抽出すること、または、画像データの網点領域の中に存在するエッジを検知することにより網点背景中の網点文字を抽出することを特徴とすることができる。
また更に、この網点文字抽出部により抽出された網点背景中の網点文字について非文字の処理とは異なる文字強調処理を施すことを特徴とすることができる。
また更に、この網点文字抽出部により抽出された網点背景中の網点文字について非文字の処理とは異なる文字強調処理を施すことを特徴とすることができる。
他の観点から把えると、本発明が適用される画像処理装置は、入力された画像データから網点領域を網点検知手段により検知し、検知された網点領域に対し、色情報の変化を捉えて網点背景から網点背景中の網点文字を網点文字抽出手段により抽出する。そして、この抽出結果を用いて、網点背景中の網点文字を識別する情報を情報出力手段により出力する。
ここで、この網点文字抽出手段は、画像データの網点領域の中の網点スクリーン角の変化を検知することにより網点背景中の網点文字を抽出することを特徴とすることができる。また、この網点文字抽出手段は、画像データの網点領域の中に存在するエッジを検知することにより網点背景中の網点文字を抽出することを特徴とすることができる。
更に、この情報出力手段は、網点背景中の網点文字を数段階に区別した情報を出力することを特徴とすることができる。
更に、この情報出力手段は、網点背景中の網点文字を数段階に区別した情報を出力することを特徴とすることができる。
一方、本発明が適用される網点文字の情報出力方法は、入力された画像データから網点領域を検知するステップと、検知された網点領域に対し、画像データの網点背景に対して網点背景中に形成される網点文字が有する特徴点を捉えるステップと、捉えられた特徴点に応じて、網点背景中の網点文字を識別する情報を出力するステップとを含む。
ここで、この出力するステップは、捉えられる特徴点のレベルに応じて、識別する情報を段階的な情報として出力することを特徴とする。
また特徴点を捉えるステップは、第1に画像データの注目画素と注目画素を含む周囲の画素との間の色情報の変化を捉えることを特徴とし、または、第2に画像データの網点領域の中の網点スクリーン角の変化を検知することにより特徴点を捉えることを特徴とすること、または、第3に画像データの網点領域の中に存在するエッジを検知することにより特徴点を捉えることを特徴とすることができる。尚、この特徴点を捉えるステップでは、これら第1、第2、および第3の中から選択された2つの方法、またはこれら3つの方法を全て採用することも好ましい。
また特徴点を捉えるステップは、第1に画像データの注目画素と注目画素を含む周囲の画素との間の色情報の変化を捉えることを特徴とし、または、第2に画像データの網点領域の中の網点スクリーン角の変化を検知することにより特徴点を捉えることを特徴とすること、または、第3に画像データの網点領域の中に存在するエッジを検知することにより特徴点を捉えることを特徴とすることができる。尚、この特徴点を捉えるステップでは、これら第1、第2、および第3の中から選択された2つの方法、またはこれら3つの方法を全て採用することも好ましい。
以上のように構成された本発明によれば、入力された画像データの網点背景中の網点文字を良好に抽出することが可能となり、網点背景中の網点文字の品質を向上させることが可能となる。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は本実施の形態が適用される画像処理装置の構成を示すブロック図である。この図1に示す画像処理装置は、イメージスキャナなどで構成され、画像信号(画像データ)を入力する画像入力部1と、入力された画像信号の階調を補正する入力階調補正部2とを備えている。また、階調補正のなされたRGB画像信号を他の色信号(例えば、L*、a*、b*)に変換する色信号変換部3を備えている。この画像入力部1は、CCDカメラ等の光電変換素子により原稿のカラー画像情報を色別に読み取り、電気的なディジタル画像信号に変換している。入力階調補正部2は、この画像入力部1によって入力された画像信号(例えばRGB、各色8ビット)の階調を補正する。
図1は本実施の形態が適用される画像処理装置の構成を示すブロック図である。この図1に示す画像処理装置は、イメージスキャナなどで構成され、画像信号(画像データ)を入力する画像入力部1と、入力された画像信号の階調を補正する入力階調補正部2とを備えている。また、階調補正のなされたRGB画像信号を他の色信号(例えば、L*、a*、b*)に変換する色信号変換部3を備えている。この画像入力部1は、CCDカメラ等の光電変換素子により原稿のカラー画像情報を色別に読み取り、電気的なディジタル画像信号に変換している。入力階調補正部2は、この画像入力部1によって入力された画像信号(例えばRGB、各色8ビット)の階調を補正する。
また、実際の画像信号処理系として、色信号変換部4と、空間周波数補正部5と、階調補正部6と、解像度変換部7と、スクリーン生成部8とを備えている。更に、画像処理がなされた画像を出力する画像出力部9を備えている。この色信号変換部4は、色信号変換部3により変換された上記色信号L*a*b*の画像信号を他の色信号(例えば、YMC)に変換し、YMC画像信号から墨版(K)を生成し、画像信号をYMCK画像信号に変換する。空間周波数補正部5は、例えば文字部と写真部の各々に最適な空間フィルタリング、例えばエッジ強調、平滑化等を施す。この空間フィルタリングでは、YMCK画像信号の各色毎に空間フィルタリング処理を施す。また、後述する像域分離処理部10による領域(像域)分離判定結果に応じて、例えばフィルタリング係数などを切り替えて空間フィルタリング処理を施している。階調補正部6は、空間フィルタリング処理が施されたYMCK画像信号の各色毎に、画像出力階調特性に合うように出力階調補正を施す。この階調補正部6においても、後述する像域分離処理部10からの領域分離判定結果に応じて、出力階調補正を施している。解像度変換部7は、画像出力部9により出力される際の解像度やモードに応じた解像度変換を施している。この解像度変換部7においても、後述する像域分離処理部10からの領域分離判定結果に応じた処理を実行している。スクリーン生成部8は、複数の周期/位相の異なった参照パターンを切り換え制御し、記録用のパルス幅変調信号を生成して、画像出力部9に出力する。このスクリーン生成部8においても、後述する像域分離処理部10からの領域分離判定結果に応じた処理を実行している。画像出力部9は、スクリーン生成部8から出力されたYMCK画像信号を記録媒体に画像として出力する。
更に、本実施の形態が適用される画像処理装置は、網点背景中の網点文字の画質を改善するために、検知処理系として像域分離処理部10を備えている。この像域分離処理部10は、色信号変換部3から出力されるL*a*b*の画像信号に従って、各画素毎に文字部あるいは絵柄部の領域判定を行う。また、これらの判定に加え、各画素毎に、網点背景中の網点文字であるかどうかの判定を行う。この像域分離処理部10による領域判定結果は、色信号変換部4、空間周波数補正部5、階調補正部6、解像度変換部7、およびスクリーン生成部8に供給され、これらの各要素では、領域判定結果に応じた処理が施される。尚、像域分離処理部10による領域判定処理の入力信号としては、L*a*b*画像信号に代えて、RGB画像信号を用いることも可能である。また、色信号変換部3によってYCC色空間の画像信号に変換される場合もある。
網点抽出された網点文字(網点背景中の網点文字を含む)については、従来は非文字の処理が行われていた。しかしながら、本実施の形態の像域分離処理部10では、後述する機能によってこの網点抽出された網点文字を良好に識別することが可能となる。そして、色信号変換部4、空間周波数補正部5、階調補正部6、解像度変換部7、およびスクリーン生成部8などでは、この像域分離処理部10による検出結果を利用し、網点背景中の網点文字について、例えばシャープ感を向上させることや解像度を重視した処理を施す等、文字を判別し易くなるような処理を施すことができる。また、彩度補正等を十分に行うことが可能となり、非文字の処理とは異なる文字強調のための処理を網点背景中の網点文字に施すことが可能となり、入力される画像データの画質を全体として向上させることができる。更に、文字用、網点用という両極の画像処理を行わず、文字、網点中間的な画像処理を行い、文字を判別し易くするとともに、境界域(文字、網点判定がふらつく領域)における分離エラーを目立たなくすることができる。
次に、この像域分離処理部10の処理について詳述する。
まず、具体的な機能の説明に入る前に、像域分離処理部10にて実行される網点背景中の網点文字検出方法の概要について説明する。
図2は、網点背景中の網点文字の一般的な特徴を説明するための図である。図2には、網点背景と、網点背景中の網点文字とが示されている。この網点背景中の網点文字が備える特徴としては、以下の3つの事項が存在することが、発明者等の鋭意検討により明らかになった。
まず、具体的な機能の説明に入る前に、像域分離処理部10にて実行される網点背景中の網点文字検出方法の概要について説明する。
図2は、網点背景中の網点文字の一般的な特徴を説明するための図である。図2には、網点背景と、網点背景中の網点文字とが示されている。この網点背景中の網点文字が備える特徴としては、以下の3つの事項が存在することが、発明者等の鋭意検討により明らかになった。
まず第1として、網点背景から網点文字(網点背景中の網点文字)を強調するために、背景に対して明度、彩度、色相を上げる、または下げる処理が行われる。即ち、網点背景と網点文字との間には、明度差、色相角度差、彩度差がある。例えば同系色(同色相)である場合には明度差があり、同一明度の場合には色相が異なる(彩度が異なる)傾向があることや、同一彩度の場合には、背景部と網点文字部とで色相が変えられることが明らかとなった。
第2として、網点背景と網点背景中の網点文字とでは、異なる網点スクリーンで形成される場合が多い。即ち、網点の密度が異なったり、重なり部分が異なる等、網点背景と網点背景中の網点文字とでは網点スクリーン角差が生じている場合が多いことが明らかになった。
第3として、網点背景中の網点文字は文字を形成することから、弱いエッジ成分を持つことが確認された。
第2として、網点背景と網点背景中の網点文字とでは、異なる網点スクリーンで形成される場合が多い。即ち、網点の密度が異なったり、重なり部分が異なる等、網点背景と網点背景中の網点文字とでは網点スクリーン角差が生じている場合が多いことが明らかになった。
第3として、網点背景中の網点文字は文字を形成することから、弱いエッジ成分を持つことが確認された。
このような特徴点に対し、従来の像域分離処理では、全面、そのまま絵柄とだけ判断してしまい、網点背景中の網点文字部分を良好に抽出できなかった。また、背景部と網点文字部とが同一彩度で表現されている場合に、L*やC*だけではこれらを分離することが困難であった。そこで、本実施の形態では、網点背景中の網点文字を検出する特別な構成を像域分離処理部10に設けることで、従来技術では抽出できなかった網点背景中の網点文字を抽出可能としている。
図3は、本実施の形態が適用される像域分離処理部10の構成を示すブロック図である。像域分離処理部10は、色信号変換部3から出力された画素毎のL*a*b*画像信号から網点以外の通常の文字領域を検出する文字検知部11と、画素毎のL*a*b*画像信号から網点領域を検出して網点エリアTagを出力する網点検知部12を備えている。また、網点検知部12から出力される網点エリアTagを用いて、画素毎のL*a*b*画像信号から網点文字を抽出する網点文字抽出部20を備えている。更に、文字検知部11と網点検知部12と網点文字抽出部20との出力結果から像域分離判定結果を出力する像域分離判定部13を備えている。
像域分離判定部13から出力される判定結果としては、まず、文字エッジ、中間1、背景エッジ、中間2、絵柄の区別がある。これらの区別については、従来から行われていたが、本実施の形態では、この絵柄の区分について、網点文字抽出部20からの出力結果を用いて更に詳細な区分を実行している。この区分としては、白背景網点文字(白背景中の網点文字)、網点文字中間1、網点背景網点文字(網点背景中の網点文字)、網点文字中間2、網点絵柄である。このように、本実施の形態では、従来では絵柄となっていた領域について、網点背景中の網点文字として抽出することが可能となり、検知信号を出力することができる。前述の色信号変換部4、空間周波数補正部5、階調補正部6、解像度変換部7、スクリーン生成部8等では、この像域分離判定部13から出力される判定結果に応じて画像処理を切り替えている。これによって、網点背景中の網点文字の画質を改善することが可能となる。
図4は、この網点文字抽出部20の構成を更に詳細に示したブロック図である。網点文字抽出部20は、図1に示す色信号変換部3から出力されるL*a*b*画像信号、および図3に示す網点検知部12から出力される網点エリアTagを用いて各種の検知処理を行っている。その検知処理の1つとして、色情報が変化する領域を抽出する色情報変化領域検知部21を備えている。また、網点印刷スクリーン周期と角度検知を行う色スクリーン角情報検知部22を備えている。更に、網点背景中の網点文字エッジを抽出し、絵柄(顔の輪郭等)を除外する網点文字エッジ情報検知部23を備えている。また更に、色情報変化領域検知部21、色スクリーン角情報検知部22、および網点文字エッジ情報検知部23の判定結果を使用して、網点領域を網点絵柄、網点背景中網点文字に分離する網点背景中網点文字検知部24を備えている。この網点背景中網点文字検知部24の検知結果は図3に示す像域分離判定部13に出力される。
色情報変化領域検知部21は、画像の特徴を利用して、注目画素およびその近傍領域の濃度、彩度、色相角差が、周辺領域(近傍領域よりさらに広いエリア)に対し変化している領域を抽出する。
色スクリーン角情報検知部22では、入力される画像に対して所定の前処理が行われた後、網点周期(周波数)の検知と、網点スクリーン角度検知が行われる。ここでは、これれらの検知が別々に行われ、マッチングスコアを注目画素の値とすることにより、網点周波数値と角度値とを表す値を得る。これによって、網点スクリーン特性(網点周期(周波数)とスクリーン角)を得ることができる。
網点文字エッジ情報検知部23は、網点画像に対して収縮+膨張処理を行い、網点成分を除去する。明度だけでなく、色相、彩度情報を使用するので、例えば明度の高いY色網点エッジも抽出可能となる。また、網点の比率の高い高Coverage網点背景を分離するために、反転処理した画像に対してもエッジ検知を行っている。このようにして、網点で形成されている文字のエッジ情報を検知する。
網点背景中網点文字検知部24は、色情報変化領域検知部21、色スクリーン角情報検知部22、および網点文字エッジ情報検知部23の判定結果を総合して網点背景中の網点文字であるかなどの判定を行う。また、図3に示す網点検知部12にて網点検出できなかった部分を補完する機能も有する。
色スクリーン角情報検知部22では、入力される画像に対して所定の前処理が行われた後、網点周期(周波数)の検知と、網点スクリーン角度検知が行われる。ここでは、これれらの検知が別々に行われ、マッチングスコアを注目画素の値とすることにより、網点周波数値と角度値とを表す値を得る。これによって、網点スクリーン特性(網点周期(周波数)とスクリーン角)を得ることができる。
網点文字エッジ情報検知部23は、網点画像に対して収縮+膨張処理を行い、網点成分を除去する。明度だけでなく、色相、彩度情報を使用するので、例えば明度の高いY色網点エッジも抽出可能となる。また、網点の比率の高い高Coverage網点背景を分離するために、反転処理した画像に対してもエッジ検知を行っている。このようにして、網点で形成されている文字のエッジ情報を検知する。
網点背景中網点文字検知部24は、色情報変化領域検知部21、色スクリーン角情報検知部22、および網点文字エッジ情報検知部23の判定結果を総合して網点背景中の網点文字であるかなどの判定を行う。また、図3に示す網点検知部12にて網点検出できなかった部分を補完する機能も有する。
ここで、色情報変化領域検知部21の処理について詳述する。
図5は、色情報変化領域検知部21にて実行される処理の流れを示す説明図である。色情報変化領域検知部21では、まず、例えば1画素ごとや3画素の集合等、所定の注目画素の明度が抽出され(ステップ101)、この注目画素を含む所定領域の平均明度、即ち、N近傍平均の明度が抽出される(ステップ102)。その後、これらの差分をとり(ステップ103)、LUTによりデバイス間のバラツキ調整が行われる(ステップ104)。次に、このLUTを経たデータと注目画素の明度の値とを加減算し(ステップ105)、リミッタによってスレッショルドレベルを調整する(ステップ106)。そして、得られたスレッショルドレベルを用いて注目画素の明度の値の差を二値化する(ステップ107)。この明度差抽出結果によって、網点文字候補を判定し、判定結果としてのタグ(Tag)を出力する(ステップ130)。
図5は、色情報変化領域検知部21にて実行される処理の流れを示す説明図である。色情報変化領域検知部21では、まず、例えば1画素ごとや3画素の集合等、所定の注目画素の明度が抽出され(ステップ101)、この注目画素を含む所定領域の平均明度、即ち、N近傍平均の明度が抽出される(ステップ102)。その後、これらの差分をとり(ステップ103)、LUTによりデバイス間のバラツキ調整が行われる(ステップ104)。次に、このLUTを経たデータと注目画素の明度の値とを加減算し(ステップ105)、リミッタによってスレッショルドレベルを調整する(ステップ106)。そして、得られたスレッショルドレベルを用いて注目画素の明度の値の差を二値化する(ステップ107)。この明度差抽出結果によって、網点文字候補を判定し、判定結果としてのタグ(Tag)を出力する(ステップ130)。
同様に、色情報変化領域検知部21では、所定の注目画素の彩度が抽出され(ステップ111)、この注目画素を含む所定領域の平均彩度、即ち、N近傍平均の彩度が抽出される(ステップ112)。その後、これらの差分をとり(ステップ113)、LUTによりデバイス間のバラツキ調整が行われる(ステップ114)。次に、このLUTを経たデータと注目画素の彩度の値とを加減算し(ステップ115)、リミッタによってスレッショルドレベルを調整する(ステップ116)。そして、得られたスレッショルドレベルを用いて注目画素の彩度の値の差を二値化する(ステップ117)。この彩度差抽出結果によって、網点文字候補を判定し、判定結果としてのタグ(Tag)を出力する(ステップ130)。
また、色情報変化領域検知部21では、所定の注目画素の色相角が抽出され(ステップ121)、この注目画素を含む所定領域の平均色相角、即ち、N近傍平均の色相角が抽出される(ステップ122)。その後、これらの差分をとり(ステップ123)、LUTによりデバイス間のバラツキ調整が行われる(ステップ124)。次に、このLUTを経たデータと注目画素の色相角の値とを加減算し(ステップ125)、リミッタによってスレッショルドレベルを調整する(ステップ126)。そして、得られたスレッショルドレベルを用いて注目画素の色相角の値の差を二値化する(ステップ127)。この色相角度差抽出結果によって、網点文字候補を判定し、判定結果としてのタグ(Tag)を出力する(ステップ130)。
図6は、色情報変化領域検知部21から出力される網点文字候補Tagの出力処理例を示した図である。図5のステップ107、ステップ117、およびステップ127により二値化された抽出結果は、明度差抽出結果、彩度差抽出結果、および色相角度差抽出結果として「0」(差がない)と「1」(差がある)とで表現される。この抽出結果は、図6に示すような8通りの組み合わせとなる。
まず、これらの抽出結果が全て0の場合は、網点文字候補判定では「絵柄」と判定され、判定結果は「明度、彩度、色相角度差なし」となる。この場合に、出力Tagを「0」とし、網点背景中網点文字検知部24(図4参照)、および像域分離判定部13(図3参照)などの後段画像処理例としては、「レベル0(強調無し)」となる。
また、色相角度差抽出結果だけが1である場合に、網点文字候補判定では「白背景網点文字」と判定され、判定結果は「色相角度差あり」となる。かかる場合に出力Tagを「1」とし、後段画像処理例は「レベル1」となる。このようなレベル1の出力によって、網点検知部12(図3参照)による網点検知の判定間違いを修正することが可能であり、網点検知の精度を高めることができる点で優れている。以下の「レベル1」判定も同様である。
更に、彩度差抽出結果だけが1である場合に、網点文字候補判定では「白背景網点文字」と判定され、判定結果は「彩度差あり」となる。この場合には、出力Tagを「2」とし、後段画像処理例は「レベル1」となる。
また、色相角度差抽出結果だけが1である場合に、網点文字候補判定では「白背景網点文字」と判定され、判定結果は「色相角度差あり」となる。かかる場合に出力Tagを「1」とし、後段画像処理例は「レベル1」となる。このようなレベル1の出力によって、網点検知部12(図3参照)による網点検知の判定間違いを修正することが可能であり、網点検知の精度を高めることができる点で優れている。以下の「レベル1」判定も同様である。
更に、彩度差抽出結果だけが1である場合に、網点文字候補判定では「白背景網点文字」と判定され、判定結果は「彩度差あり」となる。この場合には、出力Tagを「2」とし、後段画像処理例は「レベル1」となる。
彩度差抽出結果および色相角度差抽出結果が1である場合には、網点文字候補判定では「網点背景網点文字」と判定され、判定結果は「彩度差&色相角度差あり」となる。この場合には、出力Tagを「3」とし、後段画像処理例は「レベル2」となる。
一方、明度差抽出結果だけが1である場合に、網点文字候補判定では「白背景網点文字」と判定され、判定結果は「明度差あり」となる。この場合には、出力Tagを「4」とし、後段画像処理例は「レベル1」となる。
一方、明度差抽出結果だけが1である場合に、網点文字候補判定では「白背景網点文字」と判定され、判定結果は「明度差あり」となる。この場合には、出力Tagを「4」とし、後段画像処理例は「レベル1」となる。
また、明度差抽出結果および色相角度差抽出結果が1である場合には、網点文字候補判定では「網点背景網点文字」と判定され、判定結果は「明度差&色相角度差あり」となる。この場合には、出力Tagを「5」とし、後段画像処理例は「レベル2」となる。
同様に、明度差抽出結果および彩度差抽出結果が1である場合には、網点文字候補判定では「網点背景網点文字」と判定され、判定結果は「明度差&彩度差あり」となる。この場合には、出力Tagを「6」とし、後段画像処理例は「レベル2」となる。
更に、明度差抽出結果、彩度差抽出結果および色相角度差抽出結果が全て1である場合には、網点文字候補判定は「網点背景網点文字」と判定され、判定結果は「明度差&彩度差&色相角度差あり」となる。この場合には、出力Tagを「7」とし、後段画像処理例は「レベル3」となる。
同様に、明度差抽出結果および彩度差抽出結果が1である場合には、網点文字候補判定では「網点背景網点文字」と判定され、判定結果は「明度差&彩度差あり」となる。この場合には、出力Tagを「6」とし、後段画像処理例は「レベル2」となる。
更に、明度差抽出結果、彩度差抽出結果および色相角度差抽出結果が全て1である場合には、網点文字候補判定は「網点背景網点文字」と判定され、判定結果は「明度差&彩度差&色相角度差あり」となる。この場合には、出力Tagを「7」とし、後段画像処理例は「レベル3」となる。
次に、図4に示す色スクリーン角情報検知部22の処理について詳述する。
図7は、色スクリーン角情報検知部22にて実行される網点スクリーン特性の検知処理を示すフローチャートである。ここでは、均等色空間L*a*b*画像と、網点領域かそうでないかを示すTag情報とを入力信号とする。まず前処理として、L*a*b*画像をL面、a面、b面などに分離する色分離処理が行われる(ステップ201)。均等色空間がYCCの場合には、Y面、Cb面、Cr面に分離する。ここでa*b*空間についてはマイナス値を含むので、a*b*空間について正領域と負領域とに分離する(ステップ202)。例えばa*は−80〜0と0〜80等に、例えばb*は−60〜0と0〜100等に分離する。次の前処理として、色分離、正負分離した各画素に対して浮動二値化処理を実行し、周辺に対して画素値が高いエリアを抽出する(ステップ203)。このとき、a*b*の負領域は、反転処理を行った後に二値化処理を行う。ここで浮動二値化処理とは、多値画像を単純な固定閾値で2値化するのではなく、周囲の状況を反映してなされる二値化処理である。例えば5×5ウィンドウを形成して、周辺に対して画素値が高いエリアを抽出する。
図7は、色スクリーン角情報検知部22にて実行される網点スクリーン特性の検知処理を示すフローチャートである。ここでは、均等色空間L*a*b*画像と、網点領域かそうでないかを示すTag情報とを入力信号とする。まず前処理として、L*a*b*画像をL面、a面、b面などに分離する色分離処理が行われる(ステップ201)。均等色空間がYCCの場合には、Y面、Cb面、Cr面に分離する。ここでa*b*空間についてはマイナス値を含むので、a*b*空間について正領域と負領域とに分離する(ステップ202)。例えばa*は−80〜0と0〜80等に、例えばb*は−60〜0と0〜100等に分離する。次の前処理として、色分離、正負分離した各画素に対して浮動二値化処理を実行し、周辺に対して画素値が高いエリアを抽出する(ステップ203)。このとき、a*b*の負領域は、反転処理を行った後に二値化処理を行う。ここで浮動二値化処理とは、多値画像を単純な固定閾値で2値化するのではなく、周囲の状況を反映してなされる二値化処理である。例えば5×5ウィンドウを形成して、周辺に対して画素値が高いエリアを抽出する。
以上のような前処理を行った後、網点パターン検知、および網点角度スコア付け処理が行われる。ここではまず、パターンマッチングにより網点ドットを検出する(ステップ204)。その後、マッチング度合いに応じたスコア付けを行い(ステップ205)、角度変化量を検知する(ステップ206)。そして、網点スクリーン周波数と角度を表す情報を出力して(ステップ207)、処理が終了する。
図8は、上述したステップ204のパターンマッチングで用いられるスクリーン角度検知参照ウィンドウの例を示した図である。図8に示す例では、参照領域は19×19画素であり、スコア値は4ビットである。網点スコアリングアルゴリズムは、CiからDi,Ei、・・・Zi,・・・,UUUi( i= 1,2,3,4 )の順番でパターンマッチングを行い、マッチした位置に応じてスコア付けを行う。図8には、注目画素Aを囲む7×7領域と、後述する重み付け単位としてi= 1の領域が強調されて示されている。
一方、図9(a)〜(c)は、注目画素Aに対する重み付けを説明するための図である。図9(a)は、図8に示すi= 1の領域と同じ方向にて、基準となるパターンが示されている。図9(b)は後述するFULLスコア値の例、図9(c)は後述するHALFスコア値の例が示されている。i=2、i=3、i=4となると、図9(a)に示すパターンは、注目画素Aを中心として反時計方向に90度ずつ回転する(図8を参照)。
ステップ204のパターンマッチングにて用いられるアルゴリズムとしては、以下の3つのステップがある。
ここでは、注目画素Aがピーク抽出された画素である場合に、
ここでは、注目画素Aがピーク抽出された画素である場合に、
1)Ci〜Li,Pi( i= 1,2,3,4 )に関して(7×7領域)
イ.i=1〜4の4画素すべてがON、
ロ.i=1〜4のうちの3画素がON、
のとき、注目画素Aに対して上記イ.のときはFULLスコア、上記ロ.のときはHALFスコアを付ける。
イ.i=1〜4の4画素すべてがON、
ロ.i=1〜4のうちの3画素がON、
のとき、注目画素Aに対して上記イ.のときはFULLスコア、上記ロ.のときはHALFスコアを付ける。
2)Mi,Ni,Oi,Qi〜UUUi( i= 1,2,3,4 )に関して(7×7領域外)は、
イ.i=1〜4の4画素すべてがON、
ハ.i=1〜4のうち少なくとも1つがONであり、かつ4つの対象画素すべてにおいて対象画素またはそれらの4近傍のいずれかがON、
であるとき、注目画素Aに対し上記イ.のときはFULLスコア、上記ハ.のときはHALFスコアを付ける。
イ.i=1〜4の4画素すべてがON、
ハ.i=1〜4のうち少なくとも1つがONであり、かつ4つの対象画素すべてにおいて対象画素またはそれらの4近傍のいずれかがON、
であるとき、注目画素Aに対し上記イ.のときはFULLスコア、上記ハ.のときはHALFスコアを付ける。
3)Biから順にピーク画素数をカウントし、カウント値が閾値(最大画素数閾値)を越えた場合、それ以降の画素はスコアリング対象画素から除外する。また、マッチしたパターンが複数個ある場合は、最大スコア値を注目画素Aのスコアとする。
図10〜図12は、このステップ204に示すパターンマッチングの処理例を示すフローチャートである。
図10に示す第1の処理例では、まず、注目画素「A」が「ON」であるか、「OFF」であるかを調べる(ステップ301)。注目画素「A」が「ON」である場合には、ステップ302以降で、パターンとの比較処理を行い、「OFF」の場合には、当該注目画素に対するパターン比較処理を終了する。注目画素「A」が「ON」であった場合、まず、判定対象パターンである画素(□で表す)を「C」に初期化する(ステップ302)。次に、□i(i=1,2,3,4)が全て「ON」であるか否かを判定する(ステップ303)。全て「ON」であった場合には、ステップ304で、□に対応するパターン一致識別信号(FULLスコア)を出力し、終了する。ステップ303で全て「ON」ではない場合には、次の判定対象パターンがあるか否かを判断し(ステップ305)、次の判定パターンがある場合には、判定対象をそのパターンに変更し(ステップ306)、ステップ303に戻る。ステップ305で次の判定対象パターンがない場合には、この注目画素に対するパターン比較処理を終了する。
図10に示す第1の処理例では、まず、注目画素「A」が「ON」であるか、「OFF」であるかを調べる(ステップ301)。注目画素「A」が「ON」である場合には、ステップ302以降で、パターンとの比較処理を行い、「OFF」の場合には、当該注目画素に対するパターン比較処理を終了する。注目画素「A」が「ON」であった場合、まず、判定対象パターンである画素(□で表す)を「C」に初期化する(ステップ302)。次に、□i(i=1,2,3,4)が全て「ON」であるか否かを判定する(ステップ303)。全て「ON」であった場合には、ステップ304で、□に対応するパターン一致識別信号(FULLスコア)を出力し、終了する。ステップ303で全て「ON」ではない場合には、次の判定対象パターンがあるか否かを判断し(ステップ305)、次の判定パターンがある場合には、判定対象をそのパターンに変更し(ステップ306)、ステップ303に戻る。ステップ305で次の判定対象パターンがない場合には、この注目画素に対するパターン比較処理を終了する。
図11は、パターンマッチングの第2の処理例を示した図であり、上記アルゴリズムの1)の処理を示している。ここではまず、注目画素「A」が「ON」であるか、「OFF」であるかを判断する(ステップ401)。そして、注目画素「A」が「ON」の場合には、ステップS402以降でパターンとの比較処理を行い、「OFF」の場合には、該注目画素に対するパターン比較処理を終了する。注目画素「A」が「ON」であった場合には、判定対象パターンである画素(□で表す)を「C」に初期化する(ステップ402)。次に、□i(i=1,2,3,4)のうち、「ON」画素の個数を調べる(ステップ403)。そして、4個とも「ON」であった場合には、ステップ404で、□に対応するパターン一致識別信号(FULLスコア)を出力し、処理を終了する。「ON」画素数が3個の場合には、ステップ405で、□に対するパターン類似識別信号(HALFスコア)を出力し、処理を終了する。ステップ403で「ON」画素の個数が2個以下の場合には、ステップ406へ移行する。このステップ406では、他の判定対象パターンがあるか否かを判断し、他の判定パターンがある場合には、判定対象をそのパターンに変更し(ステップ407)、ステップ403に戻る。そして、ステップ403以降を実行し、全てのパターンとの比較し、一致する度にパターン一致識別信号(FULLスコア)を出力し、類似する度にパターン類似識別信号(HALFスコア)を出力する。ステップ406で他の判定対象パターンがない場合には、この注目画素に対するパターン比較処理を終了する。
図12は、パターンマッチングの第3の処理例を示した図であり、上記アルゴリズムの2)の処理を示している。ここではまず、注目画素「A」が「ON」であるか、「OFF」であるかを判断する(ステップ501)。そして、注目画素「A」が「ON」の場合には、ステップ502以降でパターンとの比較処理を行い、「OFF」の場合には、この注目画素に対するパターン比較処理を終了する。この注目画素「A」が「ON」であった場合には、判定対象パターンである画素(□で表す)を「C」に初期化する(ステップ502)。次に、□i(i=1,2,3,4)のうち、「ON」画素の個数を調べる(ステップ503)。そして、4個とも「ON」であった場合には、□に対応するパターン一致識別信号(FULLスコア)を出力し(ステップ505)、処理を終了する。また、「ON」画素数が1〜3個であった場合には、ステップ504で、「OFF」である全ての□i画素の近傍にそれぞれ1つでも「ON」画素が存在するか否かを判断し、存在する場合には、□に対応するパターン類似識別信号を出力し(ステップ506)、処理を終了する。なお、この近傍は、例えば4近傍や8近傍を用いることができる。ステップ503で□iの「ON」画素数が0個である場合や、ステップ504で「OFF」である□i画素の近傍に「ON」画素が存在しない場合には、ステップ507へ移行する。このステップ507では、他の判定対象パターンがあるか否かを判断し、他の判定パターンがある場合には、判定対象をそのパターンに変更し(ステップ508)、ステップ503に戻って処理が繰り返される。ステップ507で他の判定対象パターンがない場合には、ステップ503へ戻って処理が繰り返される。
図13(a),(b)は、上述したようなアルゴリズムを用いた場合におけるマッチング度合いに応じたスコア付けの処理例を示した図である。図13(a)では、注目画素を「※」画素(A)とし、E1、E2、E3、E4に網点ドット(1)がある場合を示している。また、図13(b)は、L1、L2近傍、L3、L4近傍に網点ドット(1)がある場合を示している。ここで、黒(1)、白(0)と定義すると、図13(a)に示す場合は、E1、E2、E3、E4の全てが黒(1)であることから、上記アルゴリズムの1)によって、網点周期スコアはFULLスコアの1(図9(a),(b)のEの箇所を参照)が出力される。また、図13(b)に示す場合は、L1、L2近傍、L3、L4近傍が黒(1)であるので、上記アルゴリズムの2)ハ.に該当し、類似識別信号であるHALFスコアの1(図9(a),(c)のLの箇所を参照)が出力される。
次に、図7のステップ206にて実行される角度変化量検知処理について説明する。
色スクリーン角情報検知部22(図4参照)の角度検知では、前述と同様な網点周波数検知方法を採用して網点ドットの走査および検出が行われる。即ち、CiからDi,Ei、…Zi,…,UUUi( i = 1, 2, 3, 4 )の順番でパターンマッチングを行い、マッチした位置に応じてスコア付けを行う。そして、この角度検知では、これと異なる処理として、第1に、マッチしたときのスコア値で、注目画素と網点ドット間に引ける直線の傾きを表すものに変える処理が行われる。更に異なるものとして、第2に、L1、L2近傍、L3、L4近傍にある場合などでは、FULLスコアを与える処理が行われる。尚、近傍は4近傍(上下左右まで)とし、これらの何れかが黒である場合に評価の対象とする。
色スクリーン角情報検知部22(図4参照)の角度検知では、前述と同様な網点周波数検知方法を採用して網点ドットの走査および検出が行われる。即ち、CiからDi,Ei、…Zi,…,UUUi( i = 1, 2, 3, 4 )の順番でパターンマッチングを行い、マッチした位置に応じてスコア付けを行う。そして、この角度検知では、これと異なる処理として、第1に、マッチしたときのスコア値で、注目画素と網点ドット間に引ける直線の傾きを表すものに変える処理が行われる。更に異なるものとして、第2に、L1、L2近傍、L3、L4近傍にある場合などでは、FULLスコアを与える処理が行われる。尚、近傍は4近傍(上下左右まで)とし、これらの何れかが黒である場合に評価の対象とする。
図14(a),(b)は、この角度検知に用いられるスクリーン角度検知用パターンを示した図である。図14(a)は図9(a)に示した基準パターンと同じであり、図14(b)に実際のスクリーン角度検知用パターンを示している。この図14(b)に示すパターンの各スコア値は、注目画素(A)である「※」画素から、右へ推移した数を分母、上へ推移した数を分子として表したものであり、角度を表している。この各スコア値は、FULLスコアである。
ここで、角度スコアを付ける例として、図13(a),(b)に示す網点ドットの場合について考察する。図13(a)の場合には、E1、E2、E3、E4に網点ドットが存在し、これらが全て黒(1)であることから、網点周期スコアは、図14(b)に示すFULLスコアである1/2が出力される。一方、図13(b)の場合には、L1、L2近傍、L3、L4近傍が黒(1)であるので、網点周期スコアは、図14(b)に示すFULLスコアである3/2が出力される。尚、ここでも、黒(1)、白(0)と定義している。
以上のようにして、図7の各ステップの処理が実行される。そして、ステップ207に示すように、このようにして得られた網点スクリーン周波数と角度を表す情報が、網点背景中網点文字検知部24(図4参照)に出力されて、色スクリーン角情報検知部22の処理が終了する。
次に、図4に示す網点文字エッジ情報検知部23の処理について説明する。
図15は、網点文字エッジ情報検知部23にて実行される処理の流れを示した図である。ここでは、網点で形成されている文字のエッジ情報を検知するのに際し、L*a*b*信号の各々について図15に示す処理が実行される。ここでは、まず、L*信号について二値化処理が行われ(ステップ601)、網点画像について収縮処理(AND処理)が行われる(ステップ602)。また、膨張処理(OR処理)が行われる(ステップ603)。このように収縮処理+膨張処理によって網点部分を除去する。その後、エッジ検知が行われ(ステップ604)、網点エッジ候補が網点背景中網点文字検知部24(図4参照)に出力されて(ステップ605)、処理が終了する。このステップ605の網点エッジ候補の出力では、所定の線成分抽出技術などを採用することができる。例えば、注目画素を含むN画素がつながっている場合にエッジの一部とする等である。
図15は、網点文字エッジ情報検知部23にて実行される処理の流れを示した図である。ここでは、網点で形成されている文字のエッジ情報を検知するのに際し、L*a*b*信号の各々について図15に示す処理が実行される。ここでは、まず、L*信号について二値化処理が行われ(ステップ601)、網点画像について収縮処理(AND処理)が行われる(ステップ602)。また、膨張処理(OR処理)が行われる(ステップ603)。このように収縮処理+膨張処理によって網点部分を除去する。その後、エッジ検知が行われ(ステップ604)、網点エッジ候補が網点背景中網点文字検知部24(図4参照)に出力されて(ステップ605)、処理が終了する。このステップ605の網点エッジ候補の出力では、所定の線成分抽出技術などを採用することができる。例えば、注目画素を含むN画素がつながっている場合にエッジの一部とする等である。
また、反転処理をした画像に対してもエッジ検知が行われる。そこで、まず、L*信号について反転処理を行い(ステップ606)、その後、前述と同様なステップ601からステップ605までの処理が実行される。これによって、高カバレッジ(Coverage)網点背景を分離することが可能となる。
以上のようなステップ601からステップ605の処理は、a*信号、b*信号についても行われる。また、高カバレッジ(Coverage)網点背景を分離するためにa*信号およびb*信号を反転処理した画像に対してもエッジ検出が行われ、ステップ606で反転した後、ステップ601からステップ605までの処理も同様に実行される。このように、本実施の形態では、明度だけではく、色相、彩度情報をも使用するので、例えば明度の高いY色網点エッジなどについてもエッジを抽出することが可能となる。
このようにして、色情報変化領域検知部21、色スクリーン角情報検知部22、および網点文字エッジ情報検知部23における処理結果は、網点背景中網点文字検知部24へ出力される。網点背景中網点文字検知部24では、それぞれの処理結果を統合して、判定結果を出力する。
図16は、網点背景中網点文字検知部24からの判定結果の出力例を示した図である。まず、網点文字エッジ情報検知部23にて「非網点文字エッジ」と検知された場合には、色情報変化領域検知部21および色スクリーン角情報検知部22の検知結果は「Don’t care」となる。そして、網点背景中網点文字検知部24の判定結果は「網点絵柄」となり、出力Tagは「0」となる。
網点文字エッジ情報検知部23にて「網点文字エッジ」と検知された場合には、色情報変化領域検知部21の検知にて、レベル0〜レベル3の4つに分類される。色情報変化領域検知部21でレベル0と検知される場合に、色スクリーン角情報検知部22にてレベル小(0)、レベル中(1)、レベル大(2)が区別される。このレベル小(0)の場合に、網点背景中網点文字検知部24の判定結果は「網点絵柄」、出力Tagは「0」となる。また、レベル中(1)の場合に、網点背景中網点文字検知部24の判定結果は「網点文字中間1(絵柄と白背景網点文字)」、出力Tagは「1」となる。更に、レベル大(2)の場合に、網点背景中網点文字検知部24の判定結果は「白背景網点文字(色差なし)」、出力Tagは「2」となる。
また、網点文字エッジ情報検知部23にて「網点文字エッジ」と検知され、色スクリーン角情報検知部22にてレベル1の場合に、色スクリーン角情報検知部22でレベル小(0)およびレベル中(1)では、網点背景中網点文字検知部24の判定結果は「網点文字中間1(絵柄と白背景網点文字)」、出力Tagは「1」となる。また、色スクリーン角情報検知部22でレベル大(2)の場合には、網点背景中網点文字検知部24の判定結果は「白背景網点文字(色差小、スクリーン角度差大)」、出力Tagは「3」となる。
更に、網点文字エッジ情報検知部23にて「網点文字エッジ」と検知され、色スクリーン角情報検知部22にてレベル2の場合に、色スクリーン角情報検知部22でレベル小(0)と検知された場合には、網点背景中網点文字検知部24の判定結果は「網点文字中間2(絵柄と網点背景網点文字)」、出力Tagは「4」となる。また、色スクリーン角情報検知部22でレベル中(1)では、網点背景中網点文字検知部24の判定結果は「網点背景網点文字(色差中、スクリーン角度差中)」、出力Tagは「5」となる。更に、色スクリーン角情報検知部22でレベル大(2)の場合には、網点背景中網点文字検知部24の判定結果は「網点背景網点文字(色差中、スクリーン角度差大)」、出力Tagは「6」となる。
また更に、網点文字エッジ情報検知部23にて「網点文字エッジ」と検知され、色スクリーン角情報検知部22にてレベル3の場合に、色スクリーン角情報検知部22でレベル小(0)と検知された際には、網点背景中網点文字検知部24の判定結果は「網点文字中間2(絵柄と網点背景網点文字)」、出力Tagは「4」となる。また、色スクリーン角情報検知部22でレベル中(1)では、網点背景中網点文字検知部24の判定結果は「網点背景網点文字(色差大、スクリーン角度差中)」、出力Tagは「7」となる。更に、色スクリーン角情報検知部22でレベル大(2)の場合には、網点背景中網点文字検知部24の判定結果は「網点背景網点文字(色差大、スクリーン角度差大)」、出力Tagは「8」となる。
このように、網点背景中網点文字検知部24では、網点絵柄、白背景網点文字、網点文字中間1,2、網点背景中網点文字を識別し、これらを区別した結果を出力することができる。更に、この網点背景網点文字の中を、色差小から色差大まで、また、スクリーン角度差小からスクリーン角度差大まで区別し、その結果を出力している。これによって、網点背景中の網点文字の抽出を良好に行うことが可能となる。そして、この網点背景中網点文字検知部24からの出力結果は、図3に示す像域分離判定部13に出力され、図1に示す色信号変換部4等の各種画像処理に利用される。即ち、網点背景中の網点で形成された文字の判別結果を用いて、背景領域に応じて画像処理を切り替えることが可能となり、網点背景中の網点文字の画質を改善することが可能となる。
10…像域分離処理部、11…文字検知部、12…網点検知部、13…像域分離判定部、20…網点文字抽出部、21…色情報変化領域検知部、22…色スクリーン角情報検知部、23…網点文字エッジ情報検知部、24…網点背景中網点文字検知部
Claims (15)
- 画像データを入力する画像入力部と、
前記画像入力部により入力された前記画像データから網点以外の文字領域を検知する文字検知部と、
前記画像入力部により入力された前記画像データから網点領域を検知する網点検知部と、
前記網点検知部による前記網点領域の検知結果から、網点背景に対して当該網点背景中に形成される網点文字が有する特徴点を捉えることで前記画像入力部により入力された前記画像データから当該網点背景中の網点文字領域を抽出する網点文字抽出部と
を含む画像処理装置。 - 前記網点文字抽出部は、前記画像入力部により入力された前記画像データの色情報が変化する領域を抽出することにより前記網点背景中の網点文字を抽出することを特徴とする請求項1記載の画像処理装置。
- 前記網点文字抽出部は、前記画像データにおける注目画素と当該注目画素を含む周囲の画素との間の、明度差、彩度差、および色相角度差の何れか1つから前記網点背景中の網点文字を抽出することを特徴とする請求項2記載の画像処理装置。
- 前記網点文字抽出部は、前記画像入力部により入力された前記画像データの前記網点領域の中の網点スクリーン角の変化を検知することにより前記網点背景中の網点文字を抽出することを特徴とする請求項1記載の画像処理装置。
- 前記網点文字抽出部は、前記画像入力部により入力された前記画像データの前記網点領域の中に存在するエッジを検知することにより前記網点背景中の網点文字を抽出することを特徴とする請求項1記載の画像処理装置。
- 前記網点文字抽出部により抽出された網点背景中の網点文字について非文字の処理とは異なる文字強調処理を施すことを特徴とする請求項1記載の画像処理装置。
- 入力された画像データから網点領域を検知する網点検知手段と、
前記網点検知手段により検知された前記網点領域に対し、色情報の変化を捉えて網点背景から当該網点背景中の網点文字を抽出する網点文字抽出手段と、
前記網点文字抽出手段による抽出結果を用いて、前記網点背景中の網点文字を識別する情報を出力する情報出力手段と
を含む画像処理装置。 - 前記網点文字抽出手段は、前記画像データの前記網点領域の中の網点スクリーン角の変化を検知することにより前記網点背景中の網点文字を抽出することを特徴とする請求項7記載の画像処理装置。
- 前記網点文字抽出手段は、前記画像データの前記網点領域の中に存在するエッジを検知することにより前記網点背景中の網点文字を抽出することを特徴とする請求項7記載の画像処理装置。
- 前記情報出力手段は、前記網点背景中の網点文字を数段階に区別した情報を出力することを特徴とする請求項7記載の画像処理装置。
- 入力された画像データから網点領域を検知するステップと、
検知された前記網点領域に対し、前記画像データの網点背景に対して当該網点背景中に形成される網点文字が有する特徴点を捉えるステップと、
捉えられた前記特徴点に応じて、網点背景中の網点文字を識別する情報を出力するステップと
を含む網点文字の情報出力方法。 - 前記出力するステップは、捉えられる前記特徴点のレベルに応じて、前記識別する情報を段階的な情報として出力することを特徴とする請求項11記載の網点文字の情報出力方法。
- 前記特徴点を捉えるステップは、前記画像データの注目画素と当該注目画素を含む周囲の画素との間の色情報の変化を捉えることを特徴とする請求項11記載の網点文字の情報出力方法。
- 前記特徴点を捉えるステップは、前記画像データの前記網点領域の中の網点スクリーン角の変化を検知することにより当該特徴点を捉えることを特徴とする請求項11記載の網点文字の情報出力方法。
- 前記特徴点を捉えるステップは、前記画像データの前記網点領域の中に存在するエッジを検知することにより当該特徴点を捉えることを特徴とする請求項11記載の網点文字の情報出力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006059938A JP2007243330A (ja) | 2006-03-06 | 2006-03-06 | 画像処理装置、および網点文字の情報出力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006059938A JP2007243330A (ja) | 2006-03-06 | 2006-03-06 | 画像処理装置、および網点文字の情報出力方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007243330A true JP2007243330A (ja) | 2007-09-20 |
Family
ID=38588454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006059938A Pending JP2007243330A (ja) | 2006-03-06 | 2006-03-06 | 画像処理装置、および網点文字の情報出力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007243330A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013123157A (ja) * | 2011-12-12 | 2013-06-20 | Konica Minolta Business Technologies Inc | 画像処理装置、画像処理方法およびコンピュータープログラム |
JP2014022893A (ja) * | 2012-07-17 | 2014-02-03 | Konica Minolta Inc | エッジ検出装置、エッジ検出方法、およびコンピュータプログラム |
-
2006
- 2006-03-06 JP JP2006059938A patent/JP2007243330A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013123157A (ja) * | 2011-12-12 | 2013-06-20 | Konica Minolta Business Technologies Inc | 画像処理装置、画像処理方法およびコンピュータープログラム |
JP2014022893A (ja) * | 2012-07-17 | 2014-02-03 | Konica Minolta Inc | エッジ検出装置、エッジ検出方法、およびコンピュータプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4137890B2 (ja) | 画像処理装置、画像形成装置、画像読取処理装置、画像処理方法、画像処理プログラムおよびコンピュータ読み取り可能な記録媒体 | |
KR101172399B1 (ko) | 화상형성장치 및 그 화질 개선 방법 | |
JP3576810B2 (ja) | 画像処理装置 | |
JPH0497657A (ja) | カラー画像の領域分離装置 | |
CN107566684B (zh) | 图像处理装置、图像处理方法及存储介质 | |
JPH0722330B2 (ja) | 画像処理装置の画像領域識別方式 | |
JP4115999B2 (ja) | 画像処理装置、画像形成装置、画像読取処理装置、画像処理方法、画像処理プログラムおよびコンピュータ読み取り可能な記録媒体 | |
JPH0435167A (ja) | 線画分離方法および装置 | |
JP6740612B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP4013478B2 (ja) | 画像処理装置 | |
JP2007243330A (ja) | 画像処理装置、および網点文字の情報出力方法 | |
JP2012205133A (ja) | 画像処理装置およびその制御方法 | |
JP2002209103A (ja) | 画像処理装置 | |
JP2002027242A (ja) | 画像処理方法、画像処理装置、それを備えた画像形成装置および記録媒体 | |
JP3789243B2 (ja) | 画像処理装置および方法 | |
JP3754736B2 (ja) | 画像処理装置およびその方法 | |
JP3495743B2 (ja) | 画像処理装置及び画像処理方法 | |
JP3966448B2 (ja) | 画像処理装置、画像処理方法、該方法を実行するプログラムおよび該プログラムを記録した記録媒体 | |
JP3153221B2 (ja) | カラー画像処理装置 | |
JP3064896B2 (ja) | 画像処理装置 | |
EP1936952A2 (en) | Image forming apparatus and image quality improving method thereof | |
JP2000324338A (ja) | 原稿種認識装置 | |
JPH08191392A (ja) | 画像処理装置 | |
JPH03153167A (ja) | 文字領域分離方式 | |
JP2002232704A (ja) | 画像処理装置及び画像形成装置 |