JP3605773B2 - Image area discriminating device - Google Patents

Image area discriminating device Download PDF

Info

Publication number
JP3605773B2
JP3605773B2 JP26508893A JP26508893A JP3605773B2 JP 3605773 B2 JP3605773 B2 JP 3605773B2 JP 26508893 A JP26508893 A JP 26508893A JP 26508893 A JP26508893 A JP 26508893A JP 3605773 B2 JP3605773 B2 JP 3605773B2
Authority
JP
Japan
Prior art keywords
image
edge
speed
halftone
reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26508893A
Other languages
Japanese (ja)
Other versions
JPH07123253A (en
Inventor
徹也 新妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP26508893A priority Critical patent/JP3605773B2/en
Publication of JPH07123253A publication Critical patent/JPH07123253A/en
Application granted granted Critical
Publication of JP3605773B2 publication Critical patent/JP3605773B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、レーザープリンタや複写機等において、原稿等から読み取られた画像データを画像処理する際に、画像の種類に応じた処理を施すべく画像の種類を判別する技術に関する。
【0002】
【従来の技術】
従来、レーザープリンタや複写機等においては、文字領域、写真領域、網点画像領域が混在する画像データから文字領域のみを検出することにより、文字領域には強調処理を施して、輪郭のはっきりした文字画像を得るようにする一方、写真・網点画像領域には平滑化処理を施すことにより、階調の緩やかな写真・網点画像を得るようにしている (特開平4−239269号公報参照) 。
【0003】
また、画像処理された画像データをメモリに一時的に記録しておいて、メモリから出力して再生するようにしているが、多数枚の原稿の画像データをメモリに記録するために、圧縮処理してメモリに記録し、再生時に伸長して出力するようにしているが、その場合、文字画像は2値のデータで高い圧縮率で圧縮すればよく、一方、写真・網点画像は高画質を確保するため、低い圧縮率で圧縮する必要があるため、やはり、画像の種類の判別が必要となっている。
【0004】
このため、前記画像判別方式としては、従来より各種の方式が提案されている (特開平2−294884号公報,特開平2−295354号公報,特開平3−262380号公報,特開平3−262380号公報等参照) 。
【0005】
【発明が解決しようとする課題】
ところで、原画像に対する再生画像 (CRTへの表示やプリント画像) の倍率 (以下変倍率という) を変更する変倍処理を行う場合、読み取られた画像データを補間や間引き処理して行う方法もあるが、これら画像処理を省略すべくスキャナの読取速度を変更して行う方法もある。即ち、画像を拡大再生する場合には、読取速度を減少させて、単位長あたりの読取画素数を増やし、再生時の画素間隔は一定として再生することにより拡大することができる。縮小再生時は逆に読取速度を増大して読取画素数を減少すればよい。
【0006】
しかしながら、前記のようにスキャナの読取速度を変更すると、読取方向のサンプリング間隔が変化するため、画像の持つ周波数成分やエッジ方向などが見掛け上変化してしまい、画像の判別に影響を与えることがあった。
本発明は、このような従来の問題点に鑑みなされたもので、スキャナの読取速度に影響されることなく、画像の種別を正確に判別できるようにした画像判別装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
このため、本発明に係る画像判別装置は、少なくとも一方向の画像読取速度を可変に調整自由な画像読取手段により原画像を読み取って得られた異種類の画像領域が混在する画像情報から画素毎に画像領域の種類を判別する判別手段を含んで構成される画像領域判別装置において、前記判別手段は、エッジ成分の多いエッジ画像を抽出するエッジ画像抽出部と、網点画像を抽出する網点画像抽出部とを含み、原画像と等しい大きさの再生画像を得る場合の画像読取速度を基準速度としたとき、前記画像読取手段の可変に調整される画像読取速度が前記基準速度以下の少なくとも第一の範囲では、前記網点画像抽出部の網点画像判別基準を画像読取速度が減少するほど読取方向の網点画像が抽出されやすくする方向に調整すると共に、前記画像読取手段の可変に調整される画像読取速度が前記基準速度以下の少なくとも第二の範囲では、前記エッジ画像抽出部のエッジ画像判別基準を画像読取速度が減少するほど読取方向のエッジ成分が抽出されにくくする方向に調整する判別基準調整手段を備え、前記第一の範囲が、前記基準速度の1/2〜1倍の範囲内に設定されていることを特徴とする。
【0008】
なお、画像読取手段は、画像領域判別装置に含んで構成してもよいが、画像領域判別装置とは別に設け、該画像読取手段における画像読取速度情報を画像領域判別装置に入力できる構成としてもよい。
また、前記第二の範囲が、前記基準速度の2/3倍以下の範囲内に設定されている構成としてもよい。
【0009】
また、前記画像領域判別手段は、画像読取速度が前記基準速度より大きいときは、前記エッジ画像抽出部のエッジ画像判別基準を読取速度が減少するほど読取方向のエッジ成分が抽出されやすくする方向に調整するようにしてもよい。
また、前記判別基準調整手段は、画像読取速度が前記第一の範囲より小さい第三の範囲では、前記網点画像抽出部の網点画像判別基準を一定としてもよい。
【0010】
また、前記判別手段は、前記エッジ画像抽出部で抽出されたエッジ画像から前記網点画像抽出部で抽出された網点画像を除外した画像を文字として抽出する文字抽出部を含むようにしてもよい。
【0011】
【作用】
例えば、画像読取手段としてラインスキャナにより横方向に副走査を行いつつ縦方向に主走査して画像の読み取りを行い、前記変倍処理のために副走査方向の読取速度を変倍率に応じて調整する場合、前記判別基準調整手段は、画像領域の判別基準を前記調整された画像の読取速度に応じて調整する。
ここで、網点画像抽出部では、基準速度の1/2〜1倍の範囲内に設定されている少なくとも第一の範囲では読取速度が減少するほどサンプリング間隔が減少して網点画像が見かけ上抽出されにくくなるため、当該範囲では該読取速度の減少に応じて読取方向の網点画像が抽出されやすくする方向に網点画像判別基準を調整することにより、網点画像の判定精度が良好に維持される。
また、エッジ画像抽出部で、前記基準速度以下の少なくとも第二の範囲では、エッジ画像を抽出されにくくする方向にエッジ画像判別基準を調整することにより、画像領域の種類の判別精度が良好に確保される
【0012】
エッジ成分がされにくくする方向に判別基準を調整する第二の範囲が、基準速度の2/3倍以下の範囲内に設定されると良好な結果が得られた。
また、画像読取速度が基準速度より大きいときは、網点画像の判別が困難ではなく、エッジ画像判別基準を読取速度が減少するほど読取方向のエッジ成分が抽出されやすくする方向に調整することでエッジ画像を精度よく抽出できる。
【0013】
一方、画像読取速度が第一の範囲より小さい第三の範囲では、網点画像判別基準を一定とすることで良好な結果が得られた。
また、エッジ画像から網点画像を除外した画像を文字として抽出する場合においても、上記のように判別基準を調整することにより、網点画像と文字との判別の精度を良好に維持することができる。
【0014】
【実施例】
以下に本発明の実施例を図に基づいて説明する。
図2は、本発明に係る画像領域判別装置のシステム構成を示す。
画像読取手段としてのスキャナ1は、ラインスキャナで構成され、該ライン方向に主走査を行い一定周期で画像データを読み取りつつ、該ライン方向と直交する方向にラインスキャナと原画像とを相対移動して副走査を行って画像全体を読み取るものであり、本実施例では副走査速度つまり副走査方向の読取速度を画像の副走査方向の変倍率 (再生画像の原画像に対する倍率) に応じて可変に調整できるようになっている。
【0015】
網点画像判別基準値調整部2は、前記スキャナ1の副走査方向の読取速度に応じて後述する網点画像抽出用の判別基準値を調整する。
エッジ画像判別基準値調整部3は、同じくスキャナ1の副走査方向の読取速度に応じて後述するエッジ画像抽出用の判別基準値を調整する。
網点画像領域抽出部4は、前記スキャナ1で読み取られた画像データに対し、前記網点画像判別基準値調整部2で調整された判断基準値に従って網点画像領域の抽出を行う。
【0016】
エッジ画像領域抽出部5は、前記スキャナ1で読み取られた画像データに対し、前記エッジ画像判別基準値調整部3で調整された判断基準値に従ってエッジ成分の多い文字領域と網点画像領域とを合わせたエッジ画像領域の抽出を行う。
文字領域抽出部6は、前記文字領域と網点画像領域とを合わせたエッジ画像領域を、前記網点画像領域でマスクすることにより、文字領域を抽出する。つまり、文字領域と網点画像領域とを分離して判別することができる。
【0017】
写真領域抽出部7は、文字領域,網点画像領域以外の領域を写真画像領域として抽出する。具体的には、全画像領域をエッジ画像領域でマスクして写真領域を抽出する。
次に、前記各部の機能を図に基づいて説明する。
図3は、網点画像領域抽出ルーチンを示す。
【0018】
ステップ (図ではSと記す。以下同様) 1では、注目画素及びその周辺の画素からなる単位画像領域毎に各画素の輝度信号を入力する。具体的には単位画像領域として注目画素を中心とした5×5画素の画像ブロックとする (図4参照) 。また、同時に当該輝度信号がスキャナで読み取られた際の副走査方の読取速度に応じて後述する網点候補画素抽出用の2値化に用いられる閾値と、網点候補画素から網点領域を判別用の2値化に用いられる閾値とを設定する。
【0019】
ステップ2では、前記各輝度信号値 (デジタル値) を反転処理 (ビット反転) する。その結果、輝度が高いほど低く、輝度が低いほど高いレベルに反転される。尚、かかる反転処理の方が濃度変換処理するより後述するエッジ抽出の際に網線や細線などの最大濃度の低いエッジをも良好に抽出することができる。
ステップ3A,3Bでは、夫々右斜めエッジ抽出,左斜めエッジ抽出を行う。これは、夫々右斜めエッジ抽出フィルター,左斜めエッジ抽出フィルターによって処理する。即ち、網点画像領域においては、網点が等間隔毎の斜め方向(45°,30°,70°等)に周期的に高い密度で存在するため、この方向のエッジ周波数成分が大きくなる特性を有する。しかも、互いに約90°の角度を持つ周波数成分を持つ (ここで、図5に示すように第1,第3象限を通る方向を前記右斜め方向、第2,第4象限方向を通る方向を左斜め方向と呼ぶことにする) 。
【0020】
そこで、予め、網点が高密度で存在する斜め方向の周波数成分のゲインを大きくしたフィルタにより左右斜め方向のエッジ成分を夫々抽出する一対の斜め方向エッジ成分抽出手段によって注目画素を中心とした単位画像領域毎に左右斜め方向のエッジ成分を抽出する。
例えば、右斜めエッジ抽出フィルターは、図示のような5×5の係数を有するフィルターで構成され、各画素の前記輝度反転値に対応する位置の係数を乗じて加算した値がエッジ抽出成分として出力される。このフィルターは右斜め45°方向の網点に対するエッジ成分抽出用であるが、30°,70°の網点方向に対してもある程度抽出できるように作成されている。即ち、図6が右斜めエッジ抽出フィルターの利得の周波数特性を示したものであり、図7はそれを等高線で表示したものであり、また、図8は画素間隔を400 DPIとしたときの、45°方向の網点の持つ周波数成分のピーク値を示したものであるが、図に示されるように、右斜めエッジ抽出フィルターは、網点の持つ周波数成分のうち、右斜め方向だけを抽出するような周波数特性を持っており、左斜め方向についても、フィルターの左右の係数を入れ替えるだけで、左斜め方向の周波数成分を取り出す周波数特性を作り出すことができる。
【0021】
そして、これら右斜めエッジ抽出フィルター,左斜めエッジ抽出フィルターで抽出されたエッジ成分の出力値がステップ4A,4Bで夫々閾値と比較して2値化される。即ち、エッジ成分の出力値が閾値以上である場合には1、基準値未満の場合には0の信号を出力する。ここで、ステップ1で説明したように閾値として前記変倍率に応じたスキャナの副走査速度に従って可変に調整された値が用いられている。具体的には、変倍率を100 %つまり等倍としたときの副走査速度を基準速度とし、該基準速度に対する速度比eが1≦e≦2の範囲 (変倍率=50〜100 %) では、閾値を最小値一定とし、1/2 ≦e<1の範囲 (変倍率=100 〜200 %) では速度比の減少つまり副走査速度の減少に応じて閾値を減少させ、1/4 ≦e<1/2 の範囲 (変倍率=200 〜400 %) では最大値一定になるように設定する。図9は変倍率 (速度比e) に対する網点画像を判別しやすくする方向の調整量 (閾値とは大小関係が逆方向となる。即ち、閾値が小さい程網点と判別されやすくなる) の関係を示す。
【0022】
即ち、副走査方向の読取速度を変更すると、副走査方向のサンプリング間隔が変化するため、画像の持つ周波数成分や斜め方向のエッジの方向が見掛け上変化する。前記左右の斜めエッジフィルターの場合斜め45°方向のエッジ成分を抽出するように設定されているが、変倍率を大きくするため読取速度を基準速度より遅くするとエッジが持つ周波数成分が低周波数側にシフトされると同時に、画像は副走査方向に引き伸ばされ、斜めのエッジ方向も変化する。その結果、本来の斜め45°のエッジ成分は抽出されにくくなる。したがって、該副走査方向の読取速度が遅く速度比eが1/2 ≦e<1の範囲 (変倍率=100 〜200 %) で副走査速度の減少に応じて閾値を減少させることにより、斜め方向のエッジ成分が抽出されやすくなる方向に調整し、基準速度 (等倍) の場合と同等の網点画像判別性能が得られるようにする。
【0023】
なお、副走査方向の読取速度を基準速度より速めて100 %未満に変倍 (縮小) する場合は、副走査方向のサンプリング間隔は増大するため、その点では斜め方向のエッジ成分を抽出しやすくなるが、一方では斜め方向のエッジ方向が45°方向からずれて網点画像の斜め方向のエッジ成分を抽出しにくくなることから、基準速度の閾値と同一とし、特に斜め方向のエッジ成分を抽出しにくくなるような調整は行わないようにする。
【0024】
ステップ5では、前記2値化された信号値のandをとる。つまり、両信号値が共に1の場合は、左右斜め方向の交差する点、即ち網点画像である場合に網点が存在する点近傍の斜め方向のエッジ成分が大きいことを表すから、当該画像ブロックの注目画素が網点候補画素となる。
以上のようにして単位画像領域を主方向及び副方向に走査して全ての注目画素に対して網点候補画素の判別を行う。
【0025】
次いでステップ6では、例えば75×15画素のウインドー内の網点候補画素の数をカウントする。
ステップ7では、ウインドー内の網点候補画素のカウント値を所定の閾値と比較して2値化される。即ち、カウント値が閾値以上のときは当該注目画素が網点画像領域であるとして画素の値を1とし、閾値未満の場合は他の画像領域であるとして0の信号を出力する。以上の網点画像領域の判別についても、ウインドーを主方向及び副方向に走査して判別することにより画像全体の中で網点画像領域を抽出する。この閾値についても、ステップ1にて前記網点候補画素を抽出する場合の2値化の閾値の場合と同様、副走査方向の読取速度に応じて図9に示した傾向の調整を行って設定してある。但し、これら2つの2値化の閾値のいずれか一方のみを調整する構成であってもよい。
【0026】
以上のようにして、網点画像領域を斜め方向エッジ成分抽出により、かつ、読取速度の調整に対応した判別基準値 (前記各閾値) の調整により、読取速度の変更による影響を極力回避しつつ精度よく高速に判別することができる。
ステップ8では、前記のようにして抽出された網点画像領域を拡張する。具体的には、前記網点画像領域と判定された最外郭の画素に対し縦横4画素ずつ外側の領域までを網点画像領域として拡張する。
【0027】
即ち、前記拡張がない場合には網点画像が原稿に部分的に存在しているときに領域の周辺部ではウインドー内に網点画像領域外側の領域が入ってきて網点画素候補数が減少する結果、網点画像領域でないと誤判別され、写真画像領域等との境界が誤判別されてしまうことがあるが、前記拡張を行うことにより周辺の領域も網点領域として拡張して判別するすることができ、前記他の画像領域との境界の誤判別を防止できる。
【0028】
次に、エッジ画像領域抽出のルーチンを図10のフローチャートに従って説明する。
ステップ11では、注目画素とその周辺の画素からなる単位画像ブロックについて画素毎に輝度信号を濃度信号に変換する。例えば、ROMに記憶された変換LUT (ルックアップテーブル) により変換して求める。
【0029】
ステップ12では、前記濃度信号をガンマ変換処理する。これも、図示する簡易的な折れ線変換テーブルを用いて求めることができる。
かかる輝度−濃度変換処理,ガンマ変換処理からなる前処理を行うことにより細かい文字の判別が可能となる。
ステップ13では、前記ガンマ変換処理された信号をローパスフィルタにより平滑化処理する。
【0030】
ステップ14では、エッジ抽出を行う。これは、前記ステップ3で平滑化された値に対する偏差 (絶対値) の最大値を求めることで行う。
このように平滑化された値に対する偏差を求めることで、万線をエッジと誤って抽出し、文字画像と誤判別するようなことを防止できる。
ステップ15では、ステップ4で求められた最大値を閾値と比較して2値化する。即ち、閾値以上であるときに注目画素にエッジが抽出されたとして画素値1の信号を出力し、基準値未満のときにはエッジが抽出されないとして0の信号を出力する。ここで、2値化に先立ち前記閾値を副走査方向の読取速度に応じて調整して設定する。即ち、読取速度を遅くするとエッジが抽出されにくくなるため速度比eが1≦e≦2 (変倍率=50〜100 %) の範囲内では読取速度を遅くするほどエッジ画像が判別されやすくする方向、即ち閾値を下げるように調整する。しかし、変倍率が200 %以上となり速度比eが1/2 以下に読取速度が減少するあたりからは、網点画像と文字との判別が困難となり、文字と誤判別して画像を乱すよりは、全面を写真領域と判別した方が好ましいとの判断から変倍率が150 %を超える速度比2 /3未満の範囲では逆にエッジを抽出されにくくなる方に調整する。以上エッジ画像を抽出する場合の変倍率 (速度比e) に対するエッジ画像判別基準調整量の関係は図11にその傾向を示してある。
【0031】
ステップ16では、注目画素を中心として上下左右に2画素幅分ずつエッジ画像領域を拡張する。
このようにエッジ画像領域を拡張することにより、後述するように判別された文字領域に対して、その後に強調フィルタをかけるときの効果が向上する。
図12は、写真領域判別ルーチンを示す。
【0032】
ステップ21では、画素毎に、前記エッジ画像領域判別ルーチンで判別されたエッジ画像領域であるか否かを判別し、属していなければ、ステップ22へ進んで当該画素が写真領域であると判別する。
以上示したように、変倍率によって画像読取速度を変更した場合でも該読取速度に応じて画像種別の判別基準を調整することにより、安定した精度で画像の判別を行うことができる。
【0033】
また、本実施例では、副走査方向の読取速度のみを可変に調整するものについて適用したものであり、主走査方向についての変倍処理については画像データを補間や間引き等の処理によって行えばよい。また、本発明は、主走査方向の読取速度を可変に調整できるようにしたものにおいても、同様にして判別基準を調整することで実施できることは勿論である。
【0034】
【発明の効果】
以上説明してきたように本発明によれば、画像の変倍率に応じて画像の読取速度を可変に調整して読み取られた画像データに対し、読取速度に応じて判別基準を調整する構成としたため、読取速度を調整しても安定した判別精度を確保することができる。
【図面の簡単な説明】
【図1】本発明の構成・機能を示すブロック図。
【図2】本発明の一実施例のシステム構成を示す図。
【図3】同上実施例の網点画像領域判別ルーチンを示すフローチャート。
【図4】同じく網点画像領域抽出時の様子を示す図。
【図5】斜めエッジ抽出フィルターの斜め方向を定義するための図。
【図6】斜めエッジ抽出フィルターの利得の周波数特性を示す斜視図。
【図7】同上フィルターの特性を等高線で表示した図。
【図8】45°方向の網点の持つ周波数成分のピーク値を示した図。
【図9】変倍率 (速度比) に対する網点画像判別基準調整量の関係を示す線図。
【図10】エッジ画像領域抽出ルーチンを示すフローチャート。
【図11】変倍率 (速度比) に対するエッジ画像判別基準調整量の関係を示す線図。
【図12】写真領域抽出ルーチンを示すフローチャート。
【符号の説明】
1 スキャナ
2 網点画像判別基準値調整部
3 エッジ画像判別基準値調整部
4 網点画像領域判別部
5 エッジ画像領域判別部
6 文字領域判別部
7 写真領域判別部
[0001]
[Industrial applications]
The present invention relates to a technique for determining the type of an image to perform processing according to the type of the image when performing image processing on image data read from a document or the like in a laser printer, a copying machine, or the like.
[0002]
[Prior art]
Conventionally, in a laser printer, a copying machine, or the like, a character area, a photograph area, and a halftone image area are detected by detecting only the character area from the mixed image data. While a character image is obtained, a photograph / halftone image having a gentle gradation is obtained by performing a smoothing process on a photograph / halftone image area (see Japanese Patent Application Laid-Open No. 4-239269). ).
[0003]
In addition, image data subjected to image processing is temporarily recorded in a memory, and output from the memory for reproduction. However, in order to record image data of a large number of documents in the memory, compression processing is performed. In such a case, the character image may be compressed at a high compression rate with binary data, while the photograph / dot image is of high quality. Therefore, it is necessary to perform compression at a low compression ratio in order to ensure image quality.
[0004]
For this reason, various methods have been conventionally proposed as the image discrimination method (JP-A-2-294888, JP-A-2-295354, JP-A-3-262380, JP-A-3-262380). No., etc.).
[0005]
[Problems to be solved by the invention]
By the way, when performing a scaling process for changing a magnification (hereinafter referred to as a scaling ratio) of a reproduced image (displayed on a CRT or a printed image) with respect to an original image, there is also a method of performing interpolation or thinning processing on read image data. However, there is a method of changing the reading speed of the scanner to omit these image processing. That is, when an image is reproduced in an enlarged manner, the image can be enlarged by reducing the reading speed, increasing the number of read pixels per unit length, and reproducing the image while keeping the pixel interval at the time of reproduction constant. Conversely, at the time of reduced reproduction, the reading speed may be increased to reduce the number of read pixels.
[0006]
However, when the reading speed of the scanner is changed as described above, the sampling interval in the reading direction changes, so that the frequency component and the edge direction of the image apparently change, which may affect the determination of the image. there were.
SUMMARY OF THE INVENTION The present invention has been made in view of such a conventional problem, and has as its object to provide an image discriminating apparatus capable of accurately discriminating an image type without being affected by a reading speed of a scanner. I do.
[0007]
[Means for Solving the Problems]
Therefore, the image determination apparatus according to the present invention, pixels from the image information different kinds of image areas obtained by reading a more original image in at least one direction of the image reading speed variably adjustable free image reading means are mixed In an image region discriminating apparatus including a discriminating unit for discriminating a type of an image region for each, an edge image extracting unit for extracting an edge image having a large number of edge components, and a network for extracting a dot image A point image extracting unit, and when the image reading speed for obtaining a reproduced image having the same size as the original image is set as the reference speed, the image reading speed variably adjusted by the image reading unit is equal to or less than the reference speed. together with at least the first range, adjusted to a direction etc. ho halftone image discrimination criterion the image reading speed of the halftone image extraction unit decreases the halftone images of reading winding direction to facilitate the extraction, the image At least a second range image reading speed is adjusted to the variable is less than the reference speed of the winding means, the edge image extraction unit of nearly as read winding direction of the edge component image reading speed is reduced edge image discrimination criteria It is characterized by comprising a judgment reference adjusting means for adjusting in a direction in which extraction is difficult , and wherein the first range is set within a range of 1/2 to 1 times the reference speed .
[0008]
The image reading means may be included in the image area discriminating apparatus. Alternatively, the image reading means may be provided separately from the image area discriminating apparatus so that image reading speed information in the image reading means can be input to the image area discriminating apparatus. Good.
Further, the second range may be set within a range of 2/3 times or less of the reference speed.
[0009]
Further, the image area determination means, when the image reading speed is greater than the reference speed, etc. ho reading speed of the edge image discrimination criterion of the edge image extraction unit decreases the read winding direction of the edge components to easily extracted You may make it adjust to a direction.
Further, the determination criterion adjusting means may set the halftone image determination criterion of the halftone image extraction unit to be constant in a third range where the image reading speed is lower than the first range.
[0010]
Further, the discriminating means may include a character extracting unit for extracting, as characters, an image obtained by excluding the halftone image extracted by the halftone image extracting unit from the edge image extracted by the edge image extracting unit. Good.
[0011]
[Action]
For example, image reading is performed by performing main scanning in the vertical direction while performing sub-scanning in the horizontal direction by a line scanner as an image reading unit, and adjusting the reading speed in the sub-scanning direction according to the scaling factor for the scaling process. If so, the determination criterion adjusting means adjusts the criterion for determining the image area according to the read speed of the adjusted image.
Here, in the halftone dot image extraction unit, the sampling interval decreases as the reading speed decreases in at least the first range which is set within a range of 1/2 to 1 times the reference speed, and the halftone dot image is apparently displayed. In this range, the dot image discrimination criterion is adjusted in a direction in which the dot image in the reading direction is easily extracted in accordance with the decrease in the reading speed, so that the dot image determination accuracy is good. Is maintained.
Further, in the edge image extraction unit, at least a second range of the reference speed, by adjusting the edge image discrimination criterion in a direction difficult to extract an edge image, the type of determination accuracy of the image area is good Secured .
[0012]
Good results were obtained when the second range in which the discrimination criterion was adjusted in a direction in which edge components were hardly generated was set within a range of 2/3 times or less the reference speed .
When the image reading speed is higher than the reference speed, it is not difficult to determine the halftone image, and the edge image determination criterion is adjusted so that the edge component in the reading direction is more easily extracted as the reading speed decreases. Edge images can be accurately extracted.
[0013]
On the other hand, in the third range where the image reading speed is smaller than the first range, good results were obtained by keeping the halftone image discrimination standard constant .
Also, in the case where an image in which a halftone image is excluded from an edge image is extracted as a character, by adjusting the determination criterion as described above, it is possible to maintain good accuracy in the determination between the halftone image and the character. it can.
[0014]
【Example】
An embodiment of the present invention will be described below with reference to the drawings.
FIG. 2 shows a system configuration of the image area discriminating apparatus according to the present invention.
The scanner 1 as an image reading means is constituted by a line scanner, performs main scanning in the line direction, reads image data at a constant period, and relatively moves the line scanner and the original image in a direction orthogonal to the line direction. In this embodiment, the sub-scanning speed, that is, the reading speed in the sub-scanning direction, is variable according to the magnification (magnification of the reproduced image with respect to the original image) in the sub-scanning direction. Can be adjusted.
[0015]
The dot image discrimination reference value adjustment unit 2 adjusts a discrimination reference value for extracting a dot image, which will be described later, according to the reading speed of the scanner 1 in the sub-scanning direction.
The edge image discrimination reference value adjustment unit 3 also adjusts a discrimination reference value for extracting an edge image, which will be described later, according to the reading speed of the scanner 1 in the sub-scanning direction.
The halftone dot image area extraction unit 4 extracts a halftone dot image area from the image data read by the scanner 1 according to the criterion value adjusted by the halftone image discrimination criterion value adjustment unit 2.
[0016]
The edge image area extraction unit 5 extracts a character area having a large number of edge components and a halftone image area from the image data read by the scanner 1 in accordance with the criterion value adjusted by the edge image determination criterion value adjustment unit 3. The combined edge image area is extracted.
The character area extraction unit 6 extracts a character area by masking an edge image area obtained by combining the character area and the halftone image area with the halftone image area. That is, the character area and the halftone dot image area can be determined separately.
[0017]
The photograph area extracting unit 7 extracts an area other than the character area and the halftone dot image area as a photograph image area. More specifically, a photo region is extracted by masking the entire image region with the edge image region.
Next, the function of each unit will be described with reference to the drawings.
FIG. 3 shows a dot image area extraction routine.
[0018]
Step (S in the figure; hereinafter the same) In step 1, the luminance signal of each pixel is input for each unit image area including the pixel of interest and its surrounding pixels. More specifically, the unit image area is an image block of 5 × 5 pixels centered on the pixel of interest (see FIG. 4). At the same time, a threshold value used for binarization for extracting a halftone dot candidate pixel, which will be described later, according to the reading speed of the sub-scanning method when the luminance signal is read by the scanner, and a halftone dot region from the halftone dot candidate pixel A threshold used for binarization for determination is set.
[0019]
In step 2, each luminance signal value (digital value) is inverted (bit inverted). As a result, the higher the luminance, the lower the level, and the lower the luminance, the higher the level. It should be noted that in the inversion processing, edges having a lower maximum density, such as mesh lines and thin lines, can be extracted more favorably at the time of edge extraction described later than the density conversion processing.
In steps 3A and 3B, right diagonal edge extraction and left diagonal edge extraction are performed, respectively. This is processed by a right diagonal edge extraction filter and a left diagonal edge extraction filter, respectively. That is, in the halftone dot image region, since halftone dots are periodically present at a high density in oblique directions (45 °, 30 °, 70 °, etc.) at equal intervals, the edge frequency component in this direction becomes large. Having. In addition, it has frequency components having an angle of about 90 ° with each other. (Here, as shown in FIG. 5, the direction passing through the first and third quadrants is the oblique right direction, and the direction passing through the second and fourth quadrants is We will call it diagonally left).
[0020]
Therefore, a pair of diagonal edge component extracting means for extracting the left and right diagonal edge components by a filter having a large gain of diagonal frequency components in which halftone dots exist at high density in advance is used as a unit around the target pixel. An edge component in the left-right diagonal direction is extracted for each image area.
For example, the right diagonal edge extraction filter is composed of a filter having a coefficient of 5 × 5 as shown in the figure, and a value obtained by multiplying by a coefficient at a position corresponding to the luminance inversion value of each pixel and adding the result is output as an edge extraction component. Is done. This filter is for extracting edge components for halftone dots in the diagonal right direction of 45 °, but is created so as to be able to extract to some extent in the halftone directions of 30 ° and 70 °. That is, FIG. 6 shows a frequency characteristic of the gain of the right oblique edge extraction filter, FIG. 7 shows the frequency characteristics with contour lines, and FIG. 8 shows a case where the pixel interval is 400 DPI. This shows the peak value of the frequency component of the halftone dot in the 45 ° direction. As shown in the figure, the right diagonal edge extraction filter extracts only the right diagonal direction of the frequency component of the halftone dot. In the diagonal left direction, a frequency characteristic for extracting a frequency component in the diagonal left direction can be created only by exchanging the left and right coefficients of the filter.
[0021]
The output values of the edge components extracted by the right diagonal edge extraction filter and the left diagonal edge extraction filter are binarized by comparing them with threshold values in steps 4A and 4B, respectively. That is, a signal of 1 is output when the output value of the edge component is equal to or greater than the threshold value, and a signal of 0 is output when the output value is less than the reference value. Here, as described in step 1, a value variably adjusted according to the sub-scanning speed of the scanner according to the magnification is used as the threshold. Specifically, the sub-scanning speed when the magnification is 100%, that is, when the magnification is equal, is set as the reference speed, and the speed ratio e with respect to the reference speed is in a range of 1 ≦ e ≦ 2 (magnification = 50-100%). In the range of 1/2 ≦ e <1 (magnification = 100-200%), the threshold value is decreased in accordance with a decrease in the speed ratio, that is, a decrease in the sub-scanning speed, and 1/4 ≦ e. In the range of <1/2 (magnification = 200 to 400%), the maximum value is set to be constant. FIG. 9 shows the amount of adjustment in the direction that makes it easier to determine the halftone image with respect to the magnification (speed ratio e) (the magnitude relationship with the threshold value is reversed. That is, the smaller the threshold value, the more easily the halftone dot is determined). Show the relationship.
[0022]
That is, when the reading speed in the sub-scanning direction is changed, the sampling interval in the sub-scanning direction changes, so that the frequency component of the image and the direction of the oblique edge change apparently. In the case of the left and right diagonal edge filters, an edge component in a diagonal 45 ° direction is set to be extracted.However, if the reading speed is made lower than the reference speed to increase the magnification, the frequency component of the edge is shifted to the lower frequency side. Simultaneously with the shift, the image is stretched in the sub-scanning direction, and the diagonal edge direction changes. As a result, the original 45 ° oblique edge component is less likely to be extracted. Therefore, the reading speed in the sub-scanning direction is slow, and the speed ratio e is within the range of 1/2 ≦ e <1 (magnification = 100 to 200%). It is adjusted so that the edge component in the direction is easily extracted, so that the same halftone image discrimination performance as in the case of the reference speed (actual size) is obtained.
[0023]
If the reading speed in the sub-scanning direction is increased (reduced) to less than 100% faster than the reference speed, the sampling interval in the sub-scanning direction increases, and at that point, it is easy to extract the oblique edge components. However, on the other hand, since the oblique edge direction deviates from the 45 ° direction and it becomes difficult to extract the oblique direction edge component of the halftone dot image, the same as the reference speed threshold value, and especially the oblique direction edge component is extracted. Do not make adjustments that make it difficult to perform.
[0024]
In step 5, the AND of the binarized signal value is calculated. That is, when both signal values are 1, it indicates that the oblique direction edge component near the crossing point in the left and right diagonal direction, that is, the point where the halftone dot exists in the case of the halftone image, is large. The target pixel of the block is a halftone dot candidate pixel.
As described above, the unit image area is scanned in the main direction and the sub direction, and the halftone dot candidate pixels are determined for all the target pixels.
[0025]
Next, in step 6, the number of halftone dot candidate pixels in a window of, for example, 75 × 15 pixels is counted.
In step 7, the count value of the halftone dot candidate pixels in the window is binarized by comparing it with a predetermined threshold value. That is, when the count value is equal to or greater than the threshold value, the pixel of interest is regarded as a halftone image area, the pixel value is set to 1, and when the count value is less than the threshold value, a signal of 0 is output as another image area. Also in the above determination of the halftone dot image area, the halftone dot image area is extracted from the entire image by scanning the window in the main direction and the sub direction to make the determination. This threshold value is also set by adjusting the tendency shown in FIG. 9 according to the reading speed in the sub-scanning direction, similarly to the case of the binarization threshold value when extracting the halftone dot candidate pixels in step 1. I have. However, a configuration in which only one of these two binarization thresholds is adjusted may be employed.
[0026]
As described above, the influence of the change in the reading speed can be avoided as much as possible by extracting the halftone dot image area in the oblique direction edge component and adjusting the determination reference value (each of the thresholds) corresponding to the reading speed adjustment. It is possible to accurately and quickly determine.
In step 8, the halftone dot image area extracted as described above is extended. More specifically, the area extending to the outer side by 4 pixels in the vertical and horizontal directions from the outermost pixel determined as the halftone dot image area is extended as the halftone dot image area.
[0027]
That is, in the absence of the extension, when the halftone image is partially present in the document, the area outside the halftone image area enters the window at the periphery of the area and the number of halftone pixel candidates decreases. As a result, it may be erroneously determined that the area is not a halftone image area, and a boundary with a photographic image area or the like may be erroneously determined. By performing the above expansion, the surrounding area is also expanded and determined as a halftone area. Erroneous determination of the boundary with the other image area can be prevented.
[0028]
Next, a routine for extracting an edge image area will be described with reference to the flowchart of FIG.
In step 11, a luminance signal is converted into a density signal for each pixel in a unit image block including a pixel of interest and peripheral pixels. For example, it is obtained by conversion using a conversion LUT (look-up table) stored in a ROM.
[0029]
In step 12, the density signal is gamma converted. This can also be obtained using a simple broken line conversion table shown in the figure.
By performing the pre-processing including the luminance-density conversion processing and the gamma conversion processing, it is possible to distinguish fine characters.
In step 13, the gamma-converted signal is smoothed by a low-pass filter.
[0030]
In step 14, edge extraction is performed. This is performed by finding the maximum value of the deviation (absolute value) with respect to the value smoothed in the step 3.
By calculating the deviation from the smoothed value in this way, it is possible to prevent a line from being erroneously extracted as an edge and erroneously determined as a character image.
In step 15, the maximum value obtained in step 4 is binarized by comparing it with a threshold value. That is, when the value is equal to or more than the threshold value, a signal having a pixel value of 1 is output assuming that an edge is extracted from the target pixel, and when the value is less than the reference value, a signal having a value of 0 is output as not extracting an edge. Here, prior to binarization, the threshold is adjusted and set according to the reading speed in the sub-scanning direction. In other words, if the reading speed is reduced, it becomes difficult to extract an edge. Therefore, when the speed ratio e is within a range of 1 ≦ e ≦ 2 (variable magnification = 50 to 100%), the direction in which the edge speed is more easily determined as the reading speed is reduced. That is, adjustment is made so as to lower the threshold value. However, when the reading speed is reduced to 200% or more and the speed ratio e is reduced to 以下 or less, it becomes difficult to discriminate the halftone dot image and the character. It is determined that it is more preferable to determine the edge as a photographic area. In the range where the magnification ratio is less than 2/3 and the speed ratio exceeds 150%, the edge is adjusted so that it is difficult to extract edges. FIG. 11 shows the tendency of the relationship between the scaling factor (speed ratio e) and the edge image discrimination reference adjustment amount when extracting an edge image.
[0031]
In step 16, the edge image area is extended upward, downward, leftward, and rightward by two pixel widths around the target pixel.
By expanding the edge image area in this way, the effect of applying an emphasis filter to a character area determined as described later is improved.
FIG. 12 shows a photograph area determination routine.
[0032]
In step 21, it is determined for each pixel whether or not the pixel belongs to the edge image area determined in the edge image area determination routine. If the pixel does not belong to the edge image area, the process advances to step 22 to determine that the pixel is a photograph area. .
As described above, even when the image reading speed is changed according to the magnification, the image classification can be performed with stable accuracy by adjusting the image type determination criterion according to the reading speed.
[0033]
Further, in the present embodiment, the present invention is applied to a case where only the reading speed in the sub-scanning direction is variably adjusted, and the scaling process in the main scanning direction may be performed by processing such as interpolation or thinning of image data. . Further, the present invention, of course, can be implemented by variably adjusting the reading speed in the main scanning direction by adjusting the determination criterion in the same manner.
[0034]
【The invention's effect】
As described above, according to the present invention, the image reading speed of the image is variably adjusted according to the magnification of the image, and the image data read by adjusting the determination criterion according to the reading speed. Even if the reading speed is adjusted, stable determination accuracy can be ensured.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the configuration and functions of the present invention.
FIG. 2 is a diagram showing a system configuration according to an embodiment of the present invention.
FIG. 3 is a flowchart showing a halftone image area determination routine of the embodiment.
FIG. 4 is a diagram showing a state when a halftone dot image area is extracted.
FIG. 5 is a diagram for defining an oblique direction of an oblique edge extraction filter.
FIG. 6 is a perspective view showing a frequency characteristic of a gain of the oblique edge extraction filter.
FIG. 7 is a diagram showing the characteristics of the above filter as contour lines.
FIG. 8 is a diagram showing a peak value of a frequency component of a halftone dot in a 45 ° direction.
FIG. 9 is a diagram showing a relationship between a halftone image discrimination reference adjustment amount and a magnification (speed ratio).
FIG. 10 is a flowchart showing an edge image area extraction routine.
FIG. 11 is a diagram illustrating a relationship between a scaling factor (speed ratio) and an edge image determination reference adjustment amount.
FIG. 12 is a flowchart showing a photograph area extraction routine.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 Scanner 2 Halftone image discrimination reference value adjustment unit 3 Edge image discrimination reference value adjustment unit 4 Halftone image area discrimination unit 5 Edge image area discrimination unit 6 Character area discrimination unit 7 Photo area discrimination unit

Claims (5)

少なくとも一方向の画像読取速度を可変に調整自由な画像読取手段により原画像を読み取って得られた異種類の画像領域が混在する画像情報から画素毎に画像領域の種類を判別する判別手段を含んで構成される画像領域判別装置において、
前記判別手段は、エッジ成分の多いエッジ画像を抽出するエッジ画像抽出部と、網点画像を抽出する網点画像抽出部とを含み、
原画像と等しい大きさの再生画像を得る場合の画像読取速度を基準速度としたとき、前記画像読取手段の可変に調整される画像読取速度が前記基準速度以下の少なくとも第一の範囲では、前記網点画像抽出部の網点画像判別基準を画像読取速度が減少するほど読取方向の網点画像が抽出されやすくする方向に調整すると共に、前記画像読取手段の可変に調整される画像読取速度が前記基準速度以下の少なくとも第二の範囲では、前記エッジ画像抽出部のエッジ画像判別基準を画像読取速度が減少するほど読取方向のエッジ成分が抽出されにくくする方向に調整する判別基準調整手段を備え
前記第一の範囲が、前記基準速度の1/2〜1倍の範囲内に設定されていることを特徴とする画像領域判別装置。
The determining means for determining at least one direction of the image reading speed variably adjustable free image reading means on the type of the image area from the image information for each pixel different kinds of image areas obtained by reading more original images are mixed In the image region determination device configured to include
The discriminating means includes an edge image extracting section that extracts a high edge image of the edge component, and a halftone image extracting unit that extracts a halftone image,
When an image reading speed for obtaining a reproduced image of the same size as the original image is set as a reference speed, the image reading speed variably adjusted by the image reading means is at least in the first range equal to or lower than the reference speed, etc. Ho speed read image halftone images discrimination criterion of the halftone image extraction section decreases with adjusting the direction of halftone images of reading winding direction is easily extracted, the image reading is adjusted to a variable of the image reading means at least a second range of speed is less than the reference speed, reading winding direction of the edge components nearly as edge image determination based on the image reading speed of the edge image extraction unit is reduced is adjusted in a direction difficult to extract discrimination criterion Equipped with adjustment means ,
An image area discriminating apparatus, wherein the first range is set within a range of 1/2 to 1 times the reference speed .
前記第二の範囲が、前記基準速度の2/3倍以下の範囲内に設定されていることを特徴とする画像領域判別装置。An image area discriminating apparatus, wherein the second range is set within a range of 2/3 times or less of the reference speed . 前記判別基準調整手段は、画像読取速度が前記基準速度より大きいときは、前記エッジ画像抽出部のエッジ画像判別基準を読取速度が減少するほど読取方向のエッジ成分が抽出されやすくする方向に調整することを特徴とする請求項1または2に記載の画像領域判別装置。When the image reading speed is higher than the reference speed, the determination criterion adjusting means adjusts the edge image determination criterion of the edge image extraction unit in a direction in which an edge component in the reading direction is more easily extracted as the reading speed decreases. 3. The image area discriminating apparatus according to claim 1, wherein: 前記判別基準調整手段は、画像読取速度が前記第一の範囲より小さい第三の範囲では、前記網点画像抽出部の網点画像判別基準を一定とすることを特徴とする請求項1〜3のいずれかに記載の画像領域判別装置。The said reference standard adjustment means makes the halftone image determination reference | standard of the said halftone image extraction part constant in the 3rd range where the image reading speed is smaller than the said 1st range, The 1-3 characterized by the above-mentioned. The image area determination device according to any one of the above. 前記判別手段は、前記エッジ画像抽出部で抽出されたエッジ画像から前記網点画像抽出部で抽出された網点画像を除外した画像を文字として抽出する文字抽出部を含むことを特徴とする請求項1〜4のいずれかに記載の画像領域判別装置。  The method according to claim 1, wherein the determining unit includes a character extracting unit that extracts, as characters, an image obtained by excluding the halftone image extracted by the halftone image extracting unit from the edge image extracted by the edge image extracting unit. Item 5. The image area determination device according to any one of Items 1 to 4.
JP26508893A 1993-10-22 1993-10-22 Image area discriminating device Expired - Fee Related JP3605773B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26508893A JP3605773B2 (en) 1993-10-22 1993-10-22 Image area discriminating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26508893A JP3605773B2 (en) 1993-10-22 1993-10-22 Image area discriminating device

Publications (2)

Publication Number Publication Date
JPH07123253A JPH07123253A (en) 1995-05-12
JP3605773B2 true JP3605773B2 (en) 2004-12-22

Family

ID=17412436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26508893A Expired - Fee Related JP3605773B2 (en) 1993-10-22 1993-10-22 Image area discriminating device

Country Status (1)

Country Link
JP (1) JP3605773B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4549418B2 (en) 2008-03-04 2010-09-22 シャープ株式会社 Image processing apparatus, image processing method, image forming apparatus, program, and recording medium

Also Published As

Publication number Publication date
JPH07123253A (en) 1995-05-12

Similar Documents

Publication Publication Date Title
US5852678A (en) Detection and rendering of text in tinted areas
JPH04356869A (en) Image processor
JP2001251517A (en) Image processing method, image processor and image processing system
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
JP4085580B2 (en) Image processing device
JPH10341336A (en) Image processor and two-dimensional line feature amount calculator
JP3310744B2 (en) Resolution converter
US7463785B2 (en) Image processing system
JP2000013596A (en) Device and method for processing image and recording medium with image processing program recorded there
JP2000013605A (en) Image processor, method and record medium recording image processing program
JP3605773B2 (en) Image area discriminating device
JP3073837B2 (en) Image region separation device and image region separation method
JP3100383B2 (en) Character region separation method and apparatus
JP3118469B2 (en) Image area separation device
JPH0730752A (en) Image area discriminating device
JP3563905B2 (en) Image output device
JP3789243B2 (en) Image processing apparatus and method
JP2000013613A (en) Image processor, method and record medium recording image processing program
JP3966448B2 (en) Image processing apparatus, image processing method, program for executing the method, and recording medium storing the program
JP3359377B2 (en) Background concentration detector
JP3007102B2 (en) Image processing device
JP2702133B2 (en) Image processing method
JPH0662230A (en) Image forming device
JP2900343B2 (en) Image processing device
JPH04313774A (en) Surface removing system for image processor

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20031216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040203

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040924

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees