JP2004104625A - Image processing, reading and forming device and color copying machine - Google Patents

Image processing, reading and forming device and color copying machine Download PDF

Info

Publication number
JP2004104625A
JP2004104625A JP2002266083A JP2002266083A JP2004104625A JP 2004104625 A JP2004104625 A JP 2004104625A JP 2002266083 A JP2002266083 A JP 2002266083A JP 2002266083 A JP2002266083 A JP 2002266083A JP 2004104625 A JP2004104625 A JP 2004104625A
Authority
JP
Japan
Prior art keywords
pixel
color
white
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002266083A
Other languages
Japanese (ja)
Other versions
JP2004104625A5 (en
Inventor
Shinji Yamakawa
山川 愼二
Takashi Sato
佐藤 敬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002266083A priority Critical patent/JP2004104625A/en
Publication of JP2004104625A publication Critical patent/JP2004104625A/en
Publication of JP2004104625A5 publication Critical patent/JP2004104625A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing, reading and forming device for determining a color pixel without lowering chromatic determination performance at the time of magnification and to provide a color copying machine. <P>SOLUTION: An image processor for using a plurality of lines to determine a color pixel is provided with a means for inputting a plurality of pieces of R, G and B input data inputted to a circuit for the formation of N-ary 2 of color determination 325 to hue dividing circuits (0 to 4) through selectors (1 to 4) substantially every other line in a scale factor equal to or more than a particular scale factor at the time of magnification. Because only input data are switched, color original determination criteria do not change before and after switching. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は画像処理、読取、形成装置およびカラー複写装置に関するものであり、詳細には画像データがカラーか白黒かを判定して、適切な画像処理をする画像処理、読取、形成装置およびカラー複写装置に関するものである。
【0002】
【従来の技術】
カラー複写装置で画像データを複写する際に、操作者がカラーで印刷するか、白黒で印刷するか、または拡大するか縮小したりして印刷することがある。この時カラー複写装置としては、それらの操作に応じて適切な画素を選択したり、間引き処理を行うことになる。
【0003】
そのために対象となる画像が有彩色か無彩色かを判定するための画像処理装置、方法が発明されている。たとえば、画像を走査し、複数の色成分信号を発生する画像読取手段と、前記複数の色成分信号に基づき注目画素が有彩色であるか無彩色であるかを判定する手段と、前記画像読取手段の走査速度の低下に応じて、前記判定手段による無彩色判定をしやすくすべく判定の条件を変更する手段とを有することで、入力画像の無彩色領域の判定における誤判定を防止できるものがある(特許文献1)。
【0004】
また、画像データによって表される画像の種別を該画像データに基づき識別する識別手段と、前記識別手段による識別結果に応じて前記画像データを処理する処理手段と、前記処理手段により変倍処理を実行する場合に、前記識別手段の識別動作を変更することで、対象画像の処理条件あるいは読取条件に応じて精度の良い種別の識別を行うことが可能なものもある(特許文献2)。
【0005】
【特許文献1】
特許第2935505号
【特許文献2】
特許第3015308号
【0006】
【発明が解決しようとする課題】
しかし、特許文献1において、速度低下において無彩しやすくすることは、速度低下において色判定性能を落とすことになる。また、変倍率が大きくなれば、色判定は難しくなるし、外乱(振動)の影響も大きく受ける。
【0007】
特許文献2においてはすべての処理を間引いて処理をしているが、ACSに適用すると、切り換え点前後で大きくカラー判定基準が変わるという問題が生じてしまう。
【0008】
本発明では、色判定性能を維持し、カラー判定基準を変えることなく適当な間引き処理を行う画像処理、読取、形成装置およびそのカラー複写装置を提供することを目的とする。
【0009】
請求項1に係る発明では、複数ラインを使用してカラー画素判定する装置において、拡大時の特定倍率以上において、入力データを実質1ライン置きに入力する手段をそなえることにより、拡大時に、有彩判定性能を落とすことなく、カラー画素判定を行うことを目的とする。
【0010】
請求項2に係る発明では、前記手段を適用できる画像読取手段としてのカラースキャナを提供することを目的とする。
【0011】
請求項3に係る発明では、前記手段を適用できる画像形成手段としてのカラープリンタを提供することを目的とする。
【0012】
請求項4に係る発明では、前記手段を適用できるカラー複写装置を提供することを目的とする。
【0013】
請求項5に係る発明では、パソコンなど外部からの画像及びプリント指示するコマンドを解析し、画像データとして、印刷できる状態にビットマップ展開し、カラープリンタを駆動して画像データをプリントアウトするプリンタコントローラが前記手段に対応可能になることを目的とする。
【0014】
【課題を解決するための手段】
かかる目的を解決するため、請求項1に記載の発明は、複数ラインを使用してカラー画素判定する画像処理装置において、拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を備えることを特徴とする。
【0015】
請求項2に記載の発明は、複数ラインを使用してカラー画素判定し、拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を有する画像処理装置に画像データを送信する画像読取装置において、原稿画像を色分解して読み取って画像データを生成し、画像処理装置に送信するカラースキャナを備えることを特徴とする。
【0016】
請求項3に記載の発明は、複数ラインを使用してカラー画素判定し、拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を有する画像処理装置から画像データを受信する画像形成装置において、画像データに対する出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とする。
【0017】
請求項4に記載の発明は、複数ラインを使用してカラー画素判定し、拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を有するカラー複写装置において、原稿画像を色分解して読み取って画像データを生成し、前記画像処理装置に送信するカラースキャナを備え、画像データに対する出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とする。
【0018】
請求項5に記載の発明は、請求項4に記載の発明において、外部端末からのプリント指示コマンドを解析して、カラープリンタにて外部端末からの画像情報をプリントアウトするプリンタコントローラを更に備えることを特徴とする。
【0019】
【発明の実施の形態】
以下、本発明の画像処理装置について、図面を参照して詳細に説明する。
【0020】
本発明の一実施例の機構の概要を図1に示す。この実施例は、デジタルフルカラー複写機である。カラー画像読み取り装置(以下、スキャナという)200は、コンタクトガラス202上の原稿180の画像を照明ランプ205、ミラー群204A、204B、204Cなど、およびレンズ206を介してカラーセンサ207に結像して、原稿のカラー画像情報を、例えば、ブルー(以下、Bという)、グリーン(以下、Gという)およびレッド(以下、Rという)の色分解光毎に読み取り、電気的な画像信号に変換する。カラーセンサ207は、この例では、3ラインCCDセンサーで構成されており、B、G、Rの画像を色ごとに読み取る。スキャナ200で得たB、G、Rの色分解画像信号強度レベルをもとにして、図示省略された画像処理ユニットにて色変換処理を行い、ブラック(以下、Bkという)、シアン(以下、Cという)、マゼンダ(以下、Mという)およびイエロー(以下、Yという)の記録色情報を含むカラー画像データを得る。
【0021】
このカラー画像データを用い、次に述べるカラー画像記録装置(以下、カラープリンタという)400によって、Bk、C、M、Yの画像を中間転写ベルト上に重ね形成し、そして転写紙に転写する。スキャナ200は、カラープリンタ400の動作とタイミングをとったスキャナースタート信号を受けて、照明ランプ205やミラー群204A、204B、204Cなどからなる照明・ミラー光学系が左矢印方向へ原稿走査し、1回走査毎に1色の画像データを得る。そして、その都度、カラープリンタ400で順次、顕像化しつつ、これらを中間転写ベルト上に重ね合わせて、4色のフルカラー画像を形成する。
【0022】
カラープリンタ400の、露光手段としての書き込み光学ユニット401は、スキャナ200からのカラー画像データを光信号に変換して、原稿画像に対応した光書き込みを行い、感光体ドラム414に静電潜像を形成する。光書き込み光学ユニット401は、レーザー発光器441、これを発光駆動する発光駆動制御部(図示省略)、ポリゴンミラー443、これを回転駆動する回転用モータ444、fθレンズ442、反射ミラー446などで構成されている。感光体ドラム414は、矢印で示す如く反時計廻りの向きに回転するが、その周りには、感光体クリーニングユニット421、除電ランプ414M、帯電器419、感光体ドラム上の潜像電位を検知する電位センサー414D、リボルバー現像装置420の選択された現像器、現像濃度パターン検知器414P、中間転写ベルト415などが配置されている。
【0023】
リボルバー現像装置420は、BK現像器420K、C現像器420C、M現像器420M、Y現像器420Yと、各現像器を矢印で示す如く反時計回りの向きに回転させる、リボルバー回転駆動部(図示省略)などからなる。これら各現像器は、静電潜像を顕像化するために、現像剤の穂を感光体ドラム414の表面に接触させて回転する現像スリーブ420KS、420CS、420MS、420YSと、現像剤を組み上げ・撹拌するために回転する現像パドルなどで構成されている。待機状態では、リボルバー現像装置420はBK現像器420で現像を行う位置にセットされており、コピー動作が開始されると、スキャナ200で所定のタイミングからBK画像データの読み取りがスタートし、この画像データに基づき、レーザー光による光書き込み・潜像形成が始まる。以下、Bk画像データによる静電潜像をBk潜像という。C、M、Yの各画像データについても同じ。このBk潜像の先端部から現像可能とすべく、Bk現像器420Kの現像位置に潜像先端部が到達する前に、現像スリーブ420KSを回転開始して、Bk潜像をBkトナーで現像する。そして、以後、Bk潜像領域の現像動作を続けるが、潜像後端部がBk潜像位置を通過した時点で、速やかに、Bk現像器420Kによる現像位置から次の色の現像器による現像位置まで、リボルバー現像装置420を駆動して回動させる。この回動動作は、少なくとも、次の画像データによる潜像先端部が到達する前に完了させる。
【0024】
像の形成サイクルが開始されると、感光体ドラム414は矢印で示すように反時計回りの向きに回動し、中間転写ベルト415は図示しない駆動モータにより、時計回りの向きに回動する。中間転写ベルト415の回動に伴って、BKトナー像形成、Cトナー像形成、Mトナー像形成およびYトナー像形成が順次行われ、最終的に、BK、C、M、Yの順に中間転写ベルト415上に重ねてトナー像が形成される。BK像の形成は、以下のようにして行われる。すなわち、帯電器419がコロナ放電によって、感光体ドラム414を負電荷で約−700Vに一様に帯電する。つづいて、レーザーダイオード441は、Bk信号に基づいてラスタ露光を行う。このようにラスタ像が露光されたとき、当初、一様に荷電された感光体ドラム414の露光された部分については、露光光量に比例する電荷が消失し、静電潜像が形成される。リボルバー現像装置420内のトナーは、フェライトキャリアとの撹拌によって負極性に帯電され、また、本現像装置のBK現像スリーブ420KSは、感光体ドラム414の金属基体層に対して図示しない電源回路によって、負の直流電位と交流とが重畳された電位にバイアスされている。この結果、感光体ドラム414の電荷が残っている部分には、トナーが付着せず、電荷のない部分、つまり、露光された部分にはBkトナーが吸着され、潜像と相似なBk可視像が形成される。中間転写ベルト415は、駆動ローラ415D、転写対向ローラ415T、クリーニング対向ローラ415Cおよび従動ローラ群に張架されており、図示しない駆動モータにより回動駆動される。さて、感光体ドラム414上に形成したBkトナー像は、感光体と接触状態で等速駆動している中間転写ベルト415の表面に、ベルト転写コロナ放電器(以下、ベルト転写部という。)416によって転写される。以下、感光体ドラム414から中間転写ベルト415へのトナー像転写を、ベルト転写と称する。感光体ドラム414上の若干の未転写残留トナーは、感光体ドラム414の再使用に備えて、感光体クリーニングユニット421で清掃される。ここで回収されたトナーは、回収パイプを経由して図示しない排トナータンクに蓄えられる。
【0025】
なお、中間転写ベルト415には、感光体ドラム414に順次形成する、Bk、C、M、Yのトナー像を、同一面に順次、位置合わせして、4色重ねのベルト転写画像を形成し、その後、転写紙にコロナ放電転写器にて一括転写を行う。ところで、感光体ドラム414側では、BK画像の形成工程のつぎに、C画像の形成工程に進むが、所定のタイミングから、スキャナ200によるC画像データの読み取りが始まり、その画像データによるレーザー光書き込みで、C潜像の形成を行う。C現像器420Cは、その現像位置に対して、先のBk潜像後端部が通過した後で、かつ、C潜像先端が到達する前に、リボルバー現像装置の回転動作を行い、C潜像をCトナーで現像する。以降、C潜像領域の現像をつづけるが、潜像後端部が通過した時点で、先のBk現像器の場合と同様にリボルバー現像装置420を駆動して、C現像器420Cを送り出し、つぎのM現像器420Mを現像位置に位置させる。この動作もやはり、つぎのM潜像先端部が現像部に到達する前に行う。なお、MおよびYの各像の形成工程については、それぞれの画像データの読み取り、潜像形成、現像の動作が、上述のBk像や、C像の工程に準ずるので、説明は省略する。
【0026】
ベルトクリーニング装置415Uは、入口シール、ゴムブレード、排出コイルおよび、これら入口シールやゴムブレードの接離機構により構成される。1色目のBk画像をベルト転写した後の、2、3、4色目を画像をベルト転写している間は、ブレード接離機構によって、中間転写ベルト面から入口シール、ゴムブレードなどは離間させておく。
【0027】
紙転写コロナ放電器(以下、紙転写器という。)417は、中間転写ベルト415上の重ねトナー像を転写紙に転写するべく、コロナ放電方式にて、AC+DCまたは、DC成分を転写紙および中間転写ベルトに印加するものである。
【0028】
給紙バンク内の転写紙カセット482には、各種サイズの転写紙が収納されており、指定されたサイズの用紙を収納しているカセットから、給紙コロ483によってレジストローラ対418R方向に給紙・搬送される。なお、符号412B2は、OHP用紙や厚紙などを手差しするための給紙トレイを示している。像形成が開始される時期に、転写紙は前記いずれかの給紙トレイから給送され、レジストローラ対418Rのニップ部にて待機している。そして、紙転写器417に中間転写ベルト415上のトナー像の先端がさしかかるときに、ちょうど、転写紙先端がこの像の先端に一致する如くにレジストローラ対418Rが駆動され、紙と像との合わせが行われる。このようにして、転写紙が中間転写ベルト上の色重ね像と重ねられて、正電位につながれた紙転写器417の上を通過する。このとき、コロナ放電電流で転写紙が正電荷で荷電され、トナー画像の殆どが転写紙上に転写される。つづいて、紙転写器417の左側に配置した図示しない除電ブラシによる分離除電器を通過するときに、転写紙は除電され、中間転写ベルト415から剥離されて紙搬送ベルト422に移る。中間転写ベルト面から4色重ねトナー像を一括転写された転写紙は、紙搬送ベルト422で定着器423に搬送され、所定温度にコントロールされた定着ローラ423Aと加圧ローラ423Bのニップ部でトナー像を溶融定着され、排出ロール対424で本体外に送り出され、図示省略のコピートレイに表向きにスタックされる。
【0029】
なお、ベルト転写後の感光体ドラム414は、ブラシローラ、ゴムブレードなどからなる感光体クリーニングユニット421で表面をクリーニングされ、また、除電ランプ414Mで均一除電される。また、転写紙にトナー像を転写した後の中間転写ベルト415は、再び、クリーニングユニット415Uのブレード接離機構でブレードを押圧して表面をクリーニングする。リピートコピーの場合には、スキャナの動作および感光体への画像形成は、1枚目の4色目画像工程にひきつづき、所定のタイミングで2枚目の1色目画像工程に進む。中間転写ベルト415の方は、1枚目の4色重ね画像の転写紙への一括転写工程にひきつづき、表面をベルトクリーニング装置でクリーニングされた領域に、2枚目のBkトナー像がベルト転写されるようにする。その後は、1枚目と同様の動作になる。
【0030】
図1に示すカラー複写機は、パーソナルコンピュータ等のホストから、LAN又はパラレルI/Fを通じてプリントデータが与えられるとそれをカラープリンタ400でプリントアウト(画像出力)でき、しかもスキャナ200で読み取った画像データを遠隔のファクシミリに送信し、受信する画像データもプリントアウトできる複合機能つきのカラー複写機である。この複写機は、構内交換器PBXを介して公衆電話網に接続され、公衆電話網を介して、ファクシミリ交信やサービスセンタの管理サーバと交信することができる。
【0031】
図2に、図1に示す複写機の電気システムの概要を示す。図2はメインコントローラ10を中心に、複写機の制御装置を図示したものである。メインコントローラ10は、複写機全体を制御する。メインコントローラ10には、オペレータに対する表示と、オペレータからの機能設定入力制御を行う操作/表示ボードOPB、エディタ15、スキャナ200およびオプションのADFの制御、原稿画像を画像メモリに書き込む制御、および、画像メモリからの作像を行う制御等を行う、スキャナコントローラ12、プリンタコントローラ16、画像処理ユニット(IPU)300、ならびに、カラープリンタ400内にあって荷電、露光、現像、給紙、転写、定着ならびに転写紙搬送を行う作像エンジンの制御を行うエンジンコントローラ13、等の分散制御装置が接続されている。各分散制御装置とメインコントローラ10は、必要に応じて機械の状態、動作指令のやりとりを行っている。また、紙搬送等に必要なメインモータ、各種クラッチも、メインコントローラ10内の図示しないドライバに接続されている。
【0032】
カラープリンタ400には、給紙トレイからの給紙をはじめとして、感光体414の荷電、レーザー書込みユニットによる画像露光、現像、転写、定着および排紙を行う機構要素を駆動する電気回路および制御回路、ならびに各種センサー等がある。
【0033】
プリンタコントローラ16は、パソコンなど外部からの画像及びプリント指示するコマンドを解析し、画像データとして、印刷できる状態にビットマップ展開し、メインコントローラ10を介して、プリンタ400を駆動して画像データをプリントアウトする。画像及びコマンドをLAN及びパラレルI/Fを通じて受信し動作するために、LANコントロール19とパラレルI/F18がある。
【0034】
FAXコントローラ17は、フアクシミリ送信指示があるときには、メインコントローラ10を介してスキャナ200およびIPU300を駆動して原稿の画像を読んで、画像データを、通信コントロール20およびPBXを介して、ファクシミリ通信回線に送出する。通信回線からファクシミリの呼びを受け画像データを受信すると、メインコントローラ10を介して、プリンタ400を駆動して画像データをプリントアウトする。
【0035】
図3には、画像処理ユニット(IPU)300の構成を示す。スキャナ200が発生するR、G、B画像データが、インターフェース351を介してIPU300に与えられる。なお、B又はR単色の記録をBRユニット355が指示する時には、R、G、B画像データの選択と集成が行われるが、このモードの画像記録処理の説明は省略する。IPU300に与えられたR、G、B画像データは、原稿認識320に入力され、次段のRGBγ補正310で、反射率データ(R、G、Bデータ)から濃度データ(R、G、Bデータ)に変換される。
【0036】
原稿認識320が、この濃度R、G、Bデータに基づいて、それらのデータが宛てられる画像領域が文字エッジ領域(文字や線画のエッジ領域)、網点領域、低線数網点領域か絵柄領域(写真や絵の領域&文字領域でない領域&網点領域でない&網点領域でない)かを判定し、C/P信号およびB/C信号を、RGBフィルタ330、ならびに、インターフェース353を介してメインコントローラ10に与える。

Figure 2004104625
【0037】
−原稿認識320(図35)−
図35に、原稿認識320の機能をブロック区分で示す。
ラインメモリR、G、B、認識処理部からなり、認識処理部は文字エッジ検出、絵柄検出及び有彩/無彩検出を行って、文字エッジ領域あるいは絵柄領域を表すC/P信号および有彩領域/無彩領域を表すB/C信号を発生し、ラインメモリがRGBを複数ライン蓄えることが可能なラインメモリで、認識処理と、認識処理時に複数ライン処理がかかるので、認識結果(C/P、B/C)とラインの同期(位置)をあわせるために入力のRGBを複数ライン遅らせて出力する。
【0038】
図4に示すように原稿認識320は、大別すると、フィルタ321、エッジ抽出322、白領域抽出323、網点抽出324、色判定325および総合判定326からなる。なお、ここでは、スキャナ200の読み取り密度が600dpi程度の場合を例として説明する。
【0039】
−フィルタ321−
フィルタ321は、主に文字のエッジの抽出ために、スキャナ200が発生するG画像データを補正する。ここで、スキャナ200で読み取ったデータは、レンズなどの性能でボケていることがあるので、エッジ強調フィルタをかける。ただ、ここでは、単純に原稿上の像エッジを強調し、複写機に広く普及している、階調表現のための万線パターンを強調しない必要がある。万線パターンを強調してしまうと、絵柄(万線パターンによる階調表現領域)をエッジとして抽出して、最終的に文字エッジと誤判定する可能性があるので、強調しないようにする必要がある。また、図8に示すように、600dpiの万線パターンAと400dpiの万線パターンBは、繰返し周期が異なるので、同一のフィルタ係数で強調しないようにするのは難しい。そのため、後段の特徴量検出(エッジ抽出、白領域検出)に応じて2つ係数の演算結果の最大値または、最小値のどちらかを使用する。
なお図8において、主走査方向xの白1ブロック幅とそれに接する黒1ブロック幅との和が、万線ピッチ(定幅:所定数の画素)すなわち万線周期であり、低濃度中間調の時には白ブロック幅が広がり黒ブロック幅が狭くなる。高濃度中間調になるにつれて、白ブロック幅が狭くなり黒ブロック幅が広がる。
【0040】
この実施例では、フィルタ処理321の画素マトリクスを、主走査方向xの画素数7×副走査方向y(スキャナ200の機械的な原稿走査方向)の画素数5として、図4上のフィルタ321のブロックに示すように、各画素宛てに各重み付け係数a1〜a7、b1〜b7、c1〜c7、d1〜d7、e1〜e7を宛てた2組の係数グループ(係数マトリクス)A、Bがある。次の係数グループA(表1)は、図8の600dpiの万線パターンAの強調は抑制し、しかも文字のエッジを強調するフィルタ処理用の係数であり、係数グループB(表2)は、図8の400dpiの万線パターンBの強調は抑制し、しかも文字のエッジを強調するフィルタ処理用の係数である。
【0041】
【表1】
Figure 2004104625
【0042】
【表2】
Figure 2004104625
【0043】
なお、横方向が主走査方向xの並び、縦方向が副走査方向yの並びである。係数グループA、Bの、グループ内第1行の係数が、図4上のフィルタ321のブロックの係数マトリクスの、第1行の係数a1〜a7であり、係数グループA、Bの第3行の中央の「20」が、フィルタ321のブロックの係数マトリクスの第3行c1〜c7の中央の画素の係数即ち注目画素の係数c4である。係数マトリクスの各係数に、それに宛てられる画素の画像データが表す値を乗算した積(総計7×5=35個)の総和(積和値)が、注目画素(c4が宛てられた画素)の、フィルタ321で処理した画像データ値として、エッジ抽出322および白領域抽出323に与えられる。ここで注目画素とは、現在処理対象の画素であり、それが順次にx方向にそしてy方向に位置が異なるものに更新される。
【0044】
係数グループAは、図8に示す600dpiの万線パターンAの万線ピッチで負の係数(小さい値の係数)が分布しそれらの間に0(やや大きい値の係数)が分布し、そしてエッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンAの領域の黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンAでない文字エッジである時に比べて、かなり低い値になる。
【0045】
係数グループBは、図8に示す400dpiの万線パターンBの万線ピッチで負の係数(小さい値の係数)が分布しそれらの間に0(やや大きい値の係数)が分布し、そしてエッジ強調のために注目画素には20(極めて大きな係数)が宛てられている。これにより、画像データ(注目画素)が万線パターンBの領域の黒/白間エッジである時には、それにあてて導出される加重平均値(積和値)は、万線パターンBでない文字エッジである時に比べて、かなり低い値になる。
【0046】
なお、フィルタ321では、係数グループAと係数グループBの演算を行い、エッジ抽出322に、演算結果の最小値を出力して、白領域抽出323には、演算結果の最大値を出力する。
エッジ抽出322に演算結果の最小値を出力するのは、文字の構造が万線形状をしている場合に、白レベルが十分に抽出できないことがあるのを避けるためである。
白領域抽出323に演算結果の最大値を出力するのは、絵柄が万線パターンの構造の時(例えば複写機の出力)に、より絵柄として捉えやすいようにするためである。
このことにより、エッジ抽出ではよりエッジと拾いやすくして、白領域検出ではより絵柄として拾いやすくしている。
本実施例では、2つ係数を例に取って説明したが、3つ以上の係数でも同様の効果が得られる。
【0047】
図4には、エッジ処理にG画像データを参照する態様を示すが、Gデータに限らず、輝度データであってもよい。濃い薄いを表現する信号なら適応可能である。
【0048】
−エッジ抽出322−
図25にエッジ抽出322の詳細ブロック図を示す。文字領域は、高レベル濃度の画素と低レベル濃度の画素(以下、黒画素、白画素と呼ぶ)が多く、かつ、エッジ部分では、これらの黒画素及び白画素が連続している。エッジ抽出322は、このような黒画素及び白画素それぞれの連続性に基づいて文字エッジを検出する。
【0049】
−3値化−
先ず、3値化で、2種の閾値TH1およびTH2を用いて、フィルタ321が文字エッジ強調のフィルタ処理をしたG画像データ(エッジ抽出322の入力データ)を3値化する。閾値TH1およびTH2は、例えば、画像データが0から255までの256階調(0=白)を表す場合、例えばTH1=20、TH2=80に設定する。3値化では、入力データ<TH1であると、該データが宛てられる画素を白画素と、TH1≦入力データ<TH2であると中間調画素と、TH2≦入力データであると黒画素と、表す3値化データに入力データを変換する。
【0050】
−黒画素連続検出、白画素連続検出−
黒画素連続検出および白画素連続検出が、3値化データに基づいて、黒画素が連続する箇所および白画素が連続する箇所を、それぞれパターンマッチングにより検出する。このパターンマッチングには、本実施例では、図9に示す3×3画素マトリクスのパターンBPa〜BPdおよびWPa〜WPdを用いる。図9に示すパターンにおいて、黒丸は上述の黒画素であることを示し、白丸は上述の白画素であることを示し、いずれの丸印もない空白画素は、黒画素、中間調画素、白画素のいずれであるか問わないものである。3×3画素マトリクスの中心の画素が注目画素である。
【0051】
黒画素連続検出は、3値化データの内容の分布が、図9に示す黒画素分布パターンBPa〜BPdのいずれかにマッチングすると、その時の注目画素を「黒連続画素」としてそれをあらわすデータを該注目画素に与える。同様に、白画素連続検出は、図9に示す白画素分布パターンWPa〜WPdのいずれかにマッチングすると、その時の注目画素を「白連続画素」としてそれをあらわすデータを該注目画素に与える。
【0052】
−近傍画素検出−
次の近傍画素検出は、黒画素連続検出および白画素連続検出の検出結果について、この近傍画素検出での注目画素の近傍に黒連続画素又は白連続画素があるか否かを調べることにより、該注目画素が、エッジ領域と非エッジ領域のいずれにあるかを判定する。より具体的に述べれば、本実施例にあっては、5×5画素マトリクスのブロックで、その内部に黒連続画素と白連続画素がそれぞれ1つ以上存在するときに、そのブロックをエッジ領域と判定し、そうでないときに、そのブロックを非エッジ領域と判定する。
【0053】
−孤立点除去−
さらに、文字エッジは連続して存在するので、孤立点除去にて孤立しているエッジを非エッジ領域に補正する。そして、エッジ領域と判定した画素に対して”1”(エッジ領域)なるedge信号を出力し、非エッジ領域と判定した画素に対して”0”(非エッジ領域)なるedge信号を出力する。
【0054】
−白領域抽出323−
図26に白領域抽出323の詳細ブロック図を示す。白領域抽出323は、2値化、RGB白抽出、白判定、白パターンマッチング、グレー判定、グレーパターンマッチング、グレー膨張、白補正、白パターン補正、白膨張、白収縮、判定からなる。
【0055】
−2値化−
2値化は、フィルタ321の画像濃度データ(G画像データ)のエッジ強調出力を、閾値thwsbで2値化して、白パターンマッチング(の処理を表す図5のステップ7)が参照する白データの生成のための2値化白判定信号を発生する。なお、エッジ強調出力は、この実施例では0から255の256階調であり、0が濃度の無い白であり、閾値thwsbの一例は、50であって、エッジ強調出力の値がthwsb=50より小さければ、2値化323aが「2値化白」と判定し2値化白判定信号「1」を発生する。エッジ強調出力の値がthwsb=50以上のときは2値化白判定信号「0」を発生する。
【0056】
−RGB白抽出−
RGB白抽出は、1.)RGB白地検出、2.)色地検出および3.)谷白画素検出を行って、画像データが白領域かどうかを判定する。
【0057】
1.)RGB白地検出
該RGB白地検出では、R、G、B画像データで白地領域を検出することにより、白背景分離の動作をアクティブにする。すなわち白背景分離の処理を起動する。具体的には、図10のパターンWBPに示すように、3×3画素マトリックスのR、G、B画像データのすべてが閾値thwssより小さければ、注目画素(3×3画素マトリックスの中心画素)が白領域と判定して白パターンマッチング(の処理を表す図5のステップ3が参照する白地判定信号)をアクティブ(「1」)にする。これは、ある程度の広がりの白画素領域があるかを検出するものである。なお、R、G、B画像データのそれぞれも、この実施例では0から255の256階調であり、0が濃度の無い基底レベルであり、閾値thwss<thwsbであって、thwssの一例は、40であって、R、G、B画像データのすべてがthwss=40より小さいと、「白地」と判定し白地判定信号「1」を発生する。R、G、B画像データのいずれかがthwss=40以上のときは白地判定信号「0」を発生する。
【0058】
2.)色地検出
薄い色を白背景と判定しないようにするために、色地を検出する。
A. ここでは先ず、注目画素を中心とする5×5画素マトリックスの各画素の符号を、図11のパターンMPpに示すものとすると、注目画素となる中心画素c3(MCa〜MCdの×印画素)のRGB差(1画素宛てのR、G、B画像データの最大値と最小値との差)が閾値thcより大きいと色画素判定信号aを「1」(色画素)とし、閾値thc以下のときは「0」(白黒画素)とする。
B. 注目画素の片側の周辺画素群△(図11のMCa〜MCdの中)のいずれかの画素のR、G、B画像データがすべて閾値thwc以下であると一方側白判定信号bを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。閾値thwcは例えば20である。
C. 注目画素の他方側の周辺画素群□(図11のMCa〜MCdの中)のいずれかの画素のR、G、B画像データがすべて閾値thwc以下であると他方側白判定信号cを「1」(白画素)とし、閾値thwcを超えるときは「0」(非白画素)とする。
D. 図11のパターンMCa〜MCdのいずれかにおいて、
a AND (bとcのエクスクルーシブノア)=「1」
が成立すると、すなわち、a=「1」(注目画素が色画素)、かつ、bとcが一致(注目画素の両側ともに白画素、または、両側ともに非白画素)のとき、注目画素宛ての、色地判定信号dを「1」(色地)とする。この色地判定信号dは、白パターンマッチング(の処理を表す図5のステップ6)で、参照される。
【0059】
上述のパターンマッチングA.〜D.を行うのは、黒文字のまわりがRGB読み取り位置ずれで僅かながらに色付きになるとき、そこを色と拾わないためである。黒文字のまわりの色付きの位置では、(bとcのエクスクルーシブノア)が「0」(注目画素の両側の一方が白画素、他方が非白画素)となり、この場合は、色地判定信号d=「0」(非色地)となる。加えて、注目画素が、周辺を白地で囲まれた色画素のときには、色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができる。すなわち、線が込み入ったところでは、本来白いところが完全に白に読み取られないが、上記処理A.でRGB差が小さいと色画素と判定しないので、閾値thwcを濃度を見るべき白地よりも厳しく設定して(たとえばthwss=40、thwsb=50に対し、thwc=20)、B.〜D.の処理で白背景か否を厳密にチェックして薄い色画素を色地として正確に検出することができる。
【0060】
3.)谷白画素検出
次に、谷白画素検出では、上記RGB白地検出で検出できない小さな白領域の谷白画素を、図10に示すG画像データの5×5画素マトリクス分布RDPaおよびRDPbに基づいて検出する。具体的には、5×5画素マトリクス分布RDPaに基づいて、
miny=min(G[1][2]、G[1][3]、G[1][4]、G[5][2]、G[5][3]、G[5][4])
を算出する。即ち、図10に示す5×5画素マトリクス分布RDPaの、黒丸を付した画素群の中の最低濃度minyを摘出する。そして、
maxy=max(G[3][2]、G[3][3]、G[3][4])
を算出する。即ち、図10に示す5×5画素マトリクス分布RDPaの、白丸を付した画素群の中の最高濃度maxyを摘出する。次に、
mint=min(G[2][1]、G[3][1]、G[4][1]、G[2][5]、G[3][5]、G[4][5])
を算出する。即ち、図10に示すもう1つの5×5画素マトリクス分布RDPbの、黒丸を付した画素群の中の最低濃度mintを摘出する。そして、
maxt=max(G[2][3]、G[3][3]、G[4][3])
を算出する。即ち、図10に示す5×5画素マトリクス分布RDPbの、白丸を付した画素群の中の最高濃度maxtを摘出する。ここで、min ( )は最小値を検出する関数である。max ( )は、最大値を検出する関数である。次に、
OUT=((miny−maxy) > 0) # ((mint−maxt) > 0)
を算出する。即ち、(miny−maxy) と(mint−maxt) のうち、正値であって大きいほうの値を谷検出値OUTとし、このOUTの値がある閾値以上であると、注目画素(RDPaまたはRDPbの中心画素)を谷白画素と検出する。このように画像の谷状態を検出して、1.)RGB白地検出では、検出しにくいところを補う。
【0061】
−白判定−
ここでは、白判定にもちいる状態変数MS、SS[I]の更新を行う。その内容を図5に示す。ここで、状態変数MSは処理対象ライン(注目ライン)の画素宛てのもの、状態変数SS[I]は処理対象ラインの1ライン前(処理済ライン)の画素宛てのものであり、いずれも白地の白の程度を表す4bitの白地情報であり、図5の処理によって生成されるものである。状態変数MSおよびSS[I]が表す値の最高値は15に定めており、これが最も白い程度を意味し、最低値は0である。すなわち状態変数MSおよびSS[I]は、白の程度を示すデータであり、それが表す値が大きいほど、強い白を意味する。複写動作開始時に、状態変数MSおよびSS[I]は共に0に初期化される。
【0062】
図5の処理においてはまず、処理対象である注目画素の1ライン前の状態変数すなわち白地情報SS[I]と注目画素の同一ライン上の1画素前の画素(先行画素:処理済画素)の状態変数すなわち白地情報MSとを比較して(ステップ1)、1ライン前の白地情報SS[I]の方が大きければ、それを注目画素の仮の白地情報MSとする(ステップ2)が、そうでないと先行画素の状態変数MSを、注目画素の仮の白地情報MSとする。これは、周辺画素の白地情報の、より白に近い情報を選択することを意味する。
【0063】
複写動作を開始してから、前記1.)RGB白地検出で白領域すなわち白地を検出すると〔前記1.)RGB白地検出の出力である白地判定信号=「1」〕、注目画素の1ライン前の画素の白地情報SS[I]を15に更新し(ステップ3、4)、注目画素の白地情報MSも15とする(ステップ5)。そして、注目画素の白地情報MSは、図12に示すラインメモリLMPの、現ライン(注目ライン)用のラインメモリの注目画素の主走査位置(F)に書き込み、1ライン前の画素宛ての白地情報SS[I]は、図12に示すラインメモリLMPの、前1ライン用のラインメモリの、注目画素の主走査位置(F)に書き込む(ステップ3、4、5)。次に、1ライン前の画素宛ての白地情報SS[I]を、1ライン前の画素に、次のように、伝搬させる(ステップ14〜17)。なお、[I]は注目画素の主走査位置を意味し、[I−1]は主走査方向xでそれより1画素前の画素(注目画素の直前の画素)の位置を意味する。
【0064】
SS[I−1]<SS[I]−1の時、SS[I−1]=SS[I]−1をラインメモリにセットする(ステップ14、15)。即ち、注目画素より1ライン前のラインにおいて、主走査方向で注目画素の位置(F)より1画素前(E)の白地情報SS[I−1]よりも注目画素の位置(F)の白地情報SS[I]から1を減算した値「SS[I]−1」のほうが大きい(白程度が強い)と、1ライン前のライン上の注目画素の位置(F)より1画素前の画素(E)宛ての白地情報SS[I−1]を、注目画素の位置(F)の白地情報SS[I]より1だけ白強度を下げた値に更新する。
【0065】
次に、SS[I−2]<SS[I]−2の時、SS[I−2]=SS[I]−2をラインメモリにセットする(ステップ16、17−14、15)。
次に、SS[I−3]<SS[I]−3の時、SS[I−3]=SS[I]−3をラインメモリにセットする(ステップ16、17−14、15)。
【0066】
以下同様にして、最後に、SS[I−15]<SS[I]−15の時、SS[I−15]=SS[I]−15をラインメモリにセットする(ステップ16、17−14、15)。これらの白地情報SS[I]の値の下限値MINは0であり、0未満になるときには、0にとどめる。これは後述のステップ13においても同様である。
【0067】
これらのステップ14〜17の処理により、1ライン前かつ注目画素の主走査位置より前の白地情報SSが、注目画素の白地情報MSを、それから主走査方向xの1画素の位置ずれにつき1の低減率で下げた値に更新され、注目画素の白地情報が1ライン前の主走査方向xで主走査の後方に、前記低減率で伝搬する(白伝搬処理)。但しこれは、1ライン前の白地情報のほうが小さい値である場合である。例えば1ライン前の画素が、前記1.)RGB白地検出で白地(白領域)と検出したものであるときにはそれの白地情報は15であって最高値であるので書換えは行われない。
【0068】
注目画素を更新してそれが白地でないものになると〔前記1.)RGB白地検出の出力である白地判定信号=「0」〕、ステップ3からステップ6以下に進み、注目画素が、色地〔前記2.)色地検出の出力である色地判定信号d=「1」〕でなく(非色地であり)、2値化白〔前記2値化の出力である2値化白判定信号=「1」〕であり、しかも、ステップ1、2で仮に定めた注目画素の状態変数すなわち白地情報MSが閾値thw1(例えば13)以上、である時に、注目画素宛ての白地情報MSを+1する(ステップ6〜10)。すなわち、1だけ白程度が強い値に更新する。白地情報MSの最高値maxは15に定めており、15を超える時には15にとどめる(ステップ9、10)。この経路を進んできたときにも、前述の、ステップ5および14〜17を実行する。すなわち、白伝搬処理を行う。
【0069】
注目画素が非色地かつ2値化白ではあるが、白地情報MSがthw1(たとえば7)未満、thw2(例えば1)以上、かつ、谷白画素である時には、状態変数MSをそのままの値に保持する(ステップ8、11、12)。この経路を進んできたときにも、前述の、ステップ5および14〜17を実行する。すなわち、白伝搬処理を行う。
【0070】
上記条件のいずれにも一致しないとき、すなわち注目画素が色地又は非2値化白のときは、注目画素の白地情報MSを−1する(ステップ13)。すなわち白程度が1だけ弱い白地情報に更新する。白地情報MSの最低値MINは0であり、0未満になる時には0にとどめる。この経路を進んできたときにも、前述の、ステップ5および14〜17を実行する。すなわち、白伝搬処理を行う。
【0071】
以上の白地情報MSの生成により、ラインメモリLMP上において、状態変数(白地情報)MSを介して周辺画素に白情報を伝搬させることができる。この白地情報MSの生成は前述のように、色データ(R、G、B画像データのすべて)が閾値thwss=40より小さいとき白地と表すRGB白地判定信号に基づいた、図5のステップ3−4−5−14〜17の系統の、色対応の白地情報MSの生成を含み、しかも、濃度データ(G画像データ)のエッジ強調出力(フィルタ321の出力)が、閾値thwsb=50より小さいとき白地と2値化白判定信号に基づいた、図5のステップ7〜13−5−14〜17の系統の、濃度対応の白地情報MSの生成を含む。
【0072】
この白判定は、まずRGB白抽出の中の1.)RGB白地検出で、白領域を検出するまで、すなわち前記1.)RGB白地検出が白地判定信号「1」を発生しこれに対応して色対応の白地情報MSの生成(ステップ3−4−5−14〜17)を開始するまでは動作(ステップ4の実行)をしない。これは、白領域との判定が得られない領域を、フィルタ321のエッジ強調処理後G画像データの後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防ぐためである。
【0073】
薄い色地上の文字にエッジ強調フィルタ321をかけると、文字周辺のデータが本来の画像データ(色地)より、レベルの低い値(白)となるので、フィルタ321のエッジ強調処理後のデータで白パターンマッチングをすると、すなわち濃度対応の白地情報MSの生成(ステップ7〜13−5−14〜17)のみに基づいて白領域判定をすると、色地上の文字周辺を白地と誤判定しやすいが、上述の色対応の白地情報MSの生成(ステップ3−4−5−14〜17)によって白領域との判定が得られる領域に後述する、白画素(白ブロック)を判定するための白パターンマッチングを適用するように白地情報MSを最高値とし、ステップ3で白地でないときには、更にステップ6以下で詳細に白地条件をチェックして白パターンマッチングを適用するか否を決定するための1つのパラメータである白地情報MSを調整するので、フィルタ321のエッジ強調処理後G画像データの後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防いでいる。
【0074】
例えば、色画素の可能性が高いときには、白地情報MSを下げ(ステップ13)、色画素の疑いもありえるときには白地情報MSをホールド(変更無し)にして(ステップ11〜13)、後述する白パターンマッチングにて白画素(白ブロック)と誤判定することを防いで、文字周辺のデータが本来の画像データ(色地)より、レベルの低い値(白)となるのを防止している。
【0075】
文字が密なところは上述の処理(ステップ3〜5、6〜10および14〜17)によって白地情報MSを更新し伝搬させるので、密な文字領域が絵柄と誤判定される可能性が低減する。また、込み入った文字(例えば、「書」)などの文字の中は、1.)RGB白地検出で白検出ができない場合があるが、そのときに3.)谷白画素検出にて、白と検出し、白地情報MSを、ステップ12のYES出力がステップ5に直進する経路でホールドして、白地傾向にとどめるので、込み入った文字の中が絵柄と誤判定される可能性が低減する。
【0076】
また、先に触れたように、注目画素が、周辺を白地で囲まれた色画素のときには、前記2.)色地検出の出力である色地判定信号d=「1」(色地)となり、線が込み入ったところでも、薄い色画素を色地として検出することができ、注目画素周辺が白か否かを見る閾値thwcを低く設定して(thwc=20)、薄い色画素(注目画素)の周辺が白背景か否を厳密にチェックして薄い色画素を色地として検出することができるので、込み入った文字の中が絵柄と誤判定される可能性を更に低減することができる。
【0077】
上述のように、薄い色画素を色地としてより厳密に検出できることにより、色地と検出したときには図5のステップ6からステップ13に進んで、状態変数MSを下げて色地を白と判定する可能性を低減できるのに加えて、ステップ3で参照する白地判定信号を生成する時の閾値thwss(たとえば40)に対して、ステップ7で参照する2値化白判定信号を生成する時の閾値thwsb(例えば50)を大きい値として、色地と判定しなかった場合(ステップ6:NO)には、前記2値化で白と見なす確率を高くして、図5のステップ7から10に進んで状態変数MSを上げて白領域と判定する可能性を高くしている。
【0078】
すなわち、前記1.)RGB白地検出で閾値thwss=40で、白と判定する確率が低い厳しい白判定を行って、そこで白地と判定すると、図5のステップ3から4以下の処理により、状態変数MSを上げて文字背景を白と判定する可能性を高くしている。該厳しい白判定で白地との判定が出なかったときには、では逆に色地であるかの、薄い色画素も色地として検出する信頼性が高い厳しい色地判定、すなわち前記2.)色地検出、の結果を参照し、それが色地との判定にならないときには、もう一度、今度は白と判定する確率が高い閾値thwsb=50の甘い白判定、すなわち前記2値化、を参照してそれが白の判定であると、状態変数MSを上げて文字背景を白と判定する可能性を高くしている(ステップ7〜10)。この処理(ステップ6〜10)があるので、色地と検出される薄い色画素よりも更に薄い背景濃度ムラ、例えば裏映りのような原稿の地にムラがある場合に、原稿の細かい地ムラに連動して状態変数MSが2値的に大きく変化するのが抑制され、つぎの白パターンマッチングでの白画素か否かの判定が走査方向に細かく変動するのが抑制される。その結果、背景が薄い色地のときに、裏映りのような原稿の細かい地ムラに連動して細かい色抜け(白背景)が現れることがなくなる。
【0079】
−白パターンマッチング−
注目画素を中心とする5×5画素単位のブロックで連続した白画素が存在するか否かで、背景が白かを判断する。そのために、注目画素に関して、次式が満たされる時に、注目画素を白画素と仮に定めて、白パターンマッチングを行う。
(非色画素&(白地情報MS≧thw1(13))&2値化白)#
(非色画素&(白地情報MS≧thw2(1))&谷白画素&2値化白)
ここで、この条件式を満たすかのチェックを行う注目画素は、図5のステップ5および14〜17の白伝搬処理の対象となってその処理過程を経たものであり、上記条件式の中の「白地情報MS」が、白伝搬処理後の、上記チェックを行う注目画素の白地情報MS[I]である。但し、このMS[I]は白伝搬処理を終えた白地情報であって、そのIは、上記チェックを行う注目画素の主走査方向xの位置であり、上述の白判定で状態変数MSを算出する注目画素の主走査方向xの位置とは別物である。
【0080】
上記条件式の中の、「非色画素」は前記2.)色地検出の出力である色地判定信号dが「0」であること、「2値化白」は前記2値化の2値化白判定信号が「1」(2値化白)であること、および、「谷白画素」は、前記3.)谷白画素検出の検出結果が谷白画素であること、をそれぞれ意味し、#は論理和(オア:又は)を意味する。白パターンマッチングは、上記条件式で判定した出力(白画素か否)に対し、図12の縦横斜めの連続性パターンPMPa〜PMPdのいずれかに該当するかをチェックするものである。パターンPMPa〜PMPdに付した白丸は、白画素であることを意味する。他の空白画素は、白画素であるか否か不問である。
【0081】
注目画素を中心とする5×5画素マトリクスの白画素分布が図12のパターンPMPa、PMPb、PMPcまたはPMPdに該当すると、注目画素が白パターン画素であると判定する。
【0082】
−グレー判定−
グレー画素検出の出力データに基づき、R、G、B、Y、M、C、Bkの色相分割を行い、色相毎に濃度の低い画素を検出する。
色相分割は、後述する色判定と同一である。
ここで、フィルタ後のGデータをthgrと比較して、Gデータより大きいかRGB白抽出の色地検出で色画素であるか否かのどちらかを満たしていれば、下記の演算を行い、下記条件を満たしていれば、グレー画素とする。
ここで、色毎に閾値を変えているのは各インクの最大濃度が異なるためである。
4.1).R−Y色相領域境界(ry)
R−2*G+B>0
4.2).Y−G色相領域境界(yg)
11*R−8*G−3*B>0
4.3).G−C色相領域境界(gc)
1*R−5*G+4*B<0
4.4).C−B色相領域境界(cb)
8*R−14*G+6*B<0
4.5).B−M色相領域境界(bm)
9*R−2*G−7*B<0
4.6).M−R色相領域境界(mr)
R+5*G−6*B<0
4.8).Y画素画素判定(gry)
(色画素である)& (ry == 1) & (yg == 0) &(RGBの最大値 < thmaxy)
4.9).G画素判定(grg)
(色画素である)& (yg == 1) & (gc == 0) &(RGBの最大値 < thmaxg)
4.10).C画素判定(grc)
(色画素である)& (gc == 1) & (cb == 0) &(RGBの最大値 < thmaxc)
4.11).B画素判定(grb)
(色画素である)& (cb == 1) & (bm == 0) &(RGBの最大値 < thmaxb)
4.12).M画素判定(grm)
(色画素である)& (bm == 1) & (mr == 0) &(RGBの最大値 < thmaxm)
4.13).R画素判定(grr)
(色画素である)& (mr == 1) & (ry == 0) &(RGBの最大値 < thmaxr)
4.14).色画素でない時(grbk)
(RGBの最大値 < thmaxbk)
4.15).グレー画素判定
4.8)〜4.15)のいずれかの条件を満たす時にグレー画素とする。
【0083】
−グレーパターンマッチング−
Dをグレー画素として、bkはグレー画素より濃いところとして、下記パターンマッチングを行う。複写原稿は、薄い200線の万線パターン、300線の万線パターンであるので、複写原稿もグレー検出するように下記のようなパターンを採用している。
下記パターン(表3)に一致したものは、グレー画素となる。(図6(a)、(b)参照)
【0084】
【表3】
Figure 2004104625
【0085】
−白パターン補正−
白画素パターンマッチングで孤立(1×1、1×2、2×1、2×2、1×3、3×1の白画素)しているアクティブ画素を非アクティブにする。
このことにより、孤立している画素を除去する。
【0086】
−白膨張−
白画素パターンマッチングの補正の結果を7×41のORを行う。
【0087】
−白収縮−
白膨張の結果の1×33のANDを行う。
白膨張と白収縮を行うことにより、白画素パターンマッチングの補正結果に対して膨張と小面積で存在する非アクティブ画素を除去する。
この判定結果は、白地と境界部分に対して、非白地側の境界領域を含む結果となる。
言いかえれば、白地よりも大きな領域となる。
【0088】
−白補正−
白ブロック補正では、ブロックパターンBCPの「×」を付した注目画素を中心とした15×11画素において、四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するときに、注目ブロックに白ブロック補正データを与える。このことにより、白地に囲まれた領域を白領域とする。
【0089】
−グレー膨張−
グレーパターンマッチングの結果に対して、11×11のOR処理をする。
このことにより、グレー領域に対してやや大きな領域となる。
【0090】
−判定−
白補正の結果がアクティブまたは、収縮結果がアクティブでかつグレー膨張結果が非アクティブの時に白背景とする。
式で表現すると次式のようになる。
白補正の結果 # (白収縮の結果 & !グレー膨張の結果)
ここで、「白補正の結果」では、白地に囲まれた領域を確実に白領域と判定して、「白収縮の結果 & !グレー膨張の結果」の結果では、濃い黒文字周辺を白領域として、濃度の薄いところを非白領域としている。
【0091】
図13に示すように、丸Bp1〜Bp4で囲んだ黒の突出部は、上述の、注目ブロックを中心とした15×11画素において四隅の各6×4画素領域それぞれに1つ以上の白候補ブロックが存在するときに注目ブロックに白ブロック補正データを与える白ブロック補正によって白ブロックに置きかえられる。丸Bp1〜Bp4で囲んだ黒の突出部のように白地で囲まれた黒領域を、白領域とすることは、そこを絵柄部と判定する可能性を低減する。後述する総合判定326では、非白領域は絵柄と判定するが、丸Bp1〜Bp4で囲んだ黒の突出部のように白地で囲まれた黒領域を絵柄と誤判定する可能性が減る。
さらに、白収縮の結果、グレー膨張の結果にて、黒地と白地境界を白領域(文字領域)と判定するので、濃い文字エッジは、文字の太さにかかわらず白地判定するので、文字エッジを正しく文字エッジと判定することが可能となる。濃度の薄い部分は文字エッジ判定しなくなる。
【0092】
−文字/写真判定レベルの調整−
上述のように白領域抽出323では、白判定で、RGB白抽出の白地判定信号、色地判定信号dおよび谷白画素判定信号、ならびに、2値化の2値化白判定信号、に対応する、白の程度をあらわす状態変数である白地情報MSを生成する。そして白パターンマッチングで、該色地判定信号d、白地情報MS、2値化白判定信号および谷白画素判定信号に基づいて注目画素が白画素か否を仮に定めて、注目画素を含む画素マトリクスに対する白画素分布パターンマッチングによって白画素か否を確定する。この結果と、黒判定および図10のパターンBBPに用いた黒パターンマッチングの結果を用いて、白補正が、注目画素が黒地と白地境界との境界(白領域:文字領域)であるかを判定する。
【0093】
RGB白抽出の白地判定信号(図5のステップ3で参照)は、注目画素のR、G、B画像データのすべてが閾値thwss=40より小さいと「1」(白地)である。この閾値thwssを大きくすると大きい値の白地情報MSを定める確率が高くなり、上記「白領域」(黒地と白地境界との境界:文字領域)を摘出する確率が高くなる(すなわち絵柄領域を摘出する確率が低下する)。閾値thwssを小さくするとこの逆となる。
【0094】
2値化の2値化白判定信号(図5のステップ7で参照)は、フィルタ321のG画像データのエッジ強調出力が閾値thwsb=50より小さければ、「1」(2値化白)である。この閾値thwsbを大きくすると大きい値の白地情報MSを定める確率が高くなり、上記「白領域」を摘出する確率が高くなる(すなわち絵柄領域を摘出する確率が低下する)。閾値thwsbを小さくするとこの逆となる。
【0095】
「白領域」の画像データには後工程で、文字画像を鮮明に表すための画像処理が施されるので、閾値thwssおよびthwsbを大きくすると、文字に優先度が高い画像処理が施される。非白領域すなわち絵柄(写真)領域の画像データには後工程で、写真や絵柄を忠実に表すための画像処理が施されるので、閾値thwssおよびthwsbを小さくすると、絵柄(写真)に優先度が高い画像処理が施される。
【0096】
ところで、RGB白抽出の色地判定信号d(図5のステップ6で参照)が「1」(色地)であると白地情報MSを低くし、上記「白領域」を摘出する確率が低くなる(すなわち絵柄領域を摘出する確率が高くなる)。前記2.)色地検出で色地判定信号dを生成する処理B.、C.で用いる閾値thwc(例えば20)を小さくすると、周辺画素(図11の△と□)を同時に色画素と検出する確率すなわち(bとcのエクスクルーシブノア)=「1」となる確率が高くなって色地判定信号d=「1」(色地)を得る確率が高くなり、上記「白領域」を摘出する確率が低くなる(すなわち絵柄領域を摘出する確率が高くなる)。
【0097】
そこで本実施例では、図2の操作/表示部OPBにて、キー入力による入力モードのメニュー表示ならびに液晶ディスプレイに表示されたメニュー画面上のキー画像(パラメータ指定キーおよびアップ、ダウンキー)の操作によって調整するパラメータ調整の中の「文字/写真レベル」の調整によって、閾値thwss、thwsbおよびthwcを表4のように調整するようにしている。
【0098】
【表4】
Figure 2004104625
【0099】
すなわち、オペレータが操作/表示部OPBにて調整設定するパラメータ「文字/写真レベル」の標準値(デフォルト)は「3」であり、このデフォルト値が、上記の文字/写真レベルと閾値thwss、thwsbおよびthwcとの関係をあらわす変換テーブルと共に、図3に示すROM358に書き込まれており、図3に示すIPU300に電源が投入されCPU357がIPU300の初期化をするときに、CPU357がROM358から文字/写真レベルのデフォルト値を読み出して、それに対応する閾値thwss、thwsbおよびthwcを変換テーブルから読み出してRAM356の、各閾値宛てレジスタに書きこんで、白領域抽出323での上述の処理に用いる。その後操作ボードOPBからの入力で文字/写真レベルの調整があり、調整後の値Aがメインコントローラ10からCPU357に与えられると、CPU357は、調整後の値Aに対応するパラメータthwss、thwsbおよびthwcの各値を、ROM358の変換テーブルから読み出して、RAM356の、パラメータ宛てレジスタに書きこむ。
【0100】
閾値を標準値thwss=40、thwsb=50、thwc=20に設定しているときに、操作ボードOPBを使ってオペレータが「文字/写真レベル」の値をi(例えば1)だけ大きく「Up」すると、閾値thwss、thwsbおよびthwcが2i(2)分、文字優先方向に変更した値に定められる。逆に、オペレータが「文字/写真レベル」の値をi(例えば1)だけ小さく「Down」すると、閾値thwss、thwsbおよびthwcが2i(2)分、写真優先方向に変更した値に定められる。
【0101】
−網点抽出324−
図27に網点抽出324の詳細ブロック図を示す。第1網点ピーク検出は、G画像データを用いて、所定の大きさの二次元局所領域内の画素濃度情報から、網点ドットの一部を形成する画素(網点ピーク画素と呼ぶ)を検出する回路である。局所領域に関して、次の二つの条件が同時に成立するときに、領域の中心画素を網点ピーク画素として検出する。
条件1:中心画素の濃度レベルが局所領域内で最大(山ピーク)または最小(谷ピーク)である。
条件2:中心画素に対し点対称関係にある全ての画素のペアについて、画素ペアの濃度レベルの平均と中心画素の濃度レベルとの差の絶対値が、閾値Th以上であること。
【0102】
図14を参照して、第1網点ピーク検出の検出処理を具体的に説明する。局所領域として5×5画素マトリクス(一般化して示すとM×M画素マトリクス)のマスクを採用した例である。5×5画素マトリクスの各画素の符号を、図11のパターンMPpに示すものとすると、注目画素となる中心画素c3の濃度Lcが、その周囲画素の濃度L1〜L8と比較して最大または最小であるとともに、
abs(2Lc−L1−L8)≧Lth
かつ  abs(2Lc−L2−L7)≧Lth
かつ  abs(2Lc−L3−L6)≧Lth
かつ  abs(2Lc−L4−L5)≧Lth
のときに、マスクの中心画素(Lc)を網点ピーク画素として検出する。abs関数は絶対値をとることを意味する。Lthは閾値(固定値)である。
【0103】
具体的には、周囲画素は、図14に示す周囲画素分布パターンMPaまたはMPbの4角形を付記した画素とする。周囲画素分布パターンMPaとMPbに基づいた上述の網点ピーク画素検出のどちらかが、網点ピーク画素と検出した時に、そのときの注目画素(中心画素c3)に網点ピーク画素を表す検出信号を与える。2つのパターンを用いるのは、網点の線数に幅広く対応するためである。
【0104】
パターンMPaは、
L1=b2、L2=b3、L3=b4、L4=c2、L5=c4、L6=d2、L7=d3、L8=d4、
と定めたものである。ここで、L1=b2とは、画素b2の濃度を、上述の網点ピーク画素検出演算のL1の値とすることを意味する。
【0105】
パターンMPbは、
L1=b2、L2=a3、L3=b4、L4=c1、L5=c5、L6=d2、L7=e3、L8=d4、
と定めたものである。
【0106】
また、複写の場合、副走査方向yの拡大、縮小はスキャナ200の原稿走査速度の低、高で行うので、スキャナ200からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、上述のパターンMPa、MPbにかえて、図14上に示すパターンMPc、MPdを用いる。拡大のときには、図14上に示すパターンMPe、MPfを用いる。なお、パターンMPe、MPfにおいて、三角印を与えた画素も、上述の「周囲画素」に加えても良い。
【0107】
第2網点ピーク検出は、Bデータを用いて網点ピーク検出するものであって、機能は、第1網点ピーク検出と同じである。第1網点ピーク検出は、G画像データを用いるのでほとんどの色に対して反応するが、Yに対しては反応しないので第2網点ピーク検出では、B画像データを使用して、Yの網点ピークを検出することを目的としている補助的なものである。
【0108】
網点領域検出部1は、第1網点ピーク画素検出、第2網点ピーク画素検出のどちらかにより検出された山と谷の網点ピーク画素を、所定の大きさの二次元の小領域毎に計数し、山と谷の網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は一時メモリに記憶される。
【0109】
図23を参照して、第3網点ピーク検出の検出処理を具体的に説明する。
この第3網点ピーク検出は、100線以下、65線(新聞の網点)以上の検出を目的としている。
局所領域として7×7画素マトリクス(一般化して示すとM×M画素マトリクス)のマスクを採用した例である。図22のパターンに示すものとすると、注目画素となる中心画素群の濃度Lcが、その周囲画素の濃度群L1〜L8と比較して最大または最小であるとともに、
abs(2Lc−L1−L8)≧Lth
かつ  abs(2Lc−L2−L7)≧Lth
かつ  abs(2Lc−L3−L6)≧Lth
かつ  abs(2Lc−L4−L5)≧Lth
のときに、マスクの中心画素(Lc)を網点ピーク画素として検出する。abs関数は絶対値をとることを意味する。Lthは閾値(固定値)である。
ここで、マスクの中心画素(Lc)が最大値の時の網点ピーク画素を網点山ピーク画素として、周期チェック1に出力する。
また、マスクの中心画素(Lc)が最小値の時の網点ピーク画素を網点谷ピーク画素として、周期チェック2に出力する。
【0110】
具体的には、周囲画素は、図23のaに示す周囲画素分布パターンに示した画素とする。周囲画素分布パターンに基づいた上述の網点ピーク画素検出のどちらかが、網点ピーク画素と検出した時に、そのときの注目画素(中心画素d4)に網点ピーク画素を表す検出信号を与える。2つのパターンを用いるのは、網点の網点面積率に幅広く対応するためである。
【0111】
Lcの濃度は周辺画素を参照して以下のように求める。
Lc=Min(d4、d3、d5、c4、e4)
このLcが周辺画素に対して最大値の時は、
パターンは、 L1=Max(a1、a2、b1)
L2=Max(a3、a4、a5)
L3=Max(a6、a7、c7)
L4=Max(c1、d1、e1)
L5=Max(c7、d7、e7)
L6=Max(f1、g1、g2)
L7=Max(g3、g4、g5)
L8=Max(g6、g7、f7)
と定めたものである。ここで、L1=Max(a1、a2、b1)とは、画素a1、a2、b1の濃度の最大値を、上述の網点ピーク画素検出演算のL1の値とすることを意味する。
Lc=Min(d4、d3、d5、c4、e4)とは、d4、d3、d5、c4、e4の濃度(画像データ)の最小値を意味する。
【0112】
また、Lc=Max(d4、d3、d5、c4、e4)
このLcが周辺画素に対して最小値の時は、
パターンは、 L1=Min(a1、a2、b1)
L2=Min(a3、a4、a5)
L3=Max(a6、a7、c7)
L4=Max(c1、d1、e1)
L5=Max(c7、d7、e7)
L6=Max(f1、g1、g2)
L7=Max(g3、g4、g5)
L8=Max(g6、g7、f7)
と定めたものである。
【0113】
また、複写の場合、副走査方向yの拡大、縮小はスキャナ200の原稿走査速度の低、高で行うので、スキャナ200からは、副走査方向yの拡大、縮小があった画像データが与えられる。そこで、縮小のときには、図23のbに示すパターンを用いる。拡大のときには、図23のaに示すパターンを用いる。
【0114】
第3網点ピーク検出の演算式は、1画素のデータで演算するのではなく、複数の画素(min、maxの演算)で、対象となる画素を参照する。
これは、低線数の網点は濃淡の周期が大きくなので、1画素で決定するのでは周辺画素を参照することにより、ノイズ(ごみ)の影響を少なし、かつ、算術演算量を減らし、他のブロックを共通に演算式を使えるようにしているので、ハード化が容易である。
【0115】
周期チェック1では、網点山ピークと網点山ピークの周期をチェックする。
主走査1次元方向に網点山ピークの間隔をチェックをする。
網点ピーク検出の検出対象の網点は、検出線数100線以下のなので、網点山ピークは8以上となる。8未満の場合は小さな文字を誤判定して場合がほとんどある。(600dpi読み取り時)
図24のaに示すようにあって、L1が6で、L2が10であれば、
L1間隔の網点山ピークは、小さな文字である場合がほとんどなので、網点山ピークを除去する。L2間隔は、低線数網点である場合がほとんどなので、除去はしない。
周期チェックで、図24のaが、図24のbのように補正される。
【0116】
周期チェック2では、網点谷ピークを、周期チェック1と同様に行う。
網点山ピークと網点谷ピークを独立に行うのは、網点面積率50%近傍においては、網点山ピークと網点谷ピークが交互に現れ正確な周期が、現れないために独立に行っている。
周期チェック1、周期チェック2の出力をorして、網点領域検出部2、3に入力する。
【0117】
網点領域検出部2は周期チェック1、2をorして、山と谷の網点ピーク画素を、所定の大きさの二次元の小領域毎に計数し、山と谷の網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は一時メモリに記憶される。
【0118】
さらに、網点領域検出3は周期チェック1、2をorして、山と谷の網点ピーク画素を、所定の大きさの二次元の小領域毎に計数し、山と谷の網点ピーク画素の合計を小領域の計数値Pとする。この計数値Pが閾値Pthより大きいときに、小領域の全画素(あるいは画素単位の処理の場合、小領域の中心画素のみ)を網点領域と判定する。判定の結果は一時メモリBに記憶される。
【0119】
領域検出部1または、領域検出部2のどちらかが、網点領域ならば、注目している小領域の近傍の処理済み領域の網点/非網点判定結果(周辺の特徴情報)に応じ適応的に閾値Pthを変化させる。本実施例においては、閾値Pthとして、二つの値TH1、TH2(ただしTH1>TH2)が用意され、一時メモリに記憶されている注目小領域近傍の処理済み領域の判定結果によって、その一方の値を選択する。すなわち、近傍の領域が非網点領域と判定されていた場合には、線画領域である可能性が高いので、誤検出を減らすために条件が厳しくなるTH1のほうを閾値Pthとして選択する。これに対し、近傍領域が網点領域であると判定されていた場合には、網点領域である可能性が高いので、条件が緩くなるTH2のほうを閾値Pthとして用いる。なお、閾値Pthの初期値としてはTH1を選択する。
【0120】
図14上のAMPに、上述の小領域の分布を示す。小領域分布パターンAMPのS1〜S4のそれぞれは、例えば4×4画素の大きさの小領域(ブロック)であり、S4が注目している小領域、S1、S2およびS3は処理済みの小領域であるとする。S1、S2およびS3のすべてが網点領域であると判定されている時には、Th2がS4の判定のための閾値Pthとして用いられる。S1、S2およびS3の一つでも非網点領域と判定されているときは、閾値PthとしてTH1が選択される。網点領域と判定したときに“1”で、非網点と判定した時に“0”の網点領域検出信号htが網点抽出324から出力される。ただし、これは一例であって、S1、S2およびS3のいずれか一つの小領域でも網点領域と判定されたときにTH2を選択し、すべてが非網点領域と判定されたときにのみTH1を選択するようにしてもよい。さらに、参照する近傍領域をS1のみ、あるいはS2のみとすることもできる。この出力結果は、網点抽出結果である。
【0121】
領域検出部3が網点領域ならば、注目している小領域の近傍の処理済み領域の網点/非網点判定結果(周辺の特徴情報)に応じ適応的に閾値Pthを変化させる。本実施例においては、閾値Pthとして、二つの値TH1、TH2(ただしTH1>TH2)が用意され、一時メモリBに記憶されている注目小領域近傍の処理済み領域の判定結果によって、その一方の値を選択する。すなわち、近傍の領域が非網点領域と判定されていた場合には、線画領域である可能性が高いので、誤検出を減らすために条件が厳しくなるTH1のほうを閾値Pthとして選択する。これに対し、近傍領域が網点領域であると判定されていた場合には、網点領域である可能性が高いので、条件が緩くなるTH2のほうを閾値Pthとして用いる。なお、閾値Pthの初期値としてはTH1を選択する。
【0122】
図14上のAMPに、上述の小領域の分布を示す。小領域分布パターンAMPのS1〜S4のそれぞれは、例えば4×4画素の大きさの小領域(ブロック)であり、S4が注目している小領域、S1、S2およびS3は処理済みの小領域であるとする。S1、S2およびS3のすべてが網点領域であると判定されている時には、Th2がS4の判定のための閾値Pthとして用いられる。S1、S2およびS3の一つでも非網点領域と判定されているときは、閾値PthとしてTH1が選択される。網点領域と判定したときに“1”で、非網点と判定した時に“0”の網点領域検出信号htが網点抽出324から出力される。ただし、これは一例であって、S1、S2およびS3のいずれか一つの小領域でも網点領域と判定されたときにTH2を選択し、すべてが非網点領域と判定されたときにのみTH1を選択するようにしてもよい。さらに、参照する近傍領域をS1のみ、あるいはS2のみとすることもできる。この出力結果は、低線数網点抽出結果である。
網点抽出結果との処理の違いは、網点ピーク検出では、低線数の入力のみで網点抽出をしているので、低線数網点のみの抽出が可能となっている。
【0123】
−色判定325−
図28に色判定325の詳細ブロック図を示す。原稿中の色(有彩)画素や黒(無彩)画素を検出する際には、R、G、Bの相対的な読み取りずれが、各色画像データのサンプリングや機械的精度のために存在する。図15を用いて説明する。図15の(a)は、画像濃度信号で、黒濃度信号は理想的には、R、B、G濃度信号ともレベルの高低が一致したとき理想の黒である。ところが、実際の画像データは、レンズでCCD上に画像を結像し、CCDの画像信号をデジタル化したもので、図15の(b)が理想の高低波形となる。しかし、一般的なスキャナでは、3ラインCCDセンサーを用いているため、画像データのR、G、Bの各画像を時間的に同時に読み取るのではなく、R、G、Bの各ラインセンサは等間隔で配置され、時間的に同時に読むことができないので、どうしても読み取り位置ずれが生じてしまう。例えば、図15の(b)に示すレベル変化の黒を表すR、G、B各色濃度信号は、図15の(c)に示すように、相対的にずれる。このずれが大きいと、黒領域の周縁に色ずれが現れる。
【0124】
色判定325は、有彩色領域を見つけるものである。N値化1、N値化2、色判定、ACSの4つのブロックからなる。
【0125】
−N値化1−
入力データR、G、Bは、N値化1(図30)にて、色相分割から0〜4にて、c、m、yの信号に変換される。ここで、色相分割回路0〜4はすべて同一で入力データのラインが異なるだけである。色相分割の例としては、それぞれの色の境界を求め、1画素内のR、G、Bそれぞれの画像データの最大値と最小値の差をRGB差と定義して、以下のようにした。ここでは、R、G、B画像データは、数字が大きくなると黒くなる(濃くなる)。
1).R−Y色相領域境界(ry)
R−2*G+B>0
2).Y−G色相領域境界(yg)
11*R−8*G−3*B>0
3).G−C色相領域境界(gc)
1*R−5*G+4*B<0
4).C−B色相領域境界(cb)
8*R−14*G+6*B<0
5).B−M色相領域境界(bm)
9*R−2*G−7*B<0
6).M−R色相領域境界(mr)
R+5*G−6*B<0
【0126】
7).色判定用w(白)画素判定
(R < thwa) & (G < thwa) & (B < thwa)ならば、y=m=c=0 とする。thwaは閾値である。
【0127】
8).Y画素判定
(ry == 1) & (yg == 0) & (RGB差 >( thy+RGBの最大値/16))ならば、y=1 、m=c=0 とする。thy は閾値である。
【0128】
9).G画素判定
(yg == 1) & (gc == 0) & (RGB差 >( thg+RGBの最大値/16))ならば、c=y=1 、m=0 とする。thg は閾値である。
【0129】
10).C画素判定
(gc == 1) & (cb == 0) & (RGB差 >( thc+RGBの最大値/16))ならば、c=1 、m=y=0 とする。thc は閾値である。
【0130】
11).B画素判定
(cb == 1) & (bm == 0) & (RGB差 >( thb+RGBの最大値/16))ならば、m=c=1 、y=0 とする。thb は閾値である。
【0131】
12).M画素判定
(bm == 1) & (mr == 0) & (RGB差 >( thm+RGBの最大値/16))ならば、m=1 、y=c=0 とする。thm は閾値である。
【0132】
13).R画素判定
(mr == 1) & (ry == 0) & (RGB差 >( thr+RGBの最大値/16))ならば、y=m=1 、c=0 とする。thr は閾値である。
【0133】
14).BK画素判定
7).〜13).に該当しない時、y=m=c=1 とする。
【0134】
ここで、7)〜14)の優先順位は、数の小さい方を優先する。上述の閾値thwa、thy、thm、thc、thr、thg、thbは、複写(処理)前に決まる閾値である。出力信号は、c、m、yに各1ビットの3ビットデータである。ここで色相毎に閾値を変えているのは、色相領域毎に、有彩範囲が異なる時に色相領域に応じた閾値を決定するということを意味する。この色相分割は、一例であって、どんな式を使用してもよい。
RGBの最大値により閾値を変えているのは、反射率データでは濃い(数字が大きい)ときに、色であってもRGB差が少なくなるので、それに対し補正を行うためである。
【0135】
N値化1の出力c、m、yの5ラインデータは、色画素判定(図33)に入力する。
【0136】
−色画素判定−
図33に、色画素判定の内容を示す。5ライン分の、c、m、yのデータは、パターンマッチング1、カウント1、色網点検出に入力する。ここでまず、B/C信号を求める流れの中のパターンマッチング1について説明する。
【0137】
−パターンマッチング1−
注目画素を中心とする5×5画素マトリクスの白レベルが大きくなる。次に注目画素が、色相分割で判定した画素のc、m、yの全てが1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるかを、該5×5画素マトリクスがつぎのパターンにマッチングするかをチェックすることによって、判定する。
1).色画素パターン群
1−1).パターン1−1(pm1)
D23 & D33 & D43
1−2).パターン1−2(pm2)
D32 & D33 & D34
1−3).パターン1−3(pm3)
D22 & D33 & D44
1−4).パターン1−4(pm4)
D24 & D33 & D42
中心画素(注目画素)は、D33である。図16にこれらのパターンpm1〜pm4を示す。これらのパターン上の白丸は、c、m、yの少なくとも一者が1であることを示す。パターンマッチングを採用するのは、孤立点などを拾わないようにするためである。逆に、網点などの、小面積色検出する際には、中心画素が1(c=m=y=1)または全てが0(c=m=y=0)以外の画素(色画素)であるかで、判定すればよい。
【0138】
2).色細線用パターン群
白に囲まれた色線を検出する。これに用いるパターンを図17に示す。図17において、白丸を付した画素は、c、m、yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c、m、y)の分布が、図17のパターンpw11a〜pw14dのいずれかにマッチングすると、そのときの注目画素(中心画素)を色線画素と見なす。
2−1).パターン2−1(pw11a〜pw11d)
((D12&D13&D14)&(D42&D43&D44))#
((D12&D13&D14)&(D52&D53&D54))#
((D22&D23&D42)&(D42&D43&D44))#
((D22&D23&D42)&(D52&D53&D54))
2−2).パターン2−2(pw12a〜pw12d)
((D21&D31&D41)&(D24&D34&D44))#
((D21&D31&D41)&(D25&D35&D45))#
((D22&D23&D24)&(D24&D34&D44))#
((D22&D23&D24)&(D25&D35&D45))
2−3).パターン2−3(pw13a〜pw13d)
((D11&D21&D12)&(D35&D44&D53))#
((D11&D21&D12)&(D45&D44&D55))#
((D13&D22&D31)&(D35&D44&D53))#
((D13&D22&D31)&(D45&D44&D55))
2−4).パターン2−4(pw14a〜pw14d)
((D13&D24&D35)&(D41&D51&D52))#
((D14&D15&D25)&(D41&D51&D52))#
((D13&D24&D35)&(D31&D42&D53))#
((D14&D15&D25)&(D31&D42&D53))
【0139】
3).白領域パターン群
c、m、yが全て0のところのパターンマッチングを行う。これに用いるパターンを図18に示す。図18において、白丸を付した画素は、c、m、yが全て0の画素である。注目画素(中心画素)を中心とする5×5画素マトリクスのデータ(c、m、y)の分布が、図18のパターンpw21a〜pw24dのいずれかにマッチングすると、そのときの注目画素(中心画素)を白領域画素と見なす。
3−1).パターン3−1(pw21a〜pw21d)
(D21&D31&D41)#
(D22&D32&D42)#
(D24&D34&D44)#
(D25&D35&D45)
3−2).パターン3−2(pw22a〜pw22d)
(D12&D13&D14)#
(D22&D23&D24)#
(D42&D43&D44)#
(D52&D53&D54)
3−3).パターン3−3(pw23a〜pw23d)
(D52&D51&D41)#
(D53&D42&D31)#
(D35&D24&D13)#
(D25&D15&D14)
3−4).パターン3−4(pw24a〜pw24d)
(D54&D55&D45)#
(D53&D44&D35)#
(D31&D22&D13)#
(D21&D11&D12)
【0140】
4).色画素候補2の判定
上記で抽出したパターンマッチング結果が以下のパターンに一致すれば、注目画素を、色判定用色画素候補2とする。
((pm1 == 1) & ((pw11 == 1)#(pw21 != 1))) #
((pm2 == 1) & ((pw12 == 1)#(pw22 != 1))) #
((pm3 == 1) & ((pw13 == 1)#(pw23 != 1))) #
((pm4 == 1) & ((pw14 == 1)#(pw24 != 1)))
ここで、(pm1 == 1)は、注目画素を中心とするデータ分布が、パターンpm1にマッチングすることを意味し、(pw11 == 1) はパターンpw11a〜pw11dのいずれかにマッチングすることを意味し、(pw21 != 1) はパターンpw21a〜pw21dのいずれかにマッチングすることを意味する。&は論理積を、#は論理和を意味する。このパターンマッチングにより、白領域に囲まれた色画素を色画素候補として、それ以外で白領域が存在する時は、色画素としない。白領域がない色画素パターンマッチングで一致したものは、色画素候補となる。
【0141】
−カウント1−
注目画素を中心とする5×5画素マトリクス内の各画素のc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、thcnt以上でかつ最小値がthmin未満ならば、色画素候補1とする。thcnt、thminは、複写(処理)前に設定する閾値である。y、m、cにプレーン展開して、N×Nのマトリクスにおいてのそれぞれのプレーン毎に数を数えて、最小値をブラックと仮定している。このことにより、黒画素の読み取りが漏れても補正が可能となる。そして最大値と最小値の差で有彩画素を判定している。このことにより、黒画素が読み取りから外れた画素を補正して、有彩画素を抽出する。注目画素を中心とする5×5画素マトリクス内に一定画素の有彩画素があると注目画素を有彩画素としている。
【0142】
−色網点検出−
彩度の低い網点(濃い色網点)は、カウント1では黒と判定するために濃い網点を検出するために、下記パターンマッチングを行い、濃い色網点を検出する。濃い網点の特徴は、黒データと色データが混在していて、白データは存在しないので下記のように検出する。
【0143】
1).非白地検出
5×5のマトリックス内にいて、c=0、m=0、y=0が無ければ、非白地領域と判定する。これは、濃い色網点には白を含まないからである。
【0144】
2).色網点画素検出
5×5のマトリックスで色と判定した画素D(c=0、m=0、y=0でも、c=1、m=1、y=1でも無いところ)のパターンマッチングを行う。
式で書くと以下のとおりとなる。
(D11&D15&D33&D51&D55)#
(D13&D31&D33&D51&D55)#
(D12&D14&D21&D22&D33&D41&D45&D52&D54)
ここで、マトリックスの外側に参照点があるのは、色ずれの誤判定を防ぐためである(図34参照)。
【0145】
3).色網点検出
非白地検出でかつ色網点画素検出があるときは、色網点を検出したとしてHを出力する。
【0146】
−有彩判定−
有彩判定で、色画素か否かを判定する。色画素候補1でかつ色画素候補2であり、色網点検出で色網点であれば色画素1とする。
【0147】
−ブロック化1×4−
色判定有彩検出の出力をブロック化1×4にてブロック化をする。ブロック化とは、1×4画素のマトリックスにおいて、1画素以上の色画素1があれば、1×4画素マトリックス全体を色画素1ブロックとして、出力する。ブロック化1×4以降の処理は、1×4画素を1ブロックとしてブロック単位出力する。
【0148】
−孤立点除去−
ブロック化したデータを孤立点除去7×5にて、注目ブロックの隣り合うブロックを含んで4×1の色画素1ブロックがなければ孤立点として、除去する。
副走査方向を4としているのは、主走査は4画素と1単位としているので、大きさを合わせるためである。
【0149】
−膨張−
孤立点除去の出力を、膨張にて、色画素1ブロックが存在する場合は、17ライン×5ブロックに膨張する。膨張するのは、色画素の周辺を、黒文字処理をしないようにするためである。ここで、出力するB/C信号は、色画素1ブロックの時にL(有彩)を出力し、それ以外の時は、H(無彩)を出力する。
【0150】
−N値化2−
入力データR、G、Bは、N値化2(図31)にて、セレクタを介して色相分割から0〜4にてc、m、yおよび色判定用w(白)の信号に変換される。色相分割の例としては、それぞれの色の境界を求め、1画素内のR、G、Bそれぞれの画像データの最大値と最小値の差をRGB差と定義して、以下のようにした。ここでは、R、G、B画像データは、数字が大きくなると黒くなる(濃くなる)。
ここでのセレクタの副走査の変倍率が、200%以下の時に上部の入力データを選択して、200%を超える倍率の時のときに、下部の入力信号を選択する。
つまり、200%以下の時は、入力データの5ライン連続したで評価を行う。
200%以上時は、入力の1ライン飛ばしで評価する。
ここで、1ライン飛ばしにすることにより、次段において1ラインの細線の評価ができなくなるが、200%以上の倍率なので1ライン線はほとんど評価しない。
本実施例では、入力データを間引くことにより達成しているが、ACS判定に入力するデータが1ライン置きになれば、どのような手段を使っても構わない。
200%以上時は、外乱(振動)の影響も大きくなるので、外乱に対して誤判定しにくくなる。参照ラインが実質2倍になるので、読み取り位置ずれの許容量も実質2倍となる。
N値化の評価のみを切り替え、カラー画素判定は同一処理をするので、切り換え前と切り換え後でカラー原稿の判定基準が変わらない。よって、切り換えることによって判定基準が変わることはない。
1).R−Y色相領域境界(ry)
R−2*G+B>0
2).Y−G色相領域境界(yg)
11*R−8*G−3*B>0
3).G−C色相領域境界(gc)
1*R−5*G+4*B<0
4).C−B色相領域境界(cb)
8*R−14*G+6*B<0
5).B−M色相領域境界(bm)
9*R−2*G−7*B<0
6).M−R色相領域境界(mr)
R+5*G−6*B<0
【0151】
7).色判定用w(白)画素判定
(R < thwa) & (G < thwa) & (B < thwa)ならば、y=m=c=0 とする。thwaは閾値である。
【0152】
8).Y画素判定
(ry == 1) & (yg == 0) & (RGB差 >( thy+RGBの最大値/16))ならば、y=1 、m=c=0 とする。thy は閾値である。
【0153】
9).G画素判定
(yg == 1) & (gc == 0) & (RGB差 >( thg+RGBの最大値/16))ならば、c=y=1 、m=0 とする。thg は閾値である。
【0154】
10).C画素判定
(gc == 1) & (cb == 0) & (RGB差 >( thc+RGBの最大値/16))ならば、c=1 、m=y=0 とする。thc は閾値である。
【0155】
11).B画素判定
(cb == 1) & (bm == 0) & (RGB差 >( thb+RGBの最大値/16))ならば、m=c=1 、y=0 とする。thb は閾値である。
【0156】
12).M画素判定
(bm == 1) & (mr == 0) & (RGB差 >( thm+RGBの最大値/16))ならば、m=1 、y=c=0 とする。thm は閾値である。
【0157】
13).R画素判定
(mr == 1) & (ry == 0) & (RGB差 >( thr+RGBの最大値/16))ならば、y=m=1 、c=0 とする。thr は閾値である。
【0158】
14).BK画素判定
7).〜13).に該当しない時、y=m=c=1 とする。
【0159】
さらに、色判定用w画素の判定を行う。条件は以下のようになる。
(R < thw) &(G < thw) & (B < thw)ならば、色画素用w画素とし、wとして出力する。thw は閾値である。ここで、7)〜14)の優先順位は、数の小さい方を優先する。上述の閾値thwa、thy、thm、thc、thr、thg、thbは、複写(処理)前に決まる閾値である。thwとthwaの関係は、thw>thaとなっている。出力信号は、c、m、yに各1ビットの3ビットデータと、さらに、色判定用色画素検出のwの1ビットである。ここで色相毎に閾値をかえているのは、色相領域毎に、有彩範囲が異なる時に色相領域に応じた閾値を決定する。この色相分割は、一例であって、どんな式を使用してもよい。
RGBの最大値により閾値を変えているのでは、反射率データでは濃い(数字がおおきい)ときに、色であってもRGB差が少なくなるので、補正を行っている。
【0160】
N値化2の出力c、m、yの5ラインデータは、ACS(図32)に入力する。
【0161】
−ACS−
図32にACS判定の内容を示す。5ライン分の、c、m、yのデータは、パターンマッチング2、3、カウント2、3、4に入力する。ここでまず、カラー原稿か白黒原稿かを判定する流れの中のパターンマッチング2について説明する。
【0162】
−パターンマッチング2−
色判定使用した同一のパターンマッチング(パターンマッチング1)を行い、色画素候補2とする。
【0163】
−カウント2−
注目画素を中心とする5×5画素マトリクス内に色判定用w画素が存在する時は、その画素のN値化2で判定したc、m、yデータをc=m=y=0に補正する。この補正により、該画素マトリクスの白レベルが大きくなる。そして、該画素マトリクス内の各画素の、c、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、thacnt以上でかつ最小値がthamin未満ならば、注目画素を色画素候補1とする。thacnt、thaminは、複写(処理)前に設定する閾値である。
【0164】
−ACS用有彩検出1の有彩判定−
パターンマッチング2とカウント2の出力にもとづいて、ACS有彩検出1の有彩判定で、色画素か否かを判定する。色画素候補1でかつ色画素候補2であれば、色画素2とする。
【0165】
−ACS用有彩検出1のブロック化−
色画素判定2の出力をブロック化にてブロック化をする。即ち、4×4画素のマトリックスにおいて、1画素以上の色画素2があれば、該4×4画素マトリックの全体を色画素2ブロックとして、出力する。ブロック化以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
【0166】
−ACS用有彩検出1の密度−
孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素2ブロック)が3個以上あり、注目ブロックがアクティブ(色画素)ならば、注目ブロックをアクティブブロック(色画素2ブロック)とする。
【0167】
−カウント3−
注目画素を中心とする5×5画素マトリクス内の各画素の、c、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yそれぞれについてのカウント値の最大値と最小値との差が、tha1cnt以上で、かつカウントしたc、m、yの最小値が、tha1min未満ならば、色画素候補3とする。tha1cnt、tha1minは、複写(処理)前に設定する閾値である。
【0168】
−パターンマッチング3−
色画素検出で判定した画素(c、m、y)が色画素かを、5×5画素マトリクスを用いるパターンマッチングで判定する。パターンはパターンマッチング1のものと同じである。パターンマッチングで一致した画素は、色画素候補4とする。
【0169】
−ACS用有彩検出2の有彩判定−
色画素候補3でかつ色画素候補4であれば、色画素3とする。
【0170】
−ACS用有彩検出2のブロック化−
ACS用有彩検出2の有彩判定の出力をACS用有彩検出2のブロック化にてブロック化をする。すなわち、4×4画素のマトリックスにおいて、1画素以上の色画素3があれば、該4×4画素マトリックスの全体を色画素3ブロックとして、出力する。ブロック化以降の処理は、4×4を1ブロックとしてブロック単位出力する。
【0171】
−ACS用有彩検出2の密度−
孤立ブロックの除去のために、3×3ブロックの中のアクティブ条件(色画素3ブロック)が3個以上あり、注目ブロックがアクティブ(色画素3)ならば、注目ブロックをアクティブブロック(色画素3ブロック)とする。
【0172】
−カウント4−
注目画素を中心とする5×5画素マトリクス内の各画素の、色相分割で判定したc、m、yの1(c=1、m=1、y=1)の数をカウントする。c、m、yの各カウント値の最小値が、thabk以上ならば、注目画素を黒画素候補1とする。thabkは、複写(処理)前に設定する閾値である。
黒画素を判定するのではなく、注目画素と周辺画素を見て、黒成分を見つけているので細線が位置ずれして、注目画素が黒でなくても黒と判定できるようにしている。
【0173】
−無彩判定−
注目画素が、黒画素候補1あれば、黒画素とする。
【0174】
−ブロック化−
黒画素の出力をブロック化にてブロック化をする。ここでのブロック化とは、4×4画素のマトリックスにおいて、1画素以上の黒画素があれば、該4×4画素マトリックスの全体を黒画素ブロックとして、出力する。ブロック化以降の処理は、4×4画素を1ブロックとしてブロック単位出力する。
【0175】
−無彩膨張−
3×3ブロックのマトリックス内において、注目ブロックがアクティブ(黒画素ブロック)で、その周辺画素がノンアクティブ(非黒画素)ならば、注目ブロックをノンアクティブ(非黒画素ブロック)にする。
【0176】
−カラー色画素判定−
注目ブロックが、ACS用有彩検出結果2でアクティブ(色画素2)と判定されかつ無彩無彩検出でアクティブ(黒画素)と判定されていなければ、注目ブロックは色(色ブロック)と判定する。また、ACS用有彩検出結果1がアクティブ(色画素)の時も色と判定する。
【0177】
−9×9膨張−
カラー画素判定で、色と判定したブロックに対して小さな文字を連続と見なすために、注目ブロックを中心とする9×9ブロックのマトリックス内に1ブロックでもアクティブブロックがあれば、注目ブロックをアクティブブロックとする。ここで、大きく膨張させるのは、文字同士のすき間を埋めるためである。
【0178】
−連続カウント−
連続カウントでは、色画素ブロックの連続性を見て、カラー原稿か白黒原稿かを判定する。膨張の出力データ(色画素ブロック)の中の色画素の連続数をカウントすることにより、カラー原稿かどうか判定する。
【0179】
図7に、この判定処理の内容を示す。注目画素が色画素ブロックにある時に注目画素の左上、上、右上および左の画素の色画素連続数を参照して、注目画素の色画素連続数を算出する(ステップ21〜26)。ここで、注目画素を、例えば図11の5×5画素分布パターンMPpのc3画素とすると、左上、上、右上および左の画素はそれぞれ、b2、b3、b4およびc2の画素である。注目画素が色画素ブロックにないときには、それには0なる色画素連続数を与える(ステップ21−27)。
【0180】
注目画素が色画素ブロックにある場合は、先ず注目画素(c3)の上画素(b3)の色画素連続数をチェックして(ステップ22)、それが0であると、参照値Aに右上画素(b4)の色画素連続数に1を加えた値を与え(ステップ24)、上画素(b3)の色画素連続数が0であると参照値Aに右上画素(b4)の色画素連続数を与える(ステップ23)。次に、参照値Bに左上画素(b2)の色画素連続数に1を加えた値を与え、参照値Cには上画素(b3)の色画素連続数に1を加えた値を与え、また参照値Dには左画素(c2)の色画素連続数に1を加えた値を与える(ステップ25)。そして、参照値A、B、CおよびDのうちの最高値を、注目画素(c3)の色画素連続数とする(ステップ26)。
【0181】
注目画素(c3)に色画素連続数を上述のように与えると、この色画素連続数が設定値THACS以上であるかをチェックして(ステップ28)、THACS以上であると、カラー原稿であると決定して(ステップ29)、そこで連続カウントの処理を終える。色画素連続数が設定値THACS未満であると、注目画素を走査方向x、yの次の画素に更新して、上述の処理を繰返す。原稿全面について上述の処理をした結果、最後まで色画素連続数が設定値THACS未満であったときには(ステップ30〜34)、原稿は白黒画像であると決定する。
【0182】
上述の色画素連続数は、ほぼたての色付き線分と横の色付き線分の和となる。右上の色画素連続数が、他と異なるのは二重カウントを防ぐためである。色画素連続数の具体的なデータを、図19に示した。図19に示す数字を入れた小四角が色画素であり、数字が該画素に与えた色画素連続数である。数字を入れた小四角が連なったブロックが色画素群であり、同一原稿上のどれかの色画素群のなかの色画素連続数が1つでも設定値THACS以上になるとそこで、カラー原稿である、とカラーか白黒かの判定を確定する(ステップ28、29)。
【0183】
色画素判定1〜3と分けたのは、カラー原稿か白黒原稿かの判定精度を高くするためである。黒文字処理のための色画素判定は、誤判定をしても局所的でさほど目立たない。しかし、カラー原稿か白黒原稿かの判定は、誤判定をすると原稿全体に影響する。そこで、カウント1〜4を独立とした。本来ならば、色相分割から独立にした方がよいが色相分割を独立にすると、パターンマッチング1〜3のメモリが増えるので、好ましくない。カウント1〜4のパラメータ(色画素候補1、3、黒画素候補1)で、色画素のパラメータ(色画素1〜3)を変更していることにより、メモリ量の増加を少なくしている。色画素判定2、3を設けているのは蛍光ペンの黄色のような濃度の低い色を検出するためで、さらに、無彩判定(黒画素判定)を備えたのは濃度を低くすると誤検出した際に補正するためである。蛍光ペンなど濃度の薄い色は、ある程度の幅で黒データで補正しても問題はない。複数の色画素を抽出する際に、w(白)のレベルを変えているだけなので、色画素検出のために2つ分のメモリを持つ必要がなく、1つ分+1ラインの容量で可能である。
【0184】
連続カウントで、1ライン前のカウントデータと現在のラインのカウントデータを参照してカウント値を数えているので、確実に周辺画素の連続を正確に数えることができるので色画素の連続を数えることが可能となる。本実施例は、R、G、B画像データに対して色相判定を行ったが、R、G、B画像データに限定するものではなく、輝度色差(例えばLab)などに対して、色相判定することは、容易である。
【0185】
−総合判定326−
図29に総合判定326の詳細ブロック図を示す。総合判定326は、文字判定、膨張処理、およびデコードからなる。
【0186】
−文字判定−
文字判定では、エッジ抽出322の結果がエッジありで、網点抽出324の結果が網点なしで白領域抽出323の結果が白領域ありのときは、文字エッジと判定する。そうでないときには非文字エッジ(絵柄又は文字なか)と判定する。
【0187】
−膨張処理−
膨張処理では、文字判定の結果を8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をして4ブロックの膨張処理を行う。すなわち、注目ブロックを中心とする8×8ブロックのいずれかのブロックが文字エッジであると、注目ブロックも文字エッジブロックであると仮定し、該注目ブロックを中心とする3×3ブロックのすべてが文字エッジであると注目ブロックを文字エッジと確定し、そして、注目ブロックとそれに隣接する3ブロック、計4ブロックを文字エッジと見なす。OR処理してからAND処理するのは、特に黒文字の場合、黒文字の領域の周辺に小領域の非黒文字領域が存在すると、処理の差により違和感が感じられることがある。例えば黒が薄く見える。これを防ぐために、OR処理で非黒文字領域を大きくしている。AND処理は、望むべき膨張量にするために行っている。
【0188】
ところでカラー複写機は、1枚の複写をするのに、4回スキャンをするので、スキャン毎に、微妙に文字判定結果が異なる。特に、ブラック作像時に非黒文字判定をし、ブラック作像以外のときに黒文字判定をすると、この黒文字領域は薄くなってしまうので、bk時には8×8ブロックのOR処理をして、その後に3×3ブロックのAND処理をしてbk以外の作像時は、5×5ブロックのOR処理をして、その後は1×1ブロックのAND処理をする。なお、1×1のAND処理をすると言うことは、その結果が処理前と同一になるので、何の処理もしないと言うことと同義である。膨張処理の結果は、文字エッジ信号としてデコードに出力する。
【0189】
このように膨張処理をすることにより、分離結果が異なって文字の領域が薄くなることがなくなる。この膨張処理によって、文字の中部分が濃くなることがあるが、文字のエッジに対して文字のなかの濃度は飽和しているので、見た目上違和感はない。
【0190】
図20に、カラー複写によるカラー色剤の重なりを、模式的に拡大して示す。図20の(d)が、4色とも黒文字処理した理想の場合を示す。図20の(e)が、4色とも黒文字処理して、bkのみ補正がかからず、bk以外で補正がかかって薄くなった場合を示す。図20の(f)が、本実施例によってbkのみ黒文字処理した、好適な場合を示し、図20の(g)が、本実施例によってbkのみ黒文字処理して、bkのみ補正がかからず、bk以外で補正がかかった好適な場合を示す。
【0191】
図20の(a)が、膨張量は同一で黒文字処理した理想の場合を示す。図20の(b)は、膨張量は同一で黒文字処理して印字位置がずれた場合(白く抜ける)を示す。図20の(c)が、bkの膨張量が大きい場合で、本実施例によって黒文字処理して印字位置がずれた場合を示す。
【0192】
−デコード−
デコードが最終的に出力するC/P信号は、以下の表5のようになる。またC/P信号の各出力に対応する画素領域を図21に示す。
【0193】
【表5】
Figure 2004104625
【0194】
次に、再度図3を参照する。原稿認識320が発生するC/P信号およびB/C信号は、RGBγ補正310、RGBフィルタ330、色補正340、変倍350、インターフェース352、UCR360、CMYBkフィルタ370、CMYBkγ補正380および階調処理390に、画像データに同期してカスケードに与えられる。
【0195】
RGBフィルタ330は、RGBデータをMTF補正するフィルタであり、N×Nの画素マトリックスに対応する係数マトリクスと、各係数に各画像データを乗じて重み付け平均値を得るロジックで構成されている。C/P信号が1を表すもの(文字エッジ領域)である時には、鮮鋭化処理用の係数マトリクスを用い、0又は2、3を表すもの(絵柄領域、低線数網点領域、網点領域)である時には平滑化処理用の係数マトリクスを用いて、重み付け平均値を導出し色補正340に出力する。ここでの平滑化フィルタは、平滑化量の強い順に並べると、低線数網点領域、網点領域、絵柄領域となる。これは、網点は平滑を強くしないと網点構造が残り、モアレの原因となるためのである、さらに低線数の網点は、高線数の網点より強く平滑化してやる必要がある。
色補正340は、R、G、Bデータを一次のマスキング処理等でC、M、Yデータに変換する。変倍350は、画像データに、主走査方向xの拡大・縮小または等倍処理を施す。
【0196】
UCR360は、画像データの色再現を向上させるためのものであり、色補正340から入力したC、M、Yデータの共通部分をUCR(加色除去)処理してBkデータを生成し、C、M、Y、Bkデータを出力する。ここで、C/P信号が1(文字エッジ領域)以外の時(文字なか領域又は絵柄領域のとき)は、スケルトンブラック処理を行う。C/P信号が3(文字エッジ領域)の時は、フルブラック処理を行う。さらにC/P信号が1(文字エッジ領域)かつB/C信号がH(無彩領域)の時は、C、M、Yのデータをイレースする。これは、黒文字の時、黒成分のみで表現するためである。
【0197】
また、UCR360の出力画像信号IMGは、一時点はC、M、Y、Bkのうち一色であり、面順次の一色出力である。すなわち、4回原稿読み取りを行うことにより、フルカラー(4色)データを生成する。また、白黒複写のときは、Bk作像一回でよいので、1回の原稿読み取りでよい。カラー原稿か、白黒原稿かの判定機構があれば、原稿に応じた読み取り回数ですむので、操作者が、原稿に応じてカラー原稿か白黒原稿かを判断して複写する必要がなくなる。本実施例では、B/C信号がカラー原稿か、白黒原稿かの判定に参照する信号である。原稿全面でB/C信号がH(無彩領域)であったときにメインコントローラ10が、白黒原稿と判定する。
【0198】
CMYBkフィルタ370は、カラープリンタ400の周波数特性やC/P信号に応じて、N×Nの空間フィルタを用い、平滑化や鮮鋭化処理を行う。CMYBkγ補正380は、カラープリンタ400の周波数特性やC/P信号に応じて、γカーブを変更し処理する。C/P信号が1(文字エッジ領域以外)以外の時は画像を忠実に再現するγカーブを用い、C/P信号が1(文字エッジ領域)の時はγカーブを立たせてコントラストを強調する。
【0199】
階調処理390は、カラープリンタ400の階調特性やC/P信号に応じて、ディザ処理、誤差拡散処理等の量子化を行う。Bk作像の時は、C/P信号が1以外(文字エッジ領域以外)の時は階調重視の処理を行い、それ以外の時は解像力重視の処理を行う。Bk以外の作像の時は、C/P信号が0(絵柄領域)の時は階調重視の処理を行い、それ以外の時は解像力重視の処理を行う。以上の処理をした画像データは、バッファメモリを有するビデオコントロール359からカラープリンタ400に、その画像データ書込み動作に同期して与えられる。
【0200】
上記IPU300は、文字領域以外(C/P信号=1以外)の時は、RGBフィルタ330で平滑化処理を行い、UCR360でスケルトンブラックの処理を行い、CMYBkγ補正380ではリニア(階調性)を重視したカーブを選択し、CMYBkフィルタ370および階調処理390では階調を重視した処理を行う。
【0201】
一方、文字処理(C/P信号=1でB/C信号=L)の時は、RGBフィルタ330でエッジ強調処理を行い、UCR360でフルブラック処理を行い、CMYBkγ補正380ではコントラストを重視したカーブを選択し、CMYBkフィルタ370および階調処理390では解像度を重視した処理を行う。
【0202】
また、黒文字処理(C/P信号=1でB/C信号=H)として、Bkを除くC、M、Yの画像形成時には、C、M、Yデータを印字しない。これは、黒文字の周りが位置ずれのために色付くのを防ぐためである。また、この時のBkデータのRGBフィルタ330は色文字のときより、エッジ強調を強めに行ってくっきりさせても良い。
【0203】
このようにIPU300では、絵柄、文字エッジ、網点、低線数網点の4種の処理を行う。
【0204】
【発明の効果】
以上の説明からも明らかなように、本発明によれば以下に述べる効果を得られる。
【0205】
請求項1に係る発明では、複数ラインを使用してカラー画素判定する装置において、拡大時の特定倍率において、入力データを実質1ライン置きに入力する手段をそなえることにより、拡大時に、有彩判定性能を落とすことなく、カラー画素判定を行うことが可能になる。さらに、入力データのみを切り換えるので、切り換え前後で、カラー原稿判定基準が変わることはない。
【0206】
請求項2に係る発明では、前記手段を適用できる画像読取手段としてのカラースキャナを提供することが可能になる。
【0207】
請求項3に係る発明では、前記手段を適用できる画像形成手段としてのカラープリンタを提供することが可能になる。
【0208】
請求項4、5に係る発明では、前記手段を適用できるカラー複写装置を提供することが可能になる。
【図面の簡単な説明】
【図1】本発明のデジタルフルカラー複写機の機構を示す概要である。
【図2】デジタルフルカラー複写機の電気システムの概要である。
【図3】画像処理ユニット(IPU)300の構成ブロック図である。
【図4】原稿認識320の構成ブロック図である。
【図5】白領域抽出323での白判定に用いる状態変数MS、SS[I]の更新に関する動作処理フローチャートである。
【図6】グレー画素のパターンマッチングの基となる9×9マトリクスのイメージ(a)、(b)である。
【図7】図32の連続カウントの判定処理の内容を示すフローチャートである。
【図8】600dpiで読み取った、600dpiの万線パターンAと400dpiの万線パターンBである。
【図9】黒画素連続検出がパターンマッチングを行う際に用いる3×3画素マトリクスのパターンBPa〜BPdと、白画素連続検出がパターンマッチングを行う際に用いる3×3画素マトリクスのパターンWPa〜WPdである。
【図10】RGB白地検出の基となる画像データの3×3画素マトリクスパターンWBPと、谷白画素検出の基となるG画像データの5×5画素マトリクスパターンRDPa、RDPbおよび、3×3画素マトリクスパターンBBPのイメージである。
【図11】色地検出にて注目画素を中心とする5×5画素マトリックスの各画素の符号を示したパターンMPpおよび色地判定に用いられる注目画素の周辺画素群を示したパターンMCa〜MCdのイメージである。
【図12】白領域抽出323にて、白判定で使用されるラインメモリLMPの現在の処理ラインとその1ライン前の白地情報SS[I]、白パターンマッチングで使用される5×5画素マトリクスで、白画素の連続性パターンをもつPMPa〜dおよび白補正で使用されるブロックパターンBCPのイメージである。
【図13】白領域抽出323の判定にて、白ブロック補正により白ブロックに置きかえられる黒の突出部Bp1〜Bp4を表す図である。
【図14】第1、2網点ピーク検出の検出処理対象となる周囲画素分布パターンMpa〜Mpfと、網点領域検出を行うために区分した小領域分布パターンS1〜S4を有するAMPである。
【図15】色判定325で扱う黒濃度信号の波形であり、R、G、Bの各濃度信号がレベルの高低が一致した理想型(a)と、CCD上で結像してデジタル化したときの理想型(b)と、一般的な相対的ずれを持つ波形の一例(c)である。
【図16】図33の色画素判定のパターンマッチング1の基になる色画素パターン群:pm1〜4のイメージである。
【図17】図33の色画素判定のパターンマッチング1の基になる色細線用パターン群:pw11a〜14dのイメージである。
【図18】図33の色画素判定のパターンマッチング1の基になる白領域パターン群:pw21a〜24dのイメージである。
【図19】図7で取り扱われる色画素連続数のデータの具体例である。
【図20】総合判定326にてカラー複写によるカラー色剤の重なりを模式的に拡大して示したものである。
【図21】総合判定326のデコードで出力されるC/P信号に対応する画素領域を示した(a)〜(d)のイメージである。
【図22】第3網点ピーク検出の検出処理対象となる7×7画素マトリクスの各符号を示したパターンである。
【図23】第3網点ピーク検出の検出処理対象となる周囲画素分布パターンa、bである。
【図24】網点ピークの周期をチェックする周期チェックによる補正前aと、補正後bのイメージである。
【図25】エッジ抽出322の詳細ブロック図である。
【図26】白領域抽出323の詳細ブロック図である。
【図27】網点抽出324の詳細ブロック図である。
【図28】色判定325の詳細ブロック図である。
【図29】総合判定326の詳細ブロック図である。
【図30】図28のN値化1を構成する色相分割回路0〜4のブロック図である。
【図31】図28のN値化2を構成するセレクタ回路1〜4、色相分割回路0〜4のブロック図である。
【図32】ACSの詳細である。
【図33】図28の色画素判定の詳細である。
【図34】色網点検出のパターンマッチングの基となる5×5マトリクスのイメージである。
【図35】原稿認識320の機能をブロック区分で示したものである。
【符号の説明】
320 原稿認識
321 フィルタ
322 エッジ検出
323 白領域抽出
324 網点抽出
325 色判定
326 総合判定[0001]
TECHNICAL FIELD OF THE INVENTION
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing, reading, forming apparatus and color copying apparatus. More specifically, the present invention relates to an image processing, reading, forming apparatus and color copying apparatus which determines whether image data is color or black and white and performs appropriate image processing. It concerns the device.
[0002]
[Prior art]
When copying image data with a color copying apparatus, an operator sometimes prints in color, prints in black and white, or prints with enlargement or reduction. At this time, the color copying apparatus selects an appropriate pixel or performs a thinning process according to the operation.
[0003]
For this purpose, an image processing apparatus and method for determining whether a target image is chromatic or achromatic is invented. For example, an image reading unit that scans an image and generates a plurality of color component signals, a unit that determines whether a pixel of interest is chromatic or achromatic based on the plurality of color component signals, Means for changing the determination conditions in order to facilitate the achromatic color determination by the determination means in accordance with a decrease in the scanning speed of the means, thereby preventing erroneous determination in the determination of the achromatic region of the input image. (Patent Document 1).
[0004]
An identification unit configured to identify a type of an image represented by the image data based on the image data; a processing unit configured to process the image data according to an identification result obtained by the identification unit; In some cases, the type can be identified with high accuracy according to the processing conditions or reading conditions of the target image by changing the identification operation of the identification means when executing the method (Patent Document 2).
[0005]
[Patent Document 1]
Patent No. 2935505
[Patent Document 2]
Patent No. 3015308
[0006]
[Problems to be solved by the invention]
However, in Japanese Patent Application Laid-Open No. H11-163, making the image more achromatic at the time of speed reduction means lowering the color determination performance at the time of speed reduction. Also, if the magnification is large, it is difficult to determine the color, and the influence of disturbance (vibration) is greatly affected.
[0007]
In Patent Literature 2, all the processes are thinned out, but when applied to ACS, there arises a problem that the color determination criterion changes largely before and after the switching point.
[0008]
SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing, reading and forming apparatus and a color copying apparatus for performing appropriate thinning-out processing without changing color judgment criteria while maintaining color judgment performance.
[0009]
According to the first aspect of the present invention, in the apparatus for determining color pixels using a plurality of lines, a unit for inputting input data substantially every other line at a specific magnification or more at the time of enlargement is provided. An object of the present invention is to perform color pixel determination without deteriorating the determination performance.
[0010]
An object of the invention according to claim 2 is to provide a color scanner as an image reading unit to which the unit can be applied.
[0011]
It is another object of the present invention to provide a color printer as an image forming unit to which the above unit can be applied.
[0012]
An object of the invention according to claim 4 is to provide a color copying apparatus to which the above means can be applied.
[0013]
According to the fifth aspect of the present invention, there is provided a printer controller which analyzes an image and a command for instructing printing from an external device such as a personal computer, develops bitmaps as image data in a printable state, and drives a color printer to print out the image data. Is intended to be able to respond to the means.
[0014]
[Means for Solving the Problems]
In order to solve such an object, the invention according to claim 1 is a means for inputting input data substantially every other line at a specific magnification at the time of enlargement or more in an image processing apparatus for determining color pixels using a plurality of lines. It is characterized by having.
[0015]
According to a second aspect of the present invention, color pixels are determined using a plurality of lines, and the image data is transmitted to an image processing apparatus having means for inputting input data substantially every other line at a specific magnification or more at the time of enlargement. The image reading apparatus includes a color scanner that generates an image data by reading a document image by color separation, and transmits the image data to the image processing apparatus.
[0016]
According to a third aspect of the present invention, color pixels are determined using a plurality of lines, and image data is received from an image processing apparatus having means for inputting input data substantially every other line at a specific magnification or more at the time of enlargement. An image forming apparatus includes a color printer that prints out output image data corresponding to image data on paper.
[0017]
According to a fourth aspect of the present invention, there is provided a color copying apparatus having means for judging a color pixel using a plurality of lines and inputting input data substantially every other line at a specific magnification or more at the time of enlargement. The image processing apparatus further includes a color scanner that generates image data by reading the image data by decomposing the image data and transmits the generated image data to the image processing apparatus, and a color printer that prints out output image data corresponding to the image data on paper.
[0018]
According to a fifth aspect of the present invention, in the fourth aspect of the present invention, the image processing apparatus further comprises a printer controller that analyzes a print instruction command from the external terminal and prints out image information from the external terminal with a color printer. It is characterized by.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an image processing apparatus of the present invention will be described in detail with reference to the drawings.
[0020]
FIG. 1 shows an outline of a mechanism according to an embodiment of the present invention. This embodiment is a digital full-color copying machine. A color image reading apparatus (hereinafter, referred to as a scanner) 200 forms an image of an original 180 on a contact glass 202 on a color sensor 207 via an illumination lamp 205, mirror groups 204A, 204B, 204C, and the like, and a lens 206. The color image information of the original is read for each color separation light of, for example, blue (hereinafter, referred to as B), green (hereinafter, referred to as G) and red (hereinafter, referred to as R), and is converted into an electric image signal. In this example, the color sensor 207 is configured by a three-line CCD sensor, and reads B, G, and R images for each color. Based on the B, G, and R color separation image signal intensity levels obtained by the scanner 200, color conversion processing is performed by an image processing unit (not shown), and black (hereinafter, referred to as Bk) and cyan (hereinafter, referred to as Bk). C), magenta (hereinafter, referred to as M), and yellow (hereinafter, referred to as Y) are obtained.
[0021]
Using the color image data, Bk, C, M, and Y images are superimposed on an intermediate transfer belt by a color image recording device (hereinafter, referred to as a color printer) 400 described below, and then transferred to transfer paper. The scanner 200 receives a scanner start signal at the same timing as the operation of the color printer 400, and scans a document in the direction indicated by the left arrow by an illumination / mirror optical system including an illumination lamp 205 and mirror groups 204A, 204B, 204C. Image data of one color is obtained every scanning. Then, each time, while visualizing the images sequentially with the color printer 400, these are superimposed on the intermediate transfer belt to form four full-color images.
[0022]
A writing optical unit 401 as an exposure unit of the color printer 400 converts color image data from the scanner 200 into an optical signal, performs optical writing corresponding to a document image, and forms an electrostatic latent image on the photosensitive drum 414. Form. The optical writing optical unit 401 includes a laser light emitter 441, a light emission drive control unit (not shown) for driving the light emission, a polygon mirror 443, a rotation motor 444 for driving the rotation, a fθ lens 442, a reflection mirror 446, and the like. Have been. The photoconductor drum 414 rotates counterclockwise as indicated by an arrow. Around the photoconductor cleaning unit 421, a neutralization lamp 414M, a charger 419, and a latent image potential on the photoconductor drum are detected. A potential sensor 414D, a selected developing device of the revolver developing device 420, a developed density pattern detector 414P, an intermediate transfer belt 415, and the like are arranged.
[0023]
The revolver developing device 420 includes a BK developing device 420K, a C developing device 420C, an M developing device 420M, and a Y developing device 420Y. (Omitted). Each of these developing devices assembles a developing sleeve 420KS, 420CS, 420MS, 420YS, which rotates by contacting the ears of the developer with the surface of the photosensitive drum 414, in order to visualize the electrostatic latent image. -Consists of a developing paddle that rotates to stir. In the standby state, the revolver developing device 420 is set at a position where development is performed by the BK developing device 420. When a copying operation is started, reading of BK image data is started by the scanner 200 at a predetermined timing, and the image is read. Based on the data, optical writing / latent image formation by laser light starts. Hereinafter, the electrostatic latent image based on the Bk image data is referred to as a Bk latent image. The same applies to each of the C, M, and Y image data. In order to enable development from the front end of the Bk latent image, before the front end of the latent image reaches the development position of the Bk developing device 420K, the rotation of the developing sleeve 420KS is started to develop the Bk latent image with Bk toner. . Thereafter, the developing operation of the Bk latent image area is continued. When the rear end of the latent image passes the Bk latent image position, the developing operation of the next color developing unit is immediately performed from the developing position of the Bk developing unit 420K. The revolver developing device 420 is driven and rotated to the position. This rotation operation is completed at least before the leading end of the latent image based on the next image data arrives.
[0024]
When the image forming cycle is started, the photosensitive drum 414 rotates counterclockwise as indicated by an arrow, and the intermediate transfer belt 415 rotates clockwise by a drive motor (not shown). With the rotation of the intermediate transfer belt 415, BK toner image formation, C toner image formation, M toner image formation, and Y toner image formation are sequentially performed, and finally the intermediate transfer is performed in the order of BK, C, M, and Y A toner image is formed over the belt 415. The formation of the BK image is performed as follows. That is, the charger 419 uniformly charges the photoconductor drum 414 with a negative charge to about -700 V by corona discharge. Subsequently, the laser diode 441 performs raster exposure based on the Bk signal. When the raster image is exposed in this manner, in the exposed portion of the photosensitive drum 414 that is initially uniformly charged, the charge proportional to the amount of exposure disappears, and an electrostatic latent image is formed. The toner in the revolver developing device 420 is negatively charged by stirring with the ferrite carrier, and the BK developing sleeve 420KS of the present developing device is connected to the metal base layer of the photosensitive drum 414 by a power supply circuit (not shown) by a power supply circuit (not shown). The bias is biased to a potential at which a negative DC potential and an AC are superimposed. As a result, no toner adheres to the portion of the photosensitive drum 414 where the charge remains, and the Bk toner is adsorbed to the portion having no charge, that is, the exposed portion, and the Bk visible light similar to the latent image. An image is formed. The intermediate transfer belt 415 is stretched around a drive roller 415D, a transfer opposed roller 415T, a cleaning opposed roller 415C, and a driven roller group, and is rotated by a drive motor (not shown). The Bk toner image formed on the photosensitive drum 414 is transferred onto the surface of the intermediate transfer belt 415, which is driven at a constant speed in contact with the photosensitive member, by a belt transfer corona discharger (hereinafter, referred to as a belt transfer unit) 416. Is transcribed by Hereinafter, the transfer of the toner image from the photosensitive drum 414 to the intermediate transfer belt 415 is referred to as belt transfer. Some untransferred residual toner on the photoconductor drum 414 is cleaned by the photoconductor cleaning unit 421 in preparation for reuse of the photoconductor drum 414. The collected toner is stored in a waste toner tank (not shown) via a collection pipe.
[0025]
The intermediate transfer belt 415 sequentially aligns the Bk, C, M, and Y toner images formed on the photosensitive drum 414 on the same surface to form a four-color superimposed belt transfer image. Thereafter, collective transfer is performed on transfer paper by a corona discharge transfer device. On the photosensitive drum 414 side, the process proceeds to the C image forming process after the BK image forming process. At a predetermined timing, reading of the C image data by the scanner 200 starts, and laser light writing using the image data is performed. Then, a C latent image is formed. The C developing device 420C performs the rotation operation of the revolver developing device with respect to the developing position after the trailing edge of the previous Bk latent image has passed and before the leading end of the C latent image has arrived. The image is developed with C toner. Thereafter, the development of the C latent image area is continued, but when the rear end of the latent image has passed, the revolver developing device 420 is driven as in the case of the Bk developing device, and the C developing device 420C is sent out. Of the M developing device 420M is positioned at the developing position. This operation is also performed before the leading end of the next M latent image reaches the developing unit. In the process of forming each of the M and Y images, the operations of reading the respective image data, forming the latent image, and developing are in accordance with the above-described processes of the Bk image and the C image.
[0026]
The belt cleaning device 415U includes an inlet seal, a rubber blade, a discharge coil, and a mechanism for contacting and separating the inlet seal and the rubber blade. After the Bk image of the first color is transferred to the belt, while the images of the second, third, and fourth colors are transferred to the belt, the entrance seal, the rubber blade, and the like are separated from the intermediate transfer belt surface by the blade contact / separation mechanism. deep.
[0027]
A paper transfer corona discharger (hereinafter, referred to as a paper transfer device) 417 uses an AC + DC or DC component to transfer the superposed toner image on the intermediate transfer belt 415 to the transfer paper. This is applied to the transfer belt.
[0028]
Transfer paper of various sizes is stored in a transfer paper cassette 482 in the paper feed bank. Paper is fed from a cassette storing paper of a designated size to the registration roller pair 418R by a paper feed roller 483.・ Transported. Reference numeral 412B2 indicates a paper feed tray for manually feeding OHP paper, thick paper, and the like. At the time when the image formation is started, the transfer paper is fed from any one of the paper feed trays, and is waiting at the nip portion of the registration roller pair 418R. Then, when the leading end of the toner image on the intermediate transfer belt 415 approaches the paper transfer unit 417, the registration roller pair 418R is driven so that the leading end of the transfer paper coincides with the leading end of the image, and the transfer of the paper and the image is performed. Matching is performed. In this way, the transfer paper is superimposed on the color superimposed image on the intermediate transfer belt and passes over the paper transfer unit 417 connected to the positive potential. At this time, the transfer paper is charged with a positive charge by the corona discharge current, and most of the toner image is transferred onto the transfer paper. Subsequently, when the transfer paper passes through a separation and static eliminator using a static elimination brush (not shown) disposed on the left side of the paper transfer device 417, the transfer paper is discharged, separated from the intermediate transfer belt 415 and moved to the paper transport belt 422. The transfer paper on which the four-color superimposed toner image is collectively transferred from the intermediate transfer belt surface is conveyed to a fixing device 423 by a paper conveyance belt 422, and the toner is transferred to a nip portion between a fixing roller 423A and a pressure roller 423B controlled to a predetermined temperature. The image is fused and fixed, sent out of the main body by a discharge roll pair 424, and stacked face up on a copy tray (not shown).
[0029]
The surface of the photoconductor drum 414 after the belt transfer is cleaned by a photoconductor cleaning unit 421 including a brush roller, a rubber blade, and the like, and is uniformly discharged by a discharge lamp 414M. Further, the intermediate transfer belt 415 after the transfer of the toner image to the transfer paper presses the blade again by the blade contact / separation mechanism of the cleaning unit 415U to clean the surface. In the case of the repeat copy, the operation of the scanner and the image formation on the photosensitive member continue from the fourth-color image process on the first sheet, and then proceed to the first-color image process on the second sheet at a predetermined timing. In the case of the intermediate transfer belt 415, the second Bk toner image is belt-transferred to an area whose surface has been cleaned by the belt cleaning device, following the batch transfer process of the first four-color superimposed image onto transfer paper. So that After that, the operation is the same as that of the first sheet.
[0030]
In the color copying machine shown in FIG. 1, when print data is provided from a host such as a personal computer through a LAN or a parallel I / F, the print data can be printed out (image output) by a color printer 400 and an image read by a scanner 200. This is a color copier with a complex function that can send data to a remote facsimile and print out received image data. This copier is connected to a public telephone network via a private branch exchange PBX, and can communicate with a facsimile communication and a management server of a service center via the public telephone network.
[0031]
FIG. 2 shows an outline of an electric system of the copying machine shown in FIG. FIG. 2 illustrates a control device of the copying machine with a focus on the main controller 10. The main controller 10 controls the entire copying machine. The main controller 10 includes an operation / display board OPB for performing display to the operator and input control of function setting from the operator, control of the editor 15, control of the scanner 200 and an optional ADF, control of writing a document image into an image memory, and control of image processing. In the scanner controller 12, the printer controller 16, the image processing unit (IPU) 300, and the color printer 400, which perform control and the like for performing image formation from the memory, charging, exposure, development, paper feeding, transfer, fixing, and the like. A distributed control device such as an engine controller 13 that controls an image forming engine that conveys transfer paper is connected. Each decentralized control device and the main controller 10 exchange machine status and operation commands as needed. Further, a main motor and various clutches necessary for paper conveyance and the like are also connected to a driver (not shown) in the main controller 10.
[0032]
The color printer 400 includes an electric circuit and a control circuit for driving mechanical elements for charging the photosensitive member 414, image exposure by a laser writing unit, development, transfer, fixing, and paper discharge, including paper supply from a paper supply tray. , As well as various sensors.
[0033]
The printer controller 16 analyzes an external image such as a personal computer or the like and a command for instructing printing, develops a bitmap into a printable state as image data, and drives the printer 400 via the main controller 10 to print the image data. Out. There are a LAN control 19 and a parallel I / F 18 for receiving and operating images and commands through the LAN and the parallel I / F.
[0034]
When there is a facsimile transmission instruction, the facsimile controller 17 drives the scanner 200 and the IPU 300 via the main controller 10 to read the image of the original, and transmits the image data to the facsimile communication line via the communication control 20 and the PBX. Send out. When receiving a facsimile call from the communication line and receiving the image data, the printer 400 is driven via the main controller 10 to print out the image data.
[0035]
FIG. 3 shows a configuration of the image processing unit (IPU) 300. The R, G, and B image data generated by the scanner 200 is provided to the IPU 300 via the interface 351. When the BR unit 355 instructs recording of B or R single color, selection and aggregation of R, G, and B image data are performed, but description of image recording processing in this mode is omitted. The R, G, B image data given to the IPU 300 is input to the document recognition 320, and the RGBγ correction 310 at the next stage converts the reflectance data (R, G, B data) into density data (R, G, B data). ).
[0036]
Based on the density R, G, and B data, the document recognition 320 determines whether the image area to which the data is addressed is a character edge area (edge area of a character or a line drawing), a halftone dot area, a low-frequency halftone dot area, or a picture. It is determined whether it is a region (a region of a photograph or a picture & a region that is not a character region, a region that is not a halftone dot region, and is not a halftone dot region). This is given to the main controller 10.
Figure 2004104625
[0037]
-Document recognition 320 (FIG. 35)-
FIG. 35 shows the function of the document recognition 320 by block division.
It comprises line memories R, G, B and a recognition processing unit. The recognition processing unit performs character edge detection, picture detection, and chromatic / achromatic detection to obtain a C / P signal and a chromatic signal representing a character edge area or a picture area. A line memory that generates a B / C signal representing an area / achromatic area and the line memory can store a plurality of RGB lines. The recognition processing and the multi-line processing during the recognition processing are performed. P, B / C) and the input RGB are delayed by a plurality of lines and output in order to synchronize (position) the lines.
[0038]
As shown in FIG. 4, the document recognition 320 is roughly divided into a filter 321, an edge extraction 322, a white area extraction 323, a halftone dot extraction 324, a color judgment 325, and a comprehensive judgment 326. Here, a case where the reading density of the scanner 200 is about 600 dpi will be described as an example.
[0039]
-Filter 321-
The filter 321 corrects the G image data generated by the scanner 200 mainly for extracting a character edge. Here, since the data read by the scanner 200 may be blurred due to the performance of the lens or the like, an edge emphasis filter is applied. However, here, it is necessary to simply emphasize the image edge on the original and not to emphasize the line pattern for gradation expression, which is widely used in copying machines. If the line pattern is emphasized, the pattern (gradation expression area by the line pattern) is extracted as an edge, and there is a possibility that it may be erroneously determined to be a character edge. is there. Further, as shown in FIG. 8, since the line pattern A of 600 dpi and the line pattern B of 400 dpi have different repetition periods, it is difficult to avoid emphasis with the same filter coefficient. Therefore, either the maximum value or the minimum value of the calculation result of the two coefficients is used according to the detection of the characteristic amount (edge extraction, white area detection) at the subsequent stage.
In FIG. 8, the sum of the width of one white block and the width of one black block in contact with it in the main scanning direction x is a line pitch (constant width: a predetermined number of pixels), that is, a line cycle. At times, the white block width increases and the black block width decreases. As the density becomes higher, the white block width becomes narrower and the black block width becomes wider.
[0040]
In this embodiment, the pixel matrix of the filter processing 321 is defined as 7 pixels in the main scanning direction x × 5 pixels in the sub-scanning direction y (mechanical original scanning direction of the scanner 200). As shown in the block, there are two sets of coefficient groups (coefficient matrices) A and B to which each weighting coefficient a1 to a7, b1 to b7, c1 to c7, d1 to d7, and e1 to e7 is addressed to each pixel. The next coefficient group A (Table 1) is a filter processing coefficient that suppresses the emphasis of the 600 dpi line pattern A in FIG. 8 and also emphasizes the edges of the characters. The coefficient group B (Table 2) This is a filter processing coefficient that suppresses the emphasis of the 400 dpi line pattern B in FIG. 8 and also emphasizes the edges of characters.
[0041]
[Table 1]
Figure 2004104625
[0042]
[Table 2]
Figure 2004104625
[0043]
The horizontal direction is a line in the main scanning direction x, and the vertical direction is a line in the sub-scanning direction y. The coefficients of the first row in the coefficient groups A and B are the coefficients a1 to a7 of the first row of the coefficient matrix of the block of the filter 321 in FIG. “20” at the center is the coefficient of the center pixel of the third row c1 to c7 of the coefficient matrix of the block of the filter 321, that is, the coefficient c4 of the target pixel. The sum (product sum value) of the products (total of 7 × 5 = 35) obtained by multiplying each coefficient of the coefficient matrix by the value represented by the image data of the pixel addressed thereto is the value of the target pixel (the pixel addressed to c4). , And the image data values processed by the filter 321 are provided to the edge extraction 322 and the white region extraction 323. Here, the pixel of interest is a pixel to be currently processed, and is sequentially updated to pixels having different positions in the x direction and the y direction.
[0044]
In the coefficient group A, a negative coefficient (a coefficient having a small value) is distributed at a line pitch of the line pattern A of 600 dpi shown in FIG. For emphasis, 20 (extremely large coefficient) is assigned to the target pixel. Accordingly, when the image data (pixel of interest) is a black / white edge in the area of the line pattern A, the weighted average value (product sum value) derived therefrom is a character edge that is not the line pattern A. It is much lower than at some point.
[0045]
In the coefficient group B, a negative coefficient (a coefficient having a small value) is distributed at a line pitch of a line pattern B of 400 dpi shown in FIG. For emphasis, 20 (extremely large coefficient) is assigned to the target pixel. Accordingly, when the image data (pixel of interest) is a black / white edge in the area of the line pattern B, the weighted average value (product sum value) derived therefrom is a character edge that is not the line pattern B. It is much lower than at some point.
[0046]
The filter 321 performs an operation on the coefficient group A and the coefficient group B, outputs the minimum value of the operation result to the edge extraction 322, and outputs the maximum value of the operation result to the white region extraction 323.
The reason why the minimum value of the calculation result is output to the edge extraction 322 is to avoid a case where the white level cannot be sufficiently extracted when the structure of the character has a line shape.
The reason why the maximum value of the calculation result is output to the white area extraction 323 is to make it easier to catch the picture as a picture when the picture has a line pattern structure (for example, output from a copying machine).
This makes it easier to pick up an edge in edge extraction, and makes it easier to pick up a picture in white area detection.
In this embodiment, two coefficients have been described as an example, but the same effect can be obtained with three or more coefficients.
[0047]
FIG. 4 shows a mode in which the G image data is referred to for the edge processing. However, the present invention is not limited to the G data, and may be luminance data. It can be applied to signals that express dark and light.
[0048]
−Edge extraction 322-
FIG. 25 is a detailed block diagram of the edge extraction 322. The character area has many high-level density pixels and low-level density pixels (hereinafter referred to as black pixels and white pixels), and these black and white pixels are continuous at the edge portion. The edge extraction 322 detects a character edge based on the continuity of each of such black pixels and white pixels.
[0049]
-3 value conversion-
First, in the ternarization, the G image data (input data of the edge extraction 322) on which the filter 321 has been subjected to the filter processing of the character edge enhancement is ternarized using two types of threshold values TH1 and TH2. For example, when the image data represents 256 gradations (0 = white) from 0 to 255, the thresholds TH1 and TH2 are set to, for example, TH1 = 20 and TH2 = 80. In the ternarization, when input data <TH1, a pixel to which the data is addressed is expressed as a white pixel, when TH1 ≦ input data <TH2, a halftone pixel, and when TH2 ≦ input data, a black pixel. The input data is converted into ternary data.
[0050]
−Continuous detection of black pixels, continuous detection of white pixels−
The black pixel continuation detection and the white pixel continuation detection detect a portion where black pixels are continuous and a portion where white pixels are continuous based on the ternary data by pattern matching. In this embodiment, the patterns BPa to BPd and WPa to WPd of the 3 × 3 pixel matrix shown in FIG. 9 are used for this pattern matching. In the pattern shown in FIG. 9, black circles indicate the above-described black pixels, white circles indicate the above-described white pixels, and blank pixels without any circles indicate black pixels, halftone pixels, and white pixels. It does not matter which one of them. The pixel at the center of the 3 × 3 pixel matrix is the pixel of interest.
[0051]
In the black pixel continuation detection, when the distribution of the contents of the ternarized data matches any of the black pixel distribution patterns BPa to BPd shown in FIG. This is given to the pixel of interest. Similarly, in the white pixel continuity detection, when matching is performed with any of the white pixel distribution patterns WPa to WPd shown in FIG.
[0052]
-Nearby pixel detection-
The next neighboring pixel detection is performed by checking whether or not there is a black continuous pixel or a white continuous pixel in the vicinity of the pixel of interest in the neighboring pixel detection with respect to the detection results of the black pixel continuous detection and the white pixel continuous detection. It is determined whether the target pixel is in the edge area or the non-edge area. More specifically, in the present embodiment, when one or more black continuous pixels and one or more white continuous pixels exist in a block of a 5 × 5 pixel matrix, the block is defined as an edge area. If not, the block is determined to be a non-edge area.
[0053]
−Removal of isolated points−
Further, since the character edge exists continuously, the isolated edge is corrected to a non-edge area by removing the isolated point. Then, an edge signal of “1” (edge area) is output to a pixel determined to be an edge area, and an edge signal of “0” (non-edge area) is output to a pixel determined to be a non-edge area.
[0054]
-White area extraction 323-
FIG. 26 is a detailed block diagram of the white area extraction 323. The white region extraction 323 includes binarization, RGB white extraction, white determination, white pattern matching, gray determination, gray pattern matching, gray expansion, white correction, white pattern correction, white expansion, white contraction, and determination.
[0055]
-2 value conversion-
In the binarization, the edge enhancement output of the image density data (G image data) of the filter 321 is binarized using a threshold value thwsb, and the white pattern matching (step 7 in FIG. A binarized white determination signal for generation is generated. The edge emphasis output is 256 gradations from 0 to 255 in this embodiment, 0 is white without density, an example of the threshold thwsb is 50, and the value of the edge emphasis output is thwsb = 50. If smaller, the binarization 323a determines "binary white" and generates a binary white determination signal "1". When the value of the edge enhancement output is equal to or greater than thwsb = 50, a binary white determination signal “0” is generated.
[0056]
-RGB white extraction-
The RGB white extraction includes: 1.) RGB white background detection; 2.) Color background detection and ) Valley white pixel detection is performed to determine whether the image data is a white area.
[0057]
1. ) RGB white background detection
In the RGB white background detection, a white background separation operation is activated by detecting a white background region from R, G, and B image data. That is, the processing of white background separation is started. Specifically, as shown in the pattern WBP of FIG. 10, if all of the R, G, and B image data of the 3 × 3 pixel matrix are smaller than the threshold thwss, the target pixel (the center pixel of the 3 × 3 pixel matrix) It is determined as a white area, and white pattern matching (white background determination signal referred to in step 3 of FIG. 5 representing the processing) is activated (“1”). This is to detect whether there is a white pixel area having a certain extent. Note that each of the R, G, and B image data also has 256 gradations from 0 to 255 in this embodiment, 0 is a base level without density, and a threshold value thwss <thwsb. If it is 40 and all of the R, G, and B image data are smaller than thwss = 40, it is determined to be “white background” and a white background determination signal “1” is generated. When any of the R, G, and B image data has a threshold value of thwss = 40 or more, a white background determination signal “0” is generated.
[0058]
2. ) Color background detection
To prevent a light color from being determined as a white background, a color background is detected.
A. Here, first, assuming that the sign of each pixel of the 5 × 5 pixel matrix centering on the target pixel is indicated by the pattern MPp in FIG. 11, the center pixel c3 (the X-marked pixels MCa to MCd) serving as the target pixel If the RGB difference (the difference between the maximum value and the minimum value of the R, G, B image data addressed to one pixel) is larger than the threshold thc, the color pixel determination signal a is set to “1” (color pixel) and Is "0" (black and white pixel).
B. If all the R, G, and B image data of any of the pixels in the peripheral pixel group on one side of the target pixel △ (in MCa to MCd in FIG. 11) is equal to or smaller than the threshold thwc, the one-side white determination signal b is set to “1”. (White pixel) and “0” (non-white pixel) when the threshold thwc is exceeded. The threshold value thwc is, for example, 20.
C. If the R, G, and B image data of any of the pixels in the peripheral pixel group □ (in MCa to MCd in FIG. 11) on the other side of the pixel of interest is equal to or smaller than the threshold thwc, the other-side white determination signal c is set to “1”. (White pixel), and when the threshold value thwc is exceeded, “0” (non-white pixel).
D. In any of the patterns MCa to MCd in FIG.
a AND (exclusive NOR of b and c) = "1"
Holds, that is, when a = “1” (the target pixel is a color pixel) and b and c match (white pixels on both sides of the target pixel or non-white pixels on both sides), the , The color ground determination signal d is “1” (color ground). The color ground determination signal d is referred to in the white pattern matching (step 6 in FIG. 5 representing the process).
[0059]
The above-described pattern matching A. ~ D. This is because when the area around the black character is slightly colored due to the RGB reading position shift, it is not picked up as a color. At the colored position around the black character, (exclusive NOR of b and c) becomes “0” (one of both sides of the target pixel is a white pixel and the other is a non-white pixel). In this case, the color ground determination signal d = "0" (non-colored background). In addition, when the pixel of interest is a color pixel whose periphery is surrounded by a white background, the color ground determination signal d = “1” (color background), and even when a line is complicated, a light color pixel is detected as a color background. be able to. In other words, where the line is complicated, the originally white part is not completely read as white, but the processing A. If the RGB difference is small, the pixel is not determined to be a color pixel. Therefore, the threshold value thwc is set more strictly than that of a white background where the density should be checked (for example, thws = 40, thwsb = 50, and thwc = 20). ~ D. By strictly checking whether or not there is a white background, the light color pixel can be accurately detected as a color background.
[0060]
3. ) Valley white pixel detection
Next, in the valley white pixel detection, valley white pixels in a small white area that cannot be detected by the RGB white background detection are detected based on the 5 × 5 pixel matrix distributions RDPa and RDPb of the G image data shown in FIG. Specifically, based on a 5 × 5 pixel matrix distribution RDPa,
miny = min (G [1] [2], G [1] [3], G [1] [4], G [5] [2], G [5] [3], G [5] [4 ])
Is calculated. That is, the lowest density miny in the group of pixels with black circles in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 10 is extracted. And
maxy = max (G [3] [2], G [3] [3], G [3] [4])
Is calculated. That is, the maximum density maxy in the pixel group with a white circle in the 5 × 5 pixel matrix distribution RDPa shown in FIG. 10 is extracted. next,
mint = min (G [2] [1], G [3] [1], G [4] [1], G [2] [5], G [3] [5], G [4] [5 ])
Is calculated. That is, the lowest density mint in the group of pixels with black circles is extracted from another 5 × 5 pixel matrix distribution RDPb shown in FIG. And
maxt = max (G [2] [3], G [3] [3], G [4] [3])
Is calculated. That is, the highest density maxt in the pixel group with a white circle in the 5 × 5 pixel matrix distribution RDPb shown in FIG. 10 is extracted. Here, min () is a function for detecting the minimum value. max () is a function for detecting the maximum value. next,
OUT = ((miny-maxy)> 0) # ((mint-maxt)> 0)
Is calculated. That is, of (miny-maxy) and (mint-maxt), the larger positive value is the valley detection value OUT. If the value of OUT is equal to or greater than a certain threshold, the pixel of interest (RDPa or RDPb) is detected. Is detected as a valley white pixel. As described above, the valley state of the image is detected. ) RGB white background detection compensates for the difficulties in detection.
[0061]
−White judgment−
Here, the state variables MS and SS [I] used for the white judgment are updated. The contents are shown in FIG. Here, the state variable MS is addressed to the pixel of the processing target line (line of interest), and the state variable SS [I] is addressed to the pixel one line before (the processed line) of the processing target line. Is 4-bit white background information indicating the degree of white of the white background, and is generated by the processing of FIG. The maximum value of the values represented by the state variables MS and SS [I] is set to 15, which means the whitest degree, and the minimum value is 0. That is, the state variables MS and SS [I] are data indicating the degree of white, and the larger the value represented by the data, the stronger the white. At the start of the copying operation, both the state variables MS and SS [I] are initialized to zero.
[0062]
In the processing shown in FIG. 5, first, the state variable immediately before the target pixel to be processed, that is, the white background information SS [I] and the pixel immediately preceding the target pixel on the same line (preceding pixel: processed pixel) The state variable, that is, the white background information MS is compared (step 1). If the white background information SS [I] one line before is larger, it is used as the temporary white background information MS of the target pixel (step 2). Otherwise, the state variable MS of the preceding pixel is set as temporary white background information MS of the target pixel. This means that information that is closer to white among the white background information of the peripheral pixels is selected.
[0063]
After starting the copying operation, ) When a white area, that is, a white background is detected by RGB white background detection [1. ) White background determination signal output from RGB white background detection = “1”], white background information SS [I] of the pixel one line before the target pixel is updated to 15 (steps 3 and 4), and white background information MS of the target pixel is updated. Is also set to 15 (step 5). Then, the white background information MS of the pixel of interest is written in the main scanning position (F) of the pixel of interest in the line memory for the current line (line of interest) in the line memory LMP shown in FIG. The information SS [I] is written to the main scanning position (F) of the pixel of interest in the line memory for the previous one line of the line memory LMP shown in FIG. 12 (steps 3, 4, and 5). Next, the white background information SS [I] addressed to the pixel one line before is propagated to the pixel one line before as follows (steps 14 to 17). [I] means the main scanning position of the target pixel, and [I-1] means the position of a pixel one pixel before (the pixel immediately before the target pixel) in the main scanning direction x.
[0064]
When SS [I-1] <SS [I] -1, SS [I-1] = SS [I] -1 is set in the line memory (steps 14 and 15). In other words, in the line one line before the pixel of interest, the white background at the position (F) of the pixel of interest relative to the white background information SS [I-1] one pixel before (E) the pixel of interest (F) in the main scanning direction. If the value “SS [I] −1” obtained by subtracting 1 from the information SS [I] is larger (the degree of white is stronger), the pixel one pixel before the position (F) of the target pixel on the line one line before The white background information SS [I-1] addressed to (E) is updated to a value obtained by lowering the white intensity by one from the white background information SS [I] at the position (F) of the target pixel.
[0065]
Next, when SS [I-2] <SS [I] -2, SS [I-2] = SS [I] -2 is set in the line memory (steps 16, 17-14, and 15).
Next, when SS [I-3] <SS [I] -3, SS [I-3] = SS [I] -3 is set in the line memory (steps 16, 17-14, and 15).
[0066]
Similarly, when SS [I-15] <SS [I] -15, SS [I-15] = SS [I] -15 is finally set in the line memory (steps 16 and 17-14). , 15). The lower limit value MIN of the value of the white background information SS [I] is 0, and when it is less than 0, it is kept at 0. This is the same in step 13 described later.
[0067]
By the processing of these steps 14 to 17, the white background information SS one line before and before the main scanning position of the target pixel replaces the white background information MS of the target pixel with one white position information MS of one pixel in the main scanning direction x. The white background information of the target pixel is updated to the value reduced by the reduction rate, and propagates at the reduction rate behind the main scanning in the main scanning direction x one line before (white propagation processing). However, this is a case where the value of the white background information one line before is smaller. For example, the pixel before one line is the one. ) When the white background (white area) is detected by the RGB white background detection, the white background information is 15 which is the highest value, and no rewriting is performed.
[0068]
When the target pixel is updated and becomes a non-white background [1. ) A white background determination signal which is an output of RGB white background detection = “0”], the process proceeds from step 3 to step 6 or lower, and the pixel of interest is a color background [2. ) Not the color ground determination signal d = “1”, which is the output of the color ground detection (it is a non-color ground), but binarized white [the binarized white determination signal output from the binarization = “1” ]], And when the state variable of the pixel of interest provisionally determined in Steps 1 and 2, that is, the white background information MS is equal to or larger than the threshold thw1 (for example, 13), the white background information MS addressed to the target pixel is incremented by 1 (Step 6). -10). That is, the white value is updated to a value that is strong by one. The maximum value max of the white background information MS is set to 15, and when it exceeds 15, it is kept at 15 (steps 9 and 10). The steps 5 and 14 to 17 described above are also executed when the vehicle has proceeded along this route. That is, a white propagation process is performed.
[0069]
If the target pixel is a non-colored background and is a binary white, but the white background information MS is less than thw1 (for example, 7), thw2 (for example, 1) or more, and is a valley white pixel, the state variable MS is left as it is. It is held (steps 8, 11, 12). The steps 5 and 14 to 17 described above are also executed when the vehicle has proceeded along this route. That is, a white propagation process is performed.
[0070]
If none of the above conditions are met, that is, if the target pixel is a color background or non-binarized white, the white background information MS of the target pixel is decremented by one (step 13). That is, the white information is updated to the white background information in which the degree of white is weak by one. The minimum value MIN of the white background information MS is 0, and when it is less than 0, it is kept at 0. The steps 5 and 14 to 17 described above are also executed when the vehicle has proceeded along this route. That is, a white propagation process is performed.
[0071]
By the generation of the white background information MS described above, the white information can be transmitted to the peripheral pixels on the line memory LMP via the state variable (white background information) MS. As described above, the generation of the white background information MS is based on the RGB white background determination signal indicating that the color data (all the R, G, and B image data) is a white background when the threshold value thwss = 40 is smaller than 40, as described above. 4-5-14 to 17 when generation of color-corresponding white background information MS is performed, and the edge enhancement output (output of the filter 321) of the density data (G image data) is smaller than the threshold thwsb = 50 5 includes generation of white background information MS corresponding to the density, based on the white background and the binarized white determination signal, in the system of steps 7 to 13-5 to 14 to 17 in FIG.
[0072]
This white determination is performed in the first step of RGB white extraction. ) RGB white background detection until a white area is detected, The operation (execution of step 4) is performed until the detection of the RGB white background generates the white background determination signal "1" and starts the generation of the color-corresponding white background information MS (steps 3-4-5-14 to 17). Do not do). This is to prevent an area that cannot be determined as a white area from being erroneously determined as a white pixel (white block) by white pattern matching of the G image data after edge enhancement processing of the filter 321 as described below.
[0073]
When the edge emphasizing filter 321 is applied to a character on a light-colored ground, the data around the character has a lower value (white) than the original image data (colored background). If white pattern matching is performed, that is, if a white area is determined based only on the generation of the white background information MS corresponding to the density (steps 7 to 13-5 to 14 to 17), it is easy to erroneously determine the vicinity of the character on the color ground as a white background. A white pattern for determining a white pixel (white block), which will be described later, in an area where the determination as a white area can be obtained by generating the above-described color-corresponding white background information MS (steps 3-4-5-14 to 17). The white background information MS is set to the maximum value so that the matching is applied. If the white background information is not a white background in step 3, the white background conditions are checked in detail in step 6 and subsequent steps, and white pattern matching is performed. Since the white background information MS, which is one parameter for determining whether or not to apply, is adjusted, it is erroneously determined as a white pixel (white block) by white pattern matching of the G image data after edge enhancement processing of the filter 321 as described later. Is preventing that.
[0074]
For example, when there is a high possibility of a color pixel, the white background information MS is lowered (step 13), and when there is a suspicion of a color pixel, the white background information MS is held (no change) (steps 11 to 13), and the white pattern By preventing erroneous determination as a white pixel (white block) by matching, data around the character is prevented from having a lower value (white) than the original image data (color ground).
[0075]
Where the character is dense, the white background information MS is updated and propagated by the above-described processing (steps 3 to 5, 6 to 10, and 14 to 17), so that the possibility that the dense character area is erroneously determined to be a pattern is reduced. . In addition, characters such as complicated characters (for example, “sho”) include: 2.) In some cases, white detection cannot be performed by RGB white background detection. ) In the valley white pixel detection, white is detected, and the white background information MS is held on the path in which the YES output of step 12 goes straight to step 5 to keep the white background tendency. The possibility of being judged is reduced.
[0076]
Further, as mentioned above, when the target pixel is a color pixel whose periphery is surrounded by a white background, 2. ) The color ground determination signal d = “1” (color ground), which is the output of the color ground detection, makes it possible to detect a light color pixel as a color ground even when a line is complicated, and determine whether the periphery of the pixel of interest is white. The threshold value thwc for seeing whether or not is set low (thwc = 20), and it is possible to strictly check whether or not the periphery of the light color pixel (pixel of interest) is a white background and detect the light color pixel as a color background. It is possible to further reduce the possibility that a complicated character is erroneously determined as a picture.
[0077]
As described above, since a light color pixel can be more strictly detected as a color background, when a color background is detected, the process proceeds from step 6 to step 13 in FIG. 5 to lower the state variable MS and determine that the color background is white. In addition to being able to reduce the possibility, in addition to the threshold value thwss (for example, 40) for generating the white background determination signal to be referred to in step 3, the threshold value for generating the binary white determination signal to be referred to in step 7 If thwsb (for example, 50) is set to a large value and the color is not determined (step 6: NO), the probability that the binarization is regarded as white is increased, and the process proceeds from step 7 to 10 in FIG. To increase the possibility that the state variable MS is determined to be a white area.
[0078]
That is, 1. 5) When the threshold value thwss = 40 in the RGB white background detection, a severe white determination with a low probability of white determination is performed, and if a white background is determined, the state variable MS is increased by the processing from step 3 to step 4 in FIG. The possibility of determining the background as white is increased. If the white determination is not made in the strict white determination, it is conversely determined whether the pixel is a color background or a strict color ground determination with high reliability for detecting a light color pixel as a color ground. ) Refer to the result of the color background detection, and if it is not determined to be a color background, refer again to the soft white determination with a threshold thwsb = 50 which has a high probability of determining white again, that is, the binarization. If the determination is white, the state variable MS is increased to increase the possibility that the character background is determined to be white (steps 7 to 10). Since this processing (steps 6 to 10) is performed, if the background density unevenness is lighter than the light color pixels detected as the color background, for example, if the background of the original is uneven, such as a back reflection, the fine background unevenness , The state variable MS is suppressed from greatly changing in a binary manner, and the determination of whether or not the pixel is a white pixel in the next white pattern matching is suppressed from being finely changed in the scanning direction. As a result, when the background is a light colored background, fine color omission (white background) does not appear in conjunction with fine background unevenness of the original such as back reflection.
[0079]
−White pattern matching−
Whether or not the background is white is determined based on whether or not there is a continuous white pixel in a block of 5 × 5 pixels around the target pixel. Therefore, when the following expression is satisfied for the target pixel, the target pixel is provisionally determined to be a white pixel, and white pattern matching is performed.
(Non-color pixel & (white background information MS ≧ thw1 (13)) & binarized white) #
(Non-color pixel & (white background information MS ≧ thw2 (1)) & valley white pixel & binarized white)
Here, the pixel of interest for which it is checked whether or not this conditional expression is satisfied is a target of the white propagation processing in steps 5 and 14 to 17 of FIG. “White background information MS” is white background information MS [I] of the target pixel to be checked after the white propagation processing. Here, MS [I] is the white background information after the white propagation process, and I is the position of the pixel of interest to be checked in the main scanning direction x, and the state variable MS is calculated by the above-described white determination. Is different from the position of the target pixel in the main scanning direction x.
[0080]
In the above conditional expression, “non-color pixel” refers to 2. ) The color ground determination signal d, which is the output of the color ground detection, is “0”, and “binary white” means that the binary white determination signal of the binarization is “1” (binary white). And the “valley white pixel” ) Means that the detection result of valley white pixel detection is a valley white pixel, and # means logical sum (OR: or). The white pattern matching checks whether the output (white pixel or not) determined by the above conditional expression corresponds to any of the vertical and horizontal oblique continuity patterns PMPa to PMPd in FIG. White circles added to the patterns PMPa to PMPd mean white pixels. It does not matter whether the other blank pixels are white pixels.
[0081]
If the white pixel distribution of the 5 × 5 pixel matrix centered on the target pixel corresponds to the pattern PMPa, PMPb, PMPc or PMPd in FIG. 12, the target pixel is determined to be a white pattern pixel.
[0082]
-Gray judgment-
Based on the output data of the gray pixel detection, hue division of R, G, B, Y, M, C, and Bk is performed, and a low density pixel is detected for each hue.
Hue division is the same as color determination described later.
Here, the G data after the filter is compared with thgr, and if either the data is larger than the G data or if it is a color pixel in the color ground detection of RGB white extraction, the following calculation is performed, If the following conditions are satisfied, the pixel is determined to be a gray pixel.
Here, the threshold value is changed for each color because the maximum density of each ink is different.
4.1). RY hue area boundary (ry)
R-2 * G + B> 0
4.2). Y-G hue area boundary (yg)
11 * R-8 * G-3 * B> 0
4.3). GC hue area boundary (gc)
1 * R-5 * G + 4 * B <0
4.4). CB hue area boundary (cb)
8 * R-14 * G + 6 * B <0
4.5). BM hue area boundary (bm)
9 * R-2 * G-7 * B <0
4.6). MR hue area boundary (mr)
R + 5 * G-6 * B <0
4.8). Y pixel pixel determination (gry)
(It is a color pixel) & (ry == 1) & (yg == 0) & (maximum RGB value <thmaxy)
4.9). G pixel determination (grg)
& (Yg == 1) & (gc == 0) & (maximum RGB value <thmaxg)
4.10). C pixel determination (grc)
(It is a color pixel) & (gc == 1) & (cb == 0) & (maximum RGB value <thmaxc)
4.11). B pixel determination (grb)
(It is a color pixel) & (cb == 1) & (bm == 0) & (Maximum RGB value <thmaxb)
4.12). M pixel determination (grm)
(It is a color pixel) & (bm == 1) & (mr == 0) & (Maximum value of RGB <thmaxm)
4.13). R pixel determination (grr)
(It is a color pixel) & (mr == 1) & (ry == 0) & (Maximum value of RGB <thmaxr)
4.14). When not a color pixel (grbk)
(Maximum value of RGB <thmaxbk)
4.15). Gray pixel judgment
When any one of the conditions of 4.8) to 4.15) is satisfied, a gray pixel is determined.
[0083]
-Gray pattern matching-
The following pattern matching is performed, where D is a gray pixel and bk is darker than the gray pixel. Since the copy original is a thin 200-line pattern and a 300-line pattern, the following pattern is adopted so that the copy original is also subjected to gray detection.
Those that match the following pattern (Table 3) are gray pixels. (See FIGS. 6A and 6B)
[0084]
[Table 3]
Figure 2004104625
[0085]
−White pattern correction−
The active pixels isolated (1 × 1, 1 × 2, 2 × 1, 2 × 2, 1 × 3, 3 × 1 white pixels) by white pixel pattern matching are deactivated.
As a result, isolated pixels are removed.
[0086]
-White expansion-
The result of the correction of the white pixel pattern matching is ORed by 7 × 41.
[0087]
−White shrinkage−
Perform 1 × 33 AND of the result of white expansion.
By performing white expansion and white contraction, inactive pixels that are expanded and have a small area with respect to the correction result of the white pixel pattern matching are removed.
This determination result is a result that includes a non-white background-side boundary region with respect to a white background and a boundary portion.
In other words, the area is larger than the white background.
[0088]
−White correction−
In the white block correction, when one or more white candidate blocks exist in each of the 6 × 4 pixel regions at the four corners in 15 × 11 pixels centered on the pixel of interest marked with “×” in the block pattern BCP, The white block correction data is given to the target block. As a result, an area surrounded by a white background is defined as a white area.
[0089]
-Gray expansion-
An 11 × 11 OR process is performed on the result of the gray pattern matching.
This results in a slightly larger area than the gray area.
[0090]
-Judgment-
The white background is set when the white correction result is active or the contraction result is active and the gray expansion result is inactive.
This can be expressed by the following equation.
Result of white correction # (Result of white contraction & Result of gray expansion)
Here, in the “white correction result”, the area surrounded by the white background is definitely determined as the white area, and in the result of “white contraction result! The low density area is defined as a non-white area.
[0091]
As shown in FIG. 13, black projections surrounded by circles Bp1 to Bp4 indicate that one or more white candidates are provided in each of the 6 × 4 pixel regions at the four corners in 15 × 11 pixels centered on the target block. When there is a block, the block of interest is replaced with a white block by white block correction for providing white block correction data to the target block. Making a black area surrounded by a white background, such as a black protrusion surrounded by circles Bp1 to Bp4, a white area reduces the possibility of determining that area as a picture part. In the comprehensive judgment 326 described later, the non-white area is determined to be a picture, but the possibility that a black area surrounded by a white background such as a black protrusion surrounded by circles Bp1 to Bp4 is erroneously determined to be a picture is reduced.
Further, as a result of the white contraction and the gray expansion, the boundary between the black background and the white background is determined to be a white region (character region). Therefore, a dark character edge is determined to be a white background regardless of the thickness of the character. It is possible to correctly determine a character edge. The character edge determination is not performed for a portion having a low density.
[0092]
-Adjustment of text / photo determination level-
As described above, in the white area extraction 323, white determination corresponds to a white background determination signal of RGB white extraction, a color ground determination signal d, a valley white pixel determination signal, and a binary white determination signal of binarization. , White background information MS, which is a state variable indicating the degree of white. Then, in the white pattern matching, it is temporarily determined whether the target pixel is a white pixel based on the color ground determination signal d, the white background information MS, the binarized white determination signal, and the valley white pixel determination signal. Is determined by white pixel distribution pattern matching for. Using this result and the results of the black determination and the black pattern matching used for the pattern BBP in FIG. 10, the white correction determines whether the target pixel is a boundary between a black background and a white background boundary (white region: character region). I do.
[0093]
The white background determination signal for RGB white extraction (see step 3 in FIG. 5) is “1” (white background) when all of the R, G, and B image data of the target pixel are smaller than the threshold thwss = 40. When the threshold value thwss is increased, the probability of determining a large value of the white background information MS increases, and the probability of extracting the “white region” (the boundary between the black background and the white background boundary: the character region) increases (ie, the pattern region is extracted). Probability decreases). The opposite is true when the threshold thwss is reduced.
[0094]
The binarized white determination signal (see step 7 in FIG. 5) is “1” (binary white) if the edge enhancement output of the G image data of the filter 321 is smaller than the threshold thwsb = 50. is there. When the threshold value thwsb is increased, the probability of determining a large value of the white background information MS increases, and the probability of extracting the “white area” increases (that is, the probability of extracting the picture area decreases). The opposite is true if the threshold thwsb is reduced.
[0095]
The image data of the “white area” is subjected to image processing for clearly representing the character image in a later process. Therefore, if the thresholds thwss and thwsb are increased, image processing with high priority is applied to the character. The image data in the non-white area, that is, the picture (photograph) area is subjected to image processing for faithfully representing the picture or the picture in a later process. Therefore, if the thresholds thwss and thwsb are reduced, the picture (photograph) is given priority Image processing.
[0096]
By the way, when the color ground determination signal d for RGB white extraction (see step 6 in FIG. 5) is “1” (color ground), the white background information MS is reduced, and the probability of extracting the “white area” is reduced. (That is, the probability of extracting the picture area increases.) 2. B.) Process of generating color ground determination signal d by color ground detection , C.I. When the threshold value thwc (for example, 20) used in is reduced, the probability that peripheral pixels (△ and □ in FIG. 11) are simultaneously detected as color pixels, that is, the probability that (exclusive NOR of b and c) = “1” increases. The probability of obtaining the color ground determination signal d = “1” (color ground) increases, and the probability of extracting the “white region” decreases (that is, the probability of extracting the picture region increases).
[0097]
Therefore, in the present embodiment, in the operation / display unit OPB of FIG. 2, the menu display of the input mode by the key input and the operation of the key image (the parameter designation key and the up / down keys) on the menu screen displayed on the liquid crystal display are performed. The threshold values thwss, thwsb, and thwc are adjusted as shown in Table 4 by adjusting the “character / photo level” in the parameter adjustment.
[0098]
[Table 4]
Figure 2004104625
[0099]
That is, the standard value (default) of the parameter “text / photo level” adjusted and set by the operator on the operation / display unit OPB is “3”, and this default value is the above-mentioned text / photo level and the thresholds thwss, thwsb 3 is written in the ROM 358 shown in FIG. 3 together with a conversion table showing the relationship between the CPU 357 and the character / photograph from the ROM 358 when the CPU 357 initializes the IPU 300 when the IPU 300 shown in FIG. The default value of the level is read out, and the corresponding thresholds thwss, thwsb, and thwc are read out from the conversion table, written in the registers for each threshold in the RAM 356, and used for the above-described processing in the white area extraction 323. Thereafter, the character / photo level is adjusted by an input from the operation board OPB, and when the adjusted value A is given from the main controller 10 to the CPU 357, the CPU 357 determines the parameters thwss, thwsb, and thwc corresponding to the adjusted value A. Are read from the conversion table of the ROM 358 and written in the parameter-addressed register of the RAM 356.
[0100]
When the thresholds are set to the standard values thwss = 40, thwsb = 50, and thwc = 20, the operator increases the value of “text / photo level” by i (for example, 1) by using the operation board OPB and sets “Up” to “Up”. Then, the thresholds thwss, thwsb, and thwc are set to 2i (2) values changed in the character priority direction. Conversely, if the operator decreases the value of the "character / photo level" by "i" (for example, 1) by "Down", the thresholds thwss, thwsb, and thwc are set to the values changed in the photo priority direction by 2i (2).
[0101]
-Halftone dot extraction 324
FIG. 27 shows a detailed block diagram of the halftone dot extraction 324. In the first halftone dot detection, pixels forming part of halftone dots (referred to as halftone peak pixels) are determined from pixel density information in a two-dimensional local area of a predetermined size using G image data. It is a circuit to detect. When the following two conditions are satisfied simultaneously with respect to the local region, the central pixel of the region is detected as a halftone dot peak pixel.
Condition 1: The density level of the center pixel is the maximum (peak) or the minimum (valley peak) in the local area.
Condition 2: The absolute value of the difference between the average of the density levels of the pixel pairs and the density level of the central pixel is equal to or greater than the threshold Th for all pixel pairs that are point-symmetric with respect to the central pixel.
[0102]
With reference to FIG. 14, the detection process of the first halftone dot detection will be specifically described. This is an example in which a mask of a 5 × 5 pixel matrix (in general, an M × M pixel matrix) is used as a local region. Assuming that the sign of each pixel of the 5 × 5 pixel matrix is shown in the pattern MPp of FIG. 11, the density Lc of the central pixel c3 as the target pixel is larger or smaller than the density L1 to L8 of the surrounding pixels. And
abs (2Lc-L1-L8) ≧ Lth
And abs (2Lc-L2-L7) ≧ Lth
And abs (2Lc-L3-L6) ≧ Lth
And abs (2Lc-L4-L5) ≧ Lth
, The center pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).
[0103]
Specifically, the surrounding pixels are pixels to which the quadrilateral of the surrounding pixel distribution pattern MPa or MPb shown in FIG. 14 is added. When either of the above-described halftone peak pixel detection based on the surrounding pixel distribution patterns MPa and MPb detects the halftone dot pixel, a detection signal indicating the halftone peak pixel as the target pixel (center pixel c3) at that time. give. The two patterns are used in order to widely correspond to the number of halftone dots.
[0104]
The pattern MPa is
L1 = b2, L2 = b3, L3 = b4, L4 = c2, L5 = c4, L6 = d2, L7 = d3, L8 = d4,
It is defined. Here, L1 = b2 means that the density of the pixel b2 is set to the value of L1 in the above-described dot peak pixel detection calculation.
[0105]
The pattern MPb is
L1 = b2, L2 = a3, L3 = b4, L4 = c1, L5 = c5, L6 = d2, L7 = e3, L8 = d4,
It is defined.
[0106]
In the case of copying, since the enlargement and reduction in the sub-scanning direction y are performed at low and high document scanning speeds of the scanner 200, image data that has been enlarged and reduced in the sub-scanning direction y is provided from the scanner 200. . Therefore, at the time of reduction, the patterns MPc and MPd shown in FIG. 14 are used instead of the above-described patterns MPa and MPb. At the time of enlargement, the patterns MPe and MPf shown in FIG. 14 are used. Note that, in the patterns MPe and MPf, pixels provided with triangular marks may be added to the above-described “surrounding pixels”.
[0107]
The second halftone peak detection is for detecting halftone peaks using B data, and has the same function as the first halftone peak detection. The first halftone peak detection uses the G image data and therefore responds to most colors, but does not respond to Y. Therefore, the second halftone peak detection uses the B image data and It is an auxiliary thing aimed at detecting a halftone dot peak.
[0108]
The halftone dot area detecting unit 1 converts a halftone peak pixel of a peak and a valley detected by one of the first halftone peak pixel detection and the second halftone peak pixel detection into a two-dimensional small area of a predetermined size. It is counted every time, and the sum of the peak pixels of the peaks and valleys is set as the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels of the small area (or only the central pixel of the small area in the case of processing in units of pixels) are determined to be a halftone dot area. The result of the determination is stored in the temporary memory.
[0109]
With reference to FIG. 23, the detection process of the third halftone dot detection will be specifically described.
This third halftone peak detection is intended to detect 100 lines or less and 65 lines (newspaper halftone dots) or more.
This is an example in which a mask of a 7 × 7 pixel matrix (in general, an M × M pixel matrix) is adopted as a local region. As shown in the pattern of FIG. 22, the density Lc of the central pixel group serving as the target pixel is the maximum or minimum as compared with the density groups L1 to L8 of the surrounding pixels.
abs (2Lc-L1-L8) ≧ Lth
And abs (2Lc-L2-L7) ≧ Lth
And abs (2Lc-L3-L6) ≧ Lth
And abs (2Lc-L4-L5) ≧ Lth
, The center pixel (Lc) of the mask is detected as a halftone dot peak pixel. The abs function means taking an absolute value. Lth is a threshold value (fixed value).
Here, the halftone peak pixel when the center pixel (Lc) of the mask has the maximum value is output to the cycle check 1 as the halftone peak pixel.
Further, the halftone dot peak pixel when the center pixel (Lc) of the mask is the minimum value is output to the period check 2 as the halftone dot valley peak pixel.
[0110]
Specifically, the surrounding pixels are the pixels shown in the surrounding pixel distribution pattern shown in FIG. When either of the above-described halftone peak pixel detection based on the surrounding pixel distribution pattern detects the halftone dot pixel, a detection signal representing the halftone peak pixel is given to the target pixel (center pixel d4) at that time. The two patterns are used in order to widely correspond to the halftone dot area ratio.
[0111]
The density of Lc is obtained as follows with reference to peripheral pixels.
Lc = Min (d4, d3, d5, c4, e4)
When this Lc is the maximum value for the peripheral pixels,
The pattern is: L1 = Max (a1, a2, b1)
L2 = Max (a3, a4, a5)
L3 = Max (a6, a7, c7)
L4 = Max (c1, d1, e1)
L5 = Max (c7, d7, e7)
L6 = Max (f1, g1, g2)
L7 = Max (g3, g4, g5)
L8 = Max (g6, g7, f7)
It is defined. Here, L1 = Max (a1, a2, b1) means that the maximum value of the density of the pixels a1, a2, and b1 is set to the value of L1 in the above-described halftone peak pixel detection calculation.
Lc = Min (d4, d3, d5, c4, e4) means the minimum value of the density (image data) of d4, d3, d5, c4, e4.
[0112]
Lc = Max (d4, d3, d5, c4, e4)
When this Lc is the minimum value for the peripheral pixels,
The pattern is: L1 = Min (a1, a2, b1)
L2 = Min (a3, a4, a5)
L3 = Max (a6, a7, c7)
L4 = Max (c1, d1, e1)
L5 = Max (c7, d7, e7)
L6 = Max (f1, g1, g2)
L7 = Max (g3, g4, g5)
L8 = Max (g6, g7, f7)
It is defined.
[0113]
In the case of copying, since the enlargement and reduction in the sub-scanning direction y are performed at low and high document scanning speeds of the scanner 200, the scanner 200 provides image data that has been enlarged and reduced in the sub-scanning direction y. . Therefore, at the time of reduction, the pattern shown in FIG. At the time of enlargement, the pattern shown in FIG.
[0114]
The arithmetic expression for the third halftone peak detection does not operate on the data of one pixel, but refers to the target pixel by a plurality of pixels (calculation of min and max).
This is because halftone dots having a low screen ruling have a large shading cycle, so that determination by one pixel refers to neighboring pixels, thereby reducing the influence of noise (garbage) and reducing the amount of arithmetic operation. Since the arithmetic expressions can be used in common for other blocks, it is easy to implement hardware.
[0115]
In the period check 1, the halftone peak peak and the period of the halftone peak are checked.
The halftone peak interval is checked in the one-dimensional main scanning direction.
Since the number of halftone dots to be detected in the halftone peak detection is 100 lines or less, the number of halftone peaks is 8 or more. If it is less than 8, small characters are often erroneously determined. (At 600 dpi reading)
As shown in FIG. 24A, if L1 is 6 and L2 is 10,
Since the halftone peaks at the L1 interval are mostly small characters, the halftone peaks are removed. Since the L2 interval is almost always a low screen ruling halftone dot, it is not removed.
In the cycle check, a in FIG. 24 is corrected as shown in b in FIG.
[0116]
In period check 2, halftone dot valley peaks are performed in the same manner as period check 1.
The halftone peaks and the halftone valley peaks are independently performed because the halftone peaks and halftone valley peaks alternately appear near the halftone dot area ratio of 50%, and an accurate period does not appear. Is going.
The outputs of the period check 1 and the period check 2 are input to the halftone dot area detection units 2 and 3.
[0117]
The halftone dot area detection unit 2 performs period checks 1 and 2 to count halftone peak pixels of peaks and valleys for each two-dimensional small area of a predetermined size, and obtain halftone peak pixels of peaks and valleys. Is the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels of the small area (or only the central pixel of the small area in the case of processing in units of pixels) are determined to be a halftone dot area. The result of the determination is stored in the temporary memory.
[0118]
Further, the halftone dot region detection 3 performs period checks 1 and 2 or, and counts the halftone dot peak pixels of the peaks and valleys for each two-dimensional small region of a predetermined size. The sum of the pixels is set as the count value P of the small area. When the count value P is larger than the threshold value Pth, all the pixels of the small area (or only the central pixel of the small area in the case of processing in units of pixels) are determined to be a halftone dot area. The result of the determination is stored in the temporary memory B.
[0119]
If either the area detection unit 1 or the area detection unit 2 is a halftone area, it is determined according to the halftone / non-halftone determination result (peripheral feature information) of the processed area near the small area of interest. The threshold value Pth is adaptively changed. In the present embodiment, two values TH1 and TH2 (where TH1> TH2) are prepared as the threshold value Pth, and one of the two values is determined based on the determination result of the processed area near the small area of interest stored in the temporary memory. Select That is, when the nearby area is determined to be a non-dot area, it is highly likely that the area is a line drawing area. Therefore, TH1 for which the condition becomes severer to reduce erroneous detection is selected as the threshold Pth. On the other hand, if it is determined that the neighboring area is a halftone area, it is highly possible that the neighborhood area is a halftone area, so that TH2, under which the condition is relaxed, is used as the threshold Pth. Note that TH1 is selected as the initial value of the threshold value Pth.
[0120]
The AMP on FIG. 14 shows the distribution of the above-described small area. Each of S1 to S4 of the small area distribution pattern AMP is a small area (block) having a size of, for example, 4 × 4 pixels, and S4 is a small area of interest, and S1, S2, and S3 are processed small areas. And When it is determined that all of S1, S2, and S3 are halftone areas, Th2 is used as the threshold Pth for the determination of S4. When at least one of S1, S2, and S3 is determined to be a non-dot area, TH1 is selected as the threshold Pth. A halftone area detection signal ht of “1” is determined when it is determined to be a halftone area, and “0” is determined when it is determined to be a non-halftone area. However, this is only an example, and TH2 is selected when any one of S1, S2 and S3 is determined to be a halftone dot region, and TH1 is selected only when all of the small regions are determined to be non-halftone regions. May be selected. Further, the neighboring area to be referred to may be only S1 or only S2. This output result is a dot extraction result.
[0121]
If the area detector 3 is a halftone area, the threshold value Pth is adaptively changed according to the halftone / non-halftone determination result (peripheral feature information) of the processed area near the small area of interest. In the present embodiment, two values TH1 and TH2 (though TH1> TH2) are prepared as the threshold value Pth, and one of the two values is determined based on the determination result of the processed area near the small area of interest stored in the temporary memory B. Select a value. That is, when the nearby area is determined to be a non-dot area, it is highly likely that the area is a line drawing area. Therefore, TH1 for which the condition becomes severer to reduce erroneous detection is selected as the threshold Pth. On the other hand, if it is determined that the neighboring area is a halftone area, it is highly possible that the neighborhood area is a halftone area, so that TH2, under which the condition is relaxed, is used as the threshold Pth. Note that TH1 is selected as the initial value of the threshold value Pth.
[0122]
The AMP on FIG. 14 shows the distribution of the above-described small area. Each of S1 to S4 of the small area distribution pattern AMP is a small area (block) having a size of, for example, 4 × 4 pixels, and S4 is a small area of interest, and S1, S2, and S3 are processed small areas. And When it is determined that all of S1, S2, and S3 are halftone areas, Th2 is used as the threshold Pth for the determination of S4. When at least one of S1, S2, and S3 is determined to be a non-dot area, TH1 is selected as the threshold Pth. A halftone area detection signal ht of “1” is determined when it is determined to be a halftone area, and “0” is determined when it is determined to be a non-halftone area. However, this is only an example, and TH2 is selected when any one of S1, S2 and S3 is determined to be a halftone dot region, and TH1 is selected only when all of the small regions are determined to be non-halftone regions. May be selected. Further, the neighboring area to be referred to may be only S1 or only S2. This output result is a low screen frequency halftone dot extraction result.
The difference between the halftone dot extraction result and the halftone dot extraction result is that halftone dots are extracted only by inputting a low screen ruling in the halftone dot detection, so that only low screen ruling halftone dots can be extracted.
[0123]
-Color determination 325-
FIG. 28 shows a detailed block diagram of the color determination 325. When detecting a color (chromatic) pixel or a black (achromatic) pixel in a document, a relative reading shift of R, G, and B exists due to sampling of each color image data and mechanical accuracy. . This will be described with reference to FIG. FIG. 15A shows an image density signal. The black density signal is ideally black when the levels of the R, B, and G density signals match. However, actual image data is obtained by forming an image on a CCD with a lens and digitizing the image signal of the CCD. FIG. 15B shows an ideal high and low waveform. However, since a general scanner uses a three-line CCD sensor, R, G, and B images of image data are not read simultaneously at the same time. Since they are arranged at intervals and cannot be read at the same time in terms of time, a reading position shift will inevitably occur. For example, the R, G, and B color density signals representing the level change of black shown in FIG. 15B are relatively shifted as shown in FIG. If this shift is large, a color shift appears at the periphery of the black area.
[0124]
The color determination 325 is for finding a chromatic area. It is composed of four blocks: N-valued 1, N-valued 2, color judgment, and ACS.
[0125]
-N value conversion 1-
The input data R, G, and B are converted into signals of c, m, and y from 0 to 4 from the hue division in N-ary 1 (FIG. 30). Here, all of the hue division circuits 0 to 4 are the same and only the lines of the input data are different. As an example of the hue division, a boundary between respective colors is obtained, and a difference between a maximum value and a minimum value of each of R, G, and B image data in one pixel is defined as an RGB difference, and is as follows. Here, the R, G, B image data becomes black (darkens) as the number increases.
1). RY hue area boundary (ry)
R-2 * G + B> 0
2). Y-G hue area boundary (yg)
11 * R-8 * G-3 * B> 0
3). GC hue area boundary (gc)
1 * R-5 * G + 4 * B <0
4). CB hue area boundary (cb)
8 * R-14 * G + 6 * B <0
5). BM hue area boundary (bm)
9 * R-2 * G-7 * B <0
6). MR hue area boundary (mr)
R + 5 * G-6 * B <0
[0126]
7). W (white) pixel judgment for color judgment
If (R <thwa) & (G <thwa) & (B <thwa), then y = m = c = 0. thwa is a threshold value.
[0127]
8). Y pixel judgment
If (ry == 1) & (yg == 0) & (RGB difference> (thy + maximum value of RGB / 16)), then y = 1 and m = c = 0. thy is a threshold.
[0128]
9). G pixel judgment
If (yg == 1) & (gc == 0) & (RGB difference> (thg + maximum value of RGB / 16)), then c = y = 1 and m = 0. thg is a threshold value.
[0129]
10). C pixel judgment
If (gc == 1) & (cb == 0) & (RGB difference> (thc + maximum value of RGB / 16)), then c = 1 and m = y = 0. thc is a threshold value.
[0130]
11). B pixel judgment
If (cb == 1) & (bm == 0) & (RGB difference> (thb + maximum value of RGB / 16)), then m = c = 1 and y = 0. thb is a threshold value.
[0131]
12). M pixel judgment
If (bm == 1) & (mr == 0) & (RGB difference> (thm + maximum value of RGB / 16)), m = 1 and y = c = 0. thm is a threshold value.
[0132]
13). R pixel judgment
If (mr == 1) & (ry == 0) & (RGB difference> (thr + maximum value of RGB / 16)), then y = m = 1 and c = 0. thr is a threshold value.
[0133]
14). BK pixel judgment
7). ~ 13). , Y = m = c = 1.
[0134]
Here, in the priorities of 7) to 14), the smaller number is prioritized. The above-described thresholds thwa, thy, thm, thc, thr, thg, and thb are thresholds determined before copying (processing). The output signal is 3-bit data of 1 bit for each of c, m, and y. Here, changing the threshold value for each hue means that a threshold value corresponding to the hue region is determined when the chromatic range is different for each hue region. This hue division is an example, and any formula may be used.
The reason why the threshold value is changed according to the maximum value of RGB is that when the reflectance data is dark (the number is large), even if the color is a color, the difference in RGB becomes small, so that correction is performed for the difference.
[0135]
The output c, m, and y five-line data of the N-ary 1 are input to the color pixel determination (FIG. 33).
[0136]
−Color pixel judgment−
FIG. 33 shows the content of the color pixel determination. The data of c, m, and y for five lines are input to pattern matching 1, count 1, and color dot detection. First, pattern matching 1 in the flow for obtaining a B / C signal will be described.
[0137]
-Pattern matching 1-
The white level of the 5 × 5 pixel matrix centered on the target pixel increases. Next, the target pixel is a pixel (color pixel) in which all of c, m, and y of the pixels determined by the hue division are other than 1 (c = m = y = 1) or all 0 (c = m = y = 0). ) Is determined by checking whether the 5 × 5 pixel matrix matches the next pattern.
1). Color pixel pattern group
1-1). Pattern 1-1 (pm1)
D23 & D33 & D43
1-2). Pattern 1-2 (pm2)
D32 & D33 & D34
1-3). Pattern 1-3 (pm3)
D22 & D33 & D44
1-4). Pattern 1-4 (pm4)
D24 & D33 & D42
The center pixel (pixel of interest) is D33. FIG. 16 shows these patterns pm1 to pm4. White circles on these patterns indicate that at least one of c, m, and y is 1. The reason for employing the pattern matching is to prevent isolated points and the like from being picked up. Conversely, when detecting a small area color such as a halftone dot, a pixel (color pixel) whose central pixel is other than 1 (c = m = y = 1) or all 0 (c = m = y = 0) May be determined.
[0138]
2). Pattern group for color thin line
Detects color lines surrounded by white. The pattern used for this is shown in FIG. In FIG. 17, the pixels with white circles are pixels in which c, m, and y are all 0. If the distribution of data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw11a to pw14d in FIG. ) Is regarded as a color line pixel.
2-1). Pattern 2-1 (pw11a to pw11d)
((D12 & D13 & D14) & (D42 & D43 & D44)) #
((D12 & D13 & D14) & (D52 & D53 & D54)) #
((D22 & D23 & D42) & (D42 & D43 & D44)) #
((D22 & D23 & D42) & (D52 & D53 & D54))
2-2). Pattern 2-2 (pw12a to pw12d)
((D21 & D31 & D41) & (D24 & D34 & D44)) #
((D21 & D31 & D41) & (D25 & D35 & D45)) #
((D22 & D23 & D24) & (D24 & D34 & D44)) #
((D22 & D23 & D24) & (D25 & D35 & D45))
2-3). Pattern 2-3 (pw13a to pw13d)
((D11 & D21 & D12) & (D35 & D44 & D53)) #
((D11 & D21 & D12) & (D45 & D44 & D55)) #
((D13 & D22 & D31) & (D35 & D44 & D53)) #
((D13 & D22 & D31) & (D45 & D44 & D55))
2-4). Pattern 2-4 (pw14a to pw14d)
((D13 & D24 & D35) & (D41 & D51 & D52)) #
((D14 & D15 & D25) & (D41 & D51 & D52)) #
((D13 & D24 & D35) & (D31 & D42 & D53)) #
((D14 & D15 & D25) & (D31 & D42 & D53))
[0139]
3). White area pattern group
Pattern matching where c, m, and y are all 0 is performed. The pattern used for this is shown in FIG. In FIG. 18, the pixels with white circles are pixels in which c, m, and y are all 0. When the distribution of data (c, m, y) of the 5 × 5 pixel matrix centered on the target pixel (center pixel) matches any of the patterns pw21a to pw24d in FIG. ) Are considered as white area pixels.
3-1). Pattern 3-1 (pw21a to pw21d)
(D21 & D31 & D41) #
(D22 & D32 & D42) #
(D24 & D34 & D44) #
(D25 & D35 & D45)
3-2). Pattern 3-2 (pw22a to pw22d)
(D12 & D13 & D14) #
(D22 & D23 & D24) #
(D42 & D43 & D44) #
(D52 & D53 & D54)
3-3). Pattern 3-3 (pw23a to pw23d)
(D52 & D51 & D41) #
(D53 & D42 & D31) #
(D35 & D24 & D13) #
(D25 & D15 & D14)
3-4). Pattern 3-4 (pw24a to pw24d)
(D54 & D55 & D45) #
(D53 & D44 & D35) #
(D31 & D22 & D13) #
(D21 & D11 & D12)
[0140]
4). Determination of color pixel candidate 2
If the pattern matching result extracted above matches the following pattern, the pixel of interest is set as color pixel candidate 2 for color determination.
((Pm1 == 1) & ((pw11 == 1) # (pw21! = 1))) #
((Pm2 == 1) & ((pw12 == 1) # (pw22! = 1))) #
((Pm3 == 1) & ((pw13 == 1) # (pw23! = 1))) #
((Pm4 == 1) & ((pw14 == 1) # (pw24! = 1)))
Here, (pm1 == 1) means that the data distribution centered on the target pixel matches the pattern pm1, and (pw11 == 1) means that the data distribution matches any of the patterns pw11a to pw11d. (Pw21! = 1) means matching with any of the patterns pw21a to pw21d. & Indicates a logical product, and # indicates a logical sum. By this pattern matching, the color pixels surrounded by the white area are regarded as color pixel candidates, and when there is a white area in other areas, they are not regarded as color pixels. Those that match by color pixel pattern matching without a white region are color pixel candidates.
[0141]
Count 1−
The number of 1 (c = 1, m = 1, y = 1) of c, m, y of each pixel in the 5 × 5 pixel matrix centering on the target pixel is counted. If the difference between the maximum value and the minimum value of the count values for each of c, m, and y is equal to or more than thcnt and the minimum value is less than thmin, the color pixel candidate 1 is determined. thcnt and thmin are threshold values set before copying (processing). The planes are expanded to y, m, and c, the number is counted for each plane in an N × N matrix, and the minimum value is assumed to be black. As a result, even if reading of black pixels is omitted, correction can be performed. The chromatic pixel is determined based on the difference between the maximum value and the minimum value. Thus, the chromatic pixels are extracted by correcting the pixels from which the black pixels are not read. If there is a certain chromatic pixel in a 5 × 5 pixel matrix centered on the target pixel, the target pixel is determined to be a chromatic pixel.
[0142]
−Color dot detection−
A halftone dot with low saturation (dark halftone dot) is subjected to the following pattern matching in order to detect a dark halftone dot in order to be determined to be black in the count 1, and to detect a dark halftone dot. The feature of the dark halftone dot is detected as follows because black data and color data are mixed and white data does not exist.
[0143]
1). Non-white background detection
If there is no c = 0, m = 0, and y = 0 in the 5 × 5 matrix, it is determined to be a non-white background area. This is because dark halftone dots do not include white.
[0144]
2). Color dot pixel detection
Pattern matching is performed on pixels D determined as colors in a 5 × 5 matrix (c = 0, m = 0, y = 0, but not c = 1, m = 1, y = 1).
The expression is as follows.
(D11 & D15 & D33 & D51 & D55) #
(D13 & D31 & D33 & D51 & D55) #
(D12 & D14 & D21 & D22 & D33 & D41 & D45 & D52 & D54)
Here, the reason why there is a reference point outside the matrix is to prevent erroneous determination of color misregistration (see FIG. 34).
[0145]
3). Color dot detection
When a non-white background is detected and a color halftone pixel is detected, H is output assuming that a color halftone dot has been detected.
[0146]
−Color judgment−
In the chromatic determination, it is determined whether or not the pixel is a color pixel. If it is color pixel candidate 1 and color pixel candidate 2 and the color halftone dot is detected by color halftone dot detection, it is determined to be color pixel 1.
[0147]
-Blocking 1 × 4-
The output of the color determination chromatic detection is divided into blocks by 1 × 4. Blocking means that if there is one or more color pixels 1 in a 1 × 4 pixel matrix, the entire 1 × 4 pixel matrix is output as one color pixel block. In the processing after block formation 1 × 4, 1 × 4 pixels are output as one block as one block.
[0148]
−Removal of isolated points−
The isolated data is removed as an isolated point if there is no 4 × 1 color pixel block including the block adjacent to the target block by the isolated point removal 7 × 5.
The reason why the sub-scanning direction is set to 4 is to match the size because the main scanning is 4 pixels and 1 unit.
[0149]
−expansion−
The output of the isolated point removal is expanded to 17 lines × 5 blocks when one color pixel block exists by expansion. The expansion is performed so that black character processing is not performed around color pixels. Here, the output B / C signal outputs L (chromatic) when the color pixel is one block, and outputs H (achromatic) otherwise.
[0150]
-N-value 2-
The input data R, G, and B are converted into signals of c, m, y, and w (white) for color determination at 0 to 4 through hue division through a selector in N-ary 2 (FIG. 31). You. As an example of the hue division, a boundary between respective colors is obtained, and a difference between a maximum value and a minimum value of each of R, G, and B image data in one pixel is defined as an RGB difference, and is as follows. Here, the R, G, B image data becomes black (darkens) as the number increases.
The upper input data is selected when the magnification in the sub-scanning of the selector is 200% or less, and the lower input signal is selected when the magnification exceeds 200%.
That is, when the value is 200% or less, the evaluation is performed for five consecutive lines of the input data.
When it is 200% or more, the evaluation is performed by skipping one line of the input.
Here, by skipping one line, it is impossible to evaluate a thin line of one line in the next stage, but since the magnification is 200% or more, one line line is hardly evaluated.
In the present embodiment, this is achieved by thinning out the input data, but any means may be used as long as the data to be input for the ACS determination is every other line.
At 200% or more, the influence of disturbance (vibration) increases, so that erroneous determination of disturbance becomes difficult. Since the reference line is substantially doubled, the permissible amount of the reading position shift is also substantially doubled.
Only the evaluation of N-value conversion is switched, and the same processing is performed for color pixel determination. Therefore, the criteria for determining the color original before and after the switching do not change. Therefore, the criterion does not change by switching.
1). RY hue area boundary (ry)
R-2 * G + B> 0
2). Y-G hue area boundary (yg)
11 * R-8 * G-3 * B> 0
3). GC hue area boundary (gc)
1 * R-5 * G + 4 * B <0
4). CB hue area boundary (cb)
8 * R-14 * G + 6 * B <0
5). BM hue area boundary (bm)
9 * R-2 * G-7 * B <0
6). MR hue area boundary (mr)
R + 5 * G-6 * B <0
[0151]
7). W (white) pixel judgment for color judgment
If (R <thwa) & (G <thwa) & (B <thwa), then y = m = c = 0. thwa is a threshold value.
[0152]
8). Y pixel judgment
If (ry == 1) & (yg == 0) & (RGB difference> (thy + maximum value of RGB / 16)), then y = 1 and m = c = 0. thy is a threshold.
[0153]
9). G pixel judgment
If (yg == 1) & (gc == 0) & (RGB difference> (thg + maximum value of RGB / 16)), then c = y = 1 and m = 0. thg is a threshold value.
[0154]
10). C pixel judgment
If (gc == 1) & (cb == 0) & (RGB difference> (thc + maximum value of RGB / 16)), then c = 1 and m = y = 0. thc is a threshold value.
[0155]
11). B pixel judgment
If (cb == 1) & (bm == 0) & (RGB difference> (thb + maximum value of RGB / 16)), then m = c = 1 and y = 0. thb is a threshold value.
[0156]
12). M pixel judgment
If (bm == 1) & (mr == 0) & (RGB difference> (thm + maximum value of RGB / 16)), m = 1 and y = c = 0. thm is a threshold value.
[0157]
13). R pixel judgment
If (mr == 1) & (ry == 0) & (RGB difference> (thr + maximum value of RGB / 16)), then y = m = 1 and c = 0. thr is a threshold value.
[0158]
14). BK pixel judgment
7). ~ 13). , Y = m = c = 1.
[0159]
Further, the determination of the w pixel for color determination is performed. The conditions are as follows.
If (R <thw) & (G <thw) & (B <thw), the color pixel is set as w pixel and output as w. thw is a threshold value. Here, in the priorities of 7) to 14), the smaller number is prioritized. The above-described thresholds thwa, thy, thm, thc, thr, thg, and thb are thresholds determined before copying (processing). The relationship between thw and thwa is thw> tha. The output signal is 3-bit data of 1 bit each for c, m, and y, and 1 bit of w of color pixel detection for color determination. Here, the reason why the threshold value is changed for each hue is that a threshold value corresponding to the hue region is determined for each hue region when the chromatic range is different. This hue division is an example, and any formula may be used.
If the threshold value is changed according to the maximum value of RGB, when the reflectance data is dark (the number is large), even if the color is a color, the RGB difference is reduced, so that the correction is performed.
[0160]
The five-line data c, m, and y of the N-ary 2 are input to the ACS (FIG. 32).
[0161]
-ACS-
FIG. 32 shows the contents of the ACS determination. The data of c, m, and y for five lines are input to pattern matching 2 and 3, and counts 2, 3, and 4. First, pattern matching 2 in the flow of determining whether a document is a color document or a monochrome document will be described.
[0162]
-Pattern matching 2-
The same pattern matching (pattern matching 1) using the color determination is performed to be a color pixel candidate 2.
[0163]
-Count 2-
When a w pixel for color determination exists in a 5 × 5 pixel matrix centered on the pixel of interest, the c, m, and y data determined by N-value conversion 2 of the pixel is corrected to c = m = y = 0. I do. This correction increases the white level of the pixel matrix. Then, the number of 1 of c, m, and y (c = 1, m = 1, y = 1) of each pixel in the pixel matrix is counted. If the difference between the maximum value and the minimum value of the count value for each of c, m, and y is greater than or equal to thactnt and the minimum value is less than thamine, the pixel of interest is set as color pixel candidate 1. “thactnt” and “thamine” are threshold values set before copying (processing).
[0164]
-Chromatic judgment of chromatic detection 1 for ACS-
Based on the output of the pattern matching 2 and the count 2, the chromaticity determination of the ACS chromaticity detection 1 determines whether or not the pixel is a color pixel. If it is the color pixel candidate 1 and the color pixel candidate 2, the color pixel 2 is set.
[0165]
-Blocking of chromatic detection 1 for ACS-
The output of the color pixel determination 2 is made into blocks by blocking. That is, if there is one or more color pixels 2 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as two color pixel blocks. In the processing after block formation, 4 × 4 pixels are output as one block as one block.
[0166]
-Density of chromatic detection 1 for ACS-
In order to remove an isolated block, there are three or more active conditions (two color pixel blocks) in the 3 × 3 block, and if the target block is active (color pixel), the target block is set to the active block (two color pixel blocks). ).
[0167]
-Count 3-
The number of c, m, y 1 (c = 1, m = 1, y = 1) of each pixel in the 5 × 5 pixel matrix centering on the target pixel is counted. If the difference between the maximum and minimum count values of c, m, and y is equal to or greater than tha1cnt, and the minimum value of c, m, and y is less than tha1min, color pixel candidate 3 is determined. tha1cnt and tha1min are thresholds set before copying (processing).
[0168]
-Pattern matching 3-
Whether the pixel (c, m, y) determined by the color pixel detection is a color pixel is determined by pattern matching using a 5 × 5 pixel matrix. The pattern is the same as that of pattern matching 1. The pixel matched by the pattern matching is set as a color pixel candidate 4.
[0169]
-Chromatic judgment of chromatic detection 2 for ACS-
If it is the color pixel candidate 3 and the color pixel candidate 4, the color pixel 3 is set.
[0170]
-Blocking of chromatic detection 2 for ACS-
The output of the chromaticity determination of the chromaticity detection 2 for ACS is divided into blocks by the chromaticity detection 2 for ACS. That is, if there is one or more color pixels 3 in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as three color pixel blocks. In the processing after block formation, 4 × 4 is output as one block as one block.
[0171]
-Density of chromatic detection 2 for ACS-
In order to remove an isolated block, there are three or more active conditions (three color pixel blocks) in the 3 × 3 block, and if the target block is active (color pixel 3), the target block is set to the active block (color pixel 3). Block).
[0172]
-Count 4-
The number of 1 (c = 1, m = 1, y = 1) of c, m, y determined by hue division is counted for each pixel in the 5 × 5 pixel matrix centering on the target pixel. If the minimum value of each of the count values of c, m, and y is equal to or larger than thabk, the pixel of interest is set as black pixel candidate 1. thabk is a threshold value set before copying (processing).
Instead of determining a black pixel, the target pixel and surrounding pixels are looked at to find a black component, so that the thin line is displaced, so that the target pixel can be determined to be black even if it is not black.
[0173]
−Achromatic judgment−
If the pixel of interest is black pixel candidate 1, it is determined as a black pixel.
[0174]
-Blocking-
The output of the black pixel is blocked by blocking. Here, the term “blocking” means that if there is one or more black pixels in a 4 × 4 pixel matrix, the entire 4 × 4 pixel matrix is output as a black pixel block. In the processing after block formation, 4 × 4 pixels are output as one block as one block.
[0175]
−Achromatic expansion−
In the 3 × 3 block matrix, if the target block is active (black pixel block) and its surrounding pixels are non-active (non-black pixel), the target block is made non-active (non-black pixel block).
[0176]
−Color pixel judgment−
If the target block is determined to be active (color pixel 2) in ACS chromatic detection result 2 and not determined to be active (black pixel) in achromatic / achromatic detection, the target block is determined to be color (color block). I do. Also, when the chromatic detection result 1 for ACS is active (color pixel), it is determined to be a color.
[0177]
−9 × 9 expansion−
In order to regard a small character as continuous for a block determined to be a color in the color pixel determination, if there is at least one active block in a 9 × 9 block matrix centered on the target block, the target block is set to the active block. And Here, the reason for the large expansion is to fill the gap between the characters.
[0178]
−Continuous count−
In the continuous count, it is determined whether the original is a color original or a monochrome original by checking the continuity of the color pixel blocks. It is determined whether the original is a color original by counting the number of continuous color pixels in the expansion output data (color pixel block).
[0179]
FIG. 7 shows the content of this determination processing. When the target pixel is in the color pixel block, the color pixel continuation number of the target pixel is calculated by referring to the color pixel continuation numbers of the upper left, upper, upper right, and left pixels of the target pixel (steps 21 to 26). Here, assuming that the pixel of interest is, for example, the c3 pixel of the 5 × 5 pixel distribution pattern MPp in FIG. 11, the upper left, upper, upper right, and left pixels are pixels b2, b3, b4, and c2, respectively. If the target pixel is not in the color pixel block, it is given a color pixel continuation number of 0 (step 21-27).
[0180]
If the target pixel is in the color pixel block, the number of consecutive color pixels of the upper pixel (b3) of the target pixel (c3) is checked (step 22). A value obtained by adding 1 to the color pixel continuation number of (b4) is given (step 24). If the color pixel continuation number of the upper pixel (b3) is 0, the reference value A is set to the upper right pixel (b4) color pixel continuation number. (Step 23). Next, a value obtained by adding 1 to the number of continuous color pixels of the upper left pixel (b2) is given to the reference value B, and a value obtained by adding 1 to the number of continuous color pixels of the upper pixel (b3) is given to the reference value C. Further, a value obtained by adding 1 to the number of continuous color pixels of the left pixel (c2) is given to the reference value D (step 25). Then, the highest value among the reference values A, B, C and D is set as the color pixel continuation number of the pixel of interest (c3) (step 26).
[0181]
When the number of continuous color pixels is given to the pixel of interest (c3) as described above, it is checked whether or not the number of continuous color pixels is equal to or greater than a set value THACS (step 28). Is determined (step 29), and the process of the continuous count is ended there. If the number of continuous color pixels is less than the set value THACS, the pixel of interest is updated to the next pixel in the scanning direction x, y, and the above processing is repeated. As a result of performing the above-described processing for the entire surface of the document, if the number of continuous color pixels is less than the set value THACS to the end (steps 30 to 34), the document is determined to be a monochrome image.
[0182]
The above-described number of continuous color pixels is substantially the sum of a freshly colored segment and a horizontally colored segment. The number of continuous color pixels in the upper right is different from the others in order to prevent double counting. FIG. 19 shows specific data of the color pixel continuation number. The small squares with the numbers shown in FIG. 19 are the color pixels, and the numbers are the color pixel continuation numbers given to the pixels. A block formed by a series of small squares containing numbers is a color pixel group. If any one of the color pixel groups in any one of the color pixel groups on the same document exceeds the set value THACS, then the block is a color document. , Is determined (steps 28 and 29).
[0183]
The color pixel determinations 1 to 3 are provided to increase the accuracy of determining whether a document is a color document or a monochrome document. The color pixel determination for black character processing is local and inconspicuous even if an erroneous determination is made. However, the determination as to whether the document is a color document or a monochrome document affects the entire document if an erroneous determination is made. Therefore, the counts 1 to 4 are made independent. Originally, it is better to make the hue division independent. However, if the hue division is made independent, the number of memories for pattern matching 1 to 3 increases, which is not preferable. By changing the parameters of the color pixels (color pixels 1 to 3) with the parameters of counts 1 to 4 (color pixel candidates 1 and 3 and black pixel candidate 1), the increase in the memory amount is reduced. The color pixel determinations 2 and 3 are provided to detect a low-density color such as the yellow color of a highlighter pen, and the achromatic determination (black pixel determination) is erroneously detected when the density is reduced. This is to correct when it is done. There is no problem if a color having a low density such as a highlighter pen is corrected with black data in a certain width. When extracting a plurality of color pixels, only the level of w (white) is changed, so there is no need to have two memories for detecting color pixels, and a capacity of one plus one line is possible. is there.
[0184]
In the continuous count, the count value is counted by referring to the count data of the previous line and the count data of the current line, so that the continuation of peripheral pixels can be accurately counted, so the continuation of color pixels should be counted. Becomes possible. In the present embodiment, the hue determination is performed on the R, G, and B image data. However, the hue determination is not limited to the R, G, and B image data, and the hue determination is performed on the luminance color difference (for example, Lab). It is easy.
[0185]
−Overall judgment 326−
FIG. 29 is a detailed block diagram of the comprehensive judgment 326. The comprehensive judgment 326 includes character judgment, dilation processing, and decoding.
[0186]
−Character judgment−
In the character determination, when the result of the edge extraction 322 is an edge, the result of the halftone extraction 324 is no halftone, and the result of the white area extraction 323 is a white area, it is determined to be a character edge. Otherwise, it is determined to be a non-character edge (inside a picture or a character).
[0187]
-Expansion processing-
In the expansion processing, the result of the character determination is ORed for 8 × 8 blocks, and then the AND processing for 3 × 3 blocks is performed to perform expansion processing for 4 blocks. That is, if any of the 8 × 8 blocks centered on the block of interest is a character edge, it is assumed that the block of interest is also a character edge block, and all of the 3 × 3 blocks centered on the block of interest are If the target block is a character edge, the target block is determined as a character edge, and the target block and three blocks adjacent thereto are regarded as a character edge. The reason why the AND processing is performed after the OR processing is that, particularly in the case of a black character, if a small non-black character area exists around the black character area, a feeling of strangeness may be felt due to a difference in processing. For example, black looks faint. In order to prevent this, the non-black character area is enlarged by OR processing. The AND processing is performed to obtain a desired expansion amount.
[0188]
By the way, since a color copying machine scans four times to make one copy, the character judgment result slightly differs for each scan. In particular, if non-black character determination is performed during black image formation, and black character determination is performed at times other than black image formation, the black character area becomes thin. At the time of image formation other than bk by AND processing of × 3 blocks, OR processing of 5 × 5 blocks is performed, and then AND processing of 1 × 1 blocks is performed. Performing 1 × 1 AND processing is the same as not performing any processing because the result is the same as before the processing. The result of the dilation processing is output to a decode as a character edge signal.
[0189]
By performing the dilation processing in this manner, it is possible to prevent the character area from becoming thinner due to a different separation result. Although the middle part of the character may be darkened by this expansion processing, the density in the character is saturated with respect to the edge of the character, so that there is no apparent discomfort.
[0190]
FIG. 20 schematically shows an enlarged view of the overlapping of the colorants by color copying. FIG. 20D shows an ideal case in which black characters are processed for all four colors. FIG. 20 (e) shows a case where black characters are processed for all four colors and only bk is not corrected, but correction is applied to other colors than bk to make the image lighter. FIG. 20 (f) shows a preferred case in which black character processing is performed only on bk according to the present embodiment, and FIG. 20 (g) shows a case where black character processing is performed only on bk according to the present embodiment, and only bk is not corrected. , Bk are shown.
[0191]
FIG. 20A shows an ideal case where the amount of expansion is the same and black character processing is performed. FIG. 20B shows a case where the expansion amount is the same and the black character processing is performed and the printing position is shifted (whitened out). FIG. 20C shows a case where the expansion amount of bk is large, and a case where the printing position is shifted due to black character processing according to the present embodiment.
[0192]
−Decode−
The C / P signal finally output by the decoding is as shown in Table 5 below. FIG. 21 shows a pixel area corresponding to each output of the C / P signal.
[0193]
[Table 5]
Figure 2004104625
[0194]
Next, FIG. 3 is referred to again. The C / P signal and the B / C signal generated by the document recognition 320 are converted into RGBγ correction 310, RGB filter 330, color correction 340, scaling 350, interface 352, UCR360, CMYBk filter 370, CMYBkγ correction 380, and gradation processing 390. At the same time as the image data.
[0195]
The RGB filter 330 is a filter for performing MTF correction on RGB data, and includes a coefficient matrix corresponding to an N × N pixel matrix and logic for obtaining a weighted average value by multiplying each coefficient by each image data. When the C / P signal represents 1 (character edge area), a coefficient matrix for sharpening processing is used to represent 0 or 2, 3 (picture area, low-frequency halftone dot area, halftone dot area). ), A weighted average value is derived using the coefficient matrix for the smoothing process and output to the color correction 340. When the smoothing filters are arranged in the order of the smoothing amount, they are a low-frequency halftone dot area, a halftone dot area, and a picture area. The reason for this is that if the smoothness of the halftone dots is not increased, the halftone dot structure remains and causes moiré. Further, the halftone dots with a low ruling need to be smoothed more strongly than the halftones with a high ruling.
The color correction 340 converts the R, G, B data into C, M, Y data by a primary masking process or the like. The scaling 350 performs enlargement / reduction or equal magnification processing in the main scanning direction x on the image data.
[0196]
The UCR 360 is for improving the color reproduction of the image data. The common portion of the C, M, and Y data input from the color correction 340 is subjected to a UCR (addition removal) process to generate Bk data. It outputs M, Y, Bk data. Here, when the C / P signal is other than 1 (character edge area) (when the area is in a character area or a picture area), skeleton black processing is performed. When the C / P signal is 3 (character edge area), full black processing is performed. When the C / P signal is 1 (character edge area) and the B / C signal is H (achromatic area), C, M, and Y data are erased. This is because black characters are represented only by black components.
[0197]
The output point of the output image signal IMG of the UCR 360 is one color of C, M, Y, and Bk, and is a one-color output in a frame sequence. That is, full-color (four-color) data is generated by reading the document four times. In black-and-white copying, Bk image formation only needs to be performed once, so one original reading is sufficient. If there is a mechanism for determining whether a document is a color document or a black-and-white document, the number of readings according to the document is sufficient, so that the operator does not need to determine whether the document is a color document or a black-and-white document and copy the document. In the present embodiment, the B / C signal is a signal that is referred to for determining whether the document is a color document or a monochrome document. When the B / C signal is H (achromatic region) over the entire surface of the document, the main controller 10 determines that the document is a monochrome document.
[0198]
The CMYBk filter 370 performs smoothing and sharpening processing using an N × N spatial filter according to the frequency characteristics of the color printer 400 and the C / P signal. The CMYBkγ correction 380 changes and processes the γ curve according to the frequency characteristics of the color printer 400 and the C / P signal. When the C / P signal is other than 1 (other than the character edge area), a γ curve that faithfully reproduces an image is used, and when the C / P signal is 1 (character edge area), the γ curve is raised to enhance the contrast. .
[0199]
The gradation processing 390 performs quantization such as dither processing and error diffusion processing according to the gradation characteristics of the color printer 400 and the C / P signal. At the time of Bk image formation, when the C / P signal is other than 1 (other than the character edge area), the processing that emphasizes the gradation is performed, and when the C / P signal is other than 1, processing that emphasizes the resolution is performed. At the time of image formation other than Bk, when the C / P signal is 0 (pattern area), the process that emphasizes gradation is performed, and at other times, the process that emphasizes resolution is performed. The image data having undergone the above processing is provided from the video control 359 having a buffer memory to the color printer 400 in synchronization with the image data writing operation.
[0200]
The IPU 300 performs a smoothing process with the RGB filter 330, performs a skeleton black process with the UCR 360, and performs a linear (gradation) process with the CMYBkγ correction 380 when it is out of a character area (other than C / P signal = 1). The emphasizing curve is selected, and the CMYBk filter 370 and the gradation processing 390 perform processing emphasizing gradation.
[0201]
On the other hand, when character processing (C / P signal = 1 and B / C signal = L) is performed, an edge enhancement process is performed by the RGB filter 330, a full black process is performed by the UCR 360, and contrast is emphasized in the CMYBkγ correction 380. Is selected, and the CMYBk filter 370 and the gradation processing 390 perform processing emphasizing the resolution.
[0202]
In black character processing (C / P signal = 1 and B / C signal = H), C, M, and Y data are not printed during C, M, and Y image formation except for Bk. This is to prevent black characters from being colored due to misalignment around the black characters. Further, the RGB filter 330 of Bk data at this time may perform edge emphasis more strongly than in the case of a color character to make it clearer.
[0203]
As described above, the IPU 300 performs four types of processing of a picture, a character edge, a halftone dot, and a low frequency halftone dot.
[0204]
【The invention's effect】
As is clear from the above description, according to the present invention, the following effects can be obtained.
[0205]
According to the first aspect of the present invention, in a device for determining color pixels using a plurality of lines, means for inputting input data substantially every other line at a specific magnification at the time of enlargement is provided, so Color pixel determination can be performed without deteriorating performance. Further, since only the input data is switched, the color document determination reference does not change before and after the switching.
[0206]
According to the second aspect of the present invention, it is possible to provide a color scanner as an image reading unit to which the unit can be applied.
[0207]
According to the third aspect of the invention, it is possible to provide a color printer as an image forming unit to which the unit can be applied.
[0208]
According to the fourth and fifth aspects of the present invention, it is possible to provide a color copying apparatus to which the above means can be applied.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a mechanism of a digital full-color copying machine according to the present invention.
FIG. 2 is an outline of an electric system of a digital full-color copying machine.
FIG. 3 is a configuration block diagram of an image processing unit (IPU) 300.
FIG. 4 is a configuration block diagram of a document recognition 320.
FIG. 5 is an operation processing flowchart relating to updating of state variables MS and SS [I] used for white determination in white area extraction 323;
FIGS. 6A and 6B are images (a) and (b) of a 9 × 9 matrix serving as a basis for pattern matching of gray pixels.
FIG. 7 is a flowchart showing the content of a continuous count determination process of FIG. 32;
FIG. 8 shows a 600 dpi line pattern A and a 400 dpi line pattern B read at 600 dpi.
FIG. 9 shows patterns BPa to BPd of a 3 × 3 pixel matrix used for performing pattern matching in black pixel continuity detection and patterns WPa to WPd of 3 × 3 pixel matrix used in performing pattern matching for white pixel continuity detection. It is.
FIG. 10 shows a 3 × 3 pixel matrix pattern WBP of image data serving as a basis of RGB white background detection, and a 5 × 5 pixel matrix pattern RDPa, RDPb and 3 × 3 pixels of G image data serving as a basis of valley white pixel detection. It is an image of a matrix pattern BBP.
FIG. 11 shows a pattern MPp indicating the sign of each pixel of a 5 × 5 pixel matrix centered on a target pixel in color ground detection and patterns MCa to MCd indicating peripheral pixel groups of the target pixel used for color ground determination. It is an image of.
FIG. 12 shows a current processing line of a line memory LMP used in white determination in white area extraction 323, white background information SS [I] one line before the current processing line, and a 5 × 5 pixel matrix used in white pattern matching 9 is an image of PMPa to d having a continuity pattern of white pixels and a block pattern BCP used in white correction.
13 is a diagram illustrating black protrusions Bp1 to Bp4 that are replaced with white blocks by white block correction in the determination of white area extraction 323. FIG.
FIG. 14 is an AMP having surrounding pixel distribution patterns Mpa to Mpf to be subjected to detection processing of first and second halftone dot detection, and small area distribution patterns S1 to S4 divided for performing halftone dot area detection.
FIG. 15 is a waveform of a black density signal handled in the color determination 325, where the R, G, and B density signals are digitized by forming an image on a CCD and an ideal type (a) in which the levels match. It is an example (c) of an ideal type (b) at the time and a waveform having a general relative shift.
FIG. 16 is an image of a color pixel pattern group: pm1 to pm4 based on pattern matching 1 for color pixel determination in FIG.
17 is an image of a color thin line pattern group: pw11a to 14d serving as a basis for pattern matching 1 in color pixel determination in FIG.
FIG. 18 is an image of a white area pattern group: pw21a to 24d serving as a basis of pattern matching 1 for color pixel determination in FIG.
FIG. 19 is a specific example of data of the color pixel continuation number handled in FIG. 7;
FIG. 20 is a schematic enlarged view of the overlap of color materials by color copying in the overall judgment 326.
FIGS. 21A to 21D are images of (a) to (d) showing a pixel area corresponding to a C / P signal output in decoding of the comprehensive judgment 326.
FIG. 22 is a pattern showing each code of a 7 × 7 pixel matrix to be detected by the third halftone dot detection.
FIG. 23 shows surrounding pixel distribution patterns a and b to be detected by the third halftone dot detection.
FIG. 24 is an image before correction a and after correction b by a cycle check for checking the cycle of a halftone dot peak.
FIG. 25 is a detailed block diagram of edge extraction 322.
FIG. 26 is a detailed block diagram of white region extraction 323.
FIG. 27 is a detailed block diagram of the halftone dot extraction 324.
FIG. 28 is a detailed block diagram of a color determination 325.
FIG. 29 is a detailed block diagram of a comprehensive judgment 326.
30 is a block diagram of hue division circuits 0 to 4 constituting N-ary 1 in FIG. 28;
FIG. 31 is a block diagram of selector circuits 1 to 4 and hue division circuits 0 to 4 constituting the N-ary 2 in FIG. 28;
FIG. 32 shows details of ACS.
FIG. 33 shows details of color pixel determination in FIG. 28;
FIG. 34 is an image of a 5 × 5 matrix serving as a basis for pattern matching for color dot detection.
FIG. 35 shows the function of document recognition 320 by block division.
[Explanation of symbols]
320 Manuscript recognition
321 filter
322 Edge detection
323 White area extraction
324 Halftone dot extraction
325 color judgment
326 Overall judgment

Claims (5)

複数ラインを使用してカラー画素判定する画像処理装置において、
拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を備えることを特徴とする画像処理装置。
In an image processing apparatus that determines a color pixel using a plurality of lines,
An image processing apparatus, comprising: means for inputting input data substantially every other line at a specific magnification or more at the time of enlargement.
複数ラインを使用してカラー画素判定し、拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を有する画像処理装置に画像データを送信する画像読取装置において、
原稿画像を色分解して読み取って画像データを生成し、前記画像処理装置に送信するカラースキャナを備えることを特徴とする画像読取装置。
In an image reading apparatus for determining color pixels using a plurality of lines and transmitting image data to an image processing apparatus having means for inputting input data substantially every other line at a specific magnification at the time of enlargement,
An image reading device, comprising: a color scanner that separates and reads a document image to generate image data and transmits the image data to the image processing device.
複数ラインを使用してカラー画素判定し、拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を有する画像処理装置から画像データを受信する画像形成装置において、
前記画像データに対する出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とする画像形成装置。
In an image forming apparatus which receives image data from an image processing apparatus having means for inputting input data substantially every other line at a specific magnification or more at the time of enlargement by using a plurality of lines to determine a color pixel,
An image forming apparatus comprising: a color printer that prints out output image data corresponding to the image data on paper.
複数ラインを使用してカラー画素判定し、拡大時の特定倍率以上において、入力データを実質1ラインおきに入力する手段を有するカラー複写装置において、
原稿画像を色分解して読み取って画像データを生成し、画像処理装置に送信するカラースキャナを備え、
前記画像データに対する出力画像データを用紙上にプリントアウトするカラープリンタを備えることを特徴とするカラー複写装置。
In a color copying apparatus having a means for inputting input data substantially every other line at a specific magnification or more at the time of enlargement by using a plurality of lines to determine a color pixel,
A color scanner is provided that generates an image data by reading the original image by color separation and transmitting the image data to the image processing apparatus,
A color copying apparatus comprising a color printer that prints out output image data corresponding to the image data on paper.
外部端末からのプリント指示コマンドを解析して、前記カラープリンタにて前記外部端末からの画像情報をプリントアウトするプリンタコントローラを更に備えることを特徴とする請求項4に記載のカラー複写装置。The color copying apparatus according to claim 4, further comprising a printer controller that analyzes a print instruction command from an external terminal and prints out image information from the external terminal at the color printer.
JP2002266083A 2002-09-11 2002-09-11 Image processing, reading and forming device and color copying machine Pending JP2004104625A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002266083A JP2004104625A (en) 2002-09-11 2002-09-11 Image processing, reading and forming device and color copying machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002266083A JP2004104625A (en) 2002-09-11 2002-09-11 Image processing, reading and forming device and color copying machine

Publications (2)

Publication Number Publication Date
JP2004104625A true JP2004104625A (en) 2004-04-02
JP2004104625A5 JP2004104625A5 (en) 2006-02-23

Family

ID=32265028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002266083A Pending JP2004104625A (en) 2002-09-11 2002-09-11 Image processing, reading and forming device and color copying machine

Country Status (1)

Country Link
JP (1) JP2004104625A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2010213117A (en) * 2009-03-11 2010-09-24 Ricoh Co Ltd Image forming apparatus, image forming method, image forming program, and recording medium
JP2014014188A (en) * 2013-10-21 2014-01-23 Ricoh Co Ltd Image forming apparatus, image forming method, image forming program, and recording medium
CN112954854A (en) * 2021-03-09 2021-06-11 生迪智慧科技有限公司 Control method, device and equipment for ambient light and ambient light system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009111645A (en) * 2007-10-29 2009-05-21 Ricoh Co Ltd Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JP2010213117A (en) * 2009-03-11 2010-09-24 Ricoh Co Ltd Image forming apparatus, image forming method, image forming program, and recording medium
US8625149B2 (en) 2009-03-11 2014-01-07 Ricoh Company, Limited Apparatus and method controlling zooming process at laser device for high-speed high-resolution double-sided printing without wide-ranged image degradation or banding
JP2014014188A (en) * 2013-10-21 2014-01-23 Ricoh Co Ltd Image forming apparatus, image forming method, image forming program, and recording medium
CN112954854A (en) * 2021-03-09 2021-06-11 生迪智慧科技有限公司 Control method, device and equipment for ambient light and ambient light system
CN112954854B (en) * 2021-03-09 2023-04-07 生迪智慧科技有限公司 Control method, device and equipment for ambient light and ambient light system

Similar Documents

Publication Publication Date Title
JP3983101B2 (en) Image processing apparatus, image reading apparatus, image forming apparatus, and color copying apparatus
US7139100B2 (en) Image-processing device processing image data by judging a detected and expanded medium-density field as a non-character edge field
US6965695B2 (en) Method and system for processing character edge area data
JP4010434B2 (en) Image processing, forming and color copying equipment
JP4380696B2 (en) Image processing device
JP4063480B2 (en) Image processing device
JP2004104625A (en) Image processing, reading and forming device and color copying machine
JP2004153563A (en) Image processing device, image readout device, image forming device and color copying device
JP2007215204A (en) Image processing apparatus
JP4833893B2 (en) Image processing apparatus, image processing method, image reading apparatus, image forming apparatus, copying apparatus, program, and computer-readable recording medium
JP4320309B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JP4695472B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and storage medium
JP2005051353A (en) Image processor, image reader, image forming apparatus, computer program, and recording medium
JP2003259115A (en) Image processor, image reader, image forming device, and color copying machine
JP2007006526A (en) Image processor, low-linear-density dot region detecting unit, image scanner, image forming apparatus and color copier
JP2006014094A (en) Image processor, image reader, image forming device, color copier, image processing program, and recording medium
JP2006005680A (en) Image processor, image scanner, image forming apparatus, and color copying machine
JP3982669B2 (en) Image processing device
JP4133674B2 (en) Image processing apparatus, image reading apparatus, and color copying apparatus
JP2004112725A (en) Image processing apparatus, image reading apparatus, image forming apparatus, and copying machine
JP2009111645A (en) Color pixel determining device, image processing apparatus, image forming apparatus, color pixel determining method and color pixel determination program
JPH0541796A (en) Copying machine
JP2004112355A (en) Image processing apparatus
JP2005341417A (en) Image processing apparatus, storage medium, image scanner, and image forming apparatus
JPH10210314A (en) Digital image-processing unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070807