JP3861352B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3861352B2
JP3861352B2 JP02851897A JP2851897A JP3861352B2 JP 3861352 B2 JP3861352 B2 JP 3861352B2 JP 02851897 A JP02851897 A JP 02851897A JP 2851897 A JP2851897 A JP 2851897A JP 3861352 B2 JP3861352 B2 JP 3861352B2
Authority
JP
Japan
Prior art keywords
image
image data
pixels
unit
pattern determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02851897A
Other languages
Japanese (ja)
Other versions
JPH10202952A (en
Inventor
信男 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP02851897A priority Critical patent/JP3861352B2/en
Publication of JPH10202952A publication Critical patent/JPH10202952A/en
Application granted granted Critical
Publication of JP3861352B2 publication Critical patent/JP3861352B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Dot-Matrix Printers And Others (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、多値のデジタル画像データを入力し、このデジタル画像データに所定の画素を新たに追加することによって、画像の傾斜部分に生じるジャギー(ぎざぎざ)を低減(スムージング)する画像処理を施し、画像処理後のデータをレーザビームプリンター等を用いて出力するために使用される画像処理装置に関するものである。
【0002】
【従来の技術】
従来、上記デジタル画像データに画像処理を施して画像を出力するプリンターとしては、感光体ドラム上に画像データに応じてレーザビームを照射することにより、画像の記録を行う電子写真方式のレーザビームプリンターが広く普及している。このレーザビームプリンターでは、入力ビットマップ画像に対応してレーザビームの点灯時間を変化させて画像の形成を行うが、その際画像の斜線や曲線部あるいはエッジ部等の傾斜部分に生じるジャギー(ぎざぎざ)を低減させるために、画像処理装置を用いて画像処理を施している。
【0003】
上記ジャギーを低減させる技術としては、米国特許第4、437、122号の明細書に開示されているように、入力ビットマップ画像を3×3画素にブロック化し、パターンマッチングにより中心画素を9倍の画素密度に変換し、ジャギーを低減させる方式が知られている。
【0004】
このパターンマッチングによりジャギーを低減させる技術は、多値のデジタル画像データを入力し、この多値のデジタル画像データを二値化した後に、パターンマッチングにより中心画素を9倍の画素密度に変換して、図34に示すように、デジタル画像データに所定の画素を新たに追加することによって、画像の傾斜部分に生じるジャギーを低減するものである。このデジタル画像データに所定の画素を新たに追加する場合は、例えば、図34(a)に示すように、左下から右上に向けて45度に傾斜した階段状のデジタル画像データに対して、図34(b)〜(e)に示すように、デジタル画像データの左側の端部に26〜102というように、画像データに応じて異なった濃度レベルの画素を傾斜部分に追加することによって、画像の傾斜部分に生じるジャギーを低減するようになっている。
【0005】
また、上記の如く画像データに新たな画素を追加することによって、画像の傾斜部分に生じるジャギーを低減するスムージング処理を、全ての画像に対して一様に施すことによる弊害を防止する技術としては、例えば、特開平4−189564号公報等に開示されているものがある。すなわち、この特開平4−189564号公報に係る出力方法は、画像データに新たに補充ドットを追加することによりスムージング処理を施す方法であって、特に同一ページ内に文字とイメージが混在した文書を出力する場合に、文字領域か又はイメージ領域かを識別し、文字領域に対してはスムージングをかけ(スムージングON)、イメージ領域に対してはスムージングをかけない(スムージングOFF)処理を施す出力方法である。
【0006】
【発明が解決しようとする課題】
しかしながら、上記従来技術の場合には、次のような問題点を有している。すなわち、上記特開平4−189564号公報に係る出力方法の場合は、図34に示すように、基本的に元の画像データに補充ドットを追加することによりスムージング処理を施すものであって、元の画像データから疑似的に別のデータを作り出してしまうものである。そのため、上記特開平4−189564号公報に係る出力方法の場合は、文字領域といえどもスムージング処理を施すと、文字境界部のドット数が増えることになり、文字を表す線が太る傾向にある。この場合、大きい文字、例えば4ポイント(pt)以上の文字に対してスムージング処理を施す分には、多少文字が太っても特に問題とはなり難いが、逆に小さい文字、例えば、4pt未満の文字で、かつ比較的画素密度の高い文字、例えば、画数の多い文字、例えば、6画以上の文字である漢字や、字体がゴシックの文字に対しても同じくスムージング処理を施すと文字がつぶれ易くなってしまうという問題点があった。また、このような文字のつぶれという問題点は、文字の大きさと同様、あるいはそれ以上に画素密度が高い文字ほど発生し易くなる傾向にある。
【0007】
上記の問題点を更に具体的に説明すると、図35は「行」という漢字のへん:彳の一部を拡大した例であり、この図35は、その彳の「はらい」の部分が最も接近したところを示したものである。このような場合に、図35の(e)に示す濃度レベル「102」の画素200を、文字の右上がりの傾斜部分201、202における下側及び上側の傾斜部に新たに追加するスムージング処理を施すと、出力画像の間が最も近づく最短距離L1が小さくなり、現像時に出力画像間の最短距離L1間にトナーが埋まってしまう現象(文字のつぶれ)が起きるという問題点を生じる。また、このような場合、漢字:行のへんである彳の「はらい」の画素部分が最も接近するところは、「行」という文字の大きさが小さくなればなる程、画素間の間隙が小さくなるため発生しやすくなる、つまり接近する箇所が増えることになって、文字を表す線の間のつぶれる箇所が増え、文字そのものがつぶれやすくなるという問題点を生じる。更に言えば、「行」という文字に限らず、小さい文字でかつ像密度が高い文字の場合は、像密度が高くなる程発生しやすくなる、つまり上記と同様に接近する箇所が増えることになって、文字を表す線の間のつぶれる箇所が増え、文字そのものがつぶれやすくなるという問題点を生じる。
【0008】
そこで、従来技術のこうした問題点(文字のつぶれ)を解決するためには、▲1▼ある所定サイズ(例えば、4pt)未満の文字に対してはスムージング処理をかけないようにするという方法も考えられるが、この場合には、所定サイズ(例えば、4pt)を境にして画像を出力した結果に違いが生じ、この画像の出力結果の違いが目立ってしまい、違和感を与えるという問題点が新たに生じる。
【0009】
また、上記の問題点を解決するためには、▲2▼ある所定サイズ(例えば、4pt)未満の文字に対しては、文字(フォントデータ)自体を変形させる(ビットマップ上でドットを間引く)という技術も既に提案されているが、この場合も所定サイズ(例えば、4pt)を境にして画像を出力した結果に違いが生じ、この画像の出力結果の違いが目立ってしまい、違和感を与えるという問題点が新たに生じる。
【0010】
そこで、この発明は、上記従来技術の問題点を解決するためになされたもので、その目的とするところは、文字を含む画像データにスムージング処理を施した場合でも、文字の大きさあるいは画素密度によって、文字のつぶれが発生するのを防止することが可能であり、しかも所定の文字サイズ等でフォントデータあるいはスムージング処理の有無を切り換えた場合のように、その変化点で違和感を与えることのない画像処理装置を提供することにある。
【0011】
【課題を解決するための手段】
すなわち、請求項1に記載された発明は、入力された多値画像データの画素の配列を判定する画像パターン判定部と、この画像パターン判定部による判定結果に基づいて、画像のエッジ部の凹部に所定の画素を追加することにより、スムージング処理を施すスムージング処理部とを有する画像処理装置において、前記画像パターン判定部は、入力された多値画像データの画素の配列を判定するとともに、前記スムージング処理部は、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズとに応じて施すスムージング処理の強度を複数段階備え、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズに応じてスムージング処理の強度を変化させるように構成されている。
【0012】
また、請求項2に記載された発明は、入力された多値画像データの画素の配列を判定する画像パターン判定部と、この画像パターン判定部による判定結果に基づいて、画像のエッジ部の凹部に所定の画素を追加することにより、スムージング処理を施すスムージング処理部とを有する画像処理装置において、前記画像パターン判定部は、入力された多値画像データの画素の配列を判定するとともに、前記スムージング処理部は、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の画素密度とに応じて施すスムージング処理の強度を複数段階備え、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の画素密度に応じてスムージング処理の強度を変化させるように構成されている。
【0013】
また、請求項3に記載された発明は、入力された多値画像データの画素の配列を判定する画像パターン判定部と、この画像パターン判定部による判定結果に基づいて、画像のエッジ部の凹部に所定の画素を追加することにより、スムージング処理を施すスムージング処理部とを有する画像処理装置において、前記画像パターン判定部は、入力された多値画像データの画素の配列を判定するとともに、前記スムージング処理部は、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズ及び画素密度とに応じて施すスムージング処理の強度を複数段階備え、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズ及び画素密度に応じてスムージング処理の強度を変化させるように構成されている。
【0014】
【発明の実施の形態】
以下にこの発明を図示の実施の形態に基づいて説明する。
【0015】
図1はこの発明の一実施の形態に係る画像処理装置におけるスムージング処理の基本的なやり方を示す模式図である。
【0016】
図1は右上がり45度の斜線の画像1を例にとり、斜線の段差部2に追加する画素3の濃度レベル(画素幅)を複数の段階に渡って変更することにより、スムージング処理の強度(斜線部ジャギーの滑らかさの度合い)が徐々に変化する様子を示した図である。図1(a)〜(e)では、共通に、追加する画素3を全て段差部寄り(右寄り)に寄せて付加している。図1(a)はスムージング処理を施さなかった場合を、図1(b)〜(e)はそれぞれ26、51、77、102の濃度レベル(画素の濃度レベルの範囲は0〜255)を持つ画素を追加した場合を示すものである。また、図1(a)〜(e)に共通に、図中の符号aを付した長方形の斜線部分は、パルス幅変調後のレーザドライブ信号を、符号bを付した長方形内の縦の楕円部分は、この発明を適用したレーザビームプリンターの感光体ドラムに照射されるレーザビームのビームスポットを、符号cを付した曲線部分は、実際に記録用紙上に記録される出力画像を、それぞれ模式的に表したものである。図1(a)〜(e)から明らかなように、画像1の段差部2に追加する画素の濃度レベル(画素幅)を複数段階に変更することにより、スムージング処理の強度が徐々に変化することがわかる。更に、図1に示す右上がり45度の斜線の画像1の場合には、図1(b)(c)(d)(e)となるにつれて、スムージング処理の強度が徐々に強くなる、つまり斜線部におけるジャギーの滑らかさの度合いが増すことが分かる。なお、追加する画素の濃度レベル(画素幅)を、図1(e)よりも更に高めると却って段差部2が太ってしまい、逆にスムージング処理の強度は弱くなってしまうことになる。
【0017】
スムージング処理を行うために画像1に追加される画素3としては、例えば、右上がり45度の斜線の画像1の場合には、濃度レベル(画素幅)”102”の画素3が用いられるが、他の画像1の場合には、それに応じて適宜定められた濃度レベルの画素3が段差部2などに追加されるようになっている。
【0018】
図2はこの発明に係る画像処理装置を適用可能なカラーのレーザビームプリンターを示す構成図である。ここで、この発明に係る画像処理装置は、カラーのレーザビームプリンターに限らず、もちろん白黒のレーザビームプリンターにも同様に適用することができるものである。
【0019】
図2において、21は像担持体としての感光体ドラムを示すものであり、この感光体ドラム21は、図示しない駆動手段によって矢印方向に沿って所定の回転速度で回転駆動されるようになっている。上記感光体ドラム21の周囲には、当該感光体ドラム21の表面を均一に帯電させるスコロトロン帯電器22と、レーザ光学系23と、それぞれイエロー・マゼンタ・シアン・ブラックの各色の現像剤を収容した4個のカラー現像器24a、24b、24c、24dと、転写帯電器25と、上記感光体ドラム21上に順次形成される各色のトナー像を互いに重ね合わせた状態で転写保持する中間転写体ベルト26とが、感光体ドラム21の回転方向に沿って順次配置されている。また、上記中間転写体ベルト26の周囲には、当該中間転写体ベルト26上で互いに重ね合わされた所定の色数のトナー像を、所定のタイミングで中間転写体べルト26と対応する位置に搬送される記録用紙20上に一括して転写するためのトランスファーロール27と、この所定色数のトナー像が転写された記録媒体としての記録用紙20を、次に述べる定着器29まで搬送する搬送ベルト28と、この搬送ベルト28によって搬送された記録用紙20上にトナー像を定着する定着器29とが配置されている。
【0020】
なお、上記感光体ドラム21の表面を均一に帯電させるスコロトロン帯電器22としては、2色目以降の画像形成時にも安定して均一な帯電が可能なように、放電ワイヤを2本以上用いたスコロトロン帯電器を使用するのが望ましい。
【0021】
また、上記カラー現像器24a、24b、24c、24dとしては、例えば、公知の構成からなる2成分現像装置を用いることができるが、特にトナーとキャリアよりなる2成分現像剤の穂立ちの先端が、感光体ドラム21の表面及び2色目以降の感光体ドラム21上に形成されるトナー像に接触しないように、現像ロール上に担持された2成分現像剤の穂立ちが空隙を介して感光体ドラム21の表面と対向するように配置したものが用いられる。さらに、上記各カラー現像器24a、24b、24c、24dに印加する現像バイアスとしては、感光体ドラム21上に形成されたトナー像を乱さないように、かつ所望の高画質が得られるように交流電圧を重畳した直流電圧(DC+AC電圧)を印加するように設定するのが望ましく、例えばその内現像バイアスのAC成分が調整される。
【0022】
図3は図2のレーザビームプリンタに使用されるレーザ光学系を示す概略構成図である。
【0023】
このレーザ光学系23は、後述するレーザ駆動回路によって駆動される半導体レーザ31と、コリメータレンズ32と、ポリゴンミラー33と、fθレンズ34とから構成されている。そして、上記半導体レーザ31は、後述するレーザ駆動回路によって変調されてオンオフ動作を行い、所謂パルス幅変調方式によって変調されたレーザビーム35を出射する。この半導体レーザ31から出射されたレーザビーム35は、コリメータレンズ32を介してポリゴンミラー33の表面に照射されるとともに、高速で回転するポリゴンミラー33の表面によって反射偏向され、fθレンズ34を介して感光体ドラム21上に主走査方向(感光体ドラム21の軸方向)に沿って走査露光される。
【0024】
上記のごとく構成されるレーザビームプリンターでは、図2に示すように、感光体ドラム21の表面がスコロトロン帯電器22によって所定の電位に一様に帯電された後、当該感光体ドラム21の表面には、レーザ光学系23により第1色目の画像情報に応じた画像が走査露光されて静電潜像が形成される。この感光体ドラム21上に形成された第1色目の静電潜像は、第1色目の現像器たとえばイエローのカラー現像器24aにより現像されてトナー像となる。この第1色目のイエローのトナー像は、転写位置において転写帯電器25の帯電により、中間転写体ベルト26上に静電的に転写される。その後、上記第1色目のトナー像が中間転写体ベルト26上に転写された感光体ドラム21は、図示しない清掃手段によって清掃され、再度帯電・露光・現像工程が上記と同様に所定の色数分だけ繰り返され、感光体ドラム21上に順次形成されるイエロー・マゼンタ・シアン・ブラックの4色のトナー像は、互いに重ね合わされた状態で中間転写体ベルト26上に順次転写される。そして、この中間転写体ベルト26上に転写された4色のトナー像は、所定のタイミングで中間転写体ベルト26に記録用紙20を介して接触するトランスファーロール27によって記録用紙20上に一括して転写された後、この記録用紙20は、搬送ベルト28によって定着器29へと搬送される。この定着器29により4色のトナー像が熱及び圧力で溶融混合されて記録用紙20上に定着され、記録用紙20が機外に排出されてカラー画像の形成工程が終了する。
【0025】
また、上記各色のトナー像の転写工程が終了した感光体ドラム21の表面は、図示しない除電器によって残留トナーの電荷が消去されるとともに、ブレードを有する清掃装置によって残留トナー等が除去された後、除電ランプによって更に残留電荷が消去され、次のカラー画像形成工程に備える。
【0026】
なお、この実施の形態では、レーザビームプリンターとして、中間転写体ベルト26を用いてフルカラーの画像を形成する装置について説明したが、これに限定されるものではなく、感光体ドラム上に形成される各色のトナー像を中間転写ドラム上に保持された記録用紙や中間転写媒体上に順次転写することによって、フルカラーの画像を形成するものや、複数の感光体ドラムを備え、各感光体ドラムで形成された複数のトナー像を、各感光体ドラムの転写位置に順次搬送される記録用紙上に順次転写することによりフルカラーの画像を形成する所謂タンデム型のカラー画像形成装置等であっても良いことは勿論である。また、上記レーザビームプリンターは、前述したように、白黒のレーザビームプリンターであっても良いことは勿論である。
【0027】
図4は上記レーザビームプリンターに適用されるこの発明の一実施の形態に係る画像処理装置を示すブロック図である。
【0028】
このレーザビームプリンターで記録される画像データとしては、例えば、8ビットの0〜255までの256階調で、値が大きくなると濃度が濃くなるように量子化されているものが用いられる。すなわち、白黒の画像データの場合、「0」は「白」を表し、「255」は「黒」を意味する。また、カラーの画像データの場合は、例えば、「赤(R)、赤(R)、緑(緑)」、「マゼンタ(M)、シアン(C)、イエロー(Y)」、「明度(L* )、色相(H* )、彩度(C* )」あるいは「L* * * 」等々、一つの画像データを複数のコンポーネントで表すことが一般であり、この場合は、例えば、8ビットの0〜255までの256階調で表された各コンポーネント毎に以下に示す実施の形態を同様に適用すれば良い。
【0029】
図4において、入力された多値の画像データは、エッジ検出部40と二値化部41に入力され、二値化部41で多値データが二値化された後、パターンマッチング部42に入力される。エッジ検出部40では、入力された多値画像データのエッジの有無および方向を検出し、画像データにエッジ方向フラグを付加して出力する。また、パターンマッチング部42では、二値化データのジャギーを低減するような「二値→多値変換」を施し、さらにエッジ方向を示すフラグも生成する。合成部43では、エッジ検出部40とパターンマッチング部42の出力を合成し、波形制御スクリーン部44へ画像データとエッジ方向ブラッグを出力する。波形制御スクリーン部44では、入力された画像データとエッジ方向フラッグから、レーザビームの「オン/オフ」信号を生成する。
【0030】
図5は、エッジ検出部の内部構成を示している。1ラインメモリ45、46は、それぞれ画像データを1ライン記憶することが可能なメモリであり、入力された画像データに空間フィルタリング処理を行うためのブロック化処理を行う。3×3フィルター部47は、ブロック化された画像データにフィルタリング処理を行い、画像データのエッジ方向を検出してエッジ方向フラグ2ビットを出力する。ディレイ部48は、入力された画像データと3×3フィルター部47から出力されるエッジ方向フラグとの同期合わせを行うためのものである。エッジ信号付加部49では、ディレイ部48から出力される画像信号8ビットと、3×3フィルター部47から出力されるエッジ2ビットを合成して、10ビットの信号として出力している。エッジ信号付加部49の出力信号は、図6に示すように、10ビットの内、上位2ビットがエッジ方向を表すフラグで、下位8ビットが画像信号である。
【0031】
次に、3×3フィルター部47について図7を用いて更に詳細に説明する。入力された画像データは、注目画素を中心に3×3の9画素にブロック化される。このブロック化された画像50に4種類の係数51、52、53、54を用いて畳み込み演算を行い、それぞれの演算結果が4種類のエッジ信号EG−1、EG−2、EG−3、EG−4となる。最大エッジ検出部55では、4種類のエッジ信号EG−1、EG−2、EG−3、EG−4のそれぞれの絶対値を求め、4つの絶対値の中で最大のものをエッジキャンセル部56に出力し、最も大きな絶対値を示すエッジ信号の番号(1、2、3、4のいずれか)をエッジ方向フラグ生成部57に出力する。エッジ方向フラグ生成部57には、最大エッジ検出部55から出力される最大エッジ番号と、4種類のエッジ信号EG−1、EG−2、EG−3、EG−4が入力されている。最大エッジ番号により、4種類のエッジ信号EG−1、EG−2、EG−3、EG−4の内、一つを選択し、更に選択されたエッジ信号の符号(正、負)によりエッジ方向が決定され2ビットのエッジ方向フラグが生成される。例えば、最大エッジ番号が「2」でEG−2の値が「正」の場合には、注目画素のエッジ方向は「左」となる。ここで、図8(a)のように、上から下に向かって濃度が低下する場合を「上エッジ」、図8(b)のように、左から右に向かって濃度が低下する場合を「左エッジ」と言うことにする。2ビットのエッジ方向フラグは、図9に示すように「00」はエッジなし、「01」は上または下エッジ、「10」は右エッジ、「11」は左エッジを意味する。
【0032】
以上のように、エッジ方向フラグ生成部57では全ての画素についてエッジ方向フラグ「01」「10」「11」のいずれかが生成される。エッジキャンセル部56においては、最大エッジ検出部55から出力される最大エッジ絶対値が一定値以下の場合には、エッジ方向フラグが「00」にリセットされる。
【0033】
図10は、パターンマッチング部42の内部構成を説明する図である。二値化部41では図11に示すように、入力された画像データが「255」の時に「1」を出力し、入力画像データが「255未満」の場合には「0」を出力する。二値化部41で生成された1ビットの信号は1ラインメモリ60、61を用いてブロック化され、3×3パターンマッチング部62に入力される。
【0034】
図12は、3×3パターンマッチング部62を更に詳細に説明する図であり、1ラインメモリ60、61を用いて注目画素を中心に3×3ブロック化される9画素の各々のデータがルックアップテーブル用ROM63のアドレスに接続されている。ルックアップテーブルでは、図13、図14に示すパターン以外の場合には、注目画素「e」の値が「0」の場合には、画像データ「0」エッジ方向フラグ「00」を、注目画素「e」の値が「1」の場合には、画像データ「255」エッジ方向フラグ「00」を出力する設定がされており、図13、図14に示すパターンの場合には、各々の表中に示した、画像データ及び、エッジ方向フラグが出力され、図6に示すフォーマットの10ビットデータとして出力する。
【0035】
パターンマッチング部62では、多値画像データ中の「255」の濃度値の連続性から、「255」濃度の画素が斜め方向に連続している場合に、そこでのジャギーを低減する効果がある。
【0036】
図15は、合成部43の内部構成を表している。合成部43にはエッジ検出部40とパターンマッチング部42の出力を合成する部分であり、合成の論理は、パターンマッチング部42の画像データに注目し、パターンマッチング部42から合成部43に入力される画像データが「0」または「255」の場合には、エッジ検出部40から入力される画像データ及びエッジ方向フラグを合成部の出力する。また、パターンマッチング部42から合成部43に入力される画像データが「0」でなく、且つ、「255」以外の場合には、パターンマッチング部42から入力される画像データ及びエッジ方向フラグを合成部43の出力とする。以上のように、合成部43ではパターンマッチング部42で「0」又は「255」以外のデータが出力された場合、つまり多値画像データ中の「255」濃度の画素が斜め方向に連続している場合には、この斜め方向のジャギーを低減するために生成した画素値を優先して出力することになる。
【0037】
波形制御スクリーン部44では、図16に示すように、合成部43から入力される多値画像データ8ビットをD/Aコンバーター71を介してアナログ値に変換し、エッジ方向フラグによってセレクタ72で選択される三角波とコンパレータ73で比較し、レーザ制御信号を生成する。
【0038】
ここで、セレクタ72で選択される三角波の波形は、図17に示すように、画素クロックの2倍の周期を持ち、180度位相の異なる三角波Aと三角波B、及び画素クロックと同じ周期を持つ三角波Cである。また、エッジ方向フラグと選択される三角波の関係を図18に示す。
【0039】
ここで例を挙げて説明をする。図19に示すような、画像データとエッジ方向フラグが波形制御スクリーンに入力されると、図19の一番下の段に示した三角波が選択される。このようにして選択された三角波により生成されるレーザ制御信号を模式的に表したのが、図20である。ここで、この実施の形態のレーザビームプリンターは、レーザビームを感光体ドラム上に照射した場所にトナーが付着し、用紙上に黒イメージとして出力される所謂イメージライテイング方式のプリンターであるとする。ここで、図19に示した画像データを波形制御することなしに、画素クロックと同じ周期を持つ三角波Cを使ってレーザ制御信号を発生した場合を図21に示す。図21と図20を比べると、波形生後を行っている図18の方が、レーザ制御信号が中央部に集中しているのに対して、図20はレーザオンの信号が3つに分断されており、図20の方が感光体上に綺麗な電子的潜像を生成可能である。また、図18に示したように、画素クロックと同じ周期の三角波Cを選択するのは上下方向のエッジ方向フラグが画像信号と同期して入力された時だけで、通常のエッジなしの状態、つまりエッジ方向フラグが「00」の場合には、画素クロックの周期の2倍の周期を持つ三角波Aを選択している。このことは、例えば、400dpi(ドット/インチ)の画素濃度で印字可能なプリンターにおいては200lpi(ライン/インチ)の万能スクリーンを用いて出力画像を生成することになる。この理由は、特に濃度の薄いハイライトの部分を出力する際に、図22(a)(b)に示したように、画素クロックと同じ周期の三角波を用いて、レーザ制御信号を生成すると(図22(a)参照)と比較してレーザオンの時間が非常に短くなり、このようにレーザ照射時間が非常に短い場合に、安定して感光体上に電子的に潜像を形成することが難しく、結果として画像データの階調を正確に出力することが困難であるからである。
【0040】
以上、多値原稿中の「255」の濃度値を示す画素が斜め方向に連続した場合のジャギーの低減方式を記載した。通常の多値画像データ(例えば写真)に文字データをはめ込む場合には、最大濃度で文字データを記述する場合が大半を占めるので、今回開示した方式は、多値画像データ中の文字/線画の画像品質を向上されるのに非常に有効な手段である。
【0041】
ところで、この実施の形態に係る画像処理装置では、文字サイズに応じてスムージング処理の強度を変化させるように構成されている。
【0042】
すなわち、図10に示すように、パターンマッチング部42には、多値入力画像データとは別に、多値入力画像データと同期した文字の大きさ信号が入力されている。この文字の大きさ信号としては、文字を表すフォントデータの中に通常入っている文字の大きさを示す信号が用いられるが、ここでは、図23に示すように、文字のポイント数に応じて2ビットで表示された信号が用いられる。上記文字の大きさを示す信号は、1ラインメモリ80を介して乗算係数発生部81に入力されているとともに、当該乗算係数発生部81の出力信号は、乗算器82に入力されている。この乗算器では、3×3パターンマッチング部62から出力される8ビットの画像データに対して乗算係数発生部81から出力される乗算係数aが乗算処理される。
【0043】
図13は図10の3×3パターンマッチング部62のLUTの中を記した図である。着目画素は、入力パターン中央の画素(3×3の中央:太枠)である。図24はそれぞれ図13の乗算係数発生部の中を記した図である。
【0044】
こうした構成にすることによって、図10の3×3パターンマッチング部62の出力である画像データに、文字の大きさ信号によって決定する係数aを乗算器81で掛け合わせることにより、最終的な多値出力画像データの値を決定することができる。
【0045】
以上の構成において、この実施の形態に係る画像処理装置では、次のようにして、文字を含む画像データにスムージング処理を施した場合でも、文字の大きさによって、文字のつぶれが発生するのを防止することが可能であり、しかも所定の文字サイズ等でフォントデータあるいはスムージング処理の有無を切り換えた場合のように、その変化点で違和感を与えることが防止できるようになっている。
【0046】
すなわち、上記画像処理装置では、図10に示すように、3×3パターンマッチング部62において、多値画像データにスムージング処理を施す際に、3×3パターンマッチング部62の出力である画像データに、文字の大きさ信号によって決定する係数aを乗算器82で掛け合わせることにより、最終的な多値出力画像データの値を決定することができるようになっている。
【0047】
そのため、例えば、図25に示すような「行」という文字のへん:彳を記録する際に、図26に示すように、その彳の「はらい」の部分が最も接近した部分において、文字の大きさに応じて図24に示すように、乗算器82で3×3パターンマッチング部62の出力に対して所定の乗算係数aを掛けることにより、スムージン処理の強度を複数の段階に変化させることができ、文字が小さくなるほど乗算係数aが小さくなるため、スムージン処理の強度が弱くなる。したがって、文字が小さくなっても、図26(b)に示すように、スムージン処理の強度が、例えば、45度の斜線の凹部に追加する画素の濃度レベルを51とするように、弱くなるので、出力画像間の最短距離L2の値がL1の値よりも大きくなり、よって文字のつぶれが発生しにくくなることがわかる。
【0048】
このように、上記実施の形態では、文字サイズに応じてスムージング処理の強度を複数段階に変更することにより、文字を含む画像データにスムージング処理を施した場合でも、文字の大きさによって、文字のつぶれが発生するのを防止することが可能であり、しかも所定の文字サイズ等でフォントデータあるいはスムージング処理の有無を切り換えた場合のように、その変化点で違和感を与えることが防止できるようになっている。
【0049】
実施の形態2
図27はこの発明の実施の形態2を示すものであり、前記実施の形態1と同一の部分には同一の符号を付して説明すると、この実施の形態2では、文字のサイズではではなく、画素密度に応じてスムージング処理の強度を変化させるように構成されている。
【0050】
すなわち、この実施の形態2に係る画像処理装置では、図27に示すように、パターンマッチング部42に、多値入力画像データとは別に、多値入力画像データと同期した画素密度を示す信号が入力されている。この画素密度信号としては、文字の大きさやフォント等を表すデータに基づいて、図示しないテーブル等を参照することにより、文字毎に画素密度に対応した値を示す信号が用いられるが、ここでは、図28に示すように、画素密度に応じて2ビットで表示された信号が用いられる。上記画素密度を示す信号は、1ラインメモリ80を介して乗算係数発生部81に入力されているとともに、当該乗算係数発生部81の出力信号は、乗算器82に入力されている。この乗算器では、3×3パターンマッチング部62から出力される8ビットの画像データに対して乗算係数発生部81から出力される乗算係数bが乗算処理される。図29は図27の乗算係数発生部の中を記した図である。
【0051】
こうした構成にすることによって、図27の3×3パターンマッチング部62の出力である画像データに、画素密度信号によって決定する係数bを乗算器81で掛け合わせることにより、最終的な多値出力画像データの値を決定することができる。
【0052】
このように、上記実施の形態では、画素密度に応じてスムージング処理の強度を複数段階に変更することにより、文字を含む画像データにスムージング処理を施した場合でも、画素密度によって、文字のつぶれが発生するのを防止することが可能であり、しかも所定の文字サイズ等でフォントデータあるいはスムージング処理の有無を切り換えた場合のように、その変化点で違和感を与えることが防止できるようになっている。
【0053】
さらに、この実施の形態では、画素密度に応じてスムージング処理の強度を複数段階に変更するので、文字の大きさに応じてスムージング処理の強度を複数段階に変更する場合に比べて、大きな文字でも画素密度が高い場合、つまり画数が多い文字などを記録する場合にも、スムージング処理の強度を複数段階に変更することができ、文字のつぶれ防止に一層効果がある。
【0054】
その他の構成及び作用は、前記実施の形態と同様であるので、その説明を省略する。
【0055】
実施の形態3
図30はこの発明の実施の形態3を示すものであり、前記実施の形態1と同一の部分には同一の符号を付して説明すると、この実施の形態3では、文字のサイズと画素密度の双方に応じてスムージング処理の強度を変化させるように構成されている。
【0056】
すなわち、この実施の形態3に係る画像処理装置では、図30に示すように、パターンマッチング部42に、多値入力画像データとは別に、多値入力画像データと同期した文字の大きさと画素密度を示す信号が入力されている。この文字の大きさと画素密度を示す信号としては、文字を表すフォントデータの中に通常入っている文字の大きさを示す信号と、文字の大きさやフォント等を表すデータに基づいて、図示しないテーブル等を参照することにより、文字毎に画素密度に対応した値を示す信号が用いられるが、ここでは、図31に示すように、文字の大きさと画素密度に応じてそれぞれ2ビットで表示された信号が用いられる。上記文字の大きさを示す信号と画素密度を示す信号は、1ラインメモリ90、91を介して乗算係数発生部92、93に入力されているとともに、当該乗算係数発生部92、93の出力信号は、乗算器94に入力されている。この乗算器94では、3×3パターンマッチング部62から出力される8ビットの画像データに対して乗算係数発生部92、93から出力される乗算係数a、bが乗算処理される。図32は図30の乗算係数発生部92、93の中を記した図である。
【0057】
こうした構成にすることによって、図30の3×3パターンマッチング部62の出力である画像データに、文字の大きさを示す信号と画素密度信号によって決定する係数a、bを乗算器94で掛け合わせることにより、最終的な多値出力画像データの値を決定することができる。
【0058】
このように、上記実施の形態では、文字の大きさと画素密度に応じてスムージング処理の強度を複数段階に変更することにより、文字を含む画像データにスムージング処理を施した場合でも、文字の大きさと画素密度によって、文字のつぶれが発生するのを防止することが可能であり、しかも所定の文字サイズ等でフォントデータあるいはスムージング処理の有無を切り換えた場合のように、その変化点で違和感を与えることが防止できるようになっている。
【0059】
さらに、この実施の形態では、文字サイズと画素密度の両方に応じてスムージング処理の強度を変化させるように構成されているので、文字のサイズと画素密度の両方を考慮したスムージング処理を施すことができ、文字のつぶれが発生するのをより一層防止することができ、高解像度でなお且つスムージング処理を施した画像の記録等が可能となる。
【0060】
その他の構成及び作用は、前記実施の形態と同様であるので、その説明を省略する。
【0061】
なお、前記実施の形態で記した図30の構成では、3×3パターンマッチング部のLUTとは別に乗算係数発生部Aと、乗算係数発生部Bを設け、3×3パターンマッチング部のLUT出力である画素データに、文字の大きさ信号によって決定する係数aと画素密度信号によって決定する係数bを乗算器でかけ合わせることにより、最終的な多値出力画像データの値を決定する構成としたが、図33に示すように、3×3パターンマッチング部のLUTと乗算係数発生部Aと乗算係数発生部Bをまとめて1つのLUT構成することも可能である。但し、この場合、LUTの出力となる画像データには、乗算結果後の、最終的な多値出力画像データの値を予め設定しておく必要がある。また、LUTをROMと記したが、RAM構成とすることも可能である。
【0062】
【発明の効果】
この発明は、以上の構成及び作用よりなるもので、文字を含む画像データにスムージング処理を施した場合でも、文字の大きさあるいは画素密度によって、文字のつぶれが発生するのを防止することが可能であり、しかも所定の文字サイズ等でフォントデータあるいはスムージング処理の有無を切り換えた場合のように、その変化点で違和感を与えることのない画像処理装置を提供することができる。
【図面の簡単な説明】
【図1】 図1(a)〜(e)はこの発明に係る画像処理装置の一実施の形態をそれぞれ示す模式図である。
【図2】 図2はこの発明に係る画像処理装置を適用可能なカラーの画像形成装置を示す構成図である。
【図3】 図3は同カラーの画像形成装置のROSを示す構成図である。
【図4】 図4はこの発明に係る画像処理装置の一実施の形態を示すブロック図である。
【図5】 図5はエッジ検出部を示すブロック図である。
【図6】 図6は画像データを示す模式図である。
【図7】 図7はエッジ方向フラグ生成部を示すブロック図である。
【図8】 図8(a)(b)はエッジの検出方法をそれぞれ示す説明図である。
【図9】 図9はエッジ方向フラグを示す説明図である。
【図10】 図10はパターンマッチング部を示す説明図である。
【図11】 図11は2値化部を示すブロック図である。
【図12】 図12はパターンマッチング部を示す説明図である。
【図13】 図13はパターンマッチング部の検出状態を示す説明図である。
【図14】 図14はパターンマッチング部の検出状態を示す説明図である。
【図15】 図15はデータ合成部を示すブロック図である。
【図16】 図16はレーザー制御信号生成部を示すブロック図である。
【図17】 図17はレーザー制御信号を示す波形図である。
【図18】 図18は三角波の種類を示す図表である。
【図19】 図19は選択される三角波の種類を示す図表である。
【図20】 図20はレーザー制御信号を示す波形図である。
【図21】 図21はレーザー制御信号を示す波形図である。
【図22】 図22はレーザー制御信号を示す波形図である。
【図23】 図23は文字の大きさ信号を示す図表である。
【図24】 図24は乗算係数を示す図表である。
【図25】 図25(a)(b)は文字の例をそれぞれ示す模式図である。
【図26】 図26(a)(b)は文字の例をそれぞれ示す模式図である。
【図27】 図27はこの発明に係る画像処理装置の他の実施の形態を示すブロック図である。
【図28】 図28は画像密度信号を示す図表である。
【図29】 図29は乗算係数を示す図表である。
【図30】 図30はこの発明に係る画像処理装置の他の実施の形態を示すブロック図である。
【図31】 図31(a)(b)は文字の大きさ信号及び画像密度信号をそれぞれ示す図表である。
【図32】 図32(a)(b)は乗算係数発生部A及びBの乗算係数をそれぞれ示す図表である。
【図33】 図33はこの発明に係る画像処理装置の他の実施の形態を示すブロック図である。
【図34】 図34(a)〜(e)は画像処理装置の動作をそれぞれ示す模式図である。
【図35】 図35(a)(b)は文字の例をそれぞれ示す模式図である。
【符号の説明】
40 エッジ検出部、41 二値化部、42 パターンマッチング部、43 合成部、44 波形制御スクリーン部。
[0001]
BACKGROUND OF THE INVENTION
The present invention performs image processing for reducing (smoothing) jaggies (jagged edges) generated in an inclined portion of an image by inputting multi-value digital image data and newly adding predetermined pixels to the digital image data. The present invention relates to an image processing apparatus used for outputting data after image processing using a laser beam printer or the like.
[0002]
[Prior art]
Conventionally, as a printer that performs image processing on the digital image data and outputs an image, an electrophotographic laser beam printer that records an image by irradiating a photoconductive drum with a laser beam according to the image data Is widely spread. In this laser beam printer, an image is formed by changing the lighting time of the laser beam in accordance with the input bitmap image. At this time, jaggies (jagged edges) generated in a slanted portion of the image, a curved portion or an edge portion, etc. ) Is reduced by using an image processing apparatus.
[0003]
As a technique for reducing the jaggy, as disclosed in the specification of US Pat. No. 4,437,122, the input bitmap image is blocked into 3 × 3 pixels, and the center pixel is multiplied by 9 times by pattern matching. There is known a method of reducing the jaggy by converting the pixel density to the above.
[0004]
The technology to reduce jaggy by this pattern matching is to input multi-value digital image data, binarize this multi-value digital image data, and then convert the central pixel to 9 times the pixel density by pattern matching. As shown in FIG. 34, jaggies generated in the inclined portion of the image are reduced by newly adding predetermined pixels to the digital image data. When a predetermined pixel is newly added to the digital image data, for example, as shown in FIG. 34A, a stepped digital image data inclined 45 degrees from the lower left to the upper right is shown. As shown in 34 (b) to (e), an image is obtained by adding pixels of different density levels according to image data, such as 26 to 102, to the left end of the digital image data in the inclined portion. The jaggy generated in the slanted portion is reduced.
[0005]
In addition, as described above, as a technique for preventing adverse effects caused by uniformly applying smoothing processing to all images to reduce jaggies generated in the inclined portion of the image by adding new pixels to the image data as described above. For example, there is one disclosed in JP-A-4-189564. That is, the output method according to Japanese Patent Application Laid-Open No. 4-189564 is a method for performing smoothing processing by newly adding supplemental dots to image data, and in particular, a document in which characters and images are mixed in the same page. An output method for identifying whether a character area or an image area is to be output, and performing a process that applies smoothing to the character area (smoothing ON) and does not apply smoothing to the image area (smoothing OFF). is there.
[0006]
[Problems to be solved by the invention]
However, the conventional technique has the following problems. That is, in the case of the output method according to Japanese Patent Laid-Open No. 4-189564, a smoothing process is basically performed by adding supplemental dots to the original image data as shown in FIG. This creates pseudo-different data from the image data. For this reason, in the case of the output method according to the above Japanese Patent Laid-Open No. 4-189564, when the smoothing process is performed even in the character area, the number of dots at the character boundary portion increases, and the line representing the character tends to become thicker. . In this case, it is difficult to cause a problem even if the characters are slightly thicker as long as the smoothing process is performed on a large character, for example, a character of 4 points (pt) or more, but conversely a small character, for example, less than 4 pt. Characters that are relatively high in pixel density, for example, characters with a large number of strokes, such as Kanji characters that are characters with 6 or more strokes, and characters that have Gothic fonts are also subject to crushing. There was a problem of becoming. In addition, such a problem that the characters are crushed tends to occur more easily as the character density is higher than the character size.
[0007]
To explain the above problem more specifically, FIG. 35 shows an example of an enlarged part of the Chinese character “line”: FIG. 35 shows the “Harai” part of the kite closest. It shows what you did. In such a case, a smoothing process is newly performed in which the pixel 200 having the density level “102” shown in FIG. 35E is newly added to the lower and upper inclined portions of the upwardly inclined portions 201 and 202 of the character. When applied, the shortest distance L1 that is closest to the output images becomes small, and there is a problem that toner is buried between the shortest distances L1 between the output images during development (character collapse). Also, in such a case, the pixel part of “Karai” that is the kanji character: the edge of the line is closest, the smaller the size of the character “line”, the smaller the gap between the pixels. As a result, the number of parts that approach each other increases, and the number of parts that are crushed between the lines representing the characters increases, which causes the problem that the characters themselves are easily crushed. Furthermore, not only the characters “line” but also small characters and characters with high image density, the higher the image density, the more likely it is to occur. As a result, the number of crushed portions between the lines representing the characters increases and the characters themselves are easily crushed.
[0008]
Therefore, in order to solve such a problem of the conventional technology (character collapse), a method of preventing the smoothing process from being applied to characters smaller than a certain size (for example, 4 pt) is considered. However, in this case, a difference occurs in the result of outputting the image with a predetermined size (for example, 4 pt) as a boundary, and the difference in the output result of this image becomes conspicuous, giving a new problem of giving a sense of incongruity. Arise.
[0009]
Further, in order to solve the above-mentioned problem, (2) for a character smaller than a certain predetermined size (for example, 4 pt), the character (font data) itself is deformed (dots are thinned out on the bitmap). However, in this case as well, there is a difference in the result of outputting an image with a predetermined size (for example, 4 pt) as a boundary, and the difference in the output result of this image is noticeable, giving a sense of incongruity. A new problem arises.
[0010]
Therefore, the present invention has been made to solve the above-described problems of the prior art, and the object of the present invention is to achieve character size or pixel density even when smoothing processing is performed on image data including characters. Therefore, it is possible to prevent the occurrence of character crushing, and it does not give a sense of incongruity at the change point as when the font data or smoothing processing is switched at a predetermined character size or the like. An object is to provide an image processing apparatus.
[0011]
[Means for Solving the Problems]
That is, the invention described in claim 1 is input. Multi-value image data An image pattern determination unit that determines the arrangement of the pixels, and a smoothing processing unit that performs a smoothing process by adding a predetermined pixel to the concave portion of the edge portion of the image based on the determination result by the image pattern determination unit. In an image processing apparatus having The image pattern determining unit determines an array of pixels of the input multi-value image data, and the smoothing processing unit is configured to input the input multi-value image data and the pixels determined by the image pattern determining unit. A plurality of levels of smoothing processing strength applied according to the array and the character size of the image, the input multi-value image data, the pixel array determined by the image pattern determination unit, The intensity of the smoothing process is changed according to the character size of the image.
[0012]
Further, the invention described in claim 2 is inputted. Multi-value image data An image pattern determination unit that determines the arrangement of the pixels, and a smoothing processing unit that performs a smoothing process by adding a predetermined pixel to the concave portion of the edge portion of the image based on the determination result by the image pattern determination unit. In an image processing apparatus having The image pattern determining unit determines an array of pixels of the input multi-value image data, and the smoothing processing unit is configured to input the input multi-value image data and the pixels determined by the image pattern determining unit. A plurality of levels of smoothing processing performed according to the array and the pixel density of the image, the input multi-value image data, the array of pixels determined by the image pattern determination unit, The intensity of the smoothing process is changed according to the pixel density of the image.
[0013]
Further, the invention described in claim 3 is inputted. Multi-value image data An image pattern determination unit that determines the arrangement of the pixels, and a smoothing processing unit that performs a smoothing process by adding a predetermined pixel to the concave portion of the edge portion of the image based on the determination result by the image pattern determination unit. In an image processing apparatus having The image pattern determining unit determines an array of pixels of the input multi-value image data, and the smoothing processing unit is configured to input the input multi-value image data and the pixels determined by the image pattern determining unit. A plurality of levels of smoothing processing applied according to the array and the character size and pixel density of the image, the input multivalued image data, the array of pixels determined by the image pattern determination unit, and Image text size as well as The intensity of the smoothing process is changed according to the pixel density.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
The present invention will be described below based on the illustrated embodiments.
[0015]
FIG. 1 is a schematic diagram showing a basic method of smoothing processing in an image processing apparatus according to an embodiment of the present invention.
[0016]
FIG. 1 shows an example of an oblique line image 1 with 45 degrees rising to the right. By changing the density level (pixel width) of the pixel 3 added to the step part 2 of the oblique line over a plurality of stages, the strength of the smoothing process ( It is the figure which showed a mode that the degree of smoothness of a slanting part jaggy changes gradually. In FIGS. 1A to 1E, all the added pixels 3 are added close to the stepped portion (rightward) in common. FIG. 1A shows a case where smoothing processing is not performed, and FIGS. 1B to 1E have density levels of 26, 51, 77 and 102 (ranges of pixel density levels are 0 to 255), respectively. The case where a pixel is added is shown. Further, in common with FIGS. 1A to 1E, the hatched portion of the rectangle indicated by the symbol a in the figure indicates the laser drive signal after pulse width modulation, and the vertical ellipse in the rectangle indicated by the symbol b. The part shows the beam spot of the laser beam irradiated to the photosensitive drum of the laser beam printer to which the present invention is applied, and the curved part with the symbol c shows the output image actually recorded on the recording paper, respectively. It is a representation. As is clear from FIGS. 1A to 1E, the intensity of the smoothing process gradually changes by changing the density level (pixel width) of the pixel added to the stepped portion 2 of the image 1 to a plurality of levels. I understand that. Further, in the case of the image 1 with 45 degrees diagonally rising to the right shown in FIG. 1, the intensity of the smoothing process gradually increases as shown in FIGS. 1B, 1C, 1D, and 1E. It can be seen that the degree of jaggy smoothness in the part increases. Note that if the density level (pixel width) of the pixel to be added is further increased than in FIG. 1 (e), the stepped portion 2 becomes thicker and the strength of the smoothing process is weakened.
[0017]
As the pixel 3 added to the image 1 in order to perform the smoothing process, for example, in the case of the image 1 having a diagonal line of 45 degrees rising to the right, the pixel 3 having the density level (pixel width) “102” is used. In the case of another image 1, a pixel 3 having a density level appropriately determined according to the image 1 is added to the step portion 2 or the like.
[0018]
FIG. 2 is a block diagram showing a color laser beam printer to which the image processing apparatus according to the present invention can be applied. Here, the image processing apparatus according to the present invention can be applied not only to a color laser beam printer but also to a monochrome laser beam printer.
[0019]
In FIG. 2, reference numeral 21 denotes a photosensitive drum as an image carrier. The photosensitive drum 21 is driven to rotate at a predetermined rotational speed in the direction of the arrow by a driving means (not shown). Yes. Around the photosensitive drum 21, a scorotron charger 22 for uniformly charging the surface of the photosensitive drum 21, a laser optical system 23, and developers of yellow, magenta, cyan, and black are accommodated. Four color developing devices 24a, 24b, 24c, 24d, a transfer charger 25, and an intermediate transfer belt for transferring and holding toner images of respective colors sequentially formed on the photosensitive drum 21 in a state of being superimposed on each other. 26 are sequentially arranged along the rotation direction of the photosensitive drum 21. Further, around the intermediate transfer belt 26, toner images of a predetermined number of colors superimposed on the intermediate transfer belt 26 are conveyed to positions corresponding to the intermediate transfer belt 26 at a predetermined timing. A transfer roll 27 for transferring images onto the recording paper 20 to be transferred at once, and a conveying belt for conveying the recording paper 20 as a recording medium to which the toner image of the predetermined number of colors is transferred to a fixing device 29 described below. 28 and a fixing device 29 for fixing the toner image on the recording paper 20 conveyed by the conveying belt 28 are disposed.
[0020]
The scorotron charger 22 that uniformly charges the surface of the photosensitive drum 21 is a scorotron that uses two or more discharge wires so that stable and uniform charging is possible even during image formation for the second and subsequent colors. It is desirable to use a charger.
[0021]
As the color developing devices 24a, 24b, 24c, and 24d, for example, a two-component developing device having a known configuration can be used. In order not to come into contact with the surface of the photosensitive drum 21 and the toner image formed on the photosensitive drum 21 for the second and subsequent colors, the spikes of the two-component developer carried on the developing roll pass through the gap. Those arranged so as to face the surface of the drum 21 are used. Further, the developing bias applied to each of the color developing devices 24a, 24b, 24c, and 24d is AC so that the toner image formed on the photosensitive drum 21 is not disturbed and a desired high image quality is obtained. It is desirable to set so as to apply a direct current voltage (DC + AC voltage) on which the voltage is superimposed.
[0022]
FIG. 3 is a schematic configuration diagram showing a laser optical system used in the laser beam printer of FIG.
[0023]
The laser optical system 23 includes a semiconductor laser 31 driven by a laser drive circuit described later, a collimator lens 32, a polygon mirror 33, and an fθ lens 34. The semiconductor laser 31 is modulated by a laser driving circuit described later to perform an on / off operation, and emits a laser beam 35 modulated by a so-called pulse width modulation method. The laser beam 35 emitted from the semiconductor laser 31 is irradiated onto the surface of the polygon mirror 33 through the collimator lens 32, reflected and deflected by the surface of the polygon mirror 33 rotating at high speed, and then through the fθ lens 34. Scanning exposure is performed on the photosensitive drum 21 along the main scanning direction (the axial direction of the photosensitive drum 21).
[0024]
In the laser beam printer configured as described above, after the surface of the photosensitive drum 21 is uniformly charged to a predetermined potential by the scorotron charger 22, as shown in FIG. The laser optical system 23 scans and exposes an image corresponding to the first color image information to form an electrostatic latent image. The first color electrostatic latent image formed on the photosensitive drum 21 is developed into a toner image by a first color developer, for example, a yellow color developer 24a. The yellow toner image of the first color is electrostatically transferred onto the intermediate transfer body belt 26 by charging of the transfer charger 25 at the transfer position. Thereafter, the photosensitive drum 21 on which the toner image of the first color is transferred onto the intermediate transfer belt 26 is cleaned by a cleaning unit (not shown), and the charging, exposing, and developing steps are performed again with a predetermined number of colors in the same manner as described above. The toner images of four colors of yellow, magenta, cyan, and black, which are sequentially formed on the photosensitive drum 21, are sequentially transferred onto the intermediate transfer belt 26 while being superimposed on each other. The four-color toner images transferred onto the intermediate transfer belt 26 are collectively collected on the recording paper 20 by a transfer roll 27 that contacts the intermediate transfer belt 26 via the recording paper 20 at a predetermined timing. After the transfer, the recording paper 20 is transported to the fixing device 29 by the transport belt 28. The four color toner images are melted and mixed by heat and pressure by the fixing device 29 and fixed on the recording paper 20, and the recording paper 20 is discharged out of the apparatus to complete the color image forming process.
[0025]
Further, the surface of the photosensitive drum 21 after the transfer process of the toner images of the respective colors is erased from the residual toner charge by a neutralizer (not shown) and the residual toner is removed by a cleaning device having a blade. The residual charge is further erased by the charge eliminating lamp, and it is prepared for the next color image forming step.
[0026]
In this embodiment, an apparatus for forming a full-color image using the intermediate transfer belt 26 as a laser beam printer has been described. However, the present invention is not limited to this and is formed on a photosensitive drum. A toner image of each color is sequentially transferred onto a recording paper or an intermediate transfer medium held on an intermediate transfer drum to form a full-color image or a plurality of photosensitive drums, and each photosensitive drum is formed. It may be a so-called tandem color image forming apparatus or the like that forms a full-color image by sequentially transferring the plurality of toner images thus formed onto a recording sheet that is sequentially conveyed to the transfer position of each photosensitive drum. Of course. Of course, the laser beam printer may be a black and white laser beam printer as described above.
[0027]
FIG. 4 is a block diagram showing an image processing apparatus according to an embodiment of the invention applied to the laser beam printer.
[0028]
As the image data recorded by this laser beam printer, for example, there are used 256 gradations of 8 bits from 0 to 255 and quantized so that the density increases as the value increases. That is, in the case of monochrome image data, “0” represents “white” and “255” represents “black”. In the case of color image data, for example, “red (R), red (R), green (green)”, “magenta (M), cyan (C), yellow (Y)”, “lightness (L * ), Hue (H * ), Saturation (C * ) "Or" L * a * b * In general, one image data is represented by a plurality of components. In this case, for example, an embodiment shown below for each component represented by 256 gradations from 0 to 255 of 8 bits. May be applied in the same manner.
[0029]
In FIG. 4, the input multi-value image data is input to the edge detection unit 40 and the binarization unit 41, and after the multi-value data is binarized by the binarization unit 41, the pattern matching unit 42 Entered. The edge detection unit 40 detects the presence / absence and direction of the edge of the input multi-value image data, adds an edge direction flag to the image data, and outputs the image data. Further, the pattern matching unit 42 performs “binary → multilevel conversion” to reduce jaggy of the binarized data, and further generates a flag indicating the edge direction. The combining unit 43 combines the outputs of the edge detection unit 40 and the pattern matching unit 42 and outputs the image data and the edge direction Bragg to the waveform control screen unit 44. The waveform control screen unit 44 generates an “on / off” signal of the laser beam from the input image data and the edge direction flag.
[0030]
FIG. 5 shows the internal configuration of the edge detection unit. Each of the 1-line memories 45 and 46 is a memory capable of storing one line of image data, and performs a blocking process for performing a spatial filtering process on the input image data. The 3 × 3 filter unit 47 performs filtering processing on the blocked image data, detects the edge direction of the image data, and outputs 2 bits of the edge direction flag. The delay unit 48 is for synchronizing the input image data with the edge direction flag output from the 3 × 3 filter unit 47. The edge signal adding unit 49 synthesizes the 8-bit image signal output from the delay unit 48 and the 2-bit edge output from the 3 × 3 filter unit 47 and outputs the resultant signal as a 10-bit signal. As shown in FIG. 6, the output signal of the edge signal adding unit 49 is a flag in which the upper 2 bits of 10 bits indicate the edge direction, and the lower 8 bits are an image signal.
[0031]
Next, the 3 × 3 filter unit 47 will be described in more detail with reference to FIG. The input image data is blocked into 3 × 3 9 pixels centering on the pixel of interest. The block image 50 is subjected to a convolution operation using four types of coefficients 51, 52, 53, and 54, and the respective calculation results are four types of edge signals EG-1, EG-2, EG-3, EG. -4. The maximum edge detection unit 55 obtains absolute values of the four types of edge signals EG-1, EG-2, EG-3, and EG-4, and determines the largest of the four absolute values as the edge cancellation unit 56. The edge signal number (any one of 1, 2, 3, 4) indicating the largest absolute value is output to the edge direction flag generation unit 57. The edge direction flag generator 57 receives the maximum edge number output from the maximum edge detector 55 and the four types of edge signals EG-1, EG-2, EG-3, and EG-4. Depending on the maximum edge number, one of the four types of edge signals EG-1, EG-2, EG-3, EG-4 is selected, and the direction of the edge is determined by the sign (positive or negative) of the selected edge signal. Is determined and a 2-bit edge direction flag is generated. For example, when the maximum edge number is “2” and the value of EG-2 is “positive”, the edge direction of the target pixel is “left”. Here, the case where the density decreases from the top to the bottom as shown in FIG. 8A is “upper edge”, and the case where the density decreases from the left to the right as shown in FIG. 8B. Let's say "left edge". In the 2-bit edge direction flag, as shown in FIG. 9, “00” means no edge, “01” means an upper or lower edge, “10” means a right edge, and “11” means a left edge.
[0032]
As described above, the edge direction flag generation unit 57 generates any one of the edge direction flags “01”, “10”, and “11” for all the pixels. In the edge cancellation unit 56, the edge direction flag is reset to “00” when the maximum edge absolute value output from the maximum edge detection unit 55 is equal to or less than a predetermined value.
[0033]
FIG. 10 is a diagram illustrating the internal configuration of the pattern matching unit 42. As shown in FIG. 11, the binarization unit 41 outputs “1” when the input image data is “255”, and outputs “0” when the input image data is “less than 255”. The 1-bit signal generated by the binarization unit 41 is blocked using 1-line memories 60 and 61 and input to the 3 × 3 pattern matching unit 62.
[0034]
FIG. 12 is a diagram for explaining the 3 × 3 pattern matching unit 62 in more detail. The data of each of nine pixels that are divided into 3 × 3 blocks around the target pixel using the one-line memories 60 and 61 are looked at. It is connected to the address of the uptable ROM 63. In the look-up table, in the case other than the patterns shown in FIGS. 13 and 14, when the value of the target pixel “e” is “0”, the image data “0” edge direction flag “00” is set to the target pixel. When the value of “e” is “1”, the image data “255” edge direction flag “00” is set to be output. In the case of the patterns shown in FIG. 13 and FIG. The image data and edge direction flag shown in the middle are output and output as 10-bit data in the format shown in FIG.
[0035]
The pattern matching unit 62 has an effect of reducing jaggy in the case where pixels of “255” density are continuous in an oblique direction from the continuity of density values of “255” in the multi-value image data.
[0036]
FIG. 15 illustrates an internal configuration of the synthesis unit 43. The synthesizing unit 43 is a part for synthesizing the outputs of the edge detection unit 40 and the pattern matching unit 42. The synthesis logic focuses on the image data of the pattern matching unit 42 and is input from the pattern matching unit 42 to the synthesizing unit 43. When the image data to be received is “0” or “255”, the image data input from the edge detection unit 40 and the edge direction flag are output from the synthesis unit. If the image data input from the pattern matching unit 42 to the combining unit 43 is not “0” and other than “255”, the image data input from the pattern matching unit 42 and the edge direction flag are combined. The output of the unit 43 is used. As described above, in the synthesizing unit 43, when data other than “0” or “255” is output from the pattern matching unit 42, that is, pixels of “255” density in the multi-value image data are continuously displayed in the oblique direction. In the case where there is, the pixel value generated to reduce the jaggy in the oblique direction is output with priority.
[0037]
In the waveform control screen unit 44, as shown in FIG. 16, 8-bit multi-value image data input from the synthesis unit 43 is converted into an analog value via the D / A converter 71, and selected by the selector 72 by the edge direction flag. The triangular wave is compared with the comparator 73 to generate a laser control signal.
[0038]
Here, as shown in FIG. 17, the waveform of the triangular wave selected by the selector 72 has a period twice that of the pixel clock, and has the same period as that of the triangular wave A and the triangular wave B and the pixel clock that are 180 degrees out of phase. A triangular wave C. FIG. 18 shows the relationship between the edge direction flag and the selected triangular wave.
[0039]
Here, an example will be described. When image data and an edge direction flag as shown in FIG. 19 are input to the waveform control screen, the triangular wave shown at the bottom of FIG. 19 is selected. FIG. 20 schematically shows a laser control signal generated by the triangular wave selected in this way. Here, it is assumed that the laser beam printer of this embodiment is a so-called image writing type printer in which toner adheres to a place where a laser beam is irradiated onto a photosensitive drum and is output as a black image on a sheet. Here, FIG. 21 shows a case where a laser control signal is generated using a triangular wave C having the same period as the pixel clock without controlling the waveform of the image data shown in FIG. Comparing FIG. 21 and FIG. 20, in FIG. 18 where the waveform is born, the laser control signal is concentrated in the central portion, whereas in FIG. 20, the laser on signal is divided into three. In FIG. 20, a clear electronic latent image can be generated on the photosensitive member. Also, as shown in FIG. 18, the triangular wave C having the same cycle as the pixel clock is selected only when the vertical edge direction flag is input in synchronization with the image signal, and there is no normal edge state. That is, when the edge direction flag is “00”, the triangular wave A having a cycle twice the cycle of the pixel clock is selected. This means that, for example, in a printer capable of printing with a pixel density of 400 dpi (dots / inch), an output image is generated using a universal screen of 200 lpi (lines / inch). The reason for this is that when outputting a highlight portion having a low density, as shown in FIGS. 22A and 22B, a laser control signal is generated using a triangular wave having the same cycle as the pixel clock ( Compared with FIG. 22A), the laser-on time is very short, and when the laser irradiation time is very short as described above, a latent image can be stably formed electronically on the photosensitive member. This is because it is difficult to output the gradation of the image data accurately as a result.
[0040]
As described above, the jaggy reduction method in the case where the pixels indicating the density value of “255” in the multi-level document are continuously arranged in the oblique direction has been described. When text data is inserted into normal multi-value image data (for example, a photograph), most of the text data is described at the maximum density. Therefore, the method disclosed this time is used for character / line drawing in multi-value image data. This is a very effective means for improving the image quality.
[0041]
By the way, the image processing apparatus according to this embodiment is configured to change the intensity of the smoothing process according to the character size.
[0042]
That is, as shown in FIG. 10, a character size signal synchronized with the multi-value input image data is input to the pattern matching unit 42 in addition to the multi-value input image data. As the character size signal, a signal indicating the size of the character normally included in the font data representing the character is used. Here, as shown in FIG. A signal represented by 2 bits is used. A signal indicating the size of the character is input to the multiplication coefficient generation unit 81 via the one-line memory 80, and an output signal of the multiplication coefficient generation unit 81 is input to the multiplier 82. In this multiplier, the 8-bit image data output from the 3 × 3 pattern matching unit 62 is multiplied by the multiplication coefficient a output from the multiplication coefficient generation unit 81.
[0043]
FIG. 13 is a diagram showing the inside of the LUT of the 3 × 3 pattern matching unit 62 in FIG. The pixel of interest is a pixel at the center of the input pattern (3 × 3 center: thick frame). FIG. 24 is a diagram showing the inside of the multiplication coefficient generator of FIG.
[0044]
With this configuration, the image data that is the output of the 3 × 3 pattern matching unit 62 in FIG. 10 is multiplied by the coefficient a determined by the character size signal by the multiplier 81, so that the final multivalue is obtained. The value of the output image data can be determined.
[0045]
In the above configuration, in the image processing apparatus according to this embodiment, even when smoothing processing is performed on image data including characters as described below, character collapse may occur depending on the size of the characters. In addition, it is possible to prevent a sense of incongruity at the change point as in the case where the presence or absence of the font data or the smoothing process is switched according to a predetermined character size or the like.
[0046]
That is, in the image processing apparatus, when the 3 × 3 pattern matching unit 62 performs the smoothing process on the multivalued image data, the image data that is the output of the 3 × 3 pattern matching unit 62 is applied to the image data as shown in FIG. By multiplying the coefficient a determined by the character size signal by the multiplier 82, the final value of the multi-value output image data can be determined.
[0047]
Therefore, for example, when the character “line” as shown in FIG. 25 is recorded: 彳, as shown in FIG. Accordingly, as shown in FIG. 24, the multiplier 82 can multiply the output of the 3 × 3 pattern matching unit 62 by a predetermined multiplication coefficient a to change the intensity of the smoothing process in a plurality of stages. The multiplication factor a becomes smaller as the character becomes smaller, and the strength of the smoothing process becomes weaker. Therefore, even if the character becomes smaller, as shown in FIG. 26 (b), the intensity of the smoothing process becomes weaker, for example, the density level of the pixel added to the 45 ° hatched recess is reduced to 51. It can be seen that the value of the shortest distance L2 between the output images is larger than the value of L1, so that the characters are not easily crushed.
[0048]
As described above, in the above-described embodiment, by changing the strength of the smoothing process to a plurality of stages according to the character size, even when the smoothing process is performed on the image data including the character, the character size is changed depending on the character size. It is possible to prevent the occurrence of crushing, and it is also possible to prevent a sense of incongruity at the changing point, such as when the font data or smoothing processing is switched at a predetermined character size or the like. ing.
[0049]
Embodiment 2
FIG. 27 shows the second embodiment of the present invention. The same reference numerals are given to the same portions as those of the first embodiment, and in this second embodiment, not the character size. The intensity of the smoothing process is changed according to the pixel density.
[0050]
That is, in the image processing apparatus according to the second embodiment, as shown in FIG. 27, the pattern matching unit 42 receives a signal indicating the pixel density synchronized with the multi-value input image data, in addition to the multi-value input image data. Have been entered. As this pixel density signal, a signal indicating a value corresponding to the pixel density for each character is used by referring to a table or the like (not shown) based on data representing the character size, font, etc. As shown in FIG. 28, a signal displayed in 2 bits according to the pixel density is used. The signal indicating the pixel density is input to the multiplication coefficient generation unit 81 via the one-line memory 80, and the output signal of the multiplication coefficient generation unit 81 is input to the multiplier 82. In this multiplier, the 8-bit image data output from the 3 × 3 pattern matching unit 62 is multiplied by the multiplication coefficient b output from the multiplication coefficient generation unit 81. FIG. 29 is a diagram showing the inside of the multiplication coefficient generator of FIG.
[0051]
By adopting such a configuration, the final multi-value output image is obtained by multiplying the image data that is the output of the 3 × 3 pattern matching unit 62 in FIG. 27 by the coefficient b determined by the pixel density signal by the multiplier 81. The value of the data can be determined.
[0052]
As described above, in the above-described embodiment, by changing the strength of the smoothing process to a plurality of levels according to the pixel density, even when the smoothing process is performed on the image data including characters, the characters are crushed depending on the pixel density. In addition, it is possible to prevent the occurrence of a sense of incongruity at the change point, such as when the font data or smoothing process is switched with a predetermined character size or the like. .
[0053]
Furthermore, in this embodiment, since the strength of the smoothing process is changed to a plurality of levels according to the pixel density, even a large character can be compared with the case where the strength of the smoothing process is changed to a plurality of levels according to the character size. Even when the pixel density is high, that is, when a character having a large number of strokes is recorded, the strength of the smoothing process can be changed in a plurality of stages, which is more effective in preventing the character from being crushed.
[0054]
Other configurations and operations are the same as those of the above-described embodiment, and thus description thereof is omitted.
[0055]
Embodiment 3
FIG. 30 shows a third embodiment of the present invention. The same reference numerals are given to the same parts as those in the first embodiment. In the third embodiment, the character size and the pixel density are shown in FIG. The intensity of the smoothing process is changed according to both of the above.
[0056]
That is, in the image processing apparatus according to the third embodiment, as shown in FIG. 30, the pattern matching unit 42 causes the character size and pixel density synchronized with the multi-value input image data to be separated from the multi-value input image data. Is input. The signal indicating the character size and the pixel density is a table (not shown) based on the signal indicating the character size normally included in the font data indicating the character and the data indicating the character size and the font. Etc., a signal indicating a value corresponding to the pixel density is used for each character. Here, as shown in FIG. 31, each of the characters is displayed with 2 bits according to the character size and the pixel density. A signal is used. The signal indicating the character size and the signal indicating the pixel density are input to the multiplication coefficient generators 92 and 93 via the one-line memories 90 and 91 and output signals of the multiplication coefficient generators 92 and 93. Is input to the multiplier 94. In the multiplier 94, the 8-bit image data output from the 3 × 3 pattern matching unit 62 is multiplied by the multiplication coefficients a and b output from the multiplication coefficient generation units 92 and 93. FIG. 32 is a diagram showing the inside of the multiplication coefficient generators 92 and 93 of FIG.
[0057]
With this configuration, the image data that is the output of the 3 × 3 pattern matching unit 62 in FIG. 30 is multiplied by the multiplier 94 by the signal indicating the character size and the coefficients a and b determined by the pixel density signal. As a result, the final multi-value output image data value can be determined.
[0058]
As described above, in the above embodiment, by changing the strength of the smoothing process to a plurality of levels according to the character size and the pixel density, even when the smoothing process is performed on the image data including the character, Depending on the pixel density, it is possible to prevent characters from being crushed and to give a sense of incongruity at the change point, such as when switching font data or smoothing processing with a predetermined character size. Can be prevented.
[0059]
Further, in this embodiment, since the strength of the smoothing process is changed according to both the character size and the pixel density, it is possible to perform the smoothing process considering both the character size and the pixel density. Therefore, it is possible to further prevent the characters from being crushed and to record an image with high resolution and smoothing processing.
[0060]
Other configurations and operations are the same as those of the above-described embodiment, and thus description thereof is omitted.
[0061]
In the configuration of FIG. 30 described in the above embodiment, a multiplication coefficient generator A and a multiplication coefficient generator B are provided separately from the LUT of the 3 × 3 pattern matching unit, and the LUT output of the 3 × 3 pattern matching unit is provided. The final multi-value output image data value is determined by multiplying the pixel data that is a factor a determined by a character size signal and a coefficient b determined by a pixel density signal by a multiplier. As shown in FIG. 33, the LUT of the 3 × 3 pattern matching unit, the multiplication coefficient generation unit A, and the multiplication coefficient generation unit B can be combined into one LUT. In this case, however, the final multi-value output image data value after the multiplication result needs to be set in advance for the image data to be output from the LUT. Moreover, although LUT is described as ROM, it is also possible to adopt a RAM configuration.
[0062]
【The invention's effect】
The present invention has the above-described configuration and operation, and even when image data including characters is subjected to smoothing processing, it is possible to prevent the characters from being crushed depending on the size of the characters or the pixel density. In addition, it is possible to provide an image processing apparatus that does not give a sense of incongruity at the change point, as in the case where the presence or absence of smoothing processing is switched between font data and a predetermined character size.
[Brief description of the drawings]
FIG. 1A to FIG. 1E are schematic views respectively showing an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a block diagram showing a color image forming apparatus to which the image processing apparatus according to the present invention can be applied.
FIG. 3 is a configuration diagram showing a ROS of the same color image forming apparatus.
FIG. 4 is a block diagram showing an embodiment of an image processing apparatus according to the present invention.
FIG. 5 is a block diagram illustrating an edge detection unit.
FIG. 6 is a schematic diagram showing image data.
FIG. 7 is a block diagram illustrating an edge direction flag generation unit.
FIGS. 8A and 8B are explanatory diagrams showing edge detection methods, respectively.
FIG. 9 is an explanatory diagram showing an edge direction flag.
FIG. 10 is an explanatory diagram showing a pattern matching unit.
FIG. 11 is a block diagram illustrating a binarization unit.
FIG. 12 is an explanatory diagram showing a pattern matching unit.
FIG. 13 is an explanatory diagram showing a detection state of a pattern matching unit.
FIG. 14 is an explanatory diagram showing a detection state of a pattern matching unit.
FIG. 15 is a block diagram illustrating a data synthesis unit.
FIG. 16 is a block diagram illustrating a laser control signal generation unit.
FIG. 17 is a waveform diagram showing a laser control signal.
FIG. 18 is a chart showing types of triangular waves.
FIG. 19 is a chart showing the types of triangular waves to be selected.
FIG. 20 is a waveform diagram showing a laser control signal.
FIG. 21 is a waveform diagram showing a laser control signal.
FIG. 22 is a waveform diagram showing a laser control signal.
FIG. 23 is a chart showing a character size signal.
FIG. 24 is a chart showing multiplication coefficients.
FIGS. 25A and 25B are schematic diagrams respectively showing examples of characters.
FIGS. 26A and 26B are schematic views showing examples of characters, respectively.
FIG. 27 is a block diagram showing another embodiment of the image processing apparatus according to the present invention.
FIG. 28 is a chart showing an image density signal.
FIG. 29 is a chart showing multiplication coefficients.
FIG. 30 is a block diagram showing another embodiment of the image processing apparatus according to the present invention.
FIGS. 31A and 31B are tables showing character size signals and image density signals, respectively.
32 (a) and 32 (b) are tables showing the multiplication coefficients of the multiplication coefficient generators A and B, respectively.
FIG. 33 is a block diagram showing another embodiment of the image processing apparatus according to the present invention.
FIGS. 34A to 34E are schematic diagrams showing the operation of the image processing apparatus, respectively.
FIGS. 35A and 35B are schematic diagrams showing examples of characters, respectively.
[Explanation of symbols]
40 edge detection unit, 41 binarization unit, 42 pattern matching unit, 43 synthesis unit, 44 waveform control screen unit.

Claims (3)

入力された多値画像データの画素の配列を判定する画像パターン判定部と、この画像パターン判定部による判定結果に基づいて、画像のエッジ部の凹部に所定の画素を追加することにより、スムージング処理を施すスムージング処理部とを有する画像処理装置において、前記画像パターン判定部は、入力された多値画像データの画素の配列を判定するとともに、前記スムージング処理部は、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズとに応じて施すスムージング処理の強度を複数段階備え、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズに応じてスムージング処理の強度を変化させることを特徴とする画像処理装置。An image pattern determination unit that determines the arrangement of pixels of the input multivalued image data , and a smoothing process by adding predetermined pixels to the concave portion of the edge portion of the image based on the determination result by the image pattern determination unit In the image processing apparatus including the smoothing processing unit, the image pattern determination unit determines an array of pixels of the input multi-valued image data, and the smoothing processing unit includes the input multi-valued image data. A plurality of levels of smoothing processing to be performed according to the pixel arrangement determined by the image pattern determination unit and the character size of the image, the input multi-value image data, and the image pattern determination unit wherein an array of pixels which are determined, varying the intensity of the smoothing processing in accordance with the character size of the image by The image processing apparatus. 入力された多値画像データの画素の配列を判定する画像パターン判定部と、この画像パターン判定部による判定結果に基づいて、画像のエッジ部の凹部に所定の画素を追加することにより、スムージング処理を施すスムージング処理部とを有する画像処理装置において、前記画像パターン判定部は、入力された多値画像データの画素の配列を判定するとともに、前記スムージング処理部は、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の画素密度とに応じて施すスムージング処理の強度を複数段階備え、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の画素密度に応じてスムージング処理の強度を変化させることを特徴とする画像処理装置。An image pattern determination unit that determines the arrangement of pixels of the input multivalued image data , and a smoothing process by adding predetermined pixels to the concave portion of the edge portion of the image based on the determination result by the image pattern determination unit In the image processing apparatus including the smoothing processing unit, the image pattern determination unit determines an array of pixels of the input multi-valued image data, and the smoothing processing unit includes the input multi-valued image data. A plurality of levels of smoothing processing to be performed according to the pixel arrangement determined by the image pattern determination unit and the pixel density of the image, and the input multi-valued image data and the image pattern determination unit It is characterized and sequences of pixels determined, varying the intensity of the smoothing processing in accordance with the pixel density of the image by Image processing apparatus. 入力された多値画像データの画素の配列を判定する画像パターン判定部と、この画像パターン判定部による判定結果に基づいて、画像のエッジ部の凹部に所定の画素を追加することにより、スムージング処理を施すスムージング処理部とを有する画像処理装置において、前記画像パターン判定部は、入力された多値画像データの画素の配列を判定するとともに、前記スムージング処理部は、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズ及び画素密度とに応じて施すスムージング処理の強度を複数段階備え、前記入力された多値画像データと、前記画像パターン判定部によって判定された画素の配列と、前記画像の文字サイズ及び画素密度に応じてスムージング処理の強度を変化させることを特徴とする画像処理装置。An image pattern determination unit that determines the arrangement of pixels of the input multivalued image data , and a smoothing process by adding predetermined pixels to the concave portion of the edge portion of the image based on the determination result by the image pattern determination unit In the image processing apparatus including the smoothing processing unit, the image pattern determination unit determines an array of pixels of the input multi-valued image data, and the smoothing processing unit includes the input multi-valued image data. A plurality of levels of smoothing processing to be performed according to the pixel arrangement determined by the image pattern determination unit and the character size and pixel density of the image, and the input multi-value image data and the image an array of pixels which are determined by the pattern determining section, the strength of the smoothing processing in accordance with the character size and pixel density of the image The image processing apparatus characterized by changing the.
JP02851897A 1997-01-28 1997-01-28 Image processing device Expired - Fee Related JP3861352B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02851897A JP3861352B2 (en) 1997-01-28 1997-01-28 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02851897A JP3861352B2 (en) 1997-01-28 1997-01-28 Image processing device

Publications (2)

Publication Number Publication Date
JPH10202952A JPH10202952A (en) 1998-08-04
JP3861352B2 true JP3861352B2 (en) 2006-12-20

Family

ID=12250914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02851897A Expired - Fee Related JP3861352B2 (en) 1997-01-28 1997-01-28 Image processing device

Country Status (1)

Country Link
JP (1) JP3861352B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014102876A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Image processing device and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6549971B2 (en) * 2015-11-17 2019-07-24 Eizo株式会社 Image processing apparatus and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014102876A1 (en) * 2012-12-27 2014-07-03 パナソニック株式会社 Image processing device and image processing method
JPWO2014102876A1 (en) * 2012-12-27 2017-01-12 パナソニックIpマネジメント株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JPH10202952A (en) 1998-08-04

Similar Documents

Publication Publication Date Title
JP3638026B2 (en) Image processing apparatus and image processing method
US5646670A (en) Color image forming apparatus which reduces toner consumption during image formation
JP3406954B2 (en) Image processing apparatus and control method thereof
US20020067509A1 (en) Method, apparatus and system for dynamic switching of image processing techniques
US6954556B2 (en) Smoothing method, smoothing circuit and image output apparatus
EP0796004B1 (en) Multiple-color image output apparatus and method
US7196804B2 (en) Image processing apparatus and method, and storage medium used therewith
EP0465074B1 (en) Image forming apparatus
JP3713982B2 (en) Image processing apparatus and image processing method
JP3861352B2 (en) Image processing device
JP4442481B2 (en) Image forming apparatus
EP0622948B1 (en) Image processing apparatus and method
US6075904A (en) Image processing apparatus and method which prevents the generation of a white stripe on an output image
JPH1134401A (en) Apparatus and method for forming multicolor image
JPH07160086A (en) Color image forming device
JP3595573B2 (en) Color image recording apparatus and color image recording method
JP3260883B2 (en) Information recording device
JPH10243127A (en) Image processor and method therefor
JPH0918726A (en) Color image forming device
JPH06234240A (en) Image forming apparatus
JPH03159758A (en) Image forming device
JPH09200519A (en) Image processor and its method
JPH0795357A (en) Multi-color image forming device
JPH02295769A (en) Imaging system
JPH02145361A (en) Device for formation of image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060918

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees