JP2007067908A - Image processor, image forming apparatus, image processing method, and image processing program - Google Patents

Image processor, image forming apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2007067908A
JP2007067908A JP2005252251A JP2005252251A JP2007067908A JP 2007067908 A JP2007067908 A JP 2007067908A JP 2005252251 A JP2005252251 A JP 2005252251A JP 2005252251 A JP2005252251 A JP 2005252251A JP 2007067908 A JP2007067908 A JP 2007067908A
Authority
JP
Japan
Prior art keywords
yellow
character
edge
edge portion
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005252251A
Other languages
Japanese (ja)
Inventor
Hiroshi Yokota
洋志 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Mita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Mita Corp filed Critical Kyocera Mita Corp
Priority to JP2005252251A priority Critical patent/JP2007067908A/en
Publication of JP2007067908A publication Critical patent/JP2007067908A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve visibility of a yellow character drawn on a white or nearly white background. <P>SOLUTION: After a pixel corresponding to an edge part is detected on the basis of a pixel value of Y component (S3), a pixel corresponding to a color character area is detected (S4). Next, pixel values of YCM components are detected for each pixel (step S5). Then, with respect to each pixel, it is judged whether the pixel value of Y component is extremely large in comparison with the pixel value of M component and C component (S6). In succession, with respect to each pixel, it is judged whether the pixel corresponds to the edge part and to the color character area (step S7). When the judgment at steps S6 and S7 are both positive, pixel values of the C component and M component are converted into higher pixel values (step S8); when any of the judgement is negative, the conversion is not performed. Next, an image signal is printed (S9). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像信号の変換を行う画像処理技術及び当該画像処理技術を利用した画像形成技術に関する。   The present invention relates to an image processing technique for converting an image signal and an image forming technique using the image processing technique.

カラーの画像形成装置において、入力された画像信号が有彩色の下地(色付き下地と称する)に描かれた無彩色の文字(黒文字と称する)を表している場合に、当該黒文字を検出し、当該黒文字について、ブラック(BKと称する)の濃度を高めるとともに、イエロー(Yと称する)、シアン(Cと称する)、マゼンタ(Mと称する)の濃度を低くする技術が知られている(例えば、特許文献1の段落「0001」)。すなわち、当該従来技術は、黒文字をブラック単色で再現し、それにより記録紙に印画される画像の品質の向上を図っている。
特開平8−186725号公報
In a color image forming apparatus, when an input image signal represents an achromatic character (referred to as a black character) drawn on a chromatic background (referred to as a colored background), the black character is detected, For black characters, there is known a technique for increasing the density of black (referred to as BK) and decreasing the density of yellow (referred to as Y), cyan (referred to as C), and magenta (referred to as M) (for example, patents). Reference 1, paragraph "0001"). That is, the related art reproduces black characters in a single black color, thereby improving the quality of an image printed on recording paper.
JP-A-8-186725

しかしながら、イエローが主体となっている文字(イエロー文字と称する)が白色ないしそれに近い色の下地に描かれている場合には、文字が視覚上不明瞭となる。上記従来技術による画像形成装置は、黒色の文字にしか対応していないために、かかるイエロー文字の視認性を高めることはできなかった。   However, when a character mainly composed of yellow (referred to as a yellow character) is drawn on a white or near-colored background, the character is visually unclear. Since the image forming apparatus according to the above prior art only supports black characters, the visibility of such yellow characters cannot be increased.

本発明は上記の問題点に鑑みてなされたもので、白色ないしそれに近い背景の上に描かれたイエロー文字の視認性を高める画像処理技術、及び当該画像処理技術を利用する画像形成技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an image processing technique for improving the visibility of yellow characters drawn on a white background or a background close thereto, and an image forming technique using the image processing technique. The purpose is to do.

上記課題を解決し上記目的を達成するために、本発明のうち第1の態様に係るものは、画像処理装置であって、入力画像信号のうちの文字の領域である文字領域を検出する文字領域検出部と、前記入力画像信号のうちのエッジ部分を検出するエッジ検出部と、前記入力画像信号をイエロー、シアン及びマゼンタを含む色成分により表現した形式で受け入れ、イエローの濃度がシアン及びマゼンタの濃度に比べて所定基準を超えて高い部分であるイエロー部分を検出するイエロー検出部と、前記文字領域であり且つ前記エッジ部分であり且つ前記イエロー部分であるイエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を高めるよう前記入力画像信号の変換を行うエッジ強調処理部と、を備えるものである。   In order to solve the above-described problems and achieve the above-described object, according to a first aspect of the present invention, there is provided an image processing apparatus for detecting a character region that is a character region in an input image signal. An area detection unit; an edge detection unit that detects an edge portion of the input image signal; and the input image signal is received in a form expressed by a color component including yellow, cyan, and magenta, and the density of yellow is cyan and magenta. A yellow detection portion that detects a yellow portion that is higher than a predetermined standard in comparison with the density of the image, and the yellow character edge portion that is the character region and the edge portion and the yellow portion. An edge enhancement processing unit for converting the input image signal so as to increase the density of at least one of the color components excluding yellow. .

この構成によれば、入力画像信号の中から文字領域が判別されるとともに、エッジ部分が検出され、イエロー部分が検出される。文字領域であり、エッジ部分であり、且つイエロー部分であるイエロー文字エッジ部分は、イエローが主体となっている文字領域のエッジ部分である。文字の背景が白色ないしそれに近い場合には、イエロー主体の文字の輪郭は、画像信号を記録材に印画したり、或いはディスプレイに表示したりしたときに、視覚上不明瞭となる。エッジ強調処理部は、イエロー文字エッジ部分に対して、イエローを除く少なくとも一つの色成分の濃度を高めるよう入力画像信号の変換を行う。すなわち、イエロー文字エッジ部分に対して、一種のエッジ強調処理が施される。それにより、文字の輪郭が視覚上明瞭なものとなり、文字の視認性が向上する。   According to this configuration, the character region is determined from the input image signal, the edge portion is detected, and the yellow portion is detected. A yellow character edge portion that is a character region, an edge portion, and a yellow portion is an edge portion of a character region mainly composed of yellow. When the background of the character is white or close to it, the outline of the character mainly composed of yellow becomes visually unclear when an image signal is printed on a recording material or displayed on a display. The edge enhancement processing unit converts the input image signal so as to increase the density of at least one color component excluding yellow for the yellow character edge portion. That is, a kind of edge enhancement processing is performed on the yellow character edge portion. Thereby, the outline of a character becomes clear visually and the visibility of a character improves.

なお、イエロー検出部が採用する所定基準は、一定値である必要はなく、またシアンとマゼンタとの間で同一である必要もない。例えば、イエロー検出部は、イエローとシアン及びマゼンタとの間の濃度の差、或いは濃度の比を、所定の値と比較することにより、イエロー部分を検出するものであってもよく、イエロー、マゼンタ、及びシアンの濃度を変数とする何らかの関数、例えば和を算出し、当該関数の値を所定の値と比較するものであってもよく、様々な形態を採り得る。   Note that the predetermined reference adopted by the yellow detection unit does not have to be a constant value, and does not have to be the same between cyan and magenta. For example, the yellow detection unit may detect a yellow portion by comparing a density difference between yellow, cyan, and magenta, or a density ratio with a predetermined value. Yellow, magenta , And some function having the density of cyan as a variable, for example, a sum may be calculated, and the value of the function may be compared with a predetermined value, and various forms may be employed.

また、文字領域、エッジ部分、及びイエロー部分は、それらのうちの一つが検出された範囲内で他の一つが検出されるものであっても良い。例えば、エッジ検出部は、文字領域検出部が検出した文字領域の中で、エッジ部分を検出するものであっても良く、イエロー検出部は、検出された文字領域且つエッジ部分に該当する部分の中で、イエロー部分を検出するものであっても良い。本構成は、かかる形態をも包含する。   Further, the character region, the edge portion, and the yellow portion may be those in which the other one is detected within a range in which one of them is detected. For example, the edge detection unit may detect an edge portion in the character region detected by the character region detection unit, and the yellow detection unit may detect a portion corresponding to the detected character region and the edge portion. Among them, the yellow portion may be detected. The present configuration includes such a form.

本発明のうち第2の態様に係るものは、第1の態様に係る画像処理装置であって、前記文字領域検出部は、前記入力画像信号のうちの有彩色文字の領域である色文字領域を、前記文字領域として検出するものである。   According to a second aspect of the present invention, there is provided the image processing device according to the first aspect, wherein the character region detection unit is a color character region that is a region of a chromatic character in the input image signal. Is detected as the character area.

この構成によれば、エッジ強調を行うべき文字領域として、色文字領域が選ばれる。このため、無彩色文字の領域について不必要なエッジ強調処理が行われ、それにより無彩色文字領域のエッジ部分が着色されたり、無彩色文字領域のエッジ部分の濃度が不必要に高くなる不都合が回避される。   According to this configuration, the color character area is selected as the character area to be edge-enhanced. For this reason, unnecessary edge emphasis processing is performed on the achromatic character region, thereby coloring the edge portion of the achromatic character region or unnecessarily increasing the density of the edge portion of the achromatic character region. Avoided.

本発明のうち第3の態様に係るものは、第1又は第2の態様に係る画像処理装置であって、前記エッジ検出部は、前記エッジ部分として、主走査方向に沿って濃度が急激に増加又は減少する部分のうちの一方である第1エッジ部分と、副走査方向に沿って濃度が急激に増加又は減少する部分のうちの一方である第2エッジ部分と、前記第1エッジ部分及び前記第2エッジ部分の双方からなる第3エッジ部分と、の何れか一つのみを検出するものである。   According to a third aspect of the present invention, there is provided the image processing apparatus according to the first or second aspect, wherein the edge detection unit rapidly increases the density along the main scanning direction as the edge portion. A first edge portion that is one of the portions that increase or decrease, a second edge portion that is one of the portions where the density rapidly increases or decreases along the sub-scanning direction, the first edge portion, and Only one of the third edge portion including both of the second edge portions is detected.

この構成によれば、第1ないし第3エッジ部分のうちの何れか一つのみがエッジ部分として検出されるので、イエロー主体の文字に、あたかも主走査方向又はその逆方向の一方、副走査方向又はその逆方向の一方、又はそれらの双方から照射された光線によって生成される陰影が文字に付随したような画像信号が得られる。このため、比較的細い文字であっても、イエロー主体の文字本来の色の部分を残しつつエッジ強調を施すことが可能となる。また、イエロー主体の文字に、視覚上、独特の美観が加わる。   According to this configuration, since only one of the first to third edge portions is detected as the edge portion, it is as if the yellow-based characters are in the main scanning direction or the opposite direction, the sub-scanning direction. Alternatively, an image signal is obtained in which a character is accompanied by a shadow generated by light rays emitted from one or both of the opposite directions. For this reason, even a relatively thin character can be edge-enhanced while leaving the original color portion of the yellow-based character. In addition, a visually distinctive beauty is added to yellow-based characters.

なお、エッジ検出部が、濃度が急激に変化する部分としてエッジ部分を検出する際の濃度は、特定の色成分の濃度であっても、複数の濃度の組合せであってもよい。例えば、最も簡素且つ合理的な形態として、Y(輝度)、U(色差)及びV(色差)を色成分とした場合のY(輝度)成分の濃度を採ることができる。   Note that the density at which the edge detection unit detects an edge portion as a portion where the density rapidly changes may be a density of a specific color component or a combination of a plurality of densities. For example, the density of the Y (luminance) component when Y (luminance), U (color difference), and V (color difference) are color components can be taken as the simplest and most reasonable form.

本発明のうち第4の態様に係るものは、第1ないし第3の何れかの態様に係る画像処理装置であって、前記イエロー検出部は、前記入力画像信号のうちの、イエローの濃度がシアンの濃度よりも第1所定値を越えて高く、且つイエローの濃度がマゼンタの濃度よりも第2所定値を越えて高い部分を、前記イエロー部分として検出するものである。   According to a fourth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to third aspects, wherein the yellow detector has a yellow density of the input image signal. A portion where the density of cyan is higher than the first predetermined value and the density of yellow is higher than the second predetermined value than the density of magenta is detected as the yellow portion.

この構成によれば、イエロー検出部は、イエローの濃度がシアン及びイエローの濃度の何れよりも、各々に設定された所定値を越えて高い部分を、イエロー部分として検出するので、イエローエッジ検出部を簡素に構成することができる。   According to this configuration, the yellow detection unit detects a portion where the yellow density is higher than both of the cyan and yellow densities exceeding a predetermined value set for each as a yellow portion. Can be configured simply.

本発明のうち第5の態様に係るものは、第1ないし第4の何れかの態様に係る画像処理装置であって、前記イエロー検出部は、ブラックを更に含む色成分により表現した形式で前記入力信号を受け入れ、前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、少なくともブラックの濃度を高めることにより、前記変換を行うものである。   According to a fifth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to fourth aspects, wherein the yellow detecting section is expressed in a form expressed by a color component further including black. The input signal is received, and the edge emphasis processing unit performs the conversion by increasing at least the density of black for the yellow character edge portion.

この構成によれば、エッジ強調処理部は、少なくともブラックの濃度を高めることによってエッジ強調を行うので、イエロー文字の視認性が効果的に高められる。   According to this configuration, since the edge enhancement processing unit performs edge enhancement by increasing at least the density of black, the visibility of yellow characters is effectively enhanced.

本発明のうち第6の態様に係るものは、第1ないし第5の何れかの態様に係る画像処理装置であって、前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度に第3所定値を加算することにより、前記変換を行うものである。   According to a sixth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to fifth aspects, wherein the edge enhancement processing unit applies the color to the yellow character edge part. The conversion is performed by adding a third predetermined value to at least one of the components excluding yellow.

この構成によれば、エッジ強調処理部は、イエローを除く少なくとも一つの色成分の濃度に、所定値を加算することによってエッジ強調を行うので、エッジ強調処理部を簡素に構成することができる。   According to this configuration, since the edge enhancement processing unit performs edge enhancement by adding a predetermined value to the density of at least one color component excluding yellow, the edge enhancement processing unit can be configured simply.

本発明のうち第7の態様に係るものは、第1ないし第5の何れかの態様に係る画像処理装置であって、前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を第4所定値とすることにより、前記変換を行うものである。   According to a seventh aspect of the present invention, there is provided the image processing apparatus according to any one of the first to fifth aspects, wherein the edge emphasis processing unit applies the color to the yellow character edge part. The conversion is performed by setting at least one of the components excluding yellow as a fourth predetermined value.

この構成によれば、エッジ強調処理部は、イエローを除く少なくとも一つの色成分の濃度を所定値とすることによってエッジ強調を行うので、エッジ強調処理部を簡素に構成することができる。   According to this configuration, since the edge enhancement processing unit performs edge enhancement by setting the density of at least one color component excluding yellow to a predetermined value, the edge enhancement processing unit can be configured simply.

本発明のうち第8の態様に係るものは、第1ないし第7の何れかの態様に係る画像処理装置であって、前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、イエローの濃度を引き下げる処理を前記変換として更に行うものである。   According to an eighth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to seventh aspects, wherein the edge emphasis processing unit is configured to perform yellow processing on the yellow character edge portion. The process of reducing the density is further performed as the conversion.

この構成によれば、エッジ強調処理部は、エッジ強調処理として、イエローの濃度を引き下げる処理を更に行うので、画像信号を印画した場合に、不必要なイエローの記録を抑え、それによりインク、トナー等の記録剤を幾分か節減することができる。   According to this configuration, the edge enhancement processing unit further performs a process of lowering the density of yellow as the edge enhancement process, and therefore, when an image signal is printed, unnecessary yellow recording is suppressed, whereby ink, toner Etc. can be saved somewhat.

本発明のうち第9の態様に係るものは、画像形成装置であって、第1ないし第8の何れかの態様に係る画像処理装置と、原稿画像を読み取ることにより画像信号を生成し、生成した当該画像信号を前記画像処理装置へ前記入力画像信号として供給するスキャナ部と、を備えるものである。   According to a ninth aspect of the present invention, there is provided an image forming apparatus, wherein the image processing apparatus according to any one of the first to eighth aspects and an image signal are generated by reading a document image, and generated And a scanner unit for supplying the image signal as the input image signal to the image processing apparatus.

この構成によれば、本発明の画像処理装置と、当該画像処理装置に入力画像信号を供給するスキャナ部とが備わるので、原稿画像を読み取り、且つ読み取って得られた画像信号の中のイエロー主体の文字の視認性を高めることができる。   According to this configuration, since the image processing apparatus of the present invention and the scanner unit that supplies the input image signal to the image processing apparatus are provided, the original image is read, and the yellow main component in the image signal obtained by reading the original image Can improve the visibility of the characters.

本発明のうち第10の態様に係るものは、画像形成装置であって、第1ないし第8の何れかの態様に係る画像処理装置と、前記画像処理装置が出力する画像信号を記録材に印画する印画部と、を備えるものである。   According to a tenth aspect of the present invention, there is provided an image forming apparatus, wherein the image processing apparatus according to any one of the first to eighth aspects and an image signal output from the image processing apparatus are used as a recording material. And a printing unit for printing.

この構成によれば、本発明の画像処理装置と、当該画像処理装置が出力する画像信号を記録材に印画する印画部とが備わるので、イエロー主体の文字の視認性を高めた形態で入力画像信号を記録材に印画することができる。   According to this configuration, since the image processing apparatus according to the present invention and the printing unit that prints the image signal output from the image processing apparatus on the recording material are provided, the input image is improved in a form in which the visibility of mainly yellow characters is improved. The signal can be printed on the recording material.

本発明のうち第11の態様に係るものは、画像処理方法であって、入力画像信号のうちの文字の領域である文字領域を検出する文字領域検出工程と、前記入力画像信号のうちのエッジ部分を検出するエッジ検出工程と、前記入力信号をイエロー、シアン及びマゼンタを含む色成分により表現した形式で受け入れ、イエローの濃度がシアン及びマゼンタの濃度に比べて所定基準を超えて高い部分であるイエロー部分を検出するイエロー検出工程と、前記文字領域であり且つ前記エッジ部分であり且つ前記イエロー部分であるイエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を高めるよう前記入力画像信号の変換を行うエッジ強調処理工程と、を備えるものである。   According to an eleventh aspect of the present invention, there is provided an image processing method comprising: a character region detecting step for detecting a character region which is a character region in an input image signal; and an edge in the input image signal. An edge detection step for detecting a portion and the input signal is received in a form expressed by color components including yellow, cyan, and magenta, and the density of yellow is a portion that is higher than a predetermined standard compared to the densities of cyan and magenta. A yellow detection step of detecting a yellow portion, and at least one density excluding yellow of the color component is increased with respect to the yellow character edge portion which is the character region and the edge portion and the yellow portion; And an edge enhancement processing step for converting the input image signal.

この構成によれば、上記各工程が備わるので、本発明の画像処理装置について述べたと同様の理由により、白色ないしそれに近い背景の上に描かれたイエロー主体の文字の視認性が向上する。   According to this configuration, since each of the above steps is provided, the visibility of yellow-based characters drawn on white or a background close thereto is improved for the same reason as described for the image processing apparatus of the present invention.

本発明のうち第12の態様に係るものは、画像処理プログラムであって、コンピュータを、入力画像信号のうちの文字の領域である文字領域を検出する文字領域検出手段と、前記入力画像信号のうちのエッジ部分を検出するエッジ検出手段と、前記入力信号をイエロー、シアン及びマゼンタを含む色成分により表現した形式で受け入れ、イエローの濃度がシアン及びマゼンタの濃度に比べて所定基準を超えて高い部分であるイエロー部分を検出するイエロー検出手段と、前記文字領域であり且つ前記エッジ部分であり且つ前記イエロー部分であるイエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を高めるよう前記入力画像信号の変換を行うエッジ強調処理手段として機能させるものである。   According to a twelfth aspect of the present invention, there is provided an image processing program, wherein the computer detects a character area that is a character area in the input image signal, and the input image signal The edge detection means for detecting the edge portion and the input signal are accepted in a form expressed by color components including yellow, cyan and magenta, and the density of yellow is higher than a predetermined standard compared to the densities of cyan and magenta. A yellow detection means for detecting a yellow portion that is a portion; and at least one of the color components excluding yellow for the yellow character edge portion that is the character region and the edge portion and the yellow portion. It functions as an edge enhancement processing means for converting the input image signal so as to increase the density.

この構成によれば、コンピュータが上記各手段として機能するので、本発明の画像処理装置について述べたと同様の理由により、白色ないしそれに近い背景の上に描かれたイエロー主体の文字の視認性が向上する。   According to this configuration, since the computer functions as each of the above-described means, the visibility of yellow-based characters drawn on white or a background close thereto is improved for the same reason as described for the image processing apparatus of the present invention. To do.

以上のように本発明によれば、白色ないしそれに近い背景の上に描かれたイエロー文字の視認性が向上する。   As described above, according to the present invention, the visibility of yellow characters drawn on white or a background close thereto is improved.

(装置の全体構成)
図1は、本発明の一実施の形態による画像形成装置の構成を示すブロック図である。この画像形成装置100は、スキャナ部10、画像処理部20、印画部30及び制御部40を備えている。スキャナ部10は、原稿の画像を光学的に読み取って画像信号を生成するものであり、露光ランプ11、CCD(電荷結合素子)12、及びAFE(Analog Front End;アナログフロントエンド)13を含んでいる。AFE13は、不図示のアナログデジタル変換器を有している。
(Overall configuration of the device)
FIG. 1 is a block diagram showing a configuration of an image forming apparatus according to an embodiment of the present invention. The image forming apparatus 100 includes a scanner unit 10, an image processing unit 20, a printing unit 30, and a control unit 40. The scanner unit 10 optically reads an image of a document to generate an image signal, and includes an exposure lamp 11, a CCD (charge coupled device) 12, and an AFE (Analog Front End) 13. Yes. The AFE 13 has an analog-digital converter (not shown).

スキャナ部10は、露光ランプ11により原稿を照射し、その反射光をCCD12で受光することにより、原稿から画像を読み取り、この読み取った画像に対応する画像信号をAFE13によりアナログ形式からデジタル形式へ変換した上で、画像処理部20へ出力する。スキャナ部10は、モノクロ原稿だけでなく、カラー原稿や写真原稿の読み取りも可能な構成となっている。図1の例では、スキャナ部10は、レッド(Rと称する)、グリーン(Gと称する)及びブルー(Bと称する)を色成分とするカラーの画像信号を出力する。当該画像信号は、例えば色成分毎に256階調を有するように、各画素の色成分毎に例えば8ビットで表現される。スキャナ部10の構成は従来周知であるので、その詳細な説明は略する。   The scanner unit 10 irradiates the original with the exposure lamp 11 and receives the reflected light by the CCD 12 to read an image from the original, and converts an image signal corresponding to the read image from an analog format to a digital format by the AFE 13. After that, the data is output to the image processing unit 20. The scanner unit 10 is configured to be able to read not only monochrome originals but also color originals and photographic originals. In the example of FIG. 1, the scanner unit 10 outputs a color image signal having red (referred to as R), green (referred to as G), and blue (referred to as B) as color components. The image signal is expressed by, for example, 8 bits for each color component of each pixel so as to have 256 gradations for each color component. Since the configuration of the scanner unit 10 is conventionally known, a detailed description thereof will be omitted.

画像処理部20は、スキャナ部10から入力された画像信号に対する各種画像処理を行うものであり、画像メモリ22、入力画像処理部23及び印字画像処理部24を含んでいる。入力画像処理部23は、本発明の画像処理装置の実施の形態に該当するもので、入力画像信号に対して、レベル補正、γ補正等の所定の補正処理、画像信号の圧縮又は伸張処理、拡大又は縮小処理等の種々の画像処理(加工処理)を行う。注目すべきは、後述するように、画像処理部23がイエロー文字にエッジ強調を施す機能を有していることである。画像メモリ22は、入力画像処理部23によって処理された画像信号を記憶するもので、そのために、例えば、HDD(Hard Disc Drive;ハードディスク)、RAM(Random Access Memory;ラム)、フラッシュROM(Read Only Memory;ロム)等の記憶媒体を有している。   The image processing unit 20 performs various image processing on the image signal input from the scanner unit 10, and includes an image memory 22, an input image processing unit 23, and a print image processing unit 24. The input image processing unit 23 corresponds to the embodiment of the image processing apparatus of the present invention. For the input image signal, predetermined correction processing such as level correction and γ correction, image signal compression or expansion processing, Various image processing (processing) such as enlargement or reduction processing is performed. It should be noted that, as will be described later, the image processing unit 23 has a function of performing edge enhancement on yellow characters. The image memory 22 stores the image signal processed by the input image processing unit 23. For this purpose, for example, an HDD (Hard Disc Drive), a RAM (Random Access Memory), and a flash ROM (Read Only) are used. Memory; ROM).

入力画像処理部23及び印字画像処理部24は、ソフトウェアにより動作するコンピュータにより実現することも可能である。しかしながら、スキャナ部10による読み取りの速度に追随した高速の処理を実現する上で、これらはソフトウェアを要しないハードウェアのみを搭載したASIC(Application Specific Integrated Circuits;エーシック;特定用途向け集積回路)により構成されるのが望ましい。本実施の形態では、これらがASICで、且つ単一の半導体チップの上に構成されているものとする。   The input image processing unit 23 and the print image processing unit 24 can also be realized by a computer that operates by software. However, in order to realize high-speed processing following the reading speed of the scanner unit 10, these are configured by ASIC (Application Specific Integrated Circuits) equipped only with hardware that does not require software. It is desirable to be done. In the present embodiment, these are ASICs and are configured on a single semiconductor chip.

印字画像処理部24は、画像メモリ22に記憶されている画像信号を読み出し、印画用の画像信号へ変換する。印字画像処理部24は、二値化部25を含んでおり、主要な機能として、画像メモリ22に記憶されている階調を有する画像信号を、印画のための二値化信号に変換する。二値化部25は、例えば周知の誤差拡散法に基づいて、階調性ある画像信号を二値化する。   The print image processing unit 24 reads the image signal stored in the image memory 22 and converts it into an image signal for printing. The print image processing unit 24 includes a binarization unit 25 and converts an image signal having gradation stored in the image memory 22 into a binarization signal for printing as a main function. The binarization unit 25 binarizes an image signal having gradation, for example, based on a known error diffusion method.

印画部30は、印字画像処理部24が出力する印画用の画像信号に基づいて、記録用紙、記録用シート等の記録材に画像を印刷するものである。画像信号に基づいて画像を印刷することを、「画像信号を印刷する」或いは「画像信号を印画する」と称する。印画部30は、レーザビームを用いた周知の電子写真印刷方式のプリンタとして構成されており、LSU(Laser Scanner Unit;レーザスキャナユニット)31、現像部32、転写部33、定着部34及び用紙搬送部35を含んでいる。   The printing unit 30 prints an image on a recording material such as a recording sheet or a recording sheet based on the image signal for printing output from the print image processing unit 24. Printing an image based on the image signal is referred to as “printing the image signal” or “printing the image signal”. The printing unit 30 is configured as a known electrophotographic printer using a laser beam, and includes an LSU (Laser Scanner Unit) 31, a developing unit 32, a transfer unit 33, a fixing unit 34, and paper conveyance. Part 35 is included.

LSU31は、印字画像処理部24が出力する画像信号に基づいてレーザビームを変調し、不図示の帯電した感光ドラム上に走査させ、それにより感光ドラム上に潜像を形成する。現像部32は、潜像が形成された感光ドラムにトナー、キャリアを含む現像剤を静電吸着させ、それにより潜像を顕在化させる。転写部33は、現像剤を感光ドラムから記録材へ転写する。定着部34は、記録材に現像剤を定着させる。用紙搬送部35は、記録材を不図示の記録用紙トレイから転写部33へ搬送し、更に定着部34へ搬送した後、不図示の記録済み用紙トレイに排出する。   The LSU 31 modulates the laser beam based on the image signal output from the print image processing unit 24 and scans it on a charged photosensitive drum (not shown), thereby forming a latent image on the photosensitive drum. The developing unit 32 electrostatically attracts the developer including toner and carrier to the photosensitive drum on which the latent image is formed, thereby revealing the latent image. The transfer unit 33 transfers the developer from the photosensitive drum to the recording material. The fixing unit 34 fixes the developer on the recording material. The paper transport unit 35 transports the recording material from a recording paper tray (not shown) to the transfer unit 33, further transports the recording material to the fixing unit 34, and then discharges the recording material to a recorded paper tray (not shown).

制御部40は、CPU(Central Processing Unit;中央演算処理部)41に加えて、このCPU41の動作を規定するプログラムを格納するROM43、一時的にデータを保管するRAM42等の記憶部を有している。すなわち、制御部40はコンピュータを備えている。それにより、制御部40は、不図示の操作パネル等で受け付けられたユーザの指示情報や、画像形成装置100の各所に設けられているセンサからの検出信号に応じて、スキャナ部10、画像処理部20及び印画部30を含む画像形成装置100全体の制御を行う処理を実行する。   In addition to a CPU (Central Processing Unit) 41, the control unit 40 includes storage units such as a ROM 43 that stores a program that defines the operation of the CPU 41, and a RAM 42 that temporarily stores data. Yes. That is, the control unit 40 includes a computer. As a result, the control unit 40 performs the scanner unit 10 and image processing in accordance with user instruction information received by an operation panel (not shown) or the like, or detection signals from sensors provided in various parts of the image forming apparatus 100. A process of controlling the entire image forming apparatus 100 including the unit 20 and the printing unit 30 is executed.

制御部40としてのコンピュータが読み取ることによってこれらの機能を実現するための上記プログラムは、不図示のHDD等の不揮発性かつ大容量の外部記憶装置に格納しておき、例えばRAM42を用いた主記憶装置に適宜転送することにより、CPU41による実行に供することも可能である。上記プログラムは、ROM43或いは不図示のCD−ROM等の記録媒体を通じて供給することも、不図示のネットワークインタフェースに接続されるネットワーク等の伝送媒体を通じて供給することも可能である。伝送媒体は、有線の伝送媒体に限らず無線の伝送媒体であっても良い。また、伝送媒体は通信線路のみでなく、通信線路を中継する中継装置、例えばルータ等をも含む。   The above-described program for realizing these functions by being read by the computer as the control unit 40 is stored in a non-volatile, large-capacity external storage device such as an HDD (not shown), and the main memory using the RAM 42, for example. It can also be used for execution by the CPU 41 by appropriately transferring to the apparatus. The program can be supplied through a recording medium such as the ROM 43 or a CD-ROM (not shown), or can be supplied via a transmission medium such as a network connected to a network interface (not shown). The transmission medium is not limited to a wired transmission medium, and may be a wireless transmission medium. The transmission medium includes not only a communication line but also a relay device that relays the communication line, such as a router.

プログラムがROM43を通じて供給される場合には、当該プログラムが記録されたROMを制御部40に搭載することにより、CPU41による実行に供することができる。プログラムがCD−ROMを通じて供給される場合には、CD−ROM読み取り装置を、例えば不図示のパラレルインタフェースへ接続し、当該プログラムをRAM42或いは不図示のHDDへ転送することにより、CPU41による実行に供することができる。また、プログラムが伝送媒体を通じて供給される場合には、ネットワークインタフェースを通じて受信したプログラムをRAM42或いは不図示のHDDへ転送することにより、CPU41による実行に供することができる。   When the program is supplied through the ROM 43, it can be used for execution by the CPU 41 by mounting the ROM in which the program is recorded in the control unit 40. When the program is supplied through a CD-ROM, the CD-ROM reader is connected to a parallel interface (not shown), for example, and the program is transferred to the RAM 42 or an HDD (not shown) for execution by the CPU 41. be able to. When the program is supplied through a transmission medium, the program received through the network interface can be transferred to the RAM 42 or the HDD (not shown) for execution by the CPU 41.

なお、一般に画像形成装置は、複写機、プリンタ機、ファクシミリ装置、或いはそれらを兼ね備えた複合機等、画像または画像信号の入力および出力を行う装置を広く包含するものである。そして、画像形成機能とは、画像または画像信号の入力および出力を行う機能を広く包含する概念である。したがって、一般に画像形成装置には、画像信号を取り込む画像入力部、画像または画像信号を出力する画像出力部、およびそれらを制御する制御部が設けられている。画像入力部は、画像が記録された記録紙から画像を読み取るスキャナ部10および画像信号を受信する画像信号受信部のうちの少なくとも1を有しており、画像出力部は、画像を記録用材に記録する印画部30および画像信号を送信する画像信号送信部のうち少なくとも1を有している。例えば、プリンタ機であれば画像信号受信部と印画部30とが設けられており、ファクシミリ装置の送信機能を果たす部分にのみ着目すれば、スキャナ部10と画像信号送信部とが設けられている。画像形成装置の一般的概念は上記の通りであるが、本発明の一実施形態としての画像形成装置100は、画像入力部にスキャナ部10を含み、画像出力部に印画部30を含んでいる。   Note that image forming apparatuses generally include apparatuses that input and output images or image signals, such as copiers, printers, facsimile machines, or multi-function machines having both. The image forming function is a concept that broadly includes a function of inputting and outputting an image or an image signal. Accordingly, in general, an image forming apparatus is provided with an image input unit that takes in an image signal, an image output unit that outputs an image or an image signal, and a control unit that controls them. The image input unit includes at least one of a scanner unit 10 that reads an image from a recording sheet on which an image is recorded and an image signal reception unit that receives an image signal. The image output unit uses the image as a recording material. At least one of the printing unit 30 for recording and the image signal transmission unit for transmitting the image signal is included. For example, in the case of a printer, an image signal receiving unit and a printing unit 30 are provided. If attention is paid only to a portion that performs the transmission function of the facsimile apparatus, a scanner unit 10 and an image signal transmitting unit are provided. . The general concept of the image forming apparatus is as described above. The image forming apparatus 100 according to the embodiment of the present invention includes the scanner unit 10 in the image input unit and the printing unit 30 in the image output unit. .

(画像処理部の構成)
図2は、入力画像処理部23の構成例を示すブロック図である。入力画像処理部23は、シェーディング補正部51、γ(ガンマ)補正部52、色収差補正部53、MTF(Modulation Transfer Function;エムティーエフ)補正部54、スキャナ色補正部55、RGB/YCM変換部56、文字領域検出/エッジ検出部57、適応フィルタ処理部58及びエッジ色変換処理部59を含んでいる。注目すべきは、画像処理部23が、イエロー文字にエッジ強調を施すエッジ色変換処理部59を含んでいる点である。シェーディング補正部51から適応フィルタ処理部58までの各部の構成及び機能は従来周知であるので、以下の通り、それらに関する説明は簡略なものに止める。
(Configuration of image processing unit)
FIG. 2 is a block diagram illustrating a configuration example of the input image processing unit 23. The input image processing unit 23 includes a shading correction unit 51, a γ (gamma) correction unit 52, a chromatic aberration correction unit 53, an MTF (Modulation Transfer Function) correction unit 54, a scanner color correction unit 55, and an RGB / YCM conversion unit 56. A character region detection / edge detection unit 57, an adaptive filter processing unit 58, and an edge color conversion processing unit 59. It should be noted that the image processing unit 23 includes an edge color conversion processing unit 59 that performs edge enhancement on yellow characters. Since the configuration and function of each unit from the shading correction unit 51 to the adaptive filter processing unit 58 are well known in the art, the following description will be simplified.

シェーディング補正部51は、スキャナ部10が出力するRGBを色成分とする画像信号の入力を受けるとともに、当該入力画像信号に対してシェーディング補正を施す。シェーディング補正は、白基準及び黒基準データに基づいて、主走査方向に沿った露光ランプ11の光量のばらつき、及びCCD12の感度のばらつきによる、画像信号の値、すなわち画素値(濃度とも表現する)のばらつきを補正するものである。γ補正部52は、シェーディング補正後の画像信号に対して、各画素の色成分毎に階調特性を変更するガンマ補正を施す。   The shading correction unit 51 receives an image signal having RGB as a color component output from the scanner unit 10 and performs shading correction on the input image signal. The shading correction is based on the white reference and black reference data, and the value of the image signal, that is, the pixel value (also expressed as density) due to the variation in the light amount of the exposure lamp 11 along the main scanning direction and the variation in sensitivity of the CCD 12. It is intended to correct the variation of. The γ correction unit 52 performs gamma correction for changing the gradation characteristics for each color component of each pixel on the image signal after shading correction.

色収差補正部53は、γ補正後の画像信号に対して、画素毎に色収差補正を施す。色収差補正は、RGB各色の波長の相違、及びスキャナ部10が有する不図示のレンズの特性に起因する色ずれを補正するものである。MTF補正部54は、色収差補正後の画像信号に対して、MTF補正を施す。MTF補正は、CCD12へ入射する光が、不図示のレンズにより「ぼけ」を生じることを考慮して、当該「ぼけ」を補正することにより、めりはりの効いた画像信号に変換するものである。スキャナ色補正部55は、MTF補正後の画像信号に対して、画素毎にRGB各色の画素値に含まれる混色成分を除去する補正を施す。RGB/YCM変換部56は、RGBを色成分とする画像信号を、YCMを色成分とする画像信号へ変換する。   The chromatic aberration correction unit 53 performs chromatic aberration correction for each pixel on the image signal after γ correction. The chromatic aberration correction is to correct a color shift caused by a difference in wavelength of each RGB color and a characteristic of a lens (not shown) included in the scanner unit 10. The MTF correction unit 54 performs MTF correction on the image signal after chromatic aberration correction. The MTF correction is to convert the light incident on the CCD 12 into an image signal with a sharpening effect by correcting the “blur” in consideration of the occurrence of “blur” by a lens (not shown). is there. The scanner color correction unit 55 performs correction for removing the mixed color component included in the pixel values of the RGB colors for each pixel on the image signal after the MTF correction. The RGB / YCM conversion unit 56 converts an image signal having RGB as a color component into an image signal having YCM as a color component.

文字領域検出/エッジ検出部57は、スキャナ色補正部55が出力する画像信号に対して、画素毎に、当該注目画素が文字領域、網点領域等の何れの画像領域に該当するか、及びエッジ部分に該当するか否かを検出する。文字領域検出/エッジ検出部57は、それぞれの判定結果を表現する領域判定信号ASIG及びエッジ検出信号EDGEを画素毎に出力する。適応フィルタ処理部58は、YCMを色成分とする画像信号に対して、画質を高めるためのフィルタ処理を施す。適応フィルタ処理部58は、画像の種類に適したフィルタ処理を行うために、領域判定信号ASIG及びエッジ検出信号EDGEを参照する。特徴あるエッジ色変換処理部59については、後に詳述する。   The character region detection / edge detection unit 57 determines, for each pixel, which image region, such as a character region or a halftone dot region, corresponds to the image signal output from the scanner color correction unit 55, and It is detected whether it corresponds to the edge portion. The character area detection / edge detection unit 57 outputs an area determination signal ASIG and an edge detection signal EDGE expressing each determination result for each pixel. The adaptive filter processing unit 58 performs a filter process for improving the image quality on an image signal having YCM as a color component. The adaptive filter processing unit 58 refers to the region determination signal ASIG and the edge detection signal EDGE in order to perform filter processing suitable for the type of image. The characteristic edge color conversion processing unit 59 will be described in detail later.

図3は、文字領域検出/エッジ検出部57の構成を示すブロック図である。文字領域検出/エッジ検出部57の各構成要素も周知であるので、その説明は概略なものに止める。文字領域検出/エッジ検出部57は、RGB/YUV変換処理部61、彩度判定部62、Y反転部63、文字候補/文字周囲検出部64、エッジ検出部65、密集細線/写真領域検出部66、文字領域信号生成部67、黒/色文字信号生成部68、文字領域信号拡張部69、網点信号生成部70及び領域信号合成部71を含んでいる。   FIG. 3 is a block diagram showing a configuration of the character area detection / edge detection unit 57. Since each component of the character area detection / edge detection unit 57 is also well known, its description is only a brief description. The character region detection / edge detection unit 57 includes an RGB / YUV conversion processing unit 61, a saturation determination unit 62, a Y inversion unit 63, a character candidate / character surrounding detection unit 64, an edge detection unit 65, a dense thin line / photo region detection unit. 66, a character area signal generation unit 67, a black / color character signal generation unit 68, a character area signal expansion unit 69, a halftone signal generation unit 70, and an area signal synthesis unit 71.

RGB/YUV変換処理部61は、文字領域検出/エッジ検出部57へ入力されたRGBを色成分とする画像信号を、Y(輝度)、U(色差)及びV(色差)を色成分とする画像信号へ変換する。彩度判定部62は、RGB/YUV変換処理部61が出力するU成分及びV成分の画素値に基づいて、各画素が有彩色であるか無彩色であるかを判定する。この判定は、例えば、2つの所定の閾値TL、TH(0<TL<TH<255)を用いて、注目画素が、TL<U<TH、且つ、TL<V<TH、を充足する場合に、当該画素が無彩色であると判定し、充足しない場合には有彩色であると判定することにより行われる。判定の結果は、黒/色文字信号生成部68で利用される。   The RGB / YUV conversion processing unit 61 uses, as color components, Y (luminance), U (color difference), and V (color difference) as image components having RGB as color components input to the character region detection / edge detection unit 57. Convert to image signal. The saturation determination unit 62 determines whether each pixel is a chromatic color or an achromatic color based on the pixel values of the U component and the V component output from the RGB / YUV conversion processing unit 61. This determination is performed when, for example, the target pixel satisfies TL <U <TH and TL <V <TH using two predetermined threshold values TL and TH (0 <TL <TH <255). The determination is made by determining that the pixel is an achromatic color, and determining that the pixel is a chromatic color when the pixel is not satisfied. The determination result is used by the black / color character signal generation unit 68.

Y反転部63は、Y成分の画素値を反転させる。すなわち、画素値Yを、255−Yへ変換する。文字候補/文字周囲検出部64、エッジ検出部57、及び密集細線/写真領域検出部66による検出処理は、反転後のY成分の画素値を用いて実行される。文字候補/文字周囲検出部64は、注目画素が、文字候補に該当するか否か、及び文字周囲に該当するか否かを検出する。そのために、文字候補/文字周囲検出部64は、例えば、反転後のY成分の画素値に対して、ガンマ補正処理、積分フィルタ処理、二次微分フィルタ処理、及び閾値処理を順次施す。ここで行われるガンマ補正処理は、所定値未満の画素値をゼロに変換する処理である。積分フィルタ処理は、例えば、注目画素を中心とする7×7フィルタを用いて積分処理を行うものである。二次微分フィルタ処理は、例えば、注目画素を中心とする7×7フィルタを用いて二次微分処理を行うものである。閾値処理は、例えば、二つの所定の閾値TC、TA(0<TC<255;−128<TA<127)を用いて、二次微分処理後の画素値Dが、TC<Dであれば、注目画素が文字候補に該当すると判定し、D<TAであれば、注目画素が文字周囲に該当すると判定するものである。   The Y inversion unit 63 inverts the pixel value of the Y component. That is, the pixel value Y is converted to 255-Y. The detection processing by the character candidate / character surrounding detection unit 64, the edge detection unit 57, and the dense thin line / photo area detection unit 66 is executed using the pixel value of the Y component after inversion. The character candidate / character surrounding detection unit 64 detects whether the target pixel corresponds to a character candidate and whether it corresponds to a character periphery. For this purpose, the character candidate / character surrounding detection unit 64 sequentially performs gamma correction processing, integration filter processing, second-order differential filter processing, and threshold processing on the pixel value of the Y component after inversion, for example. The gamma correction processing performed here is processing for converting pixel values less than a predetermined value to zero. The integration filter process is, for example, an integration process that uses a 7 × 7 filter centered on the pixel of interest. The secondary differential filter processing is, for example, for performing secondary differential processing using a 7 × 7 filter centered on the target pixel. The threshold processing is performed by using, for example, two predetermined threshold values TC and TA (0 <TC <255; −128 <TA <127), and the pixel value D after the second order differential processing is TC <D. It is determined that the target pixel corresponds to the character candidate. If D <TA, it is determined that the target pixel corresponds to the character periphery.

エッジ検出部65は、注目画素が、エッジ部分に該当するか否かを検出する。そのために、エッジ検出部65は、例えば、反転後のY成分の画素値に対して、ガンマ補正処理、二次微分フィルタ処理、下地画素カウント処理、及びエッジ信号生成処理を順次施す。ここで行われるガンマ補正処理は、文字候補/文字周囲検出部64が行うガンマ補正処理と同様の処理である。二次微分フィルタ処理は、例えば、図4に示すような注目画素を中心とする7×7二次微分フィルタを用いて行われる。一般に、フィルタ処理は、各画素の値と対応するフィルタの値との積を積算することにより実行される。下地画素カウント処理は、例えば、注目画素を中心とする7×7画素のうち、四隅と四辺の中心との合計8画素について、画素値が所定の閾値未満である画素の個数をカウントし、当該カウント値が別の所定の閾値TN以上であるか否かを判別する。エッジ信号生成処理は、二次微分フィルタ処理が施されて得られた値が更に別の所定の閾値を越えており、且つ、上記カウント値が閾値TN以上である場合に、注目画素がエッジ部分に該当すると判断し、それ以外の場合には、エッジ部分には該当しないと判断する。図5に例示するように、エッジ検出部65による判断の結果は、例えば1ビットのエッジ検出信号EDGEによって表現される。   The edge detection unit 65 detects whether the target pixel corresponds to an edge portion. For this purpose, for example, the edge detection unit 65 sequentially performs gamma correction processing, secondary differential filter processing, background pixel count processing, and edge signal generation processing on the pixel value of the inverted Y component. The gamma correction processing performed here is the same processing as the gamma correction processing performed by the character candidate / character surrounding detection unit 64. The secondary differential filter processing is performed using, for example, a 7 × 7 secondary differential filter centered on the target pixel as shown in FIG. In general, the filtering process is executed by integrating the product of the value of each pixel and the value of the corresponding filter. In the background pixel counting process, for example, out of 7 × 7 pixels centered on the target pixel, the number of pixels having a pixel value less than a predetermined threshold is counted for a total of 8 pixels including the four corners and the center of the four sides. It is determined whether or not the count value is equal to or greater than another predetermined threshold value TN. In the edge signal generation process, when the value obtained by performing the second-order differential filter process exceeds another predetermined threshold value and the count value is equal to or greater than the threshold value TN, the target pixel is an edge portion. In other cases, it is determined not to correspond to the edge portion. As illustrated in FIG. 5, the determination result by the edge detection unit 65 is expressed by, for example, a 1-bit edge detection signal EDGE.

図3に戻って、密集細線/写真領域検出部66は、注目画素が縦密集細線に該当するか否か、横密集細線に該当するか否か、及び写真領域に該当するか否かを判定する。この判定は、例えば、注目画素を中心とする9×9画素について、主走査方向に沿った隣接画素どうし画素値の差の絶対値の積算値と、副走査方向に沿った隣接画素どうし画素値の差の絶対値の積算値とを算出し、これらの積算値の大きさを所定の閾値と比較することによって行われる。   Returning to FIG. 3, the dense fine line / photo area detection unit 66 determines whether or not the pixel of interest corresponds to the vertical dense fine line, whether it corresponds to the horizontal dense fine line, and whether it corresponds to the photo area. To do. This determination is made, for example, for a 9 × 9 pixel centered on the target pixel, by integrating the absolute value of the pixel value difference between adjacent pixels along the main scanning direction and the pixel value between adjacent pixels along the sub-scanning direction. This is done by calculating an integrated value of the absolute value of the difference between the two and comparing the magnitude of these integrated values with a predetermined threshold value.

文字領域信号生成部67は、注目画素が文字領域に該当するか否かを示す文字領域信号を生成する。文字領域信号生成部67は、例えば、注目画素が、エッジ部に該当し、且つ文字候補と密集細線との何れかに該当する場合に、文字領域に該当すると判定する。黒/色文字信号生成部68は、文字領域が有彩色文字の領域である色文字領域に該当するか、無彩色の文字の領域である黒文字領域に該当するかを判定する。文字領域信号生成部67は、注目画素が文字領域に該当する場合に、再度判定部62が注目画素について有彩色と判定しておれば、注目画素を色文字領域に該当すると判定し、無彩色と判定しておれば、黒文字領域に該当すると判定する。   The character area signal generation unit 67 generates a character area signal indicating whether or not the target pixel corresponds to the character area. For example, the character region signal generation unit 67 determines that the target pixel corresponds to the character region when the pixel of interest corresponds to the edge portion and corresponds to either the character candidate or the dense thin line. The black / color character signal generation unit 68 determines whether the character region corresponds to a color character region that is a chromatic character region or a black character region that is an achromatic character region. If the target pixel corresponds to the character region and the determination unit 62 determines that the target pixel is a chromatic color again, the character region signal generation unit 67 determines that the target pixel corresponds to the color character region, and achromatic color. If it is determined that it corresponds to the black character area.

文字領域信号拡張部69は、文字領域を周辺画素に拡張する処理を行う。より詳細には、文字領域信号拡張部69は、例えば注目画素を中心とする3×7画素のうち、色文字領域画素が一つ以上あれば、注目画素を色文字領域に該当すると判定し、黒文字領域が一つ以上あれば黒文字領域に該当すると判定する。   The character area signal extension unit 69 performs processing for extending the character area to surrounding pixels. More specifically, for example, if there is one or more color character area pixels among 3 × 7 pixels centered on the target pixel, the character area signal extension unit 69 determines that the target pixel corresponds to the color character area, If there is at least one black character area, it is determined that it corresponds to the black character area.

網点信号生成部70は、注目画素が網点領域であるか否かを判定する。網点信号生成部70は、例えば、注目画素が文字周囲に該当せず、且つ、写真領域に該当しない場合に、網点領域に該当するものと判定する。   The halftone signal generator 70 determines whether or not the target pixel is a halftone area. For example, when the target pixel does not correspond to the periphery of the character and does not correspond to the photograph area, the halftone signal generation unit 70 determines that the pixel corresponds to the dot area.

領域信号合成部71は、注目画素が、黒文字領域、色文字領域、網点領域の何れに該当すると判定されたかに基づいて、注目画素が該当する画像領域を示す領域判定信号ASIGを生成し出力する。注目画素について、黒文字領域に該当するという判定、色文字領域に該当するという判定、及び網点領域に該当するという判定は、必ずしも排他的であるとは限らない。ある注目画素について、黒文字領域に該当すると判定されると同時に、色文字領域に該当すると判定され、更に網点領域にも該当すると判定される場合もあり得る。領域信号合成部71は、各判断の間の優先順位を予め定めておき、当該優先順位に従って、重複する判定の間の調整を行い、領域判定信号ASIGを生成する。図6に例示するように、領域判定信号ASIGは、例えば2ビットで注目画素が該当する領域を表現する。   The area signal synthesis unit 71 generates and outputs an area determination signal ASIG indicating the image area to which the target pixel corresponds, based on whether the target pixel corresponds to the black character area, the color character area, or the halftone dot area. To do. Regarding the pixel of interest, the determination that it corresponds to the black character region, the determination that it corresponds to the color character region, and the determination that it corresponds to the halftone dot region are not necessarily exclusive. A certain pixel of interest may be determined to correspond to a black character region, at the same time, determined to correspond to a color character region, and further determined to correspond to a halftone dot region. The area signal combining unit 71 determines a priority order between the determinations in advance, adjusts the overlapping determinations according to the priority order, and generates an area determination signal ASIG. As illustrated in FIG. 6, the area determination signal ASIG represents an area to which the target pixel corresponds, for example, with 2 bits.

なお、文字領域検出/エッジ検出部57の構成要素のうち、エッジ検出部65は本発明のエッジ検出部の一実施の形態に該当し、領域判定信号ASIGを生成するためのエッジ検出部65をも含む一連の構成要素は、本発明の文字領域検出部の一実施の形態に該当する。   Of the components of the character region detection / edge detection unit 57, the edge detection unit 65 corresponds to an embodiment of the edge detection unit of the present invention, and the edge detection unit 65 for generating the region determination signal ASIG is provided. A series of constituent elements including also corresponds to an embodiment of the character area detection unit of the present invention.

(エッジ色変換処理部の構成)
図7は、エッジ色変換処理部59の構成例を示す回路図である。図7に例示するように、エッジ色変換処理部59は、周知のデジタルIC(集積回路)を組み合わせることにより容易に構成することが可能である。このことは、入力画像処理部23の他の構成要素とともに、エッジ色変換処理部59をASICにより容易に構成し得ることを示している。図7の例では、エッジ色変換処理部59は、減算器75及び76、比較器(コンパレータ)79及び80、論理積回路81〜83、加算器84及び85、レジスタ77,78,86,87、並びにマルチプレクサ88及び89を含んでいる。
(Configuration of edge color conversion processor)
FIG. 7 is a circuit diagram illustrating a configuration example of the edge color conversion processing unit 59. As illustrated in FIG. 7, the edge color conversion processing unit 59 can be easily configured by combining known digital ICs (integrated circuits). This indicates that the edge color conversion processing unit 59 can be easily configured by the ASIC together with other components of the input image processing unit 23. In the example of FIG. 7, the edge color conversion processing unit 59 includes subtractors 75 and 76, comparators (comparators) 79 and 80, AND circuits 81 to 83, adders 84 and 85, registers 77, 78, 86, 87. , And multiplexers 88 and 89.

減算器75は、適応フィルタ処理部58が出力するY成分及びC成分の画素値の差ΔYC(=Y−C)を算出する。同様に、減算器76は、適応フィルタ処理部58が出力するY成分及びM成分の画素値の差ΔYM(=Y−M)を算出する。比較器79は、差ΔYCがレジスタ77に保持される所定値(第1所定値)よりも大きいか否かを判定する。同様に、比較器80は、差ΔYMがレジスタ78に保持される所定値(第2所定値)よりも大きいか否かを判定する。   The subtractor 75 calculates a difference ΔYC (= Y−C) between the pixel values of the Y component and the C component output from the adaptive filter processing unit 58. Similarly, the subtractor 76 calculates the difference ΔYM (= Y−M) between the Y component and M component pixel values output from the adaptive filter processing unit 58. The comparator 79 determines whether or not the difference ΔYC is larger than a predetermined value (first predetermined value) held in the register 77. Similarly, the comparator 80 determines whether or not the difference ΔYM is larger than a predetermined value (second predetermined value) held in the register 78.

レジスタ77及び78は、例えばRAMのメモリセルと同様に構成され、各々8ビットの信号を保持するものである。かかるレジスタ77及び78の値は、例えば画像処理装置100の電源が投入された直後に行われる初期化の過程で、制御部40のCPU41により書き込まれる。レジスタ77及び78は、エッジ色変換処理部59の不図示の負電源線及び正電源線の何れか一方に個別に接続された8本の抵抗素子列に置き換えられても良い。レジスタ86及び87についても同様である。   The registers 77 and 78 are configured in the same way as, for example, a RAM memory cell, and each hold an 8-bit signal. The values of the registers 77 and 78 are written by the CPU 41 of the control unit 40 in the initialization process performed immediately after the power of the image processing apparatus 100 is turned on, for example. The registers 77 and 78 may be replaced with eight resistor element rows individually connected to either a negative power supply line (not shown) or a positive power supply line of the edge color conversion processing unit 59. The same applies to the registers 86 and 87.

論理積回路81は、2個の比較器79及び80の何れもが出力をアクティブにする(すなわちアサートする)場合に限り、出力LLをアクティブにする。すなわち、減算器75及び76、比較器79及び80、レジスタ77及び78、並びに論理積回路81は、本発明のイエロー検出部の一実施の形態に該当する。   The AND circuit 81 activates the output LL only when both of the two comparators 79 and 80 activate (ie, assert) the output. That is, the subtractors 75 and 76, the comparators 79 and 80, the registers 77 and 78, and the AND circuit 81 correspond to an embodiment of the yellow detector of the present invention.

論理積回路82は、領域信号合成部71が、2ビットの領域判定信号ASIGとして「10」を出力するとき、すなわち処理対象となる注目画素が色文字領域であると判定された場合に限り、出力CCをアクティブにする。論理積回路83は、出力LL及び出力CCが共にアクティブであり、且つ、エッジ検出部65が出力する1ビットのエッジ検出信号EDGEが「1」である場合に限り、出力をアクティブにする。すなわち、注目画素がエッジ部に該当するとともに色文字領域に該当し、且つ、Y成分がC成分よりも所定値を越えて高く、Y成分がM成分よりも別の所定値を越えて高い場合に限り、論理積回路83はアクティブの信号を出力する。   The AND circuit 82 is used only when the area signal synthesis unit 71 outputs “10” as the 2-bit area determination signal ASIG, that is, when it is determined that the target pixel to be processed is a color character area. Activate output CC. The AND circuit 83 activates the output only when both the output LL and the output CC are active and the 1-bit edge detection signal EDGE output from the edge detection unit 65 is “1”. That is, when the target pixel corresponds to the edge portion and the color character area, and the Y component is higher than the C component by a predetermined value and the Y component is higher than the M component by a predetermined value. In this case, the AND circuit 83 outputs an active signal.

加算器84は、適応フィルタ処理部58が出力するC成分の画素値に、レジスタ86に保持される所定値(第3所定値)を加算する。同様に、加算器85は、適応フィルタ処理部58が出力するM成分の画素値に、レジスタ87に保持される所定値(第3所定値)を加算する。マルチプレクサ88は、論理積回路83の出力に応じて、適応フィルタ処理部58が出力するC成分の画素値と、加算器84が出力する加算値の何れかを選択して出力する。同様に、マルチプレクサ89は、論理積回路83の出力に応じて、適応フィルタ処理部58が出力するM成分の画素値と、加算器85が出力する加算値の何れかを選択して出力する。マルチプレクサ88及び89は何れも、論理積回路83の出力がアクティブであるときには、加算値の方を選択して出力する。   The adder 84 adds a predetermined value (third predetermined value) held in the register 86 to the C component pixel value output from the adaptive filter processing unit 58. Similarly, the adder 85 adds a predetermined value (third predetermined value) held in the register 87 to the pixel value of the M component output from the adaptive filter processing unit 58. The multiplexer 88 selects and outputs either the C component pixel value output from the adaptive filter processing unit 58 or the added value output from the adder 84 in accordance with the output from the AND circuit 83. Similarly, the multiplexer 89 selects and outputs either the M component pixel value output from the adaptive filter processing unit 58 or the addition value output from the adder 85 in accordance with the output from the AND circuit 83. Both multiplexers 88 and 89 select and output the addition value when the output of the AND circuit 83 is active.

従って、注目画素がエッジ部に該当するとともに色文字領域に該当し、且つ、Y成分がC成分よりも所定値を越えて高く、Y成分がM成分よりも別の所定値を越えて高い場合には、当該注目画素がイエロー文字領域のエッジ部分に該当するものとして、C成分及びM成分の画素値がかさ上げされる。それにより、イエロー文字領域のエッジ部分にエッジ強調が施されることとなる。注目画素がイエロー文字領域のエッジ部分に該当しない場合には、エッジ色変換処理部59は、適応フィルタ処理部58が出力するY、C、M各成分の画素値を、変換することなくそのまま出力する。すなわち、論理積回路83、加算器84及び85、レジスタ86及び87、並びにマルチプレクサ88及び89は、本発明のエッジ強調処理部の一実施の形態に該当する。   Therefore, the target pixel corresponds to the edge portion and the color character area, and the Y component is higher than the C component by a predetermined value and the Y component is higher than the M component by a predetermined value. The pixel values of the C component and the M component are raised, assuming that the target pixel corresponds to the edge portion of the yellow character area. As a result, edge emphasis is applied to the edge portion of the yellow character area. When the target pixel does not correspond to the edge portion of the yellow character area, the edge color conversion processing unit 59 outputs the pixel values of the Y, C, and M components output from the adaptive filter processing unit 58 as they are without conversion. To do. That is, the AND circuit 83, the adders 84 and 85, the registers 86 and 87, and the multiplexers 88 and 89 correspond to an embodiment of the edge enhancement processing unit of the present invention.

(画像処理装置の動作)
図8は、画像処理部20(図1)による処理の主要な流れの一例を示すフローチャートである。スキャナ部10が原稿の読み取りを開始すると同時に、画像処理部20が処理を開始する。処理が始まると、まず、シェーディング補正部51からスキャナ色補正部55に至る各種補正部(図2)が、RGBを色成分とする入力画像信号に対して、各種の補正を実行する(ステップS1)。次に、RGB/YUV変換処理部61(図3)は、補正後の画像信号に対してRGBを色成分とする形式からYUVを色成分とする形式へ変換する(ステップS2)。
(Operation of image processing device)
FIG. 8 is a flowchart showing an example of a main flow of processing by the image processing unit 20 (FIG. 1). At the same time that the scanner unit 10 starts reading a document, the image processing unit 20 starts processing. When the process starts, first, various correction units (FIG. 2) from the shading correction unit 51 to the scanner color correction unit 55 perform various corrections on the input image signal having RGB as color components (step S1). ). Next, the RGB / YUV conversion processing unit 61 (FIG. 3) converts the corrected image signal from a format having RGB as a color component to a format having YUV as a color component (step S2).

次に、エッジ検出部65は、Y成分の画素値に基づいて、エッジ部分に該当する画素を検出する(ステップS3)。次に、彩度判定部62から領域信号合成部71に至る部分は、色文字領域に該当する画素を検出する(ステップS4)。続いて、エッジ色変換処理部59(図7)は、各画素についてYCM各成分の画素値を検出する(ステップS5)。   Next, the edge detection unit 65 detects a pixel corresponding to the edge portion based on the pixel value of the Y component (step S3). Next, the portion from the saturation determination unit 62 to the region signal synthesis unit 71 detects pixels corresponding to the color character region (step S4). Subsequently, the edge color conversion processing unit 59 (FIG. 7) detects the pixel value of each YCM component for each pixel (step S5).

次に、減算器75及び76から論理積回路81に至る回路(図7)は、各画素について、Y成分の画素値がM成分及びC成分の画素値に比べて極端に大きいか否かを判定する(ステップS6)。続いて、論理積回路82及び論理積回路83は、各画素について、当該画素がエッジ部分に該当し、且つ色文字領域に該当するか否かを判定する(ステップS7)。加算器84及び85からマルチプレクサ88及び89に至る回路は、ステップS6及びステップS7の判定が共に肯定的である場合には、C成分及びM成分の画素値を高めに変換し(ステップS8)、何れかの判定が否定的である場合には変換を行わない。   Next, the circuit (FIG. 7) from the subtracters 75 and 76 to the AND circuit 81 determines whether or not the pixel value of the Y component is extremely larger than the pixel values of the M and C components for each pixel. Determination is made (step S6). Subsequently, the logical product circuit 82 and the logical product circuit 83 determine, for each pixel, whether the pixel corresponds to the edge portion and the color character area (step S7). The circuits from the adders 84 and 85 to the multiplexers 88 and 89 convert the pixel values of the C component and the M component to higher values when the determinations at steps S6 and S7 are both positive (step S8). If any determination is negative, no conversion is performed.

次に、エッジ色変換処理部59が出力する画像信号は、画像メモリ22に記録され、その後ユーザの指示にもとづいて、或いは記録されると同時に、印字画像処理部24により印字用の画像信号に変換された上で、印画部30によりプリントされる(ステップS9)。スキャナ部10から送られるすべての入力画像信号について以上の処理が終了すると、処理は終了する。   Next, the image signal output from the edge color conversion processing unit 59 is recorded in the image memory 22 and then converted into an image signal for printing by the print image processing unit 24 based on or simultaneously with the user's instruction. After conversion, the image is printed by the printing unit 30 (step S9). When the above processing is completed for all input image signals sent from the scanner unit 10, the processing ends.

画像処理部20は以上のように構成され動作するので、イエロー文字は例えば図9に示すように変換される。図9では、「P」という厚みのある文字が、イエロー文字に該当するものと仮定している。図9(a)は、変換前のイエロー文字「P」のYCM各成分を分解して示しており、図9(b)は変換後のYCM各成分を重ねて示している。図9(b)が示すように、イエロー文字「P」のエッジ部分では、C成分及びM成分の濃度がかさ上げされており、それによりエッジ強調が実現されている。その結果、白色ないしそれに近い色の背景の上に描かれたイエロー文字「P」の輪郭が、視覚上明瞭に読み取り得るものとなっている。   Since the image processing unit 20 is configured and operates as described above, yellow characters are converted as shown in FIG. 9, for example. In FIG. 9, it is assumed that a thick character “P” corresponds to a yellow character. FIG. 9A shows the YCM components of the yellow character “P” before conversion in an exploded manner, and FIG. 9B shows the YCM components after conversion in an overlapping manner. As shown in FIG. 9B, the density of the C component and the M component is increased at the edge portion of the yellow character “P”, thereby realizing edge enhancement. As a result, the outline of the yellow letter “P” drawn on the background of white or a color close to it can be clearly read visually.

図9(b)の例では、エッジ部として、Y(輝度)成分が主走査方向に沿って急激に減少する部分と、副走査方向の逆方向に沿って急激に減少する部分とが検出されている。従って、イエロー文字の右側及び上側にエッジ強調が施されている。このため、比較的細い文字であっても、イエロー主体の文字本来の色の部分を残しつつエッジ強調を施すことが可能となっている。また、イエロー主体の文字に、あたかも陰影が付されたような視覚効果が得られ、視覚上、独特の美観が加わる。このような処理は、図4に例示した、エッジ検出用の二次微分フィルタの注目画素周辺の係数を、注目画素の上方(副走査方向の逆方向)と右方(主走査方向)とにのみ配置することにより実現することができる。二次微分フィルタの設計により、様々なエッジ部分を抽出することが可能である。   In the example of FIG. 9B, as the edge portion, a portion where the Y (luminance) component rapidly decreases along the main scanning direction and a portion where the Y (luminance) component rapidly decreases along the reverse direction of the sub-scanning direction are detected. ing. Therefore, edge emphasis is applied to the right side and the upper side of the yellow character. For this reason, even a relatively thin character can be edge-enhanced while leaving the original color portion of the yellow-based character. In addition, a visual effect is obtained as if shades were added to yellow-based characters, and a unique visual appearance is added. In such processing, the coefficients around the target pixel of the secondary differential filter for edge detection illustrated in FIG. 4 are set above (in the reverse direction of the sub-scanning direction) and right (in the main scanning direction) above the target pixel. It can be realized by arranging only. Various edge portions can be extracted by designing a second-order differential filter.

(その他の実施の形態)
(1) 上記実施の形態では、エッジ色変換処理部59は、Y成分とC成分等との間の画素値の差に基づいて、注目画素がイエロー文字領域に該当するか否かの判定を行った。これに対して、エッジ色変換処理部59は、Y成分とC成分等との間の画素値の比に基づいて、判定を行っても良い。それには、減算器75及び76(図7)を、割算器に置き換え、レジスタ76及び77の値として、1をはるかに越える数値、例えば10〜100の範囲の数値を付与すると良い。更には、画素値について、Y成分がC成分とM成分との和よりも所定値を越えて大きいか否か、或いは、Y成分がC成分とM成分との和よりも所定の比率を超えて大きいか否かに基づいて、判定が行われても良い。
(Other embodiments)
(1) In the above embodiment, the edge color conversion processing unit 59 determines whether or not the target pixel corresponds to the yellow character region based on the difference in pixel value between the Y component and the C component. went. On the other hand, the edge color conversion processing unit 59 may perform the determination based on the ratio of pixel values between the Y component and the C component. For this purpose, the subtracters 75 and 76 (FIG. 7) may be replaced with dividers, and the values of the registers 76 and 77 may be given a numerical value far exceeding 1, for example, a numerical value in the range of 10 to 100. Further, regarding the pixel value, whether the Y component is larger than a predetermined value than the sum of the C component and the M component, or the Y component exceeds a predetermined ratio than the sum of the C component and the M component. The determination may be made on the basis of whether or not it is large.

(2) 上記実施の形態では、入力画像処理部23は、文字領域、エッジ部分、及びイエロー部分のそれぞれについて、該当するか否かを全ての画素について判定した。これに対して、入力画像処理部23は、文字領域、エッジ部分、及びイエロー部分について、それらのうちの一つが検出された範囲内で他の一つを検出するものであっても良い。例えば、減算器75及び76(図7)には、領域判定信号ASIGが色文字領域を示すときのみ、或いは更にエッジ検出信号EDGEがエッジ部を示すときのみ、Y、C、Mの各成分が入力されるように構成しても良い。   (2) In the above embodiment, the input image processing unit 23 determines whether or not each of the character region, the edge portion, and the yellow portion is applicable to all the pixels. On the other hand, the input image processing unit 23 may detect another one of the character region, the edge portion, and the yellow portion within a range where one of them is detected. For example, each of the subtracters 75 and 76 (FIG. 7) includes Y, C, and M components only when the area determination signal ASIG indicates a color character area, or when the edge detection signal EDGE indicates an edge portion. You may comprise so that it may be input.

(3) 上記実施の形態では、エッジ検出部65は、Y(輝度)成分の画素値に基づいて、エッジ部を検出した。これに対して、他の一つの成分、或いは複数の成分の画素値の組合せに基づいて、エッジ部を検出するようにエッジ検出部65を構成しても良い。   (3) In the above embodiment, the edge detection unit 65 detects the edge part based on the pixel value of the Y (luminance) component. On the other hand, the edge detection unit 65 may be configured to detect an edge part based on a combination of pixel values of another component or a plurality of components.

(4) 上記実施の形態では、エッジ色変換処理部59は、領域判別信号ASIGが色文字領域を示すことを条件の一つとして、イエロー文字領域にエッジ強調を施した。これに対して、領域判別信号ASIGが、黒文字領域を示す場合も含めて、イエロー文字領域にエッジ強調を施すようにエッジ色変換処理部59を構成しても良い。この場合には、領域判別信号ASIGが色文字と黒文字とを区別する必要がないので、文字領域検出/エッジ検出部57は、彩度判定部62を有さなくてもよいという利点が得られる。しかしながら、色文字領域のみを選択してエッジ強調を施す形態では、黒文字領域について不必要なエッジ強調処理が行われ、それにより黒文字領域のエッジ部分が着色されたり、黒文字領域のエッジ部分の濃度が不必要に高くなる不都合が回避される。   (4) In the above embodiment, the edge color conversion processing unit 59 performs edge emphasis on the yellow character region under the condition that the region determination signal ASIG indicates a color character region. On the other hand, the edge color conversion processing unit 59 may be configured so as to perform edge enhancement on the yellow character region including the case where the region determination signal ASIG indicates a black character region. In this case, since the area determination signal ASIG does not need to distinguish between a color character and a black character, there is an advantage that the character area detection / edge detection unit 57 does not need to have the saturation determination unit 62. . However, in the form of performing edge enhancement by selecting only the color character region, unnecessary edge enhancement processing is performed on the black character region, whereby the edge portion of the black character region is colored or the density of the edge portion of the black character region is reduced. Inconveniences that are unnecessarily high are avoided.

(5) 上記実施の形態では、エッジ色変換処理部59は、イエロー文字領域のエッジ部分に、C、Mの各成分の濃度を高める処理を行い、それによりイエロー文字領域のエッジ強調を行った。これに対して、エッジ色変換処理部59は、Y、C、Mの3成分にBK(ブラック)成分をも含めた4成分を処理の対象とし、イエロー文字領域のエッジ領域に対して、ブラックの濃度を高めることによってエッジ強調を行うものであってもよい。それにより、イエロー文字の視認性が効果的に高められるとともに、エッジ色変換処理部59をより簡素に構成することができる。そのためには例えば、図7において、加算器84、レジスタ86、及びマルチプレクサ88の組を、適応フィルタ処理部58が出力するBK成分のために準備し、代わりにY,C成分のための組を削除すると良い。   (5) In the above embodiment, the edge color conversion processing unit 59 performs processing for increasing the density of each component of C and M on the edge portion of the yellow character region, thereby performing edge enhancement of the yellow character region. . On the other hand, the edge color conversion processing unit 59 processes four components including the BK (black) component in the three components Y, C, and M, and applies black to the edge region of the yellow character region. Edge enhancement may be performed by increasing the density of the image. Thereby, the visibility of yellow characters can be effectively enhanced, and the edge color conversion processing unit 59 can be configured more simply. For this purpose, for example, in FIG. 7, a set of an adder 84, a register 86, and a multiplexer 88 is prepared for the BK component output from the adaptive filter processing unit 58, and a set for the Y and C components is used instead. It is good to delete.

(6) 上記実施の形態では、エッジ色変換処理部59は、イエロー文字領域のエッジ部分について、C、Mの各成分の画素値を所定値(第3所定値)だけ加算することによりエッジ強調を行った。これに対して、エッジ色変換処理部59は、C、Mの各成分の画素値を所定値(第4所定値)に引き上げることにより、エッジ強調を行っても良い。この場合には、エッジ色変換処理部59(図7)は、加算器84及び85を備える必要がなく、レジスタ86及び87が保持する値を、マルチプレクサ88及び89に直接に入力することができ、より簡素な構成とすることができる。   (6) In the above embodiment, the edge color conversion processing unit 59 adds the pixel values of the C and M components by a predetermined value (third predetermined value) for the edge portion of the yellow character area to enhance the edge. Went. On the other hand, the edge color conversion processing unit 59 may perform edge enhancement by raising the pixel values of the C and M components to a predetermined value (fourth predetermined value). In this case, the edge color conversion processing unit 59 (FIG. 7) does not need to include the adders 84 and 85, and the values held in the registers 86 and 87 can be directly input to the multiplexers 88 and 89. A simpler configuration can be obtained.

(7) エッジ色変換処理部59は、エッジ強調すべき画素については、もはや無用に近いY(イエロー)成分の濃度を引き下げたり、或いは0にしたりするように構成されても良い。それには、図7において、Y成分の信号線に別のマルチプレクサを介挿し、論理積回路83の出力に応じて、Y成分の信号を通過させたり、或いは別のレジスタに保持される低い固定値を選択したりするように、エッジ色変換処理部59を構成すると良い。無用なイエロー成分が引き下げられるので、画像信号を印画した場合に、不必要なイエローの記録を抑え、それによりインク、トナー等の記録剤を幾分か節減することができる。   (7) The edge color conversion processing unit 59 may be configured to reduce the density of the Y (yellow) component, which is no longer useful, or to zero for the pixel to be edge-enhanced. For this purpose, in FIG. 7, another multiplexer is inserted in the Y component signal line, and the Y component signal is passed according to the output of the AND circuit 83, or a low fixed value held in another register. The edge color conversion processing unit 59 is preferably configured so that Since the useless yellow component is lowered, unnecessary printing of yellow can be suppressed when the image signal is printed, and thereby recording agents such as ink and toner can be saved somewhat.

本発明の一実施の形態による画像形成装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image forming apparatus according to an embodiment of the present invention. 図1の入力画像処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the input image process part of FIG. 図2の文字領域検出/エッジ検出部の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a character area detection / edge detection unit in FIG. 2. 二次微分フィルタを例示する説明図である。It is explanatory drawing which illustrates a secondary differential filter. エッジ検出信号の値を例示する表形式の説明図である。It is explanatory drawing of the table format which illustrates the value of an edge detection signal. 領域判別信号の値を例示する表形式の説明図である。It is explanatory drawing of the table format which illustrates the value of an area | region discrimination signal. 図2のエッジ色変換処理部の構成例を示す回路図である。FIG. 3 is a circuit diagram illustrating a configuration example of an edge color conversion processing unit in FIG. 2. 図1の画像処理部による処理の主要な流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a main flow of processing by an image processing unit in FIG. 1. 図2のエッジ色変換処理部の動作説明図である。FIG. 3 is an operation explanatory diagram of an edge color conversion processing unit in FIG. 2.

符号の説明Explanation of symbols

10 スキャナ部
20 画像処理部
23 入力画像処理部(画像処理装置)
30 印画部
57 文字領域検出/エッジ検出部
59 エッジ色変換処理部
62 彩度判定部
64 文字候補/文字周囲検出部
65 エッジ検出部
67 文字領域信号生成部
68 黒/文字信号生成部
69 文字領域信号拡張部
71 領域信号合成部
100 画像形成装置
DESCRIPTION OF SYMBOLS 10 Scanner part 20 Image processing part 23 Input image processing part (image processing apparatus)
30 Print section 57 Character area detection / edge detection section 59 Edge color conversion processing section 62 Saturation determination section 64 Character candidate / character surrounding detection section 65 Edge detection section 67 Character area signal generation section 68 Black / character signal generation section 69 Character area Signal expansion unit 71 Area signal synthesis unit 100 Image forming apparatus

Claims (12)

入力画像信号のうちの文字の領域である文字領域を検出する文字領域検出部と、
前記入力画像信号のうちのエッジ部分を検出するエッジ検出部と、
前記入力画像信号をイエロー、シアン及びマゼンタを含む色成分により表現した形式で受け入れ、イエローの濃度がシアン及びマゼンタの濃度に比べて所定基準を超えて高い部分であるイエロー部分を検出するイエロー検出部と、
前記文字領域であり且つ前記エッジ部分であり且つ前記イエロー部分であるイエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を高めるよう前記入力画像信号の変換を行うエッジ強調処理部と、
を備える画像処理装置。
A character area detection unit that detects a character area that is a character area of the input image signal;
An edge detector for detecting an edge portion of the input image signal;
A yellow detection unit that accepts the input image signal in a form expressed by color components including yellow, cyan, and magenta, and detects a yellow portion in which the density of yellow exceeds a predetermined standard compared to the densities of cyan and magenta When,
An edge for converting the input image signal so as to increase at least one density excluding yellow among the color components with respect to the yellow character edge portion which is the character region and the edge portion and the yellow portion. An emphasis processing unit;
An image processing apparatus comprising:
前記文字領域検出部は、前記入力画像信号のうちの有彩色文字の領域である色文字領域を、前記文字領域として検出する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the character region detection unit detects a color character region that is a region of a chromatic character in the input image signal as the character region. 前記エッジ検出部は、前記エッジ部分として、主走査方向に沿って濃度が急激に増加又は減少する部分のうちの一方である第1エッジ部分と、副走査方向に沿って濃度が急激に増加又は減少する部分のうちの一方である第2エッジ部分と、前記第1エッジ部分及び前記第2エッジ部分の双方からなる第3エッジ部分と、の何れか一つのみを検出する請求項1又は2記載の画像処理装置。   The edge detection unit includes, as the edge portion, a first edge portion that is one of the portions where the density rapidly increases or decreases along the main scanning direction, and the density increases rapidly along the sub-scanning direction, or 3. Only one of a second edge portion that is one of the decreasing portions and a third edge portion that includes both the first edge portion and the second edge portion is detected. The image processing apparatus described. 前記イエロー検出部は、前記入力画像信号のうちの、イエローの濃度がシアンの濃度よりも第1所定値を越えて高く、且つイエローの濃度がマゼンタの濃度よりも第2所定値を越えて高い部分を、前記イエロー部分として検出する請求項1ないし3の何れかに記載の画像処理装置。   In the input image signal, the yellow detection unit has a yellow density higher than a cyan density by a first predetermined value and a yellow density higher than a magenta density by a second predetermined value. The image processing apparatus according to claim 1, wherein a part is detected as the yellow part. 前記イエロー検出部は、ブラックを更に含む色成分により表現した形式で前記入力信号を受け入れ、
前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、少なくともブラックの濃度を高めることにより、前記変換を行う請求項1ないし4の何れかに記載の画像処理装置。
The yellow detection unit accepts the input signal in a form expressed by a color component further including black,
The image processing apparatus according to claim 1, wherein the edge enhancement processing unit performs the conversion by increasing at least a density of black with respect to the yellow character edge portion.
前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度に第3所定値を加算することにより、前記変換を行う請求項1ないし5の何れかに記載の画像処理装置。   6. The edge enhancement processing unit performs the conversion by adding a third predetermined value to at least one density excluding yellow among the color components for the yellow character edge portion. The image processing apparatus according to any one of the above. 前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を第4所定値とすることにより、前記変換を行う請求項1ないし5の何れかに記載の画像処理装置。   The edge enhancement processing unit performs the conversion on the yellow character edge portion by setting at least one density excluding yellow among the color components as a fourth predetermined value. An image processing apparatus according to claim 1. 前記エッジ強調処理部は、前記イエロー文字エッジ部分に対して、イエローの濃度を引き下げる処理を前記変換として更に行う請求項1ないし7の何れかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the edge enhancement processing unit further performs, as the conversion, a process of reducing a yellow density for the yellow character edge portion. 請求項1ないし8の何れかに記載の画像処理装置と、
原稿画像を読み取ることにより画像信号を生成し、生成した当該画像信号を前記画像処理装置へ前記入力画像信号として供給するスキャナ部と、を備える画像形成装置。
An image processing apparatus according to any one of claims 1 to 8,
An image forming apparatus comprising: a scanner unit that generates an image signal by reading a document image, and supplies the generated image signal to the image processing apparatus as the input image signal.
請求項1ないし8の何れかに記載の画像処理装置と、
前記画像処理装置が出力する画像信号を記録材に印画する印画部と、を備える画像形成装置。
An image processing apparatus according to any one of claims 1 to 8,
An image forming apparatus comprising: a printing unit that prints an image signal output from the image processing apparatus on a recording material.
入力画像信号のうちの文字の領域である文字領域を検出する文字領域検出工程と、
前記入力画像信号のうちのエッジ部分を検出するエッジ検出工程と、
前記入力信号をイエロー、シアン及びマゼンタを含む色成分により表現した形式で受け入れ、イエローの濃度がシアン及びマゼンタの濃度に比べて所定基準を超えて高い部分であるイエロー部分を検出するイエロー検出工程と、
前記文字領域であり且つ前記エッジ部分であり且つ前記イエロー部分であるイエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を高めるよう前記入力画像信号の変換を行うエッジ強調処理工程と、
を備える画像処理方法。
A character region detection step of detecting a character region that is a character region of the input image signal;
An edge detection step of detecting an edge portion of the input image signal;
A yellow detection step of accepting the input signal in a form expressed by color components including yellow, cyan, and magenta, and detecting a yellow portion in which the density of yellow exceeds a predetermined standard compared to the densities of cyan and magenta; ,
An edge for converting the input image signal so as to increase at least one density excluding yellow among the color components with respect to the yellow character edge portion which is the character region and the edge portion and the yellow portion. Emphasis processing step;
An image processing method comprising:
コンピュータを、
入力画像信号のうちの文字の領域である文字領域を検出する文字領域検出手段と、
前記入力画像信号のうちのエッジ部分を検出するエッジ検出手段と、
前記入力信号をイエロー、シアン及びマゼンタを含む色成分により表現した形式で受け入れ、イエローの濃度がシアン及びマゼンタの濃度に比べて所定基準を超えて高い部分であるイエロー部分を検出するイエロー検出手段と、
前記文字領域であり且つ前記エッジ部分であり且つ前記イエロー部分であるイエロー文字エッジ部分に対して、前記色成分のうちのイエローを除く少なくとも一つの濃度を高めるよう前記入力画像信号の変換を行うエッジ強調処理手段として機能させる画像処理プログラム。
Computer
A character region detection means for detecting a character region which is a character region in the input image signal;
Edge detection means for detecting an edge portion of the input image signal;
Yellow detection means for accepting the input signal in a form expressed by color components including yellow, cyan, and magenta, and detecting a yellow portion in which the density of yellow exceeds a predetermined standard compared to the densities of cyan and magenta; ,
An edge for converting the input image signal so as to increase at least one density excluding yellow among the color components with respect to the yellow character edge portion which is the character region and the edge portion and the yellow portion. An image processing program that functions as enhancement processing means.
JP2005252251A 2005-08-31 2005-08-31 Image processor, image forming apparatus, image processing method, and image processing program Pending JP2007067908A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005252251A JP2007067908A (en) 2005-08-31 2005-08-31 Image processor, image forming apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005252251A JP2007067908A (en) 2005-08-31 2005-08-31 Image processor, image forming apparatus, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2007067908A true JP2007067908A (en) 2007-03-15

Family

ID=37929554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005252251A Pending JP2007067908A (en) 2005-08-31 2005-08-31 Image processor, image forming apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2007067908A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259427A (en) * 2010-06-04 2011-12-22 Toshiba Corp Image processing apparatus and image processing method
JP2012061701A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Apparatus and method for processing image, image forming apparatus, and image processing program
JP2012244355A (en) * 2011-05-18 2012-12-10 Oki Data Corp Image processing apparatus, program, and image formation apparatus
WO2016158317A1 (en) * 2015-03-31 2016-10-06 京セラドキュメントソリューションズ株式会社 Image processing device and image formation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09172544A (en) * 1996-11-14 1997-06-30 Canon Inc Image processor
JP2000134489A (en) * 1998-10-26 2000-05-12 Minolta Co Ltd Image processor
JP2002252773A (en) * 2001-02-22 2002-09-06 Riso Kagaku Corp Color image processing method and device, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09172544A (en) * 1996-11-14 1997-06-30 Canon Inc Image processor
JP2000134489A (en) * 1998-10-26 2000-05-12 Minolta Co Ltd Image processor
JP2002252773A (en) * 2001-02-22 2002-09-06 Riso Kagaku Corp Color image processing method and device, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011259427A (en) * 2010-06-04 2011-12-22 Toshiba Corp Image processing apparatus and image processing method
JP2012061701A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Apparatus and method for processing image, image forming apparatus, and image processing program
JP2012244355A (en) * 2011-05-18 2012-12-10 Oki Data Corp Image processing apparatus, program, and image formation apparatus
WO2016158317A1 (en) * 2015-03-31 2016-10-06 京セラドキュメントソリューションズ株式会社 Image processing device and image formation device
JPWO2016158317A1 (en) * 2015-03-31 2018-01-11 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image forming apparatus

Similar Documents

Publication Publication Date Title
JP3777785B2 (en) Image processing device
US6816613B2 (en) Color image processing apparatus capable of reproducing colors with high-fidelity visually
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4700721B2 (en) Image processing device
US8594367B2 (en) Image processing apparatus, image forming apparatus, recording medium and image processing method
JP2006121674A (en) Image forming apparatus, image processing apparatus and image generating program
JP2009038529A (en) Image processing method, image processing device, image forming apparatus, image reading device, computer program, and record medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP2002271616A (en) Image processing unit and imaging device
JP4226278B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium recording the same
JP2007067908A (en) Image processor, image forming apparatus, image processing method, and image processing program
JP2006121266A (en) Image processing apparatus, and image processing program
JP2007088741A (en) Image processing apparatus and image processing method
JP5023035B2 (en) Image processing apparatus, image forming apparatus including the image processing apparatus, image processing method, image processing program, and computer-readable recording medium recording the image processing program
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP2006304015A (en) Image processing apparatus, image forming apparatus, method of processing image, computer program and recording medium
JP7266462B2 (en) IMAGE PROCESSING APPARATUS, IMAGE FORMING APPARATUS, IMAGE PROCESSING METHOD AND PROGRAM
JP4549227B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2002262078A (en) Image processing unit and image forming device
JP6688193B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP4165521B2 (en) Image processing apparatus and image forming apparatus
JP2006121675A (en) Image processing apparatus and image processing program
JPH0541796A (en) Copying machine
JP2010283464A (en) Image processor, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100831