JP2003209704A - Image processing method, image processor, image forming device, image processing program, and recording medium - Google Patents

Image processing method, image processor, image forming device, image processing program, and recording medium

Info

Publication number
JP2003209704A
JP2003209704A JP2002005158A JP2002005158A JP2003209704A JP 2003209704 A JP2003209704 A JP 2003209704A JP 2002005158 A JP2002005158 A JP 2002005158A JP 2002005158 A JP2002005158 A JP 2002005158A JP 2003209704 A JP2003209704 A JP 2003209704A
Authority
JP
Japan
Prior art keywords
image data
image
area
readability
character area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002005158A
Other languages
Japanese (ja)
Inventor
Masanori Minami
雅範 南
Makio Goto
牧生 後藤
Makoto Otsu
誠 大津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002005158A priority Critical patent/JP2003209704A/en
Publication of JP2003209704A publication Critical patent/JP2003209704A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method, an image processor, an image forming device, an image processing program, and a recording medium that can enhance the legibility of characters and symbols without changing a color tone of the characters and symbols and their background and provide an image easily read even by people with abnormity in color sensation. <P>SOLUTION: A legibility determination section 14 included in the image processor 1 of this invention extracts an area surrounded by edge parts as well as the edge parts from image data determined as the character edges as a character area and determines the legibility of the character area on the basis of a combination of colors of the character area and the surrounding area of the character area. A pattern comprising combinations of colors providing low legibility is prepared in advance for the determination of the legibility. Then a color correction section 15 applies correction processing for legibility improvement to image data of a character area whose legibility is determined low in the legibility determination section 14. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、可読性が低い文字
あるいは記号について、それらを構成する画像データの
補正を行う画像処理方法、画像処理装置、画像形成装
置、画像処理プログラムおよび記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, an image processing apparatus, an image forming apparatus, an image processing program, and a recording medium for correcting image data forming a character or a symbol having low readability.

【0002】[0002]

【従来の技術】従来から、色文字の濁りや黒文字に色が
混じる色ずれを防止する画像処理装置が開発されてい
る。特開平1−264847号公報には、再現画像の画
質を向上させるために原画像の色相と文字のエッジ部を
検出し、色相信号に基づいてエッジ信号を制御するカラ
ー画像処理装置が開示されている。
2. Description of the Related Art Conventionally, an image processing apparatus has been developed which prevents turbidity of color characters and color misregistration in which colors are mixed with black characters. Japanese Patent Application Laid-Open No. 1-264847 discloses a color image processing device that detects the hue of an original image and the edge portion of a character to improve the quality of a reproduced image and controls the edge signal based on the hue signal. There is.

【0003】[0003]

【発明が解決しようとする課題】特開平1−26484
7号公報に記載のカラー画像処理装置では、色文字の濁
りや黒文字再現の劣化を防止できるが、文字とその背景
の色の組み合わせに基づく可読性については考慮されて
いないため、再現画像の画質はある程度向上しても、可
読性は低いという問題がある。文字や記号の可読性は、
文字や記号の色だけでなくその背景の色に影響を受け、
さらに文字、記号およびその背景の色の明度差にも大き
く影響を受けるからである。また色覚異常(色盲、色
弱)を持つ人にとっては、識別しづらい特定の色の組み
合わせが存在するため、文字や記号と背景との色の組み
合わせがこの特定の組み合わせに該当する場合には、読
み易い画像を提供するために、文字や記号の色を補正す
ることが望ましい。
[Patent Document 1] Japanese Patent Application Laid-Open No. 1-26484
The color image processing device described in Japanese Patent Publication No. 7 can prevent muddy color characters and deterioration of black character reproduction, but since the readability based on the combination of the character and the background color is not taken into consideration, the image quality of the reproduced image is Even if it is improved to some extent, there is a problem that readability is low. Readability of letters and symbols is
Influenced by the color of the background as well as the color of letters and symbols,
Further, it is also greatly affected by the difference in lightness of the colors of the characters, symbols and their background. Also, for people with color blindness (color blindness, color weakness), there are certain color combinations that are difficult to identify, so if the color combination of characters or symbols and the background corresponds to this particular combination, the reading It is desirable to correct the color of characters and symbols to provide easy images.

【0004】さらに、前記公報に記載のカラー画像処理
装置は、必要な色成分のみの強調、あるいは不必要な色
成分の消去など、色成分の変化を伴う制御処理をエッジ
信号に対して行っているため、文字の輪郭を含むエッジ
部分全体とその内部との色調が変化する可能性があり、
再現画像の画質に問題が生じる場合がある。
Further, the color image processing apparatus described in the above publication performs control processing involving changes in color components, such as enhancement of only necessary color components or deletion of unnecessary color components, on edge signals. Therefore, the color tone of the entire edge part including the outline of the character and the inside may change,
There may be a problem with the quality of the reproduced image.

【0005】本発明の目的は、文字や記号とその背景と
の色調を変化させることなく、文字や記号の可読性を向
上させることができ、また色覚異常を持つ人にとっても
読み易い画像を提供することができる画像処理方法、画
像処理装置、画像形成装置、画像処理プログラムおよび
記録媒体を提供することである。
An object of the present invention is to improve the readability of characters and symbols without changing the color tone of the characters and symbols and their background, and to provide an image that is easy to read even for people with color blindness. An image processing method, an image processing apparatus, an image forming apparatus, an image processing program, and a recording medium that can be performed.

【0006】[0006]

【課題を解決するための手段】本発明は、入力画像デー
タから文字領域の画像データを抽出する抽出ステップ
と、抽出された文字領域の画像データと前記文字領域の
周辺領域の画像データとを用いて、文字領域の可読性を
判定する可読性判定ステップと、可読性が低いと判定さ
れた場合には、前記文字領域の画像データを補正する補
正ステップとからなることを特徴とする画像処理方法で
ある。
The present invention uses an extracting step of extracting image data of a character area from input image data, image data of the extracted character area and image data of an area surrounding the character area. Then, the image processing method comprises a readability determining step of determining the readability of the character area and a correction step of correcting the image data of the character area when the readability is determined to be low.

【0007】本発明に従えば、文字や記号を文字領域と
して、背景を周辺領域として区別し、両者の色の組み合
わせに基づいて可読性を判定した後、可読性が低いと判
定された場合には文字領域の画像データを補正するの
で、背景の色と組み合わされることにより読みにくくな
っている文字や記号に関して可読性を向上させることが
できる。
According to the present invention, a character or a symbol is distinguished as a character area and a background is distinguished as a peripheral area, and the readability is judged based on the combination of the two colors. Since the image data of the area is corrected, it is possible to improve the readability of characters and symbols that are difficult to read due to the combination with the background color.

【0008】また本発明は、前記可読性判定ステップで
は、前記文字領域および前記周辺領域の画像データと、
予め定める可読性の低い色の組み合わせからなるパター
ンとの照合によって判定することを特徴とする。
According to the present invention, in the readability determination step, image data of the character area and the peripheral area are stored.
It is characterized in that the judgment is made by collating with a pattern formed by a combination of colors having a predetermined low readability.

【0009】本発明に従えば、可読性の判定は、文字領
域および周辺領域の画像データと、予め定める可読性の
低い色の組み合わせからなるパターンとの照合によって
行うので、演算などの処理を必要とせず、可読性の判定
を簡易に行うことができる。また処理が簡易であること
から、処理コストを抑えることができる。
According to the present invention, the readability is determined by collating the image data of the character area and the peripheral area with a pattern formed by a predetermined combination of colors having low readability, and therefore, processing such as calculation is not required. The readability can be easily determined. Moreover, since the processing is simple, the processing cost can be suppressed.

【0010】また本発明は、前記パターンは、色覚異常
の判定に用いる可読性の低い色の組み合わせからなるこ
とを特徴とする。
Further, the present invention is characterized in that the pattern is composed of a combination of colors which have low readability and are used for determination of color blindness.

【0011】本発明に従えば、可読性の判定に用いるパ
ターンは、色覚異常の判定に用いる可読性の低い色の組
み合わせからなり、色覚異常を持つ人にとって読みにく
い色の組み合わせを可読性が低いものと判定し画像デー
タの補正を行うので、色覚異常を持つ人にとっても読み
易い画像を提供することができる。
According to the present invention, the pattern used for determining the readability is composed of a combination of colors having low readability used for determining the color blindness, and a combination of colors that is difficult to read by a person with color blindness is determined to have low readability. However, since the image data is corrected, it is possible to provide an image that is easy to read even for a person with color vision abnormality.

【0012】また本発明は、前記可読性判定ステップで
は、前記文字領域の色相を表す画像データと前記周辺領
域の色相を表す画像データとを用いて判定することを特
徴とする。
Further, the present invention is characterized in that in the readability determination step, the determination is performed using image data representing a hue of the character area and image data representing a hue of the peripheral area.

【0013】本発明に従えば、可読性の判定は、文字領
域の色相を表す画像データと周辺領域の色相を表す画像
データとを用いて行われるので、文字領域および周辺領
域、すなわち、文字や記号および背景についての色の分
類を的確に行うことができ、結果として可読性の判定を
的確に行うことができる。また色相を表す画像データ
は、入力画像データから簡易に算出することができるの
で、処理コストを抑えることができる。
According to the present invention, the readability is determined by using the image data representing the hue of the character area and the image data representing the hue of the peripheral area. The colors of the background and the background can be accurately classified, and as a result, the readability can be accurately determined. Further, since the image data representing the hue can be easily calculated from the input image data, the processing cost can be suppressed.

【0014】また本発明は、前記可読性判定ステップで
は、前記文字領域の明度を表す画像データと前記周辺領
域の明度を表す画像データとを用いて判定することを特
徴とする。
Further, the present invention is characterized in that, in the readability determination step, the determination is performed by using image data representing the brightness of the character area and image data representing the brightness of the peripheral area.

【0015】本発明に従えば、可読性の判定は、文字領
域の明度を表す画像データと周辺領域の明度を表す画像
データとをさらに用いて行われるので、文字や記号およ
び背景についての可読性の判定をより的確に行うことが
できる。
According to the present invention, the readability is determined by further using the image data representing the brightness of the character area and the image data representing the brightness of the peripheral area. Therefore, the readability of the character, the symbol and the background is determined. Can be performed more accurately.

【0016】また本発明は、前記文字領域はエッジ部分
と前記エッジ部分に囲まれた領域とからなり、前記補正
ステップでは、前記エッジ部分の画像データについて補
正することを特徴とする。
Further, the present invention is characterized in that the character area comprises an edge portion and an area surrounded by the edge portion, and in the correcting step, the image data of the edge portion is corrected.

【0017】本発明に従えば、画像データの補正は文字
や記号の輪郭となるエッジ部分の画像データについて行
われるので、文字領域および周辺領域、すなわち、文字
や記号とその背景との色調を変化させることなく、可読
性を向上させることができる。
According to the present invention, since the correction of the image data is performed on the image data of the edge portion which is the outline of the character or symbol, the color tone of the character region and the peripheral region, that is, the character or symbol and its background is changed. It is possible to improve readability without causing the problem.

【0018】また本発明は、前記補正ステップでは、前
記文字領域の明度を表す画像データについて補正するこ
とを特徴とする。
Further, the present invention is characterized in that, in the correction step, the image data representing the brightness of the character area is corrected.

【0019】本発明に従えば、画像データの補正は文字
領域の明度を表す画像データについて行われるので、文
字領域および周辺領域、すなわち、文字や記号の色とそ
の背景の色との色調を変化させることなく、可読性を向
上させることができる。
According to the present invention, since the image data is corrected for the image data representing the brightness of the character area, the color areas of the character area and the peripheral area, that is, the color of the character or symbol and the color of the background thereof are changed. It is possible to improve readability without causing the problem.

【0020】また本発明は、入力画像データから文字領
域の画像データを抽出する抽出手段と、抽出された文字
領域の画像データと前記文字領域の周辺領域の画像デー
タとを用いて、文字領域の可読性を判定する可読性判定
手段と、入力画像データに色補正処理を施し出力画像デ
ータとする色補正手段とを有し、前記色補正手段は可読
性が低いと判定された場合には、前記文字領域の画像デ
ータを補正することを特徴とする画像処理装置である。
Further, according to the present invention, the extraction means for extracting the image data of the character area from the input image data, and the image data of the extracted character area and the image data of the peripheral area of the character area are used to extract the character area. Readability determining means for determining readability and color correcting means for performing color correction processing on input image data to obtain output image data are provided. When the color correcting means is determined to have low readability, the character area The image processing apparatus is characterized by correcting the image data of

【0021】本発明に従えば、文字や記号を文字領域と
して、背景を周辺領域として区別し、両者の色の組み合
わせに基づいて可読性を判定した後、可読性が低いと判
定された場合には文字領域および周辺領域の画像データ
を補正するので、背景の色と組み合わされることにより
読みにくくなっている文字や記号に関して可読性を向上
させることができる。
According to the present invention, a character or symbol is distinguished as a character area and a background is distinguished as a peripheral area, and the readability is determined based on the combination of both colors. Since the image data of the area and the peripheral area is corrected, it is possible to improve the readability of a character or a symbol which is difficult to read by combining with the background color.

【0022】また本発明は、前記に記載の画像処理装置
と、入力画像データを読み取る画像入力装置と、前記画
像処理装置より出力される出力画像データに基づいて記
録媒体上に画像を形成する画像出力装置とを備えること
を特徴とする画像形成装置である。
The present invention also provides an image forming apparatus for forming an image on a recording medium based on the image processing apparatus described above, an image input apparatus for reading input image data, and output image data output from the image processing apparatus. An image forming apparatus comprising: an output device.

【0023】本発明に従えば、文字や記号の可読性が向
上した再現画像をさまざまな用途に使用することができ
る。
According to the present invention, the reproduced image with improved readability of characters and symbols can be used for various purposes.

【0024】また本発明は、コンピュータに前記に記載
の方法を実行させるための画像処理プログラムである。
The present invention is also an image processing program for causing a computer to execute the method described above.

【0025】本発明に従えば、コンピュータに前記画像
処理方法を実行させることができる。
According to the present invention, it is possible to cause a computer to execute the image processing method.

【0026】また本発明は、前記に記載の画像処理プロ
グラムを記録したコンピュータ読み取り可能な記録媒体
である。
The present invention is also a computer-readable recording medium in which the above-mentioned image processing program is recorded.

【0027】本発明に従えば、コンピュータに前記画像
処理方法を実行させることができる。
According to the present invention, it is possible to cause a computer to execute the image processing method.

【0028】[0028]

【発明の実施の形態】本発明の画像処理装置1および画
像形成装置2について説明する。図1は、画像処理装置
1を備えた画像形成装置2の構成図である。画像形成装
置2は、例えば、デジタルカラー複写機であって、画像
処理装置1にカラー画像入力装置20とカラー画像出力
装置21とが接続されて構成される。カラー画像入力装
置20は、例えば、CCD(Charge Coupled Device)
を備えたスキャナ部より構成され、原稿からの反射光像
をRGB(R:赤・G:緑・B:青)のアナログ信号と
してCCDにて読み取り、画像処理装置1に入力する。
カラー画像出力装置21は、画像データを用紙などの記
録媒体上に出力するもので、特に限定されるものではな
いが、例えば、電子写真方式やインクジェット方式を用
いたものが挙げられる。これによって、本発明の画像処
理装置1により、文字や記号の可読性が向上した再現画
像をさまざまな用途に使用することができる。
BEST MODE FOR CARRYING OUT THE INVENTION An image processing apparatus 1 and an image forming apparatus 2 of the present invention will be described. FIG. 1 is a configuration diagram of an image forming apparatus 2 including the image processing apparatus 1. The image forming apparatus 2 is, for example, a digital color copying machine, and is configured by connecting a color image input apparatus 20 and a color image output apparatus 21 to the image processing apparatus 1. The color image input device 20 is, for example, a CCD (Charge Coupled Device).
The image is reflected by a document, which is read by a CCD as an analog signal of RGB (R: red, G: green, B: blue) and is input to the image processing apparatus 1.
The color image output device 21 outputs the image data onto a recording medium such as paper and is not particularly limited, but examples thereof include an electrophotographic system and an inkjet system. As a result, the image processing apparatus 1 of the present invention can use a reproduced image in which the readability of characters and symbols is improved for various purposes.

【0029】画像処理装置1は、A/D(アナログ/デ
ジタル)変換部10、シェーディング補正部11、入力
階調補正部12、領域分離部13、可読性判定部14、
色補正部15、黒生成/下色除去部16、空間フィルタ
処理部17、出力階調補正部18および階調再現処理部
19から構成される。さらに、領域分離部13は文字エ
ッジ判定部13aを有し、可読性判定部14は文字領域
判定部14a、L***変換部14bおよび判定部1
4cを有する。ここで、L***とは、CIE(CI
E:Commission Internationale de l′Eclairage:国
際照明委員会)勧告の色空間座標で、L*は明度、a*
よびb*は色座標を表す。なお、文字領域判定部14a
は抽出手段であり、判定部14cは可読性判定手段であ
り、色補正部15は色補正手段である。なお、色補正手
段は、可読性が低いと判定された場合に画像データの補
正を行う本発明の補正処理と、L***信号をCMY
信号に変換する色補正処理とを行うものである。
The image processing apparatus 1 includes an A / D (analog / digital) converter 10, a shading corrector 11, an input tone corrector 12, an area separator 13, a readability determiner 14,
The color correction unit 15, the black generation / undercolor removal unit 16, the spatial filter processing unit 17, the output gradation correction unit 18, and the gradation reproduction processing unit 19 are included. Further, the area separation unit 13 has a character edge determination unit 13a, and the readability determination unit 14 is a character region determination unit 14a, the L * a * b * conversion unit 14b and the determination unit 1.
4c. Here, L * a * b * means CIE (CI
E: Commission Internationale de l'Eclairage: International Lighting Commission) Recommended color space coordinates, where L * represents lightness and a * and b * represent color coordinates. The character area determination unit 14a
Is an extraction unit, the determination unit 14c is a readability determination unit, and the color correction unit 15 is a color correction unit. The color correction means performs the correction processing of the present invention for correcting the image data when it is determined that the readability is low, and the CMY for the L * a * b * signals.
Color correction processing for converting into a signal is performed.

【0030】カラー画像入力装置20にて読み取られた
アナログ信号は、画像処理装置1内を、A/D変換部1
0、シェーディング補正部11、入力階調補正部12、
領域分離部13、可読性判定部14、色補正部15、黒
生成/下色除去部16、空間フィルタ処理部17、出力
階調補正部18および階調再現処理部19の順で送ら
れ、CMYK(C:シアン・M:マゼンタ・Y:イエロ
ー・K:ブラック)のデジタルカラー信号としてカラー
画像出力装置21へ出力される。
The analog signal read by the color image input device 20 is stored in the image processing device 1 through the A / D converter 1.
0, a shading correction unit 11, an input gradation correction unit 12,
The region separation unit 13, the readability determination unit 14, the color correction unit 15, the black generation / undercolor removal unit 16, the spatial filter processing unit 17, the output gradation correction unit 18, and the gradation reproduction processing unit 19 are sent in this order, and CMYK. It is output to the color image output device 21 as a digital color signal of (C: cyan, M: magenta, Y: yellow, K: black).

【0031】A/D変換部10は、RGBのアナログ信
号をデジタル信号に変換する。シェーディング補正部1
1は、A/D変換部10より送られてきたデジタルのR
GB信号に対して、カラー画像入力装置20の照明系、
結像系および撮像系で生じる各種の歪みを取り除く処理
を施す。入力階調補正部12は、シェーディング補正部
11にて各種の歪みが取り除かれたRGBの反射率信号
に対して、カラーバランスを整えると同時に、濃度信号
など画像処理装置1に採用されている画像処理のシステ
ムが扱い易い信号に変換する処理を施す。
The A / D converter 10 converts an RGB analog signal into a digital signal. Shading correction unit 1
1 is the digital R sent from the A / D converter 10.
For the GB signal, the illumination system of the color image input device 20,
Processing for removing various distortions generated in the imaging system and the imaging system is performed. The input gradation correction unit 12 adjusts the color balance of the RGB reflectance signals from which various distortions have been removed by the shading correction unit 11, and at the same time, an image such as a density signal that is used in the image processing apparatus 1. The processing system converts the signal into a signal that is easy to handle.

【0032】領域分離部13は、RGB信号から入力画
像データ中の各画素や複数の画素からなるブロックを文
字領域、網点領域および写真領域のいずれかに分離す
る。そして、領域分離部13は、この分離結果に基づき
画素やブロックがいずれの領域に属しているかを示す領
域識別信号を色補正部15、黒生成/下色除去部16、
空間フィルタ処理部17および階調再現処理部19へと
出力するとともに、入力階調補正部12からの入力信号
をそのまま可読性判定部14に出力する。
The area separating section 13 separates the block of each pixel or a plurality of pixels in the input image data from the RGB signal into one of a character area, a halftone dot area and a photograph area. Then, the area separation unit 13 outputs an area identification signal indicating which area the pixel or block belongs to, based on the result of the separation, to the color correction unit 15, the black generation / undercolor removal unit 16,
The output signal is output to the spatial filter processing unit 17 and the tone reproduction processing unit 19, and the input signal from the input tone correction unit 12 is output to the readability determination unit 14 as it is.

【0033】領域分離部13における領域の分離方法と
しては、例えば、「画像電子学会研究会予稿90−06
−04」に記載されている方法を用いることができる。
この方法では、注目画素を中心としたM×N(M,Nは
自然数)画素のブロック内で以下のような判定を行い、
それを注目画素の領域識別信号としている。
A method of separating the regions in the region separating unit 13 is, for example, “Society of Image Electronics Engineers of Japan, Proceedings 90-06.
The method described in “-04” can be used.
In this method, the following determination is made within a block of M × N (M and N are natural numbers) pixels centered on the pixel of interest,
It is used as the area identification signal of the pixel of interest.

【0034】まず、ブロック内の中央の9画素に対し
て、信号レベルの平均値(Dave)を求め、その平均値
を用いてブロック内の各画素を2値化する。最大画素信
号レベル(Dmax)、最小画素信号レベル(Dmin)も同
時に求める。網点領域では小領域における画像信号の変
動が大きいことや、背景に比べて濃度が高いことを利用
して網点領域を識別する。具体的には、2値化されたデ
ータに対して主走査および副走査方向でそれぞれ0から
1への変化点数KH、1から0への変化点数KVを求め、
それぞれをしきい値TH,TVと比較してKH,KVがとも
にしきい値を上回ったならば網点領域とする。また背景
との誤判定を防ぐため、先に求めたDaveとDmaxおよび
minとの差を、しきい値B1,B2と比較する。Dmax
ave>B 1,かつ、Dave−Dmin>B2,かつ、KH>T
H,かつ、KV>TVである場合には、網点領域と判定す
る。前記条件以外の場合には非網点領域と判定する。こ
こで非網点領域とされた領域は、文字エッジ判定部13
aにて文字エッジか否かが判定される。ここで文字エッ
ジと判定されなかったその他の領域は写真領域として判
定される。このように、領域分離部13にて出力される
領域識別信号によって、領域分離された画素の属する領
域に応じて、L***信号をCMY信号に変換する色
補正処理および黒生成処理などを行うことができる。
First, for the central 9 pixels in the block
The average value of the signal level (Dave), And the average value
Is used to binarize each pixel in the block. Maximum pixel signal
No. level (Dmax), Minimum pixel signal level (Dmin) Also same
Sometimes ask. In the halftone dot area, the image signal changes in the small area.
Uses high movement and high density compared to the background
Then, the halftone dot area is identified. Specifically, the binarized data
From 0 in the main and sub-scanning directions
Number of changes to 1 KHNumber of changes from 1 to 0 KVSeeking
Threshold TH, TVK compared toH, KVWith
If the value exceeds the threshold value, the halftone dot area is set. Again background
In order to prevent erroneous determination that DaveAnd Dmaxand
DminIs the threshold value B1, B2Compare with. Dmax
Dave> B 1, And Dave-Dmin> B2, And KH> T
H, And KV> TVIf it is, it is judged as a halftone dot area.
It If the condition is other than the above, it is determined as a non-halftone dot region. This
The area determined as the non-dot area is the character edge determination unit 13
At a, it is determined whether or not it is a character edge. Here is the character
The other areas that were not judged to be
Is determined. In this way, the area separation unit 13 outputs the data.
The area to which the pixels separated by the area identification signal belong
L depending on the area*a*b*Color to convert signal to CMY signal
Correction processing and black generation processing can be performed.

【0035】図2は、文字エッジ判定部13aの構成図
である。文字エッジ判定部13aは、R・G・B各プレ
ーンに対して所定の処理を行うエッジ検出部131、各
プレーンのエッジ検出部131から出力された出力信号
の論理和をとるOR回路(論理和回路)132およびし
きい値設定部133から構成される。エッジ検出部13
1は、さらに濃度差判定部134を有する。エッジ検出
部131では、まず2本のラインメモリを用いて注目画
素を中心とする3×3画素ブロックが形成される。次に
濃度差判定部134において、注目画素とその周りに位
置する近傍画素との濃度差がそれぞれプレーンごとに求
められる。求められた濃度差のうちのいずれか1つがし
きい値より大きければ出力信号は‘ON’となり、小さ
ければ‘OFF’となる。しきい値として、Rプレーン
においてはTHr、GプレーンにおいてはTHg、Bプ
レーンにおいてはTHbを用いる。なお、THr,TH
gおよびTHbはしきい値設定部133から出力される
値である。各プレーンのエッジ検出部131からの出力
信号は、OR回路132に入力され、論理和が算出され
る。この論理和によって算出されたものが、最終的に文
字エッジ信号として出力される。つまり、R・G・Bの
うち、いずれか1つのプレーンでエッジが検出されれば
注目画素は文字エッジであると判定され、文字エッジ信
号は‘ON’となり、すべてのプレーンでエッジが検出
されなければ文字エッジ信号は‘OFF’となる。
FIG. 2 is a block diagram of the character edge determination unit 13a. The character edge determination unit 13a includes an edge detection unit 131 that performs a predetermined process on each of the R, G, and B planes, and an OR circuit that calculates the logical sum of the output signals output from the edge detection unit 131 of each plane (logical sum). Circuit 132 and a threshold value setting unit 133. Edge detection unit 13
1 further includes a density difference determination unit 134. In the edge detection unit 131, a 3 × 3 pixel block centered on the target pixel is first formed using two line memories. Next, in the density difference determination unit 134, the density difference between the pixel of interest and the neighboring pixels located around it is calculated for each plane. If any one of the obtained density differences is larger than the threshold value, the output signal is'ON ', and if it is smaller, it is'OFF'. As the threshold value, THr is used for the R plane, THg is used for the G plane, and THb is used for the B plane. In addition, THr, TH
g and THb are values output from the threshold value setting unit 133. The output signal from the edge detection unit 131 of each plane is input to the OR circuit 132, and the logical sum is calculated. The value calculated by this logical sum is finally output as a character edge signal. That is, if an edge is detected in any one of R, G, and B planes, the pixel of interest is determined to be a character edge, the character edge signal becomes'ON ', and an edge is detected in all planes. If not, the character edge signal is'OFF '.

【0036】そして、この文字エッジ信号は可読性判定
部14へ出力される。なお、すべての画素に対する文字
エッジ信号は、画像処理装置1のメモリなどに格納して
おく。エッジの検出方法は前記方法に限定されるもので
はなく、ゾーベルフィルタなどのエッジ検出フィルタを
用いて検出しても構わない。
Then, this character edge signal is output to the readability determination section 14. The character edge signals for all pixels are stored in the memory of the image processing apparatus 1 or the like. The edge detection method is not limited to the above method, and an edge detection filter such as a Sobel filter may be used for detection.

【0037】可読性判定部14では、文字エッジ判定さ
れた画素のデータから、エッジ部分だけでなく、エッジ
部分に囲まれた領域を含めて文字領域として抽出し、文
字領域とこの文字領域の周辺領域との色の組み合わせに
基づいて可読性を判定する。可読性の判定は、RGB信
号をL***信号に変換して行われる。
The readability determination unit 14 extracts not only the edge portion but also the area surrounded by the edge portion as a character area from the pixel data for which the character edge is determined, and the character area and the peripheral area of this character area are extracted. Readability is determined based on the color combination of and. Readability is determined by converting the RGB signals into L * a * b * signals.

【0038】色補正部15は、可読性判定部14におい
て、可読性が低いと判定された文字領域の画像データに
ついて可読性を改善する補正処理を行う。そして、色の
再現を忠実に行うために、L***信号をCMY信号
に変換する色補正処理を行い、このCMY信号を空間フ
ィルタ処理部17へ出力する。可読性判定部14で行わ
れるRGB信号からL***信号に変換する処理、お
よび色補正部15で行われるL***信号をCMY信
号に変換する色補正処理として、変換行列を用いる方法
や、ルックアップテーブル(LUT)を用いる方法など
が用いられる。変換行列を用いる方法では、RGBから
***、L***からCMYへの変換を、式(1)
および式(2)の行列演算式を用いて実現する。
The color correction unit 15 performs a correction process for improving the readability of the image data of the character area determined by the readability determination unit 14 as having low readability. Then, in order to faithfully reproduce the colors, color correction processing for converting the L * a * b * signals into CMY signals is performed, and the CMY signals are output to the spatial filter processing unit 17. The conversion matrix is used as the process of converting the RGB signal into the L * a * b * signal performed by the readability determination unit 14 and the color correction process of converting the L * a * b * signal into the CMY signal performed by the color correction unit 15. And a method using a lookup table (LUT) are used. In the method using the conversion matrix, the conversion from RGB to L * a * b * and L * a * b * to CMY is performed by the formula (1).
And the matrix arithmetic expression of Expression (2).

【0039】[0039]

【数1】 [Equation 1]

【0040】まず、主要なCMYの値の組み合わせを画
像出力装置21に与えてカラーパッチを出力し測色す
る。また同様に測色されたカラーパッチをカラー画像入
力装置20にて読み込む。そして、L***値と対応
するCMYとRGBの値を求め、L***、CMYお
よびRGBの関係を満たす定数a11〜a34およびb11
34を最小二乗法で求める。より忠実な色再現を求める
場合には、2次以上のより高次の項を含めればよい。
First, a combination of major CMY values is given to the image output device 21 to output a color patch and measure the color. Similarly, the color image measured by the color image input device 20 is read. Then, the CMY and RGB values corresponding to the L * a * b * value are obtained, and the constants a 11 to a 34 and b 11 to satisfy the relationship of L * a * b * , CMY and RGB.
b 34 is obtained by the method of least squares. In order to obtain more faithful color reproduction, it is sufficient to include higher-order terms higher than the second order.

【0041】またLUTを用いる方法としては、前記の
変換行列を求め、入力のRGB信号に対して出力される
***の値と、L***に対して出力されるCMY
の値とを予め求めておき、LUTとして記憶しておく方
法や、対応するRGBとL***、L***とCMY
の関係を変換行列で記述するのではなく、ニュ−ラルネ
ットワークを用いて学習させ、このニューラルネットワ
ークを用いてLUTを作成する方法などがある。なお、
ニューラルネットワークとは、生物の神経系をモデル化
したもので、予め仮定したユニット間の結合の重みパラ
メータを、誤差逆伝搬学習法などのアルゴリズムにより
最適化する方法である。以上のような変換行列やLUT
を、領域分離によって判別される各々の領域に対応した
テーブルデータとして設定しておき、領域識別信号によ
って領域ごとにテーブルデータを切り換えることで、色
補正処理を行い画質を向上させることができる。
[0041] As a method of using a LUT obtains the transformation matrix, and the value of L * a * b * to be output to the RGB signal input is outputted to L * a * b * CMY
And the values corresponding to RGB and L * a * b * , L * a * b * and CMY.
There is a method of creating a LUT by using a neural network and learning by using the neural network instead of describing the relationship of A by a conversion matrix. In addition,
The neural network is a model of the nervous system of a living organism, and is a method of optimizing a weight parameter of a pre-assumed coupling between units by an algorithm such as an error backpropagation learning method. Transformation matrix and LUT as above
Is set as table data corresponding to each area determined by area separation, and the table data is switched for each area by the area identification signal, whereby color correction processing can be performed and image quality can be improved.

【0042】次に、黒生成/下色除去部16では黒生成
および下色除去の処理が行われる。CMYの最小値をM
IN信号とし、MIN信号から黒生成量Kと下色除去量
UCR(Under Color Removal)を算出する。黒生成量
Kと下色除去量UCRの算出は、画素ごとにMIN信号
を計算した後、予め設定しておいたMIN信号に対応す
る黒生成量Kおよび下色除去量UCRのテーブルデータ
から、計算したMIN信号に対応する値を取り出すこと
によって行う。テーブルデータは領域ごとに設定してお
き、領域識別信号に応じて設定を切り換える。黒文字を
良好に再現するため、文字エッジ領域では黒生成量Kお
よび下色除去量UCRの値を大きくし、黒文字が黒単色
に近い状態で再現されるようにする。また写真領域では
絵柄の再現性を高めるために、黒生成量Kを小さくし、
コントラストの大きいK信号をなるべく使わずに再現す
る。以下の式(3)のように、黒生成量Kおよび下色除
去量UCRを算出し、CMY信号から下色除去量UCR
を減算して、CMYK信号として空間フィルタ処理部1
7へ出力する。なお、式(3)により、算出された値
を、C´,M´,Y´,K´とする。
Next, the black generation / undercolor removal unit 16 performs black generation and undercolor removal processing. The minimum value of CMY is M
As the IN signal, the black generation amount K and the undercolor removal amount UCR (Under Color Removal) are calculated from the MIN signal. The black generation amount K and the undercolor removal amount UCR are calculated by calculating the MIN signal for each pixel, and then using the table data of the black generation amount K and the undercolor removal amount UCR corresponding to the preset MIN signal, This is done by taking out the value corresponding to the calculated MIN signal. The table data is set for each area, and the setting is switched according to the area identification signal. In order to reproduce the black character well, the values of the black generation amount K and the undercolor removal amount UCR are increased in the character edge area so that the black character is reproduced in a state close to a single black color. Further, in the photographic area, in order to improve the reproducibility of the pattern, the black generation amount K is reduced,
Reproduces K signals with high contrast as little as possible. The black generation amount K and the undercolor removal amount UCR are calculated as in the following formula (3), and the undercolor removal amount UCR is calculated from the CMY signal.
Is subtracted to obtain a CMYK signal as a spatial filter processing unit 1
Output to 7. In addition, let the value calculated by Formula (3) be C ', M', Y ', and K'.

【0043】[0043]

【数2】 [Equation 2]

【0044】空間フィルタ処理部17は、黒生成/下色
除去部16より出力されるCMYK信号の画像データに
対して、領域識別信号を基にデジタルフィルタによる空
間フィルタ処理を行い、空間周波数特性を改善すること
によって、出力画像のぼやけや粒状性劣化を防ぐ処理を
行う。例えば、領域分離部13の文字エッジ判定部13
aにて文字エッジに分離された領域は、特に黒文字ある
いは色文字の再現性を高めるために、空間フィルタ処理
部17による空間フィルタ処理の鮮鋭強調処理により、
高周波数の強調量を大きくする。同時に階調再現処理部
19により、高域周波数の再現に適した高解像度のスク
リーンでの2値化または多値化処理が行われる。一方、
領域分離部13にて網点に分離された領域に関しては、
空間フィルタ処理部17において、入力網点成分を除去
するためのローパスフィルタ処理などの適切な処理が施
される。
The spatial filter processing section 17 performs a spatial filter processing by a digital filter on the image data of the CMYK signals output from the black generation / undercolor removal section 16 based on the area identification signal to obtain a spatial frequency characteristic. As a result of the improvement, processing is performed to prevent blurring of the output image and deterioration of graininess. For example, the character edge determination unit 13 of the area separation unit 13
The area separated into the character edges in a is subjected to the sharp enhancement processing of the spatial filter processing by the spatial filter processing unit 17 in order to improve the reproducibility of the black character or the color character,
Increase the amount of high frequency emphasis. At the same time, the gradation reproduction processing unit 19 performs binarization or multi-value conversion processing on a high-resolution screen suitable for reproducing high frequencies. on the other hand,
Regarding the area separated into halftone dots by the area separation unit 13,
The spatial filter processing unit 17 performs appropriate processing such as low-pass filter processing for removing the input halftone dot component.

【0045】出力階調補正部18では、濃度信号などの
信号をカラー画像出力装置21の特性値である網点面積
率に変換する出力階調補正処理を行う。そして、階調再
現処理部19では、最終的に画像を画素に分離して、そ
れぞれの階調を再現できるように処理する階調再現処理
(中間調生成)がなされる。領域分離部13にて写真に
分離された領域に関しては、階調再現性を重視したスク
リーンでの2値化または多値化処理が行われる。
The output gradation correction unit 18 performs an output gradation correction process for converting a signal such as a density signal into a halftone dot area ratio which is a characteristic value of the color image output device 21. Then, the gradation reproduction processing section 19 performs gradation reproduction processing (halftone generation) for finally separating the image into pixels and processing so that each gradation can be reproduced. For the areas separated into photographs by the area separating unit 13, binarization or multi-value conversion processing on the screen with emphasis on gradation reproducibility is performed.

【0046】前記の各処理が施されたCMYK信号の画
像データは、一旦、画像処理装置1のメモリなどに記憶
され、所定のタイミングで読み出されてカラー画像出力
装置21に入力される。なお、前記の各処理は画像処理
装置1のCPU(CentralProcessing Unit)などの制御
手段によって制御される。
The image data of the CMYK signals which have been subjected to the above-mentioned respective processes are once stored in the memory of the image processing apparatus 1 or the like, read out at a predetermined timing and input to the color image output apparatus 21. Each of the above processes is controlled by a control unit such as a CPU (Central Processing Unit) of the image processing apparatus 1.

【0047】次に、可読性判定部14および色補正部1
5による本発明の画像処理を行う構成や手順などの詳細
について説明する。図3は、可読性判定部14の構成図
である。前記のように、可読性判定部14は、文字領域
判定部14a、L***変換部14bおよび判定部1
4cを有する。文字エッジ判定部13aから出力された
文字エッジ信号が文字領域判定部14aに入力される
と、文字領域判定部14aでは文字領域が抽出される。
抽出された文字領域に関する情報は、文字領域信号とし
てL***変換部14bに出力される。L***変換
部14bでは、RGB信号をL***信号に変換し、
文字領域信号に基づいて抽出された文字領域のL**
*信号を判定部14cに出力する。判定部14cでは、
文字領域のL***信号に基づいて文字の可読性を判
定し、判定結果は可読性判定信号として文字領域信号と
ともに色補正部15に出力される。
Next, the readability determination unit 14 and the color correction unit 1
The details of the configuration and the procedure for performing the image processing of the present invention according to No. 5 will be described. FIG. 3 is a configuration diagram of the readability determination unit 14. As described above, the readability determination unit 14 includes the character area determination unit 14a, the L * a * b * conversion unit 14b, and the determination unit 1.
4c. When the character edge signal output from the character edge determination unit 13a is input to the character region determination unit 14a, the character region determination unit 14a extracts the character region.
Information about the extracted character area is output to the L * a * b * conversion unit 14b as a character area signal. The L * a * b * conversion unit 14b converts the RGB signal into an L * a * b * signal,
L * a * b of the character area extracted based on the character area signal
* The signal is output to the determination unit 14c. In the determination unit 14c,
The readability of the character is determined based on the L * a * b * signal of the character area, and the determination result is output to the color correction unit 15 as a readability determination signal together with the character area signal.

【0048】図4〜図10を用いて文字領域判定部14
aにおける文字領域の抽出処理について説明する。図4
は、文字領域の輪郭となるエッジ部分を抽出する処理を
示す図である。図4(a)では文字領域の外側の輪郭
を、図4(b)では文字領域の内側の輪郭を抽出してい
る。文字エッジ判定部13aにより出力された文字エッ
ジ信号に基づいて、文字領域の外側の輪郭を抽出し、続
いて文字領域の内側の輪郭を抽出した後、その輪郭の内
部を塗りつぶすことで文字領域を抽出する。
The character area determination unit 14 will be described with reference to FIGS.
The extraction processing of the character area in a will be described. Figure 4
FIG. 7 is a diagram showing a process of extracting an edge portion that is the contour of a character area. The outer contour of the character area is extracted in FIG. 4A, and the inner contour of the character area is extracted in FIG. 4B. Based on the character edge signal output by the character edge determination unit 13a, the outer contour of the character area is extracted, and then the inner contour of the character area is extracted. Extract.

【0049】具体的には、まず、文字領域判定部14a
にてラスタ走査により画像データを左から右へ、上のラ
インから下のラインに向かって走査し、文字エッジ判定
部13aにて文字エッジと判定された文字エッジ画素を
抽出する。初めに探索された文字エッジ画素のうち、ま
だ処理されていない画素であって、かつ、左隣に文字エ
ッジではない画素を有する画素を開始点とする。図4で
は、開始点を網模様で塗りつぶされた升目として表して
いる。この開始点から近傍の文字エッジ画素を探索して
いく。近傍の文字エッジ画素を探索するには、文字領域
の外側の輪郭を抽出する場合、図4(a)の左の図のよ
うに、開始点の右隣の画素から時計回りに探索してい
く。開始点以外の近傍を探索する場合には、図4(a)
の中央の図のように、前回探索した文字エッジ画素、す
なわち、文字領域の輪郭となる輪郭画素から探索を行
う。ただし、この輪郭画素自体は探索範囲に入らず、実
際には、その次の画素から探索がなされる。ここで、探
索の中心に位置する画素を注目画素とする。これによっ
て、図4(a)の右の図のように、外側の輪郭を時計回
りに抽出することができる。なお、輪郭画素の探索範囲
は、注目画素の4近傍あるいは8近傍の画素範囲のいず
れでも構わないが、図4においては8近傍の画素を探索
範囲としている。
Specifically, first, the character area determination unit 14a
The image data is scanned from left to right by raster scanning from the upper line to the lower line, and the character edge pixels determined as the character edge by the character edge determination unit 13a are extracted. Among the character edge pixels searched first, a pixel having a pixel which has not been processed yet and which is not the character edge on the left is used as the starting point. In FIG. 4, the starting points are shown as squares filled with a mesh pattern. The character edge pixels in the vicinity are searched from this starting point. In order to search for a character edge pixel in the vicinity, when extracting the contour outside the character area, as shown on the left side of FIG. 4A, the search is performed clockwise from the pixel on the right side of the start point. . When searching for a neighborhood other than the start point, FIG.
As shown in the center diagram of FIG. 3, the search is performed from the character edge pixel searched last time, that is, the contour pixel that is the contour of the character area. However, the contour pixel itself does not fall within the search range, and the search is actually performed from the next pixel. Here, the pixel located at the center of the search is the target pixel. As a result, the outer contour can be extracted in the clockwise direction as shown on the right side of FIG. It should be noted that the search range of the contour pixel may be either the pixel range of 4 or 8 near the pixel of interest, but the pixel range of 8 is the search range in FIG.

【0050】文字領域の内側の輪郭の抽出処理も同様の
手順で行う。まず、前記で抽出した外側の輪郭の内部の
画素のうち、初めに探索された文字エッジ画素で、か
つ、右隣に文字エッジではない画素を有する画素を開始
点とする。そして、この開始点から近傍の文字エッジ画
素を探索していく。近傍の文字エッジ画素を探索するに
は、図4(b)の左の図のように、開始点の右下に位置
する画素から時計回りに探索していく。開始点以外の注
目画素の近傍を探索する場合には、図4(b)の中央の
図のように、前回探索した輪郭画素から時計回りに探索
するが、この輪郭画素自体は探索範囲に入らず、実際に
は、その次の画素から探索がなされる。これによって、
図4(b)の右の図のように、内側の輪郭を反時計回り
に抽出することができる。外側と内側のいずれの抽出処
理においても、注目画素が開始点に戻ったところで処理
を終了する。
The extraction processing of the contour inside the character area is performed in the same procedure. First, among the pixels inside the outer contour extracted as described above, the pixel having the first searched character edge pixel and the pixel which is not the character edge on the right is used as the start point. Then, the character edge pixels in the vicinity are searched from this starting point. To search for a character edge pixel in the vicinity, the pixel located at the lower right of the start point is searched clockwise as shown in the diagram on the left of FIG. When searching in the vicinity of the pixel of interest other than the starting point, as shown in the center diagram of FIG. 4B, the contour pixel searched in the clockwise direction is searched, but this contour pixel itself falls within the search range. Instead, the search is actually performed from the next pixel. by this,
The inner contour can be extracted in the counterclockwise direction as shown in the right diagram of FIG. In both the outside and inside extraction processing, the processing ends when the pixel of interest returns to the start point.

【0051】図5〜8に輪郭の抽出処理のながれを示
す。図5は、文字領域判定部14aにおける輪郭の抽出
処理を示すフローチャートである。まず、ステップa1
では、輪郭の抽出処理をスタートする。ステップa2で
は開始点の選択を行う。ステップa3では注目画素の選
択を行う。注目画素の選択は、前記の所定の条件に従っ
て行う。ステップa4では選択した注目画素が開始点か
否かの判断を行い、注目画素が開始点ならばステップa
5へ進み、注目画素が開始点でないならば、ステップa
3へ戻る。ステップa5では輪郭の抽出処理を終了す
る。
5 to 8 show the flow of contour extraction processing. FIG. 5 is a flowchart showing the contour extraction processing in the character area determination unit 14a. First, step a1
Then, the contour extraction processing is started. At step a2, the starting point is selected. At step a3, the pixel of interest is selected. The pixel of interest is selected according to the above-mentioned predetermined conditions. In step a4, it is judged whether or not the selected target pixel is the start point, and if the target pixel is the start point, step a
5. If the pixel of interest is not the starting point, go to step a.
Return to 3. At step a5, the contour extraction process is terminated.

【0052】図6は、図5におけるステップa2の開始
点の選択処理を示すフローチャートである。ステップa
2では、開始点の選択処理がスタートする。ステップb
1では画像をラスタ走査する。ステップb2では、対象
となる画素が文字エッジと判定された画素か否かを判断
する。エッジ判定された画素、すなわち、文字エッジ画
素であるならばステップb4へ進み、エッジ判定されて
いない画素ならばステップb3へ進む。ステップb3で
は、全画素を探索したかどうかを判断し、全画素を探索
したならばステップa5へ進み、開始点が見つからなか
ったとして処理を終了する。全画素を探索していないな
らばステップb1へ戻り、開始点の選択を続ける。対象
となる画素がエッジ判定された画素であるならば、ステ
ップb4では、検出フラグが立っているか否か、すなわ
ち、すでに文字領域として検出されているか否かを判断
する。検出フラグが立っているならばステップb1へ戻
り、次の開始点の選択を続け、検出フラグが立っていな
ければステップb5へ進む。ステップb5では検出フラ
グが立っていない画素を開始点とし検出フラグを立て
る。ステップb6では見つかった開始点を注目画素とす
る。ステップb7では図5のフローチャートのステップ
a2へ戻る。
FIG. 6 is a flowchart showing the starting point selection processing of step a2 in FIG. Step a
In 2, the starting point selection process starts. Step b
In 1, the image is raster-scanned. In step b2, it is determined whether or not the target pixel is a pixel determined to be a character edge. If the pixel is an edge-determined pixel, that is, a character edge pixel, the process proceeds to step b4. If the pixel is not edge-determined, the process proceeds to step b3. In step b3, it is determined whether or not all the pixels have been searched. If all the pixels have been searched, the process proceeds to step a5, and the processing ends because the starting point is not found. If all pixels have not been searched, the process returns to step b1 to continue selecting the starting point. If the target pixel is an edge-determined pixel, it is determined in step b4 whether or not the detection flag is set, that is, whether or not it has already been detected as a character area. If the detection flag is set, the process returns to step b1 to continue selecting the next start point, and if the detection flag is not set, the process proceeds to step b5. In step b5, the detection flag is set with the pixel for which the detection flag is not set as the starting point. In step b6, the found starting point is set as the pixel of interest. At step b7, the process returns to step a2 in the flowchart of FIG.

【0053】図7は、図5におけるステップa3の注目
画素の選択処理を示すフローチャートである。ステップ
a3では、注目画素の選択処理をスタートする。ステッ
プc1では注目画素の検出フラグを立てる。ステップc
2では、次の注目画素を探すために、近傍画素の探索を
行う。なお、近傍画素は8近傍か4近傍かを予め指定し
ておく。そして、ステップc3では図5のフローチャー
トのステップa3へ戻る。
FIG. 7 is a flow chart showing the process of selecting the target pixel in step a3 in FIG. At step a3, the process of selecting the target pixel is started. At step c1, a detection flag of the target pixel is set. Step c
In 2, in order to find the next pixel of interest, a search for neighboring pixels is performed. It should be noted that whether the neighborhood pixels are 8 neighborhoods or 4 neighborhoods is designated in advance. Then, in step c3, the process returns to step a3 in the flowchart of FIG.

【0054】図8は、図7におけるステップc2の近傍
画素の探索処理を示すフローチャートである。ステップ
c2では、近傍画素の探索処理をスタートする。ステッ
プd1では、注目画素が開始点か否かを判断する。開始
点ならばステップd2へ進み、開始点でないならばステ
ップd3へ進む。ステップd2では探索を開始点の右あ
るいは右下の画素から開始する。なお、文字領域の外側
の輪郭を抽出する場合には、開始点の右の画素から開始
し、文字領域の内側の輪郭を抽出する場合には、開始点
の右下の画素から開始する。ステップd3では、探索を
前回探索によって選択された輪郭画素から時計回りに1
つ進んだ画素から開始する。ステップd4では、時計回
りに文字エッジ画素を探索する。ステップd5では最初
に見つけた文字エッジ画素を注目画素として選択する。
ステップd6では図7のフローチャートのステップc2
へ戻る。
FIG. 8 is a flow chart showing the process of searching for neighboring pixels in step c2 in FIG. In step c2, the search processing for neighboring pixels is started. In step d1, it is determined whether or not the pixel of interest is the starting point. If it is the starting point, the process proceeds to step d2. If it is not the starting point, the process proceeds to step d3. In step d2, the search is started from the pixel on the right or lower right of the start point. It should be noted that when extracting the contour outside the character area, it starts from the pixel to the right of the start point, and when extracting the contour inside the character area, it starts from the pixel to the lower right of the start point. In step d3, the search is performed clockwise by 1 from the contour pixel selected by the previous search.
Start from the advanced pixel. In step d4, character edge pixels are searched clockwise. At step d5, the character edge pixel found first is selected as the pixel of interest.
In step d6, step c2 in the flowchart of FIG.
Return to.

【0055】文字領域の内側および外側の輪郭を抽出し
た後、外側の輪郭と内側の輪郭との間の領域、すなわ
ち、輪郭となるエッジ部分に囲まれた領域を抽出するこ
とで文字領域全体を抽出する。輪郭となるエッジ部分に
囲まれた領域の抽出には、以下の塗りつぶしアルゴリズ
ムを用いる。図9は、輪郭となるエッジ部分に囲まれた
領域の塗りつぶし処理を示す図である。まず、図9のよ
うに文字領域の外側および内側の輪郭となる画素が抽出
されると、外側の輪郭画素に外接する長方形の領域の中
をラスタ走査する。そして、文字エッジ画素を見つける
とその文字エッジ画素から次の文字エッジ画素までの領
域を塗りつぶし、塗りつぶされた領域を文字領域として
抽出する。
After extracting the inner and outer contours of the character area, the entire character area is extracted by extracting the area between the outer and inner contours, that is, the area surrounded by the edge portion serving as the contour. Extract. The following filling algorithm is used to extract the area surrounded by the edge portion that becomes the contour. FIG. 9 is a diagram showing the filling processing of the area surrounded by the edge portion as the contour. First, as shown in FIG. 9, when pixels forming the outer and inner contours of the character area are extracted, the rectangular area circumscribing the outer contour pixels is raster-scanned. Then, when the character edge pixel is found, the area from the character edge pixel to the next character edge pixel is filled, and the filled area is extracted as the character area.

【0056】次に、判定部14cにおける可読性の判定
処理について説明する。可読性は、文字、記号とその背
景の色の明度差に大きく影響されるが、明度差のみで決
まるわけではない。したがって、可読性の判定は、例え
ば以下のように行うことができる。
Next, the readability determination process in the determination unit 14c will be described. Readability is greatly affected by the difference in brightness between the characters and symbols and the background color, but it is not solely determined by the difference in brightness. Therefore, the readability can be determined as follows, for example.

【0057】可読性の判定には、まず、文字領域判定部
14aにて文字領域と判定された画素の色相と、周辺領
域に含まれる画素の色相とを算出する。L***変換
部14bにて、RGB信号を前記の式(1)を用いてC
IE1976L***に変換する。図10は、判定部
14cにて可読性の判定を行う際に判定の対象となる領
域を示す図である。図のように文字領域に外接する長方
形の領域を求め、それをn画素分拡大した長方形を対象
領域とする。なお、nは整数である。文字領域の画素の
平均L***値をL *,a *,b *とし、対象領域
のうち文字領域以外の周辺領域に含まれる画素の平均L
***値をL *,a *,b *とする。これらの値か
ら、色相Hおよび彩度C*を以下の式(4)および式
(5)によって算出する。なお、L *,a *,b *
から算出された色相および彩度の値をHおよびC *
とし、L *,a *,b *から算出された色相および
彩度の値をHおよびC *とする。
To determine the readability, first, the hue of the pixel determined to be the character area by the character area determination unit 14a and the hue of the pixels included in the peripheral area are calculated. In the L * a * b * conversion unit 14b, the RGB signal is converted into C by using the above equation (1).
Convert to IE1976L * a * b * . FIG. 10 is a diagram showing a region to be determined when the determination unit 14c determines readability. As shown in the figure, a rectangular area circumscribing the character area is obtained, and the rectangular area enlarged by n pixels is set as the target area. Note that n is an integer. The average L * a * b * values of the pixel of the character region L *, a in *, and b in the * average L of the pixels included in the peripheral region other than the character region in the target area
Let * a * b * values be outside L * , outside a * , outside b * . From these values, the hue H and the saturation C * are calculated by the following equations (4) and (5). It should be noted that, in the L *, the a *, the b *
Calculated from the hue and the value of saturation H and the C *
And then, L out *, a outside *, b * See the value of the calculated hue and saturation from an H extracellular and C out *.

【0058】[0058]

【数3】 [Equation 3]

【0059】図11は、文字領域および周辺領域の色を
分類する色空間座標を示す図である。図11(a)は色
空間座標をL*軸方向から見た図であり、図11(b)
は色空間座標をb*軸方向から見た図である。図の色空
間座標と、算出したHおよびC *と、HおよびC
*とによって、文字領域および周辺領域が青、赤、
黄、緑、白、灰、黒のいずれの色のカテゴリに該当する
かを判定する。色相Hが色相角H3からH0の範囲にあ
り、かつ彩度C*がC0 *以上ならば赤、色相Hが色相角
0からH1の範囲にあり、かつ彩度C*がC0 *以上なら
ば黄、色相Hが色相角H1からH2の範囲にあり、かつ彩
度C*がC0 *以上ならば緑、色相Hが色相角H2からH3
の範囲にあり、かつ彩度C*がC0 *以上ならば青とす
る。彩度C*がC0 *未満ならば無彩色とし、無彩色のう
ち、明度L*が0以上L0 *以下ならば黒、L0 *より大き
くL1 *以下ならば灰、L1 *より大きく100以下ならば
白とする。これによって、文字領域および周辺領域、す
なわち、文字や記号とその背景についての色の分類を的
確に行うことができ、結果として可読性の判定を的確に
行うことができる。また色相を表す画像データは、入力
画像データから簡易に算出することができるので、処理
コストを抑えることができる。文字領域の色のカテゴリ
をR、周辺領域の色のカテゴリをRとする。色相の
カテゴリを区切るH0,H1,H2,H3の角度は、図11
のものに限定されるものではなく、適宜変更することも
可能である。文字領域および周辺領域の色のカテゴリが
判定されたならば、カテゴリRとカテゴリRとの組
み合わせから可読性を判定する。
FIG. 11 shows the colors of the character area and the peripheral area.
It is a figure which shows the color space coordinates to classify. Figure 11 (a) is color
Space coordinate is L*FIG. 11 (b) is a view seen from the axial direction.
Is the color space coordinate b*It is the figure seen from the axial direction. Illustration color sky
Inter-coordinate and calculated HWithinAnd CWithin *And HOutsideAnd C
Outside *Depending on, the character area and the surrounding area are blue, red,
Be in any of the yellow, green, white, gray, or black color categories
To determine. Hue H is hue angle H3To H0In the range of
And the saturation C*Is C0 *If above, red, hue H is the hue angle
H0To H1And the saturation C*Is C0 *If more
Yellow, hue H is hue angle H1To H2In the range of and
Degree C*Is C0 *If it is above, green, hue H is hue angle H2To H3
And the saturation C*Is C0 *If it is more than blue
It Saturation C*Is C0 *If it is less than, it is achromatic and
Lightness L*Is 0 or more L0 *Black if below, L0 *Greater than
L1 *If less, ash, L1 *If greater than 100
White. This makes it possible to
That is, the color classification of letters and symbols and their backgrounds is targeted.
Can be performed accurately, and as a result, the readability can be accurately determined.
It can be carried out. In addition, input the image data that represents the hue.
Since it can be easily calculated from image data,
The cost can be reduced. Text area color category
RWithin, R for the color category of the surrounding areaOutsideAnd Of hue
H separating categories0, H1, H2, H3The angle is
The present invention is not limited to this, and may be changed as appropriate.
It is possible. The color categories of the character area and the surrounding area are
If judged, category RWithinAnd category ROutsidePair with
Readability is judged from the combination.

【0060】図12は、可読性の低い色の組み合わせか
らなるパターンを示す図である。図のようなパターンを
予め用意しておき、このパターンのいずれかに、文字領
域の色のカテゴリRと周辺領域の色のカテゴリR
の組み合わせが該当するか否かを調べ、文字領域の可読
性の判定を行う。該当するものがあれば文字領域の可読
性は低いと判定し、該当するものがなければ文字領域の
可読性に問題がないものと判定する。そして、可読性が
低い旨の判定結果を可読性判定信号として出力する。こ
れによって、可読性の判定を簡易に行うことができ、ま
た処理が簡易であることから、本発明の画像データの補
正処理に要するコストを抑えることができる。文字領域
の可読性が低いと判定されたならば、さらに以下の処理
を行う。
FIG. 12 is a diagram showing a pattern made up of a combination of colors having low readability. Is prepared a pattern as shown in FIG advance, any of the patterns, investigated whether the combination of the color of the category R outside the color category R in a peripheral area of the character region are true, the character region Readability is determined. If there is a corresponding one, it is determined that the readability of the character area is low, and if there is no corresponding one, it is determined that there is no problem in the readability of the character area. Then, the determination result indicating that the readability is low is output as the readability determination signal. As a result, the readability can be easily determined, and the processing is simple, so that the cost required for the image data correction processing of the present invention can be suppressed. If it is determined that the readability of the character area is low, the following processing is further performed.

【0061】まず、L *とL *との差の絶対値を求め
て、これを明度差ΔL*とし(ΔL*=|L *−L
*|)、予め定めるしきい値ΔLt*と比較する。明度
差がしきい値以上であれば(ΔL*≧ΔLt*)、明度差
は充分大きいため、可読性に問題がないとし、判定結果
である可読性判定信号を変更する。明度差がしきい値よ
り小さければ(ΔL*<ΔLt*)、可読性が低いとし、
可読性判定信号の変更は行わない。これによって、さら
に可読性の判定を的確に行うことができる。
First, the absolute value of the difference between L- inside * and L- outside * is calculated, and this is taken as the lightness difference ΔL * (ΔL * = | L- out * -L
Internal * |), compared to a pre-determined threshold ΔLt *. If the lightness difference is equal to or larger than the threshold value (ΔL * ≧ ΔLt * ), the lightness difference is sufficiently large that there is no problem in readability, and the readability determination signal as the determination result is changed. If the lightness difference is smaller than the threshold value (ΔL * <ΔLt * ), the readability is low,
The readability determination signal is not changed. As a result, the readability can be determined more accurately.

【0062】次に、色補正部15における本発明の補正
処理について説明する。色補正部15では、判定部14
cから出力された可読性判定信号に基づいて、画像デー
タの補正を行う。すなわち、可読性が悪いと判定された
場合には、以下のようにL *およびL *の値を変更す
る。
Next, the correction of the present invention in the color correction section 15
The processing will be described. In the color correction unit 15, the determination unit 14
Based on the readability determination signal output from c, the image data
Data correction. That is, it was determined that the readability was poor.
In case LWithin *And LOutside *Change the value of
It

【0063】文字領域の平均値L *と周辺領域の平均
値L *とを比較し、L *が大きい(L *<L *)場
合には、文字領域の明度の値を、以下の式(6)にて算
出したL *′に変更する。 L *′=L *−ΔLt* …(6)
[0063] the average value L of the character region * the average value L out of the peripheral area * and comparing, L out * is large (L in * <L out *) when the value of the brightness of the character region It is changed to L in the * ', which is calculated by the following equation (6). L in the * '= L in * -ΔLt * ... (6)

【0064】L *′が0以下となった場合には、周辺
領域の明度の値を以下の式(7)にて算出した値
*′に変更し、文字領域の明度の値を0(L *′=
0)に変更する。 L *′=L *+(0−L *′) …(7)
[0064] in L * 'if becomes 0 or less, the value of the brightness of the peripheral area value L out * calculated by the following equation (7)' was changed to the value of the brightness of the character region 0 (in the L * '=
Change to 0). Outside L * ′ = Outside L * + (0- Inside L * ′) (7)

【0065】一方、L *が大きい(L *>L *)場
合には、文字領域の明度の値を、以下の式(8)にて算
出したL *′に変更する。 L *′=L *+ΔLt* …(8)
[0065] On the other hand, when L in * is large (L in *> L out *) changes the value of the brightness of the character region, the L in * 'calculated by the following equation (8). L in the * '= L in * + ΔLt * ... (8)

【0066】L *′が100以上となった場合には、
周辺領域の明度の値を以下の式(9)にて算出した値L
*′に変更し、文字領域の明度の値を100(L *
=100)に変更する。 L *′=L *−(L *′−100) …(9) 可読性に問題がないと判定された場合には本発明の補正
処理は行わない。
[0066] In the case where the L * 'has become more than 100,
The value L calculated by the following formula (9) for the brightness value of the peripheral area
Change to outside * ', and change the lightness value of the character area to 100 ( inside L * '
= 100). Outside L * '= Outside L * -( Inside L * '-100) (9) If it is determined that there is no problem in readability, the correction process of the present invention is not performed.

【0067】以上によって、文字領域と周辺領域の画素
の明度差を拡大することで、文字領域および周辺領域、
すなわち、文字や記号とその背景との色調を変化させる
ことなく、背景の色と組み合わされることにより、読み
にくくなっている文字や記号に関して可読性を向上させ
ることができる。
As described above, by enlarging the brightness difference between the pixels in the character area and the peripheral area,
That is, it is possible to improve the readability of a character or symbol that is difficult to read by combining the character or symbol with the background color without changing the color tone of the character or symbol.

【0068】色補正部15では、さらにL***信号
をCMY信号へ変換する色補正処理を行い、このCMY
信号を空間フィルタ処理部17へ出力する。この処理
は、例えば前記の式(2)を用いて行われる。
The color correction section 15 further performs color correction processing for converting the L * a * b * signal into a CMY signal, and this CMY signal is processed.
The signal is output to the spatial filter processing unit 17. This processing is performed by using, for example, the above-mentioned formula (2).

【0069】次に、色覚異常を持つ人が識別しがたい色
の組み合わせに基づく本発明の補正処理について説明す
る。図13(a)は色覚異常の判定に用いる可読性の低
い色の組み合わせを示す図であり、図13(b)はこれ
らの組み合わせから、本発明の補正処理に用いるパター
ンとして設定したものを示す図である。なお、第1色盲
とは、赤色とその補色の識別が困難な状態をいい、第2
色盲とは緑色とその補色の識別が困難な状態をいう。判
定部14cにおいて、このパターンのいずれかに、文字
領域の色のカテゴリRと周辺領域の色のカテゴリR
との組み合わせが該当するか否かを調べ、文字領域の可
読性の判定を行う。該当するものがあれば文字領域の可
読性は低いと判定し、該当するものがなければ文字領域
の可読性に問題がないものと判定する。そして、判定結
果である可読性が低い旨の可読性判別信号を色補正部1
5に出力する。
Next, the correction processing of the present invention based on the combination of colors that is difficult for a person having color vision deficiency to identify will be described. FIG. 13A is a diagram showing a combination of colors that have low readability and are used for determining color blindness, and FIG. 13B is a diagram showing a combination of these combinations set as a pattern used in the correction processing of the present invention. Is. The first color blindness refers to a state in which it is difficult to distinguish red from its complementary color,
Color blindness is a state in which it is difficult to distinguish between green and its complementary color. The determination unit 14c, to one of the pattern, the category R color character area and a color category R outside the peripheral region
The readability of the character area is determined by checking whether or not the combination with and is applicable. If there is a corresponding one, it is determined that the readability of the character area is low, and if there is no corresponding one, it is determined that there is no problem in the readability of the character area. Then, the readability determination signal indicating that the readability is low, which is the determination result, is output to the color correction unit 1.
Output to 5.

【0070】そして、色補正部15では、文字領域の色
相の回転、あるいは文字領域の明度の値の変換により、
文字領域の色相、あるいは明度を補正し、文字や記号の
補正を行う。この補正は、色相の回転、あるいは明度の
値の変換をそれぞれ単独に行うことも可能であり、また
色相の回転および明度の値の変換の両方を行うことも可
能である。色相の回転は以下の式を用いて行う。なお、
θを回転する色相角、a*′,b*′を回転後のa*,b*
とする。
Then, in the color correction section 15, the hue of the character area is rotated or the lightness value of the character area is converted,
Corrects the hue or brightness of the character area and corrects characters and symbols. In this correction, the hue can be rotated or the lightness value can be converted independently, or both the hue can be rotated and the lightness value can be converted. Rotation of hue is performed using the following formula. In addition,
hue angle for rotating the θ, a * ', b * ' after the rotation of the a *, b *
And

【0071】[0071]

【数4】 [Equation 4]

【0072】画素の明度の値の変換は前記方法と同様に
行い、色相の回転および明度の値の変換をともに行う場
合は、これらを同時に行えばよい。色相角θは、図13
(b)のパターンに応じて所定の値を設定することがで
きる。これによって、色覚異常を持つ人にとっても読み
易い画像を提供することができる。
The lightness value conversion of the pixel is performed in the same manner as in the above method, and when the hue rotation and the lightness value conversion are both performed, these may be simultaneously performed. The hue angle θ is shown in FIG.
A predetermined value can be set according to the pattern of (b). As a result, it is possible to provide an image that is easy to read even for a person with color vision deficiency.

【0073】さらに、文字領域のエッジ部分における本
発明の補正処理について説明する。判定部14cから色
補正部15へ可読性判定信号を出力する場合において、
可読性の判定結果だけでなく、対象となる画素が文字領
域のエッジ部分の画素なのか、文字領域内部、すなわ
ち、エッジ部分に囲まれた領域の画素なのかを判別する
信号を同時に出力する。すなわち、可読性が低く、か
つ、文字エッジ部分である旨の信号、可読性が低く、か
つ、文字領域内部である旨の信号、可読性が良い旨の信
号の計3種類を出力する。そして、可読性の低い文字エ
ッジ部分については、色補正部15にて本発明の補正処
理を行い、可読性の低い文字領域内部については、補正
処理を行わないか、または、補正処理に用いる計算式の
係数を小さくする。ここで、文字エッジ部分として補正
する部分は、文字領域判定部14にて抽出された輪郭画
素に限定することもできる。このように文字領域のエッ
ジ部分と周辺領域との明度差を強調する補正処理を行う
ことで、文字領域および周辺領域、すなわち、文字や記
号とその背景との色調を変化させることなく、可読性を
向上させることができる。
Further, the correction processing of the present invention in the edge portion of the character area will be described. When the readability determination signal is output from the determination unit 14c to the color correction unit 15,
In addition to the readability determination result, a signal for determining whether the target pixel is a pixel in the edge portion of the character area or a pixel inside the character area, that is, a pixel surrounded by the edge portion is simultaneously output. That is, a total of three types are output, a signal indicating low readability and a character edge portion, a signal indicating low readability and inside a character area, and a signal indicating good readability. Then, the color correction unit 15 performs the correction processing of the present invention on the character edge portion having low readability, and does not perform the correction processing on the inside of the character area having low readability, or a calculation formula used for the correction processing is performed. Reduce the coefficient. Here, the portion to be corrected as the character edge portion may be limited to the contour pixel extracted by the character area determination unit 14. By performing the correction processing that emphasizes the brightness difference between the edge portion of the character area and the peripheral area in this way, the readability is improved without changing the color tone of the character area and the peripheral area, that is, the characters and symbols and their backgrounds. Can be improved.

【0074】図14は、本発明の画像処理方法を示すフ
ローチャートである。ステップe1では、画像処理をス
タートする。ステップe2では、文字領域判定部14a
によって、文字領域の画素を抽出する。ステップe3で
は、可読性の判定を行うために、L***変換部14
bにて、RGB信号をL***信号に変換する。ステ
ップe4では、判定部14cにより、文字領域の画素の
値と周辺領域の画素の値とを用いて、文字の可読性が低
いか否かを判定する。判定には、文字領域および周辺領
域の画素の値と、予め定める可読性の低い色の組み合わ
せからなるパターンとの照合によって行うことができ
る。このパターンは、色覚異常の判定に用いる可読性の
低い色の組み合わせからなるものでもよい。また判定に
用いられる画素の値としては、色相であってもよいし、
明度の値であってもよい。可読性が低いと判定された場
合にはステップe5へ進み、可読性は低くないと判定さ
れた場合にはステップe6へ進む。ステップe5では、
判定部14cによって出力された可読性判定信号に基づ
いて、文字領域の画素の値の補正処理を行う。この補正
処理は、文字領域の明度の値について行うことができ、
また文字領域のエッジ部分の画素について行うことがで
きる。
FIG. 14 is a flow chart showing the image processing method of the present invention. At step e1, image processing is started. In step e2, the character area determination unit 14a
The pixels of the character area are extracted by. In step e3, the L * a * b * conversion unit 14 determines the readability.
At b, the RGB signals are converted into L * a * b * signals. In step e4, the determination unit 14c determines whether or not the readability of the character is low, using the pixel value of the character area and the pixel value of the peripheral area. The determination can be performed by comparing the pixel values of the character region and the peripheral region with a pattern formed of a predetermined combination of low-readable colors. This pattern may be composed of a combination of colors that have low readability and are used for determining color vision abnormality. The pixel value used for the determination may be hue,
It may be a brightness value. When it is determined that the readability is low, the process proceeds to step e5, and when it is determined that the readability is not low, the process proceeds to step e6. In step e5,
The value of the pixel in the character area is corrected based on the readability determination signal output by the determination unit 14c. This correction process can be performed for the brightness value of the character area,
It can also be performed for pixels in the edge portion of the character area.

【0075】本発明は、前記画像処理方法を実行させる
ための画像処理プログラムによって実現することができ
る。このプログラムは、前記画像処理方法を実行する画
像処理装置1の主メモリに直接格納されてもよいし、固
定ディスク装置に挿入することによって読み取り可能と
なる記録媒体に格納されてもよい。
The present invention can be realized by an image processing program for executing the image processing method. This program may be directly stored in the main memory of the image processing apparatus 1 that executes the image processing method, or may be stored in a recording medium that can be read by being inserted into a fixed disk device.

【0076】直接格納されたプログラムとしては、パー
ソナルコンピュータ、ワークステーションなどの汎用の
コンピュータによって実行される処理そのものであって
もよいし、インターネットなどの通信ネットワークを利
用することによって取り込まれたプログラムであっても
よい。さらに、この取り込まれたプログラムに基づい
て、プログラム処理装置により、データ圧縮されている
ものを解凍するなどの処理をした後に生成されたプログ
ラムであってもよい。これによって、コンピュータに本
発明の画像処理方法を実行させることができる。
The directly stored program may be a process itself executed by a general-purpose computer such as a personal computer or a workstation, or a program loaded by using a communication network such as the Internet. May be. Further, the program may be a program generated after the program processing device performs a process such as decompressing the compressed data based on the loaded program. This allows the computer to execute the image processing method of the present invention.

【0077】また本発明は、前記の画像処理プログラム
を記録した記録媒体によって実現される。このプログラ
ムを記録した記録媒体としては、例えば、磁気テープお
よびカセットテープなどのテープ系、FD(Flexible D
isk)およびHD(Hard Disk)などの磁気ディスクなら
びにCD―ROM(Compact Disk Read Only Memor
y)、MO(Magneto Optical)、MD(Mini Disk)お
よびDVD(DigitalVersatile Disk)などの光ディス
クのディスク系、メモリカードを含むIC(Integrated
Circuits)カードおよび光カードなどのカード系、マ
スクROM、EPROM(Erasable Programmable Read
-Only Memory)、EEPROM(Electrically Erasabl
e Programmable Read-Only Memory)およびフラッシュ
ROMなどによる半導体メモリを含め、固定的にプログ
ラムを記憶する媒体を用いることができる。いずれの記
録媒体においても、格納されているプログラムは、コン
ピュータがアクセスして実行される構成であってもよい
し、記録媒体から読み出されてコンピュータのプログラ
ム記憶領域にロードされたものが実行される構成であっ
てもよい。これによって、コンピュータに本発明の画像
処理方法を実行させることができる。
The present invention is also realized by a recording medium recording the above image processing program. As a recording medium on which this program is recorded, for example, a tape system such as a magnetic tape and a cassette tape, an FD (Flexible D
magnetic disks such as isk) and HD (Hard Disk) and CD-ROM (Compact Disk Read Only Memor)
y), MO (Magneto Optical), MD (Mini Disk), DVD (Digital Versatile Disk), and other optical disk systems; IC (Integrated) including memory cards
Cards such as Circuits) and optical cards, mask ROM, EPROM (Erasable Programmable Read)
-Only Memory), EEPROM (Electrically Erasabl
A medium for fixedly storing the program can be used including a semiconductor memory such as an e Programmable Read-Only Memory) and a flash ROM. In any recording medium, the stored program may be configured to be accessed and executed by a computer, or the program read from the recording medium and loaded into the program storage area of the computer is executed. The configuration may be different. This allows the computer to execute the image processing method of the present invention.

【0078】[0078]

【発明の効果】以上のように本発明によれば、背景の色
と組み合わされることにより読みにくくなっている文字
や記号に関して可読性を向上させることができる。
As described above, according to the present invention, it is possible to improve the readability of characters and symbols which are difficult to read due to the combination with the background color.

【0079】また本発明によれば、可読性の判定を簡易
に行うことができる。また処理が簡易であることから、
処理コストを抑えることができる。
Further, according to the present invention, readability can be easily determined. Moreover, since the processing is simple,
The processing cost can be suppressed.

【0080】また本発明によれば、色覚異常を持つ人に
とっても読み易い画像を提供することができる。
Further, according to the present invention, it is possible to provide an image that is easy to read even for a person having a color vision deficiency.

【0081】また本発明によれば、文字や記号および背
景についての色の分類を的確に行うことができ、結果と
して可読性の判定を的確に行うことができる。また色相
を表す画像データは、入力画像データから簡易に算出す
ることができるので、処理コストを抑えることができ
る。
Further, according to the present invention, it is possible to accurately classify colors of characters, symbols and backgrounds, and as a result, it is possible to accurately determine readability. Further, since the image data representing the hue can be easily calculated from the input image data, the processing cost can be suppressed.

【0082】また本発明によれば、文字や記号および背
景についての可読性の判定をより的確に行うことができ
る。
Further, according to the present invention, the readability of characters, symbols and the background can be determined more accurately.

【0083】また本発明によれば、文字や記号とその背
景との色調を変化させることなく、可読性を向上させる
ことができる。
Further, according to the present invention, readability can be improved without changing the color tone of the character or symbol and the background thereof.

【0084】また本発明によれば、文字や記号の可読性
が向上した再現画像をさまざまな用途に使用することが
できる。
Further, according to the present invention, a reproduced image in which the readability of characters and symbols is improved can be used for various purposes.

【0085】また本発明によれば、コンピュータに前記
画像処理方法を実行させることができる。
Further, according to the present invention, it is possible to cause a computer to execute the image processing method.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態である画像処理装置1を備え
た画像形成装置2の構成図である。
FIG. 1 is a configuration diagram of an image forming apparatus 2 including an image processing apparatus 1 according to an embodiment of the present invention.

【図2】文字エッジ判定部13aの構成図である。FIG. 2 is a configuration diagram of a character edge determination unit 13a.

【図3】可読性判定部14の構成図である。FIG. 3 is a configuration diagram of a readability determination unit 14.

【図4】文字領域の輪郭となるエッジ部分を抽出する処
理を示す図である。
FIG. 4 is a diagram illustrating a process of extracting an edge portion that is a contour of a character area.

【図5】文字領域判定部14aにおける輪郭の抽出処理
を示すフローチャートである。
FIG. 5 is a flowchart showing contour extraction processing in a character area determination unit 14a.

【図6】図5におけるステップa2の開始点の選択処理
を示すフローチャートである。
FIG. 6 is a flowchart showing a starting point selection process of step a2 in FIG.

【図7】図5におけるステップa3の注目画素の選択処
理を示すフローチャートである。
FIG. 7 is a flowchart showing a target pixel selection process of step a3 in FIG.

【図8】図7におけるステップc2の近傍画素の探索処
理を示すフローチャートである。
8 is a flowchart showing a search process for neighboring pixels in step c2 in FIG. 7.

【図9】輪郭となるエッジ部分に囲まれた領域の塗りつ
ぶし処理を示す図である。
FIG. 9 is a diagram illustrating a filling process of a region surrounded by an edge portion that is a contour.

【図10】判定部14cにて可読性の判定を行う際に判
定の対象となる領域を示す図である。
FIG. 10 is a diagram showing a region to be determined when the determination unit 14c determines readability.

【図11】文字領域および周辺領域の色を分類する色空
間座標を示す図である。
FIG. 11 is a diagram showing color space coordinates for classifying colors of a character area and a peripheral area.

【図12】可読性の低い色の組み合わせからなるパター
ンを示す図である。
FIG. 12 is a diagram showing a pattern formed by a combination of colors having low readability.

【図13】(a)は色覚異常の判定に用いる可読性の低
い色の組み合わせを示す図であり、(b)はこれらの組
み合わせから、本発明の補正処理に用いるパターンとし
て設定したものを示す図である。
FIG. 13A is a diagram showing a combination of colors having low readability used for determining a color vision abnormality, and FIG. 13B is a diagram showing a combination of these combinations set as a pattern used in the correction processing of the present invention. Is.

【図14】本発明の画像処理方法を示すフローチャート
である。
FIG. 14 is a flowchart showing an image processing method of the present invention.

【符号の説明】[Explanation of symbols]

1 画像処理装置 2 画像形成装置 10 A/D(アナログ/デジタル)変換部 11 シェーディング補正部 12 入力階調補正部 13 領域分離部 13a 文字エッジ判定部 14 可読性判定部 14a 文字領域判定部 14b L***変換部 14c 判定部 15 色補正部 16 黒生成/下色除去部 17 空間フィルタ処理部 18 出力階調補正部 19 階調再現処理部 20 カラー画像入力装置 21 カラー画像出力装置 131 エッジ検出部 132 OR回路(論理和回路) 133 しきい値設定部 134 濃度差判定部DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Image forming apparatus 10 A / D (analog / digital) conversion section 11 Shading correction section 12 Input tone correction section 13 Area separation section 13a Character edge determination section 14 Readability determination section 14a Character area determination section 14b L * a * b * conversion unit 14c determination unit 15 color correction unit 16 black generation / undercolor removal unit 17 spatial filter processing unit 18 output gradation correction unit 19 gradation reproduction processing unit 20 color image input device 21 color image output device 131 edge Detection unit 132 OR circuit (OR circuit) 133 Threshold value setting unit 134 Concentration difference determination unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大津 誠 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 5C077 MP05 MP07 MP08 PP27 PP28 PP32 PP33 PP35 PP36 PP37 PP55 PQ12 PQ22 5C079 HB01 HB03 HB06 HB08 HB12 LA06 LB02 MA01 MA11 NA06 5L096 AA02 AA06 BA17 FA06 FA44 GA40 GA41    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Makoto Otsu             22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka             Inside the company F term (reference) 5C077 MP05 MP07 MP08 PP27 PP28                       PP32 PP33 PP35 PP36 PP37                       PP55 PQ12 PQ22                 5C079 HB01 HB03 HB06 HB08 HB12                       LA06 LB02 MA01 MA11 NA06                 5L096 AA02 AA06 BA17 FA06 FA44                       GA40 GA41

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 入力画像データから文字領域の画像デー
タを抽出する抽出ステップと、 抽出された文字領域の画像データと前記文字領域の周辺
領域の画像データとを用いて、文字領域の可読性を判定
する可読性判定ステップと、 可読性が低いと判定された場合には、前記文字領域の画
像データを補正する補正ステップとからなることを特徴
とする画像処理方法。
1. A readability of a character area is determined using an extraction step of extracting image data of a character area from input image data, and using the extracted image data of the character area and image data of an area surrounding the character area. And a correction step of correcting the image data of the character area when the readability is determined to be low.
【請求項2】 前記可読性判定ステップでは、前記文字
領域および前記周辺領域の画像データと、予め定める可
読性の低い色の組み合わせからなるパターンとの照合に
よって判定することを特徴とする請求項1記載の画像処
理方法。
2. The readability determination step is performed by comparing image data of the character area and the peripheral area with a pattern made up of a predetermined combination of colors having low readability. Image processing method.
【請求項3】 前記パターンは、色覚異常の判定に用い
る可読性の低い色の組み合わせからなることを特徴とす
る請求項2記載の画像処理方法。
3. The image processing method according to claim 2, wherein the pattern is composed of a combination of colors that are less readable and are used for determining color blindness.
【請求項4】 前記可読性判定ステップでは、前記文字
領域の色相を表す画像データと前記周辺領域の色相を表
す画像データとを用いて判定することを特徴とする請求
項1〜3のいずれか1つに記載の画像処理方法。
4. The readability determination step makes a determination using image data representing a hue of the character area and image data representing a hue of the peripheral area. The image processing method described in 1.
【請求項5】 前記可読性判定ステップでは、前記文字
領域の明度を表す画像データと前記周辺領域の明度を表
す画像データとを用いて判定することを特徴とする請求
項4記載の画像処理方法。
5. The image processing method according to claim 4, wherein in the readability determination step, the determination is performed using image data representing the brightness of the character area and image data representing the brightness of the peripheral area.
【請求項6】 前記文字領域はエッジ部分と前記エッジ
部分に囲まれた領域とからなり、 前記補正ステップでは、前記エッジ部分の画像データに
ついて補正することを特徴とする請求項1〜5のいずれ
か1つに記載の画像処理方法。
6. The character area comprises an edge portion and an area surrounded by the edge portion, and in the correcting step, image data of the edge portion is corrected. The image processing method according to any one of the above.
【請求項7】 前記補正ステップでは、前記文字領域の
明度を表す画像データについて補正することを特徴とす
る請求項1〜6のいずれか1つに記載の画像処理方法。
7. The image processing method according to claim 1, wherein in the correction step, image data representing the brightness of the character area is corrected.
【請求項8】 入力画像データから文字領域の画像デー
タを抽出する抽出手段と、 抽出された文字領域の画像データと前記文字領域の周辺
領域の画像データとを用いて、文字領域の可読性を判定
する可読性判定手段と、 入力画像データに色補正処理を施し出力画像データとす
る色補正手段とを有し、 前記色補正手段は可読性が低いと判定された場合には、
前記文字領域の画像データを補正することを特徴とする
画像処理装置。
8. A readability of a character area is determined using extraction means for extracting image data of a character area from input image data, and image data of the extracted character area and image data of a peripheral area of the character area. Readability determining means and a color correcting means for applying color correction processing to input image data to obtain output image data, and when the color correcting means is determined to have low readability,
An image processing apparatus for correcting image data of the character area.
【請求項9】 請求項8に記載の画像処理装置と、 入力画像データを読み取る画像入力装置と、 前記画像処理装置より出力される出力画像データに基づ
いて記録媒体上に画像を形成する画像出力装置とを備え
ることを特徴とする画像形成装置。
9. The image processing apparatus according to claim 8, an image input apparatus for reading input image data, and an image output for forming an image on a recording medium based on output image data output from the image processing apparatus. And an image forming apparatus.
【請求項10】 コンピュータに請求項1〜7のいずれ
か1つに記載の方法を実行させるための画像処理プログ
ラム。
10. An image processing program for causing a computer to execute the method according to claim 1.
【請求項11】 請求項10に記載の画像処理プログラ
ムを記録したコンピュータ読み取り可能な記録媒体。
11. A computer-readable recording medium on which the image processing program according to claim 10 is recorded.
JP2002005158A 2002-01-11 2002-01-11 Image processing method, image processor, image forming device, image processing program, and recording medium Pending JP2003209704A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002005158A JP2003209704A (en) 2002-01-11 2002-01-11 Image processing method, image processor, image forming device, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002005158A JP2003209704A (en) 2002-01-11 2002-01-11 Image processing method, image processor, image forming device, image processing program, and recording medium

Publications (1)

Publication Number Publication Date
JP2003209704A true JP2003209704A (en) 2003-07-25

Family

ID=27644282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002005158A Pending JP2003209704A (en) 2002-01-11 2002-01-11 Image processing method, image processor, image forming device, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP2003209704A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008226229A (en) * 2007-02-14 2008-09-25 Nippon Hoso Kyokai <Nhk> Digital content screen correcting device, and method and program thereof
JP2011097203A (en) * 2009-10-28 2011-05-12 Kyocera Mita Corp Image processing apparatus and image forming apparatus
JP2011109430A (en) * 2009-11-18 2011-06-02 Kyodo Printing Co Ltd Method and system for processing image, image recording medium, and printed matter
JP2011142403A (en) * 2010-01-05 2011-07-21 Ricoh Co Ltd Image processor, image processing method, image processing program, and recording medium
JP2013214903A (en) * 2012-04-03 2013-10-17 Konica Minolta Inc Image forming device, image forming method and image forming program
KR20150116604A (en) * 2014-04-08 2015-10-16 한국항공대학교산학협력단 Smart learning system based on the real-time knowledge sharing
JP2018019167A (en) * 2016-07-26 2018-02-01 日本電信電話株式会社 Image processing method, image processing apparatus, and program
JP2019029903A (en) * 2017-08-01 2019-02-21 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008226229A (en) * 2007-02-14 2008-09-25 Nippon Hoso Kyokai <Nhk> Digital content screen correcting device, and method and program thereof
JP2011097203A (en) * 2009-10-28 2011-05-12 Kyocera Mita Corp Image processing apparatus and image forming apparatus
JP2011109430A (en) * 2009-11-18 2011-06-02 Kyodo Printing Co Ltd Method and system for processing image, image recording medium, and printed matter
JP2011142403A (en) * 2010-01-05 2011-07-21 Ricoh Co Ltd Image processor, image processing method, image processing program, and recording medium
JP2013214903A (en) * 2012-04-03 2013-10-17 Konica Minolta Inc Image forming device, image forming method and image forming program
KR20150116604A (en) * 2014-04-08 2015-10-16 한국항공대학교산학협력단 Smart learning system based on the real-time knowledge sharing
KR101652500B1 (en) * 2014-04-08 2016-08-31 한국항공대학교산학협력단 Smart learning system based on the real-time knowledge sharing
JP2018019167A (en) * 2016-07-26 2018-02-01 日本電信電話株式会社 Image processing method, image processing apparatus, and program
JP2019029903A (en) * 2017-08-01 2019-02-21 キヤノン株式会社 Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
US7227990B2 (en) Color image processing device and color image processing method
JP2009031876A (en) Image processor, image forming device and image reader therewith, image processing method, image processing program and recording medium recording image processing program
JP2007067932A (en) Image processing apparatus and method thereof
JP2008066895A (en) Image forming apparatus, image formation method, program, and recording medium
JP4361946B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2003209704A (en) Image processing method, image processor, image forming device, image processing program, and recording medium
JP4248899B2 (en) Area separation processing method, area separation processing program, recording medium recording the same, image processing apparatus, and image forming apparatus including the same
JP4549227B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP4418829B2 (en) Color correction method and image processing apparatus
JP2003264701A (en) Image processing method, image processor and image forming device provided with the same
JP2006229817A (en) Background detection method, program, recording medium, image processing apparatus, and image forming apparatus
JP3754736B2 (en) Image processing apparatus and method
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4086537B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JPH11136505A (en) Picture processor and picture processing method
JPH0541796A (en) Copying machine
JP2005267119A (en) Image processor, image forming device, image processing method, image processing program, and recording medium
JP3834484B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer-readable recording medium
JP2003224718A (en) Image processing method and image processor
JP3966404B2 (en) Image processing method, image processing apparatus, and image forming apparatus
JP4334504B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2002158873A (en) Image processor, imaging apparatus, image processing method and recording medium
JP2003234912A (en) Image processing method, image processing apparatus and image forming apparatus
JP2003125198A (en) Image processing apparatus and image processing method, and image forming device provided with the same, program, and recording medium