JP4640257B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4640257B2
JP4640257B2 JP2006137930A JP2006137930A JP4640257B2 JP 4640257 B2 JP4640257 B2 JP 4640257B2 JP 2006137930 A JP2006137930 A JP 2006137930A JP 2006137930 A JP2006137930 A JP 2006137930A JP 4640257 B2 JP4640257 B2 JP 4640257B2
Authority
JP
Japan
Prior art keywords
pixel
white
correction
line structure
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006137930A
Other languages
Japanese (ja)
Other versions
JP2007312010A (en
Inventor
宏司 鷲尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2006137930A priority Critical patent/JP4640257B2/en
Publication of JP2007312010A publication Critical patent/JP2007312010A/en
Application granted granted Critical
Publication of JP4640257B2 publication Critical patent/JP4640257B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、文字や線画のオブジェクトを含む画像データに対し、画像処理を施す画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for performing image processing on image data including characters and line drawing objects.

白抜き文字とは、最大濃度又はそれに近い高濃度の背景の中にある、最小濃度又はそれに近い低濃度の文字のことであるが、プリンタ等においてこの白抜き文字を出力すると、文字の線幅が細くなったり、黒くつぶれてしまうことがある。これは、プリンタの出力特性上、1画素分の孤立点を最大画素値で出力すると、その孤立点が1画素分の領域を超えるほど大きくなってしまうことに起因するものである。この現象はドットゲインと呼ばれ、何れの印刷プロセスを採用しても多かれ少なかれ現れるものである。   A white character is a character in a background with a maximum density or a high density close to it, and a low density character with a minimum density or close to it. May become thinner or crushed black. This is because of the output characteristics of the printer, when an isolated point for one pixel is output at the maximum pixel value, the isolated point becomes larger as it exceeds the region for one pixel. This phenomenon is called dot gain and appears more or less regardless of which printing process is employed.

改善策としては、印刷プロセスそのものを改良する方法の他、画像処理により出力制御を行う方法が考えられる。例えば、孤立点の出力時に本来出力すべき領域を超えて出力される分を予想し、その分だけ白抜き文字の線幅を太くするような画像処理を予め施しておくことにより、ドットゲインを防止することができる。   As an improvement measure, in addition to a method of improving the printing process itself, a method of performing output control by image processing can be considered. For example, by predicting the amount of output that exceeds the region that should be output when an isolated point is output, and performing image processing to increase the line width of the white character in advance, dot gain can be increased. Can be prevented.

図10に、その処理例を示す。
図10(a)は「T」の白抜き文字の画像を示す図である。「T」の文字領域は最小値に近い画素値を有しており、その背景領域は最大値に近い画素値を有している。この画像を特に処理を施さずに出力すると、背景領域において図10(b)に示すようなドットゲインが生じることとなる。ドットゲインを防ぐためには、白抜き文字に隣接する背景領域の画素の画素値を小さくする画像処理を行う。画素値を小さくすることにより、その背景領域の画素については1画素分の所定領域内にドットが収まることとなるため、白抜き文字領域の方へドットが進入することを防ぎ、白抜き文字の劣化(つぶれ)を抑えることができる。
FIG. 10 shows an example of the processing.
FIG. 10A is a diagram illustrating an image of a white character “T”. The character area “T” has a pixel value close to the minimum value, and the background area has a pixel value close to the maximum value. When this image is output without any particular processing, a dot gain as shown in FIG. 10B is generated in the background area. In order to prevent dot gain, image processing is performed to reduce the pixel value of the pixel in the background area adjacent to the outline character. By reducing the pixel value, the dots in the background area are within a predetermined area for one pixel, so that the dots are prevented from entering the white character area, Degradation (crushing) can be suppressed.

上述のように、白抜き文字のつぶれを防止する処理を施すには、白抜き文字周辺の画素値を操作する必要がある。そのため、画像中の白抜き文字の正確な位置、具体的には白抜き文字の輪郭を特定することが課題となる。   As described above, it is necessary to manipulate pixel values around white characters in order to perform processing for preventing white characters from being crushed. Therefore, it becomes a problem to specify the exact position of the outline character in the image, specifically, the outline of the outline character.

従来からパターンマッチングを用いた方法が開示されている(例えば、特許文献1参照)。これは、画像データに対し、白(低濃度)と黒(高濃度)の画素が所定の順に並ぶパターンを適用してパターンマッチングを行い、1画素分の白の画素が黒の画素により囲まれた、文字つぶれが起こりそうな細線部分を検出する方法である。この方法によれば、検出した黒の画素について画素値を変更することにより、白抜き文字の文字つぶれを防ぐことができる。   Conventionally, a method using pattern matching has been disclosed (for example, see Patent Document 1). This is because pattern matching is performed by applying a pattern in which white (low density) and black (high density) pixels are arranged in a predetermined order to image data, and one white pixel is surrounded by black pixels. In addition, this is a method for detecting a thin line portion where character collapse is likely to occur. According to this method, by changing the pixel value of the detected black pixel, it is possible to prevent the white character from being crushed.

また、出力対象画像に含まれる文字又は線の濃度、太さ、色、サイズ、フォント種類等の属性に関する条件を印刷コマンドから判定し、判定された条件に応じて文字又は線の太さや濃度等の、印刷コマンドの属性情報を変更する方法も開示されている(例えば、特許文献2参照)。
特開2000−138832号公報 特開平11−12954号公報
Also, conditions regarding attributes such as the density, thickness, color, size, font type, etc. of the character or line included in the output target image are determined from the print command, and the thickness or density of the character or line is determined according to the determined condition. A method of changing the attribute information of a print command is also disclosed (see, for example, Patent Document 2).
JP 2000-138832 A Japanese Patent Application Laid-Open No. 11-12754

しかしながら、上記特許文献1に記載の方法では、パターン自体が小さいため小さな文字にしか対応できない。また、1つの文字の全体ではなく、パターンに一致した部分にのみ文字つぶれを防止する処理を施すこととなるが、明朝体等に代表されるように縦と横で文字の線幅が異なるような文字種の場合、パターンを用いて局所的に処理を行うと文字全体の形状のバランスが崩れ、文字の再現性が低下するという問題がある。さらに、この方法によれば文字に対しては効果的に画質劣化を防止することができるが、画像中に文字以外の自然画等が含まれている場合、当該自然画にもパターンが適用され、逆に自然画について画質劣化を招くこととなる。   However, the method described in Patent Document 1 can only handle small characters because the pattern itself is small. In addition, a process for preventing character collapse is applied only to a portion that matches the pattern, not the entire character, but the line width of the character differs vertically and horizontally as represented by Mincho. In the case of such character types, there is a problem that when processing is performed locally using a pattern, the balance of the shape of the entire character is lost and the reproducibility of the character is lowered. Further, according to this method, image quality deterioration can be effectively prevented for characters, but when a natural image other than characters is included in the image, the pattern is also applied to the natural image. On the other hand, the image quality of natural images is degraded.

また、特許文献2に記載の方法では、文字の属性に応じて文字の太さや濃度を変更するが、画像データに対して処理するわけではなく、その前段でフォントの属性情報を変更してしまうものである。そのため、文字の一部について文字つぶれが起こりそうな場合でも、文字全体について変更がされてしまい、ユーザの意図に沿わない結果となることが考えられる。
また、日本語のフォント文字の場合、文字化けを防ぐため、ワープロ用のアプリケーション上でアウトライン化されて画像データに変換されることが多い。このとき、アウトライン化によってフォント属性が失われるため、これらのアウトライン化された文字はこの方法では処理できない場合がある。
In the method described in Patent Document 2, the thickness and density of a character are changed according to the character attribute. However, the processing is not performed on image data, and the font attribute information is changed at the preceding stage. Is. For this reason, even if character collapse is likely to occur for a part of the character, it is considered that the entire character is changed, and the result does not conform to the user's intention.
Also, in the case of Japanese font characters, in order to prevent garbled characters, they are often outlined and converted into image data on a word processor application. At this time, since the font attribute is lost due to the outline conversion, these outline characters may not be processed by this method.

本発明の課題は、文字や線画のオブジェクトの画質劣化を抑制することである。   An object of the present invention is to suppress deterioration in image quality of a character or line drawing object.

請求項1に記載の発明は、画像処理装置において、
印刷用の制御データを元に生成された中間データに基づいて画像データを生成する印刷用画像生成手段と、
前記印刷用の制御データに基づいて、前記印刷用画像生成手段により生成された画像データを構成する画素毎に白色でかつフォント又はベクトルデータの属性を有する白オブジェクト領域の画素であるか否かを判定し、その判定結果を示す白領域データを生成する白領域データ生成手段と、
前記画像データを構成する各画素に対して注目画素を順次設定し、この注目画素に隣接する周辺画素に前記白オブジェクト領域の画素が存在するか否かを前記白領域データに基づいて判定する第1判定手段と、
前記第1判定手段により前記周辺画素に前記白オブジェクト領域の画素が存在すると判定された場合に、前記注目画素の画素値が所定値以上であるか否かを判定する第2判定手段と、
前記第2判定手段により前記注目画素の画素値が所定値以上であると判定された場合に、前記白オブジェクト領域の画素値を元に当該注目画素の補正後の画素値を決定し、当該決定された画素値に基づいて当該注目画素の画素値を補正する補正手段と、
を備えることを特徴とする。
The invention according to claim 1 is an image processing apparatus,
Printing image generation means for generating image data based on intermediate data generated based on printing control data;
Whether or not each pixel constituting the image data generated by the printing image generation unit is white and has a font or vector data attribute based on the printing control data. White area data generation means for determining and generating white area data indicating the determination result;
A target pixel is sequentially set for each pixel constituting the image data, and it is determined based on the white region data whether or not a pixel of the white object region exists in a peripheral pixel adjacent to the target pixel. 1 determination means;
Second determination means for determining whether or not a pixel value of the target pixel is a predetermined value or more when it is determined by the first determination means that a pixel of the white object region exists in the peripheral pixels;
When the second determination means determines that the pixel value of the target pixel is greater than or equal to a predetermined value, the corrected pixel value of the target pixel is determined based on the pixel value of the white object region, and the determination Correction means for correcting the pixel value of the pixel of interest based on the pixel value that has been
It is characterized by providing.

請求項に記載の発明は、請求項1に記載の画像処理装置において、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段と、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正の程度を制御する補正制御手段と、
を備えることを特徴とする。
The invention according to claim 2 is the image processing apparatus according to claim 1 ,
Fine line structure detecting means for detecting pixels constituting the fine line structure among the pixels adjacent to the white object region;
A correction control means for controlling the degree of correction of the pixel by the correction means when a pixel constituting the fine line structure is detected by the fine line structure detection means;
It is characterized by providing.

請求項に記載の発明は、請求項1に記載の画像処理装置において、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段と、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正を無効とする補正制御手段と、
を備えることを特徴とする。
The invention according to claim 3 is the image processing apparatus according to claim 1 ,
Fine line structure detecting means for detecting pixels constituting the fine line structure among the pixels adjacent to the white object region;
A correction control unit that invalidates correction of the pixel by the correction unit when a pixel constituting the thin line structure is detected by the thin line structure detection unit;
It is characterized by providing.

請求項に記載の発明は、画像処理方法において、
印刷用の制御データを元に生成された中間データに基づいて画像データを生成する印刷用画像生成工程と、
前記印刷用の制御データに基づいて、前記印刷用画像生成工程により生成された画像データを構成する画素毎に白色でかつフォント又はベクトルデータの属性を有する白オブジェクト領域の画素であるか否かを判定し、その判定結果を示す白領域データを生成する白領域データ生成工程と、
前記画像データを構成する各画素に対して注目画素を順次設定し、この注目画素に隣接する周辺画素に前記白オブジェクト領域の画素が存在するか否かを前記白領域データに基づいて判定する第1判定工程と、
前記第1判定工程により前記周辺画素に前記白オブジェクト領域の画素が存在すると判定された場合に、前記注目画素の画素値が所定値以上であるか否かを判定する第2判定工程と、
前記第2判定工程により前記注目画素の画素値が所定値以上であると判定された場合に、前記白オブジェクト領域の画素値を元に当該注目画素の補正後の画素値を決定し、当該決定された画素値に基づいて当該注目画素の画素値を補正する補正工程と、
を含むことを特徴とする。
The invention according to claim 4 is an image processing method,
A printing image generation step for generating image data based on the intermediate data generated based on the printing control data;
Whether or not each pixel constituting the image data generated by the printing image generation step is white and has a font or vector data attribute based on the printing control data. A white area data generation step of determining and generating white area data indicating the determination result;
A target pixel is sequentially set for each pixel constituting the image data, and it is determined based on the white region data whether or not a pixel of the white object region exists in a peripheral pixel adjacent to the target pixel. 1 determination process;
A second determination step of determining whether a pixel value of the target pixel is equal to or greater than a predetermined value when it is determined in the first determination step that a pixel of the white object region exists in the peripheral pixels;
When it is determined in the second determination step that the pixel value of the target pixel is greater than or equal to a predetermined value, a corrected pixel value of the target pixel is determined based on the pixel value of the white object region, and the determination A correction step of correcting the pixel value of the target pixel based on the pixel value that has been performed ;
It is characterized by including.

請求項に記載の発明は、請求項に記載の画像処理方法において、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出工程と、
前記細線構造検出工程において前記細線構造を構成する画素が検出された場合、前記補正工程における当該画素に対する補正の程度を制御する補正制御工程と、
をさらに含むことを特徴とする。
The invention according to claim 5 is the image processing method according to claim 4 ,
A fine line structure detection step of detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
A correction control step for controlling the degree of correction of the pixel in the correction step when a pixel constituting the thin line structure is detected in the fine line structure detection step;
Is further included.

請求項に記載の発明は、請求項5又は6に記載の画像処理方法において、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出工程と、
前記細線構造検出工程において前記細線構造を構成する画素が検出された場合、前記補
正工程における当該画素に対する補正を無効とする補正制御工程と、
をさらに含むことを特徴とする。
The invention according to claim 6, in the image processing method according to claim 5 or 6,
A fine line structure detection step of detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
When a pixel constituting the thin line structure is detected in the fine line structure detection step, a correction control step for invalidating the correction for the pixel in the correction step;
Is further included.

請求項に記載の発明は、
コンピュータを、
印刷用の制御データを元に生成された中間データに基づいて画像データを生成する印刷用画像生成手段、
前記印刷用の制御データに基づいて、前記印刷用画像生成手段により生成された画像データを構成する画素毎に白色でかつフォント又はベクトルデータの属性を有する白オブジェクト領域の画素であるか否かを判定し、その判定結果を示す白領域データを生成する白領域データ生成手段、
前記画像データを構成する各画素に対して注目画素を順次設定し、この注目画素に隣接する周辺画素に前記白オブジェクト領域の画素が存在するか否かを前記白領域データに基づいて判定する第1判定手段、
前記第1判定手段により前記周辺画素に前記白オブジェクト領域の画素が存在すると判定された場合に、前記注目画素の画素値が所定値以上であるか否かを判定する第2判定手段、
前記第2判定手段により前記注目画素の画素値が所定値以上であると判定された場合に、前記白オブジェクト領域の画素値を元に当該注目画素の補正後の画素値を決定し、当該決定された画素値に基づいて当該注目画素の画素値を補正する補正手段、
として機能させるためのプログラムであることを特徴とする。
The invention described in claim 7
Computer
Printing image generation means for generating image data based on intermediate data generated based on printing control data;
Whether or not each pixel constituting the image data generated by the printing image generation unit is white and has a font or vector data attribute based on the printing control data. White area data generating means for determining and generating white area data indicating the determination result;
A target pixel is sequentially set for each pixel constituting the image data, and it is determined based on the white region data whether or not a pixel of the white object region exists in a peripheral pixel adjacent to the target pixel. 1 determination means,
Second determination means for determining whether a pixel value of the target pixel is equal to or greater than a predetermined value when the first determination means determines that the pixel of the white object region exists in the peripheral pixels;
When the second determination means determines that the pixel value of the target pixel is greater than or equal to a predetermined value, the corrected pixel value of the target pixel is determined based on the pixel value of the white object region, and the determination Correcting means for correcting the pixel value of the target pixel based on the pixel value that has been
It is a program for making it function as.

請求項に記載の発明は、請求項に記載のプログラムにおいて、
コンピュータをさらに、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正の程度を制御する補正制御手段、
として機能させるためのプログラムであることを特徴とする。
The invention according to claim 8 is the program according to claim 7 ,
Computer
Fine line structure detecting means for detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
A correction control means for controlling the degree of correction of the pixel by the correction means when a pixel constituting the fine line structure is detected by the fine line structure detection means;
It is a program for making it function as.

請求項に記載の発明は、請求項に記載のプログラムにおいて、
コンピュータをさらに、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正を無効とする補正制御手段、
として機能させるためのプログラムであることを特徴とする。
The invention according to claim 9 is the program according to claim 7 ,
Computer
Fine line structure detecting means for detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
A correction control unit that invalidates correction of the pixel by the correction unit when a pixel constituting the thin line structure is detected by the thin line structure detection unit;
It is a program for making it function as.

請求項1、に記載の発明によれば、白オブジェクトに隣接する画素の画素値を低減する補正を行うことができる。白オブジェクトに隣接する画素の画素値を下げることによりドットゲインが生じることを防ぐことができ、白オブジェクトにおける画質劣化を抑制することができる。また、制御データに基づいて白オブジェクト領域を判定するので、オブジェクト単位で白オブジェクト領域を判定することが可能となる。さらに、属性に応じて補正を行うので、補正が不要な属性の白オブジェクト領域を補正の対象から除外することができ、補正による画質劣化を回避することができる。 According to the inventions described in claims 1, 4 , and 7 , it is possible to perform correction for reducing the pixel value of the pixel adjacent to the white object. By reducing the pixel value of the pixel adjacent to the white object, it is possible to prevent dot gain from occurring, and it is possible to suppress deterioration in image quality in the white object. Further, since the white object area is determined based on the control data, it is possible to determine the white object area in units of objects. Furthermore, since the correction is performed according to the attribute, the white object area having the attribute that does not need to be corrected can be excluded from the correction target, and the image quality deterioration due to the correction can be avoided.

また、オブジェクト単位で白オブジェクト領域に隣接する画素を検出し、補正を行うことができる。パターン等を用いて白オブジェクト領域に隣接する画素を検出する場合、局所的な画素の検出となって適切に画素を特定できない場合がある。これに対し、オブジェクトという補正が必要なものの全体を判定することにより、現実に補正を施すべき画素を正確に検出することが可能となる。その結果、オブジェクト全体を考慮した補正を行うことができる。 In addition , it is possible to detect and correct pixels adjacent to the white object area in units of objects. When detecting the pixels adjacent to the white object region by using a pattern or the like, it may not be identified properly picture element becomes the detection of local picture elements. In contrast, by determining the total necessary correction of the object, it is possible to accurately detect the base can picture element subjected to correction in reality. As a result, it is possible to perform correction in consideration of the entire object.

また、所定値以上の画素値を有し、ドットゲインが生じる可能性の高い画素のみ補正の対象とすることができる。 Also, a predetermined value or more pixel values, may be the subject of the correction only high Ige containing possibility dot gain occurs.

また、白オブジェクト領域の画素値との関係を考慮して注目画素の補正値を決定することができる。例えば、白オブジェクト領域の画素値が大きければ注目画素の補正量が小さくなるように、逆に白オブジェクト領域の画素値が小さければ注目画素の補正量が大きくなるように補正値を決定することにより、もともとの白オブジェクトとその周辺のコントラストを再現することが可能となる。 In addition , the correction value of the target pixel can be determined in consideration of the relationship with the pixel value of the white object region. For example, the correction value is determined so that the correction amount of the target pixel decreases when the pixel value of the white object region is large, and conversely, the correction amount of the target pixel increases when the pixel value of the white object region is small. It is possible to reproduce the original white object and the surrounding contrast.

請求項に記載の発明によれば、細線構造を構成する画素については補正の程度を小さくする制御を行うことができる。すなわち、細線構造を構成する画素の画素値が大きく低減されることにより、白オブジェクト領域とその周辺とのコントラストが低下することを防いで、その細線構造の再現性が失われることを回避することができる。 According to the inventions described in claims 2 , 5 , and 8 , it is possible to perform control to reduce the degree of correction for the pixels constituting the thin line structure. That is, the pixel value of the pixels constituting the fine line structure is greatly reduced, thereby preventing the contrast between the white object region and its surroundings from being lowered and avoiding the loss of reproducibility of the fine line structure. Can do.

請求項に記載の発明によれば、細線構造を構成する画素については補正の対象外とすることができる。すなわち、細線構造を構成する画素の画素値が低減されることにより、白オブジェクト領域とその周辺とのコントラストが低下することを防いで、その細線構造の再現性が失われることを回避することができる。 According to the inventions described in claims 3 , 6 , and 9 , pixels constituting the thin line structure can be excluded from correction. That is, by reducing the pixel value of the pixels constituting the fine line structure, it is possible to prevent the contrast between the white object region and its surroundings from being lowered and to avoid the loss of reproducibility of the fine line structure. it can.

まず、構成を説明する。
図1は、印刷システムを示す図である。
図1に示す印刷システム100は、PC(Personal Computer)10により作成された出力対象データをMFP(Multi Function Printer)20により印刷出力するものである。
First, the configuration will be described.
FIG. 1 is a diagram illustrating a printing system.
A printing system 100 shown in FIG. 1 prints out output target data created by a PC (Personal Computer) 10 by an MFP (Multi Function Printer) 20.

PC10は、ワープロや描画、写真画の編集等に係るアプリケーションソフトウェアを備え、テキストデータや画像データ等の様々なデータの作成が可能である。
また、PC10はプリンタドライバソフトウェアを備え、このソフトウェアによる処理により、上記アプリケーションで作成された出力対象データを、印刷用の制御データであるPDL(Page Description Language)形式のデータ(以下、PDLデータという)に変換してMFP20に送信する。
The PC 10 includes application software related to a word processor, drawing, photo editing, and the like, and can create various data such as text data and image data.
Further, the PC 10 includes printer driver software, and the output target data created by the application is converted into PDL (Page Description Language) format data (hereinafter referred to as PDL data) that is control data for printing. And is transmitted to the MFP 20.

MFP20は、本発明に係る画像処理装置1、プリンタ13等を備え、PC10から入力されたPDLデータに基づき、画像処理装置1において画素毎の画像データを生成し、当該画像データに基づいてプリンタ13により印刷出力を行うものである。   The MFP 20 includes the image processing apparatus 1, the printer 13, and the like according to the present invention. The image processing apparatus 1 generates image data for each pixel based on the PDL data input from the PC 10, and the printer 13 based on the image data. Is used for printing out.

図2に、画像処理装置1の内部構成を示す。
画像処理装置1は、図2に示すように、コントローラ2、ラインバッファ3、モノクロ変換部4、白オブジェクト判定部5、注目画素判定部6、細線構造検出部7、補正制御部8、白オブジェクト補正部9、γ補正部11、ディザ処理部12等から構成されている。
FIG. 2 shows an internal configuration of the image processing apparatus 1.
As shown in FIG. 2, the image processing apparatus 1 includes a controller 2, a line buffer 3, a monochrome conversion unit 4, a white object determination unit 5, a target pixel determination unit 6, a fine line structure detection unit 7, a correction control unit 8, a white object It comprises a correction unit 9, a γ correction unit 11, a dither processing unit 12, and the like.

コントローラ2は、I/F21、CPU(Central Processing Unit)22、RAM(Random Access Memory)23、ROM(Read Only Memory)24、レンダラー25、ページメモリ26等から構成されている。   The controller 2 includes an I / F 21, a CPU (Central Processing Unit) 22, a RAM (Random Access Memory) 23, a ROM (Read Only Memory) 24, a renderer 25, a page memory 26, and the like.

I/F21は、図示しないMFP20内のホストコンピュータと画像処理装置1とのデータ転送を制御するインターフェイスである。   The I / F 21 is an interface that controls data transfer between a host computer (not shown) in the MFP 20 and the image processing apparatus 1.

CPU22は、ROM24から各種制御プログラムを読み出してRAM23に展開し、当該プログラムに従って各種演算を行う、或いは各部21、23〜26の動作を集中制御する。   The CPU 22 reads out various control programs from the ROM 24 and develops them in the RAM 23, performs various calculations according to the programs, or centrally controls the operations of the units 21, 23-26.

CPU22は、I/F21を介してホストコンピュータからPDLデータが入力されるとこれをRAM23に記憶させる。そして、当該PDLデータに含まれるPDLコマンドを解析し、描画すべき画像単位(これをオブジェクトという)毎に分類してディスプレイリストを作成する。ディスプレイリストは描画すべきオブジェクトの位置座標、領域データ若しくは色データのアドレス情報等が記述された中間データである。   When the PDL data is input from the host computer via the I / F 21, the CPU 22 stores the data in the RAM 23. Then, a PDL command included in the PDL data is analyzed, and a display list is created by classifying each image unit to be drawn (this is called an object). The display list is intermediate data in which position coordinates of an object to be drawn, address information of area data or color data, and the like are described.

図3に、一のオブジェクトについて作成されたディスプレイリスト例を示す。
図3に示すように、ディスプレイリストには、描画座標、描画サイズ、描画論理、領域データの先頭アドレス、色データの先頭アドレス等が記述されている。描画座標とは1ページの印刷範囲内におけるオブジェクトの印刷位置を示す座標値である。描画サイズはオブジェクトの縦横の大きさを示す数値である。また、描画論理は、描画の際の背景との演算(塗りつぶしやクリッピング)を行うためのパラメータである。領域データの先頭アドレスは領域データが格納されているメモリアドレスを示す数値であり、同様に色データの先頭アドレスは色データが格納されているメモリアドレスを示す数値である。領域データはオブジェクトの属性(フォント、ビットマップ、グラフィック)を示すデータであり、色データはオブジェクトの色を示すデータである。ここではプリンタ13で用いられる色材C(シアン)、M(マジェンタ)、Y(イエロー)、K(黒)を示す色データが格納されているものとする。
FIG. 3 shows an example of a display list created for one object.
As shown in FIG. 3, the display list describes drawing coordinates, drawing size, drawing logic, start address of area data, start address of color data, and the like. The drawing coordinates are coordinate values indicating the printing position of the object within the printing range of one page. The drawing size is a numerical value indicating the vertical and horizontal sizes of the object. The drawing logic is a parameter for performing calculation (painting or clipping) with the background at the time of drawing. The start address of the area data is a numerical value indicating the memory address where the area data is stored. Similarly, the start address of the color data is a numerical value indicating the memory address where the color data is stored. The area data is data indicating the attributes (font, bitmap, graphic) of the object, and the color data is data indicating the color of the object. Here, it is assumed that color data indicating the color materials C (cyan), M (magenta), Y (yellow), and K (black) used in the printer 13 is stored.

CPU22は、このようなデータ構造を持つディスプレイリストを1ページ分の全てのオブジェクトについて作成し、それらを連結してRAM23に記憶させる。   The CPU 22 creates a display list having such a data structure for all objects for one page, concatenates them, and stores them in the RAM 23.

RAM23は、CPU22により使用されるワークメモリである。
RAM23は、CPU22によって書き込まれたPDLデータや、ディスプレイリスト等を一時的に記憶する。
The RAM 23 is a work memory used by the CPU 22.
The RAM 23 temporarily stores PDL data written by the CPU 22, a display list, and the like.

ROM24は、CPU22によって実行される各種制御プログラムの他、プログラムの実行に必要なパラメータ、データ等を記憶している。   The ROM 24 stores various control programs executed by the CPU 22 as well as parameters and data necessary for executing the programs.

レンダラー25は、DMA(Direct Memory Access)機能によってRAM23からディスプレイリストを読み出し、これに基づいて各色C、M、Y、Kの画素毎の画像データの他、属性データ、白領域データを生成し、ページメモリ26に記憶させる。   The renderer 25 reads a display list from the RAM 23 by a DMA (Direct Memory Access) function, and generates attribute data and white area data in addition to image data for each pixel of each color C, M, Y, and K based on the display list. It is stored in the page memory 26.

以下、具体的に説明する。
レンダラー25は、オブジェクト毎等の所定単位毎にRAM23からディスプレイリストを読み出し、このディスプレイリストに基づいてC、M、Y、Kそれぞれの色の画像画像データを生成し、ページメモリ26に準備された画像データ用の記憶領域に書き込む。画像データは、描画するオブジェクトについて画素を割り当て、この割り当てた画素毎に画素値を設定することにより生成する。画素の位置はディスプレイリストの描画座標と描画サイズ、領域データによって決定し、画素値は色データと描画論理を用いて決定する。
This will be specifically described below.
The renderer 25 reads the display list from the RAM 23 for each predetermined unit such as an object, generates image image data of each color of C, M, Y, and K based on the display list, and is prepared in the page memory 26. Write to the image data storage area. The image data is generated by assigning pixels to the object to be drawn and setting a pixel value for each assigned pixel. The pixel position is determined by the display list drawing coordinates, drawing size, and area data, and the pixel value is determined using color data and drawing logic.

同時に、レンダラー25はディスプレイリスト中の領域データにより示されたそのオブジェクトの属性を元に属性データTAGを画素単位で生成し、ページメモリ26に準備された属性データ用の記憶領域に記憶させる。属性データTAGはそのオブジェクトの属性が、フォント、ベクトルデータ、ビットマップの何れであるかによって、文字であることを示すTEXT(TAG=0)、線画であることを示すGRAPHICS(TAG=1)、写真画であることを示すIMAGE(TAG=2)にそれぞれ設定される。   At the same time, the renderer 25 generates attribute data TAG in units of pixels based on the attribute of the object indicated by the area data in the display list, and stores it in the attribute data storage area prepared in the page memory 26. Attribute data TAG is TEXT (TAG = 0) indicating that it is a character, GRAPHICS (TAG = 1) indicating that it is a character, depending on whether the attribute of the object is font, vector data, or bitmap, Each is set to IMAGE (TAG = 2) indicating that it is a photographic image.

また、レンダラー25は色データからオブジェクトの色が白色(Y=M=C=K=0)であり、領域データからオブジェクトの属性がフォント又はベクトルデータであるか否かを判定し、その判定結果を示す白領域データを生成する。以下、白色で、かつフォント又はベクトルデータの属性を有するオブジェクトを白オブジェクトといい、この白オブジェクトに属する画素の領域を白オブジェクト領域という。白領域データは画素毎に白オブジェクト領域の画素であるであるか否かを示すデータOLBが設定されたものであり、レンダラー25は、白オブジェクト領域であればOLB=1、そうでなければOLB=0に設定してページメモリ26に書き込む。
なお、上記レンダラー25による処理は、ソフトウェア処理により実現することとしてもよい。
The renderer 25 determines whether the color of the object is white (Y = M = C = K = 0) from the color data, and whether the attribute of the object is font or vector data from the area data. The white area data indicating is generated. Hereinafter, an object that is white and has an attribute of font or vector data is referred to as a white object, and an area of pixels belonging to the white object is referred to as a white object area. In the white area data, data OLB indicating whether or not each pixel is a pixel of the white object area is set, and the renderer 25 has OLB = 1 if it is a white object area, and OLB otherwise. Set to = 0 and write to the page memory 26.
Note that the processing by the renderer 25 may be realized by software processing.

ページメモリ26は、C、M、Y、Kの画像データ、属性データTAG、白領域データOLBをそれぞれ記憶するための記憶領域を有しており、これら記憶領域にレンダラー25によって生成された画像データ、属性データTAG、白領域データOLBをそれぞれ保持する。ページメモリ26は、CPU22の制御に従ってこれらデータをラインバッファ3に出力する。   The page memory 26 has storage areas for storing C, M, Y, and K image data, attribute data TAG, and white area data OLB, respectively, and image data generated by the renderer 25 in these storage areas. , Attribute data TAG, and white area data OLB are held. The page memory 26 outputs these data to the line buffer 3 under the control of the CPU 22.

ラインバッファ3は、画像データ、属性データTAG及び白領域データOLBを数ライン分保持する。
以下の処理では、画像データに対し注目画素を設定して画像データ上を走査し、画像処理を施す。注目画素について画像処理を行うにあたってはその周辺画素を参照する。ここでは、図4に示すように注目画素をXS0、その周辺画素をXS1〜XS8とする。
ラインバッファ3は、この注目画素XS0、周辺画素XS1〜XS8の画素値Sn(n=0〜8。以下、同じ)をモノクロ変換部4、白オブジェクト判定部5、補正制御部8に出力する。また、白オブジェクト判定部5に注目画素及び周辺画素XSnの白領域データOLBを出力する。
The line buffer 3 holds image data, attribute data TAG, and white area data OLB for several lines.
In the following processing, a pixel of interest is set for image data, the image data is scanned, and image processing is performed. When image processing is performed on the pixel of interest, its peripheral pixels are referred to. Here, as shown in FIG. 4, the pixel of interest is XS0, and its peripheral pixels are XS1 to XS8.
The line buffer 3 outputs the pixel values Sn (n = 0 to 8; the same applies hereinafter) of the target pixel XS0 and the peripheral pixels XS1 to XS8 to the monochrome conversion unit 4, the white object determination unit 5, and the correction control unit 8. Further, the white area data OLB of the target pixel and the peripheral pixel XSn is output to the white object determination unit 5.

モノクロ変換部4は、C、M、Y、K毎のカラー画像データをモノクロ画像データに変換する。これは、後段の処理でカラー情報を必要としないため、モノクロ値を用いて処理の効率化を図るものである。モノクロ変換の方法としては、下記式(1)のように各画素XSnについて色毎の画素値Sn[ch](ch=C、M、Y、Kであり、各色を示す)の平均をモノクロ変換値として得ることとしてもよいし、重み付け平均をとることとしてもよい。また、色毎の画素値Sn[ch]のうち、最大値をとることとしてもよい。
Sn=(Sn[c]+Sn[m]+Sn[y]+Sn[k]/4) ・・・(1)
The monochrome conversion unit 4 converts color image data for each of C, M, Y, and K into monochrome image data. In this case, since color information is not required in the subsequent processing, the processing efficiency is improved by using monochrome values. As a method of monochrome conversion, the average of the pixel values Sn [ch] (ch = C, M, Y, K, indicating each color) for each color for each pixel XSn is converted into monochrome as shown in the following formula (1). It may be obtained as a value or may be a weighted average. Moreover, it is good also as taking the maximum value among the pixel values Sn [ch] for every color.
Sn = (Sn [c] + Sn [m] + Sn [y] + Sn [k] / 4) (1)

モノクロ変換の結果、注目画素XS0について得られた画素値S0が注目画素判定部6へ、注目画素XS0、周辺画素XS1〜XS8の各画素値S0〜S8が細線構造検出部7へ出力される。   As a result of the monochrome conversion, the pixel value S0 obtained for the target pixel XS0 is output to the target pixel determination unit 6, and the pixel values S0 to S8 of the target pixel XS0 and peripheral pixels XS1 to XS8 are output to the thin line structure detection unit 7.

白オブジェクト判定部5は、白領域データOLBに基づいて注目画素XS0の周辺に白オブジェクト領域の輪郭(以下、白輪郭といい、この白輪郭に属する画素を白輪郭画素という)が存在するか否かを判定し、その判定結果を示す判定データPWを生成する。白オブジェクト判定部5は、注目画素XS0、周辺画素XS1〜XS8の白領域データOLBを参照し、注目画素XS0のOLBがOLB=0であって、かつ注目画素XS0の周辺にOLB=1である画素が1つ以上ある場合に、注目画素XS0に隣接して白輪郭が存在すると判定する。   Based on the white area data OLB, the white object determination unit 5 determines whether or not the outline of the white object area (hereinafter referred to as a white outline, and pixels belonging to the white outline are referred to as white outline pixels) around the target pixel XS0. And determination data PW indicating the determination result is generated. The white object determination unit 5 refers to the white area data OLB of the target pixel XS0 and the peripheral pixels XS1 to XS8, the OLB of the target pixel XS0 is OLB = 0, and OLB = 1 around the target pixel XS0. When there are one or more pixels, it is determined that a white outline exists adjacent to the target pixel XS0.

周辺に白輪郭が存在すると判定された場合、白オブジェクト判定部5は注目画素XS0についての判定データPWをPW=1に設定し、白輪郭が存在しないと判定された場合はPW=0に設定する。この判定データPWは補正制御部8に出力される。   If it is determined that there is a white outline in the vicinity, the white object determination unit 5 sets the determination data PW for the target pixel XS0 to PW = 1, and if it is determined that no white outline exists, sets PW = 0. To do. This determination data PW is output to the correction control unit 8.

また、白オブジェクト判定部5は、周辺画素XS1〜XS8のうち、OLB=1に設定されている画素の色毎の画素値Sn[ch]を参照し、これをWH[ch]とする。このWH[ch]は後段の白オブジェクト補正処理において補正パラメータとして用いられるものである。OLB=1の画素が複数ある場合にはそれらの平均値若しくはそれらのうちの最大値又は最小値をWH[ch]とする。周辺画素XS1〜XS8においてOLB=1である画素が存在しない場合はWH[ch]=0とする。本実施形態では、白色(C=M=Y=K=0)となる白オブジェクトについてOLB=1と設定しているので、WH[ch]=0となる。このWH[ch]は白オブジェクト補正部9に出力される。   Also, the white object determination unit 5 refers to the pixel value Sn [ch] for each color of the pixels set to OLB = 1 among the peripheral pixels XS1 to XS8, and sets this as WH [ch]. This WH [ch] is used as a correction parameter in the subsequent white object correction processing. When there are a plurality of pixels with OLB = 1, the average value thereof or the maximum value or the minimum value thereof is set as WH [ch]. When there is no pixel with OLB = 1 in the peripheral pixels XS1 to XS8, WH [ch] = 0 is set. In this embodiment, since OLB = 1 is set for a white object that is white (C = M = Y = K = 0), WH [ch] = 0. This WH [ch] is output to the white object correction unit 9.

注目画素判定部6は、注目画素XS0の画素値S0が白オブジェクト補正処理を施す必要がある程度に大きいか否かを判定し、その判定結果を示す判定データPCを出力する。注目画素XS0の画素値S0が小さければ、印刷時の濃度は低濃度となりドットゲインは生じないため、白オブジェクト補正処理は行う必要がない。すなわち、注目画素判定部6では注目画素XS0の画素値がドットゲインが生じるほど充分に高濃度となるか否かを判定するものである。   The target pixel determination unit 6 determines whether the pixel value S0 of the target pixel XS0 is large enough to perform the white object correction process, and outputs determination data PC indicating the determination result. If the pixel value S0 of the target pixel XS0 is small, the density at the time of printing is low and dot gain does not occur, so there is no need to perform white object correction processing. That is, the target pixel determination unit 6 determines whether or not the pixel value of the target pixel XS0 is sufficiently high in density so that dot gain occurs.

注目画素判定部6は、注目画素XS0の画素値S0と閾値GAPとを比較し、S0>GAPであれば当該注目画素XS0について白オブジェクト補正処理を施す必要があるほど画素値が大きいと判断してPC=1に設定する。S0≦GAPであれば白オブジェクト補正処理は不必要としてPC=0に設定する。閾値GAPは白オブジェクト補正処理が必要な最下限の画素値がプリンタ13の出力特性に基づいて予め求められて設定されているものである。判定データPCは補正制御部8に出力される。   The pixel-of-interest determination unit 6 compares the pixel value S0 of the pixel of interest XS0 with the threshold value GAP, and if S0> GAP, determines that the pixel value is large enough to perform white object correction processing on the pixel of interest XS0. To set PC = 1. If S0 ≦ GAP, white object correction processing is unnecessary and PC = 0 is set. The threshold GAP is obtained by setting in advance the lowest pixel value that requires white object correction processing based on the output characteristics of the printer 13. The determination data PC is output to the correction control unit 8.

細線構造検出部7は、細線構造検出用のテンプレートを用いて注目画素XS0が細線構造を構成するか否かを判定し、その判定結果を示す判定データTLを生成する。細線構造とは、1画素又は略同一の画素値を有する数画素からなる、微細構造部分をいう。
後段の白オブジェクト補正部9では、白オブジェクトに隣接する周辺画素の画素値を低下させることによって白オブジェクトのつぶれを防止する。ところが、これを一律に適用すると細線構造が再現されない場合も考えられる。
The fine line structure detection unit 7 determines whether or not the pixel of interest XS0 configures a fine line structure using a template for thin line structure detection, and generates determination data TL indicating the determination result. The fine line structure means a fine structure portion composed of one pixel or several pixels having substantially the same pixel value.
The white object correcting unit 9 at the subsequent stage prevents the white object from being crushed by reducing the pixel values of the peripheral pixels adjacent to the white object. However, if this is applied uniformly, the fine line structure may not be reproduced.

例えば、図5(a)に示すような白オブジェクトを描画する場合、白オブジェクト補正処理の対象は図5(b)に示すようにその周辺画素となる。しかし、この白オブジェクトは周辺画素と細線構造(図5(b)中、丸で囲んだ部分)を構成しており、この細線構造を構成する周辺画素に対しても白オブジェクト補正処理が施されると、白オブジェクトとその周辺画素のコントラストが低下し、細線構造の再現性が失われる。   For example, when a white object as shown in FIG. 5A is drawn, the target of the white object correction process is its surrounding pixels as shown in FIG. However, this white object forms a fine line structure with peripheral pixels (the circled portion in FIG. 5B), and white object correction processing is also applied to the peripheral pixels constituting this fine line structure. Then, the contrast between the white object and the surrounding pixels is lowered, and the reproducibility of the thin line structure is lost.

細線構造が失われないようにするためには、細線構造を構成する周辺画素については白オブジェクト補正処理の対象外とするか、或いは白オブジェクト補正処理を施すが、その補正の程度を小さくする必要がある。そこで、白オブジェクト補正処理に先立ち、細線構造検出部7において白オブジェクトにおける細線構造を検出するものである。   In order not to lose the fine line structure, the peripheral pixels constituting the fine line structure are excluded from the target of the white object correction process, or the white object correction process is performed, but the degree of the correction needs to be reduced. There is. Therefore, prior to the white object correction process, the fine line structure detection unit 7 detects the fine line structure in the white object.

以下、細線構造の検出方法について説明する。
細線構造検出部7は、まず2つの閾値VH,VL(VL<VH)を用いて注目画素及び周辺画素XSnを3つのカテゴリS、W、DCに分類する。分類は、注目画素及び周辺画素XSn のモノクロ変換後の画素値Snと閾値VH、VLを比較し、VH≦SnであればカテゴリS、Sn≦VLであればカテゴリW、VL<Sn<VHであればカテゴリDCと分類する。
Hereinafter, a method for detecting a thin line structure will be described.
The thin line structure detection unit 7 first classifies the target pixel and the peripheral pixel XSn into three categories S, W, and DC using two threshold values VH and VL (VL <VH). The classification is performed by comparing the pixel value Sn after the monochrome conversion of the target pixel and the surrounding pixel XSn with the threshold values VH and VL. If VH ≦ Sn, the category S, if Sn ≦ VL, the category W, and VL <Sn <VH. If there is, classify it as category DC.

閾値VH,VLはカテゴリの分類用に予め準備された閾値である。白オブジェクトを構成する低画素値の画素はカテゴリWに分類されるようにVLを設定する。また、白オブジェクト補正処理を施すべき、白輪郭画素に隣接する高濃度の周辺画素はカテゴリSに分類されるようVHの値を設定する。   The threshold values VH and VL are threshold values prepared in advance for category classification. The VL is set so that the low pixel value pixels constituting the white object are classified into the category W. In addition, the value of VH is set so that high-density peripheral pixels adjacent to the white outline pixel to be subjected to white object correction processing are classified into category S.

図6に、細線構造検出に用いられるテンプレート例を示す。
図6に示すテンプレートは高濃度の画素から構成される1画素幅の細線構造を検出するように設計されたものであり、図6に示すように中心に位置する注目画素XS0とその周辺画素XS1〜XS8とのカテゴリの関係が予め定められている。細線構造検出部7はこのようなテンプレートを、注目画素XS0とテンプレートの中心の位置(図6に示す位置番号4の位置)が一致するように注目画素及び周辺画素XS0〜XS8にマッチングさせる。
FIG. 6 shows an example of a template used for thin line structure detection.
The template shown in FIG. 6 is designed to detect a one-pixel-wide thin line structure composed of high-density pixels. As shown in FIG. 6, the target pixel XS0 located in the center and its peripheral pixels XS1 ~ Category relationship with XS8 is predetermined. The thin line structure detection unit 7 matches such a template with the target pixel and the peripheral pixels XS0 to XS8 so that the target pixel XS0 and the center position of the template (position of position number 4 shown in FIG. 6) match.

図5(c)は、図5(a)に示す白オブジェクトを含む画像にテンプレートをマッチングさせた様子を示す図である。この白オブジェクトを構成する画素は低画素値であるため、カテゴリはWに分類されるはずである。また、白オブジェクトの周辺画素は高濃度であるためカテゴリSに分類されるはずである。よって、テンプレートに定められているようにカテゴリSの注目画素XS0に対し、カテゴリWの周辺画素が所定の位置関係となる場合には、その注目画素及び周辺画素XS0〜XS8は細線構造を構成しているはずである。なお、テンプレートにおいてカテゴリDLは、カテゴリDLが設定された位置に対応する画素は何れのカテゴリであってもよいことを示す。   FIG. 5C is a diagram illustrating a state in which a template is matched with an image including the white object illustrated in FIG. Since the pixels constituting the white object have low pixel values, the category should be classified as W. Further, since the peripheral pixels of the white object have a high density, they should be classified into category S. Therefore, when the surrounding pixels of category W have a predetermined positional relationship with respect to the target pixel XS0 of category S as defined in the template, the target pixel and the peripheral pixels XS0 to XS8 form a thin line structure. Should be. Note that the category DL in the template indicates that the pixel corresponding to the position where the category DL is set may be any category.

よって、細線構造検出部7は、テンプレートとのマッチングの結果、何れか1つでも一致した場合にはその注目画素XS0についてTL=1と設定し、何れのテンプレートとも一致しない場合にはTL=0と設定して補正制御部8に出力する。   Therefore, the thin line structure detection unit 7 sets TL = 1 for the target pixel XS0 when any one matches as a result of matching with the template, and TL = 0 when none matches the template. And output to the correction control unit 8.

補正制御部8は、各判定データPW、PC、TLに基づき、注目画素XS0について白オブジェクト補正処理を施すか否かを判定し、その補正処理を制御するパラメータαを決定する。パラメータαは、白オブジェクト補正処理を施さず、無効とする場合にはα=0に設定され、白オブジェクト補正処理を施す場合にはその補正の程度を示す2つの値v1、v2(0<v2<v1)に設定される。   The correction control unit 8 determines whether or not to perform the white object correction process on the target pixel XS0 based on the determination data PW, PC, and TL, and determines the parameter α that controls the correction process. The parameter α is set to α = 0 when the white object correction process is not performed and invalid, and when the white object correction process is performed, two values v1 and v2 (0 <v2) indicating the degree of the correction are set. <V1) is set.

補正制御部8は、判定データPW又はPCを参照し、その何れかが0である、すなわち、注目画素XS0の周辺に白オブジェクト領域が存在しないか、或いは注目画素XS0の画素値S0が所定値GAP以上ではない場合には、白オブジェクト補正処理を施さないと判断し、当該処理を無効とするため、α=0に設定する。   The correction control unit 8 refers to the determination data PW or PC, and one of them is 0, that is, there is no white object area around the target pixel XS0, or the pixel value S0 of the target pixel XS0 is a predetermined value. If it is not GAP or more, it is determined that the white object correction process is not performed, and α = 0 is set to invalidate the process.

一方、判定データPW、PCの何れも1である場合、補正制御部8は注目画素XS0の周辺に白オブジェクト領域が存在し、かつ注目画素XS0の画素値S0が所定値GAP以上であると判断し、白オブジェクト補正処理を施すと判定する。この場合、さらにTLを参照し、TL=0である場合、通常の補正パラメータ値であるα=v1に設定する。逆に、TL=1である場合、注目画素XS0は細線構造を構成しているため、補正の程度が通常より小さくなるようα=v2に設定する。
補正制御部8は、設定したパラメータαを白オブジェクト補正部9に出力する。
On the other hand, when both the determination data PW and PC are 1, the correction control unit 8 determines that a white object region exists around the pixel of interest XS0 and that the pixel value S0 of the pixel of interest XS0 is greater than or equal to the predetermined value GAP. Then, it is determined that the white object correction process is performed. In this case, reference is further made to TL, and when TL = 0, the normal correction parameter value α = v1 is set. Conversely, when TL = 1, the target pixel XS0 forms a thin line structure, and therefore α = v2 is set so that the degree of correction is smaller than usual.
The correction control unit 8 outputs the set parameter α to the white object correction unit 9.

白オブジェクト補正部9は、パラメータα、WH[ch]を用いて注目画素XS0の画素値S0について白オブジェクト補正処理を施し、その補正値WE[ch]を出力するものである。
白オブジェクト補正部9は、下記式(2)によって注目画素XS0の色毎の画素値S0[ch]について補正値WE[ch]を求める。
WE[ch]=S0[ch]-(S0[ch]-WH[ch])×α・・・(2)
The white object correction unit 9 performs white object correction processing on the pixel value S0 of the target pixel XS0 using the parameters α and WH [ch], and outputs the correction value WE [ch].
The white object correction unit 9 obtains a correction value WE [ch] for the pixel value S0 [ch] for each color of the target pixel XS0 by the following equation (2).
WE [ch] = S0 [ch]-(S0 [ch] -WH [ch]) × α (2)

すなわち、白オブジェクト補正処理を施さない場合にはα=0であるため、WE[ch]=S0[ch]となり、注目画素XS0の元の画素値S0が出力されることなる。一方、α=v1又はv2のとき、元の画素値S0からそのv1又はv2により重み付けされた(S0[ch]-WH[ch])分だけ差し引かれた値がWE[ch]となるので、白オブジェクト補正処理により元の画素値S0が引き下げられることとなる。また、v1>v2であることから、細線構造部分はその引き下げられる程度が小さくなる。   That is, when white object correction processing is not performed, since α = 0, WE [ch] = S0 [ch], and the original pixel value S0 of the target pixel XS0 is output. On the other hand, when α = v1 or v2, the value subtracted by (S0 [ch] -WH [ch]) weighted by the v1 or v2 from the original pixel value S0 becomes WE [ch]. The original pixel value S0 is lowered by the white object correction process. Further, since v1> v2, the degree to which the thin line structure is pulled down becomes small.

図5(a)に示す白オブジェクトに対して白オブジェクト補正処理を施した後に印刷出力した結果を、図7に示す。
図7に示すように、補正によって白オブジェクトの周辺画素の画素値が小さくなるよう変更された結果、白オブジェクトの周辺が低濃度となっている。また、白オブジェクト周辺の細線構造部分においては補正が行われているが、細線構造ではない他の周辺画素に比べてその補正の程度が弱く、元の画素値よりは低濃度であるが他の周辺画素よりは高濃度となっている。
FIG. 7 shows the result of printing and outputting the white object shown in FIG. 5A after the white object correction processing.
As shown in FIG. 7, as a result of correction so that the pixel values of the peripheral pixels of the white object are reduced, the periphery of the white object has a low density. Further, although the fine line structure around the white object is corrected, the degree of the correction is weaker than other peripheral pixels not having the fine line structure, and the density is lower than the original pixel value. The density is higher than that of surrounding pixels.

以上のようにしてある1画素について注目画素XS0が設定されて補正が行われると、注目画素XS0が一画素づつシフトされて同様に上述した処理がなされ、画像データを構成する全画素について補正が行われる。
この一連の処理の流れをフローチャートにすると、図8に示すようなフローチャートとなる。
図8に示すように、まずラインバッファ3により注目画素及び周辺画素XSnの画像データSnが取得されると(ステップT1)、モノクロ変換部4によりモノクロ変換がなされる(ステップT2)。
When the target pixel XS0 is set and corrected for one pixel as described above, the target pixel XS0 is shifted one pixel at a time and the above-described processing is performed in the same manner, and correction is performed for all the pixels constituting the image data. Done.
If the flow of this series of processing is made into a flowchart, it will become a flowchart as shown in FIG.
As shown in FIG. 8, first, when the line buffer 3 acquires image data Sn of the target pixel and the peripheral pixels XSn (step T1), the monochrome conversion unit 4 performs monochrome conversion (step T2).

白オブジェクト判定部5では、周辺画素XS1〜XS8に白オブジェクト領域が存在するか否かが判定される(ステップT3)。また、注目画素判定部6では注目画素XS0は十分高濃度となるか否かが判定される(ステップT4)。そして、周辺画素XS1〜XS8に白オブジェクト領域が存在しない、或いは注目画素XS0は十分高濃度ではないと判定された場合には(ステップT3;N、ステップT4;N)、補正制御部8において白オブジェクト補正処理は施さないと判定され、補正を制御するパラメータαがα=0に設定される(ステップT6)。   The white object determination unit 5 determines whether or not a white object area exists in the peripheral pixels XS1 to XS8 (step T3). Further, the target pixel determination unit 6 determines whether or not the target pixel XS0 has a sufficiently high density (step T4). If it is determined that there is no white object area in the peripheral pixels XS1 to XS8, or the target pixel XS0 is not sufficiently high in density (step T3; N, step T4; N), the correction control unit 8 determines white It is determined that the object correction process is not performed, and the parameter α for controlling the correction is set to α = 0 (step T6).

一方、周辺画素XS1〜XS8に白オブジェクト領域が存在し、かつ注目画素XS0は十分高濃度であると判定された場合(ステップT3;Y、ステップT4;Y)、補正制御部8では注目画素XS0について白オブジェクト補正処理を施すと判定される。細線構造検出部7では注目画素XS0は細線構造を構成する画素であるか否かが判定されるので(ステップT5)、この判定結果TLを受けて補正制御部8では細線構造を構成しないと判定された場合(ステップT5;N)には、パラメータαが通常のパラメータ値v1に設定される(ステップT7)。一方、細線構造を構成する画素であると判定された場合(ステップT5;Y)、補正制御部8ではパラメータαが通常のパラメータ値v1より小さいv2に設定される(ステップT8)。   On the other hand, when it is determined that the white object region exists in the peripheral pixels XS1 to XS8 and the target pixel XS0 has a sufficiently high density (step T3; Y, step T4; Y), the correction control unit 8 sets the target pixel XS0. Is determined to be subjected to the white object correction process. Since the thin line structure detection unit 7 determines whether or not the target pixel XS0 is a pixel forming the thin line structure (step T5), the correction control unit 8 determines that the thin line structure is not formed based on the determination result TL. If so (step T5; N), the parameter α is set to the normal parameter value v1 (step T7). On the other hand, when it is determined that the pixel constitutes a thin line structure (step T5; Y), the correction control unit 8 sets the parameter α to v2 smaller than the normal parameter value v1 (step T8).

αが決定されると、白オブジェクト補正部9では、上記式(2)にパラメータα、注目画素XS0の画素値S0[ch]、白オブジェクト判定部5で得られたWH[ch]が入力されて、補正値WE[ch]が算出される(ステップT9)。なお、α=0の場合、WE[ch]は元の画素値S0が出力され、補正が施されないのは上述した通りである。
このようにして、色毎に求められたWE[ch]は、各色に対応するγ補正部11に出力される。
なお、この一連の処理をソフトウェアにより行うこととし、これをプログラムとして組み込むことも可能である。
When α is determined, the white object correction unit 9 receives the parameter α, the pixel value S0 [ch] of the target pixel XS0 and the WH [ch] obtained by the white object determination unit 5 in the above equation (2). Thus, the correction value WE [ch] is calculated (step T9). When α = 0, the original pixel value S0 is output for WE [ch] and no correction is performed as described above.
In this way, WE [ch] obtained for each color is output to the γ correction unit 11 corresponding to each color.
Note that this series of processing is performed by software, and this can be incorporated as a program.

γ補正部11では、γ補正用に準備されたルックアップテーブル(LUT)に基づいて入力された画像データWE[ch]についてγ補正処理を施す。γ補正後の画像データWE[ch]はそれぞれの色に対応するディザ処理部12に出力される。   The γ correction unit 11 performs γ correction processing on the image data WE [ch] input based on a look-up table (LUT) prepared for γ correction. The image data WE [ch] after γ correction is output to the dither processing unit 12 corresponding to each color.

ディザ処理部12は、中間調を再現するため、入力された画像データWE[ch]にディザ処理を施す。ディザ処理後の画像データWE[ch]はプリンタ13に出力される。   The dither processing unit 12 performs dither processing on the input image data WE [ch] to reproduce halftones. The dithered image data WE [ch] is output to the printer 13.

或いはここで、白オブジェクト補正処理が施された画素についてのみディザ処理を行わずに連続調のまま出力するようにしてもよい。具体的には、補正処理が施されたか否かの結果を画素毎にフラグとして記憶しておき、フラグが立っている画素は連続調のまま出力し、フラグが立っていない画素はディザ処理をかけるように処理を行う。こうすることによって輪郭部分におけるジャギー発生を抑制することが期待できる。   Alternatively, only the pixels that have been subjected to the white object correction process may be output in a continuous tone without performing the dither process. Specifically, the result of whether or not correction processing has been performed is stored as a flag for each pixel, pixels with a flag set are output in continuous tone, and pixels with no flag set are dithered. The process is performed like By doing so, it can be expected to suppress the occurrence of jaggy in the contour portion.

プリンタ13は、C、M、Y、Kのカラー出力が可能なカラープリンタである。プリンタ13は、色毎にレーザドライバ、露光部、感光ドラム、現像部を備える他、中間ベルト、給紙部等を備えて構成されている。プリンタ13では、画像処理装置1から入力される色毎の画像データWE[ch]に基づいて各色のレーザドライバにより露光部を駆動してそれぞれの感光ドラム上に静電潜像が描画される。そして、現像部により感光ドラム上にトナーが付着される。各色の感光ドラム上に形成されたトナー像は中間ベルト上に順次重ねて転写され、当該中間ベルト上に重ねられた各色のトナー像は一括して印刷用紙上に転写される。   The printer 13 is a color printer that can output C, M, Y, and K colors. The printer 13 includes a laser driver, an exposure unit, a photosensitive drum, and a developing unit for each color, and an intermediate belt, a paper feeding unit, and the like. In the printer 13, the exposure unit is driven by the laser driver for each color based on the image data WE [ch] for each color input from the image processing apparatus 1, and an electrostatic latent image is drawn on each photosensitive drum. Then, toner is deposited on the photosensitive drum by the developing unit. The toner images formed on the photosensitive drums of the respective colors are sequentially transferred onto the intermediate belt, and the toner images of the respective colors superimposed on the intermediate belt are transferred onto the printing paper at once.

以上のように、本実施形態によれば、ディスプレイリストに基づいて白オブジェクト領域を判定し、この白オブジェクト領域に隣接する周辺画素のうち、所定値以上の画素値を有する周辺画素についてはその画素値を低減させる補正を施す。これにより、白オブジェクトに隣接する周辺画素においてドットゲインが生じることを防止することができ、白オブジェクトにおける画質劣化を抑制することが可能となる。   As described above, according to the present embodiment, the white object region is determined based on the display list, and among the peripheral pixels adjacent to the white object region, the peripheral pixel having a pixel value greater than or equal to the predetermined value is the pixel. Apply correction to reduce the value. Thereby, it is possible to prevent the dot gain from occurring in the peripheral pixels adjacent to the white object, and it is possible to suppress the image quality deterioration in the white object.

また、中間データであるディスプレイリストを用いて白オブジェクト領域を判定するため、オブジェクト単位で白オブジェクト領域を判定することができる。局所的に白オブジェクト領域の周辺画素を検出するのではなく、オブジェクトという画質劣化を防止する必要があるものの全体を判定することにより、現実に補正を施すべきその周辺画素を正確に検出することができる。その結果、白オブジェクト全体を考慮した補正を行うことができる。   Further, since the white object area is determined using the display list that is intermediate data, the white object area can be determined in units of objects. Rather than locally detecting the surrounding pixels of the white object area, it is possible to accurately detect the surrounding pixels to be actually corrected by judging the entire object that needs to prevent image quality degradation. it can. As a result, it is possible to perform correction in consideration of the entire white object.

例えば、白オブジェクトの背景にグラデーションを描画する場合、濃度を変えた四角形のオブジェクトを複数隣接させてグラデーションを形成する場合がある。このような場合においては、色の濃度差から白オブジェクトの輪郭を特定することによりその周辺画素を検出する手法を採用すると、グラデーションを構成するオブジェクトの境界で輪郭を検出することもあり、白オブジェクトのみの輪郭を正確に検出することができない。しかし、本実施形態では中間データの段階で白オブジェクト領域を判定しているため、他のオブジェクトの存在に左右されることなく、正確に白オブジェクト領域の周辺画素を検出することができる。   For example, when a gradation is drawn on the background of a white object, a gradation may be formed by adjoining a plurality of rectangular objects having different densities. In such a case, if a technique for detecting the surrounding pixels by specifying the outline of the white object from the color density difference is adopted, the outline may be detected at the boundary of the object constituting the gradation. Only the contour cannot be detected accurately. However, in the present embodiment, since the white object region is determined at the intermediate data stage, it is possible to accurately detect the peripheral pixels of the white object region without being influenced by the presence of other objects.

また、属性データTAGを参照することにより、文字、線画の属性を持つ白オブジェクトのみを白オブジェクト補正処理の処理対象として選択することができる。これにより、写真画のように白オブジェクト補正処理に適さない属性のオブジェクトを容易に補正の対象外とすることができ、当該補正処理を行うことによる写真画等の画質劣化を防止することができる。   Further, by referring to the attribute data TAG, only a white object having the character and line drawing attributes can be selected as a processing target of the white object correction process. This makes it possible to easily exclude an object having an attribute that is not suitable for white object correction processing, such as a photographic image, and to prevent image quality deterioration of a photographic image or the like due to the correction processing. .

また、周辺画素についての補正値は、白オブジェクト領域に属する周辺画素の画素値WH[ch]を基に決定する。よって、白オブジェクト領域の画素値との関係で周辺画素の補正値を決定することができ、白オブジェクト領域とその周辺画素のコントラストを制御することが可能となる。   Further, the correction value for the peripheral pixel is determined based on the pixel value WH [ch] of the peripheral pixel belonging to the white object region. Therefore, it is possible to determine the correction value of the peripheral pixel in relation to the pixel value of the white object region, and to control the contrast between the white object region and the peripheral pixel.

また、白オブジェクト領域に隣接する周辺画素により構成される細線構造を検出し、当該周辺画素については補正の程度、つまり画素値を低減する程度を小さくするよう制御する。これにより、細線構造について低濃度となる結果、白オブジェクトのディテール部分の再現性が失われることを防止することができる。   Further, a fine line structure constituted by peripheral pixels adjacent to the white object region is detected, and control is performed so as to reduce the degree of correction, that is, the degree to which the pixel value is reduced. As a result, the reproducibility of the detail portion of the white object can be prevented from being lost as a result of the low density of the fine line structure.

なお、上述した説明は本発明を適用した好適な一例であり、これに限定されない。
例えば、細線構造検出部7による細線構造の検出処理をレンダラー25において実現することとしてもよい。
また、中間データであるディスプレイリストに基づいて白オブジェクト領域の有無を判定し、白領域データOLBを設定することとしたが、PDLデータに基づいて白オブジェクト領域を判定することとしてもよい。同様に、属性データTAGについても、PDLデータに基づいて生成することとしてもよい。
The above description is a preferred example to which the present invention is applied, and the present invention is not limited to this.
For example, the fine line structure detection processing by the fine line structure detection unit 7 may be realized in the renderer 25.
Also, the presence / absence of a white object area is determined based on the display list as intermediate data and the white area data OLB is set. However, the white object area may be determined based on the PDL data. Similarly, the attribute data TAG may be generated based on the PDL data.

また、上記説明では、Y=M=C=K=0と、最小濃度値となるオブジェクトについて白領域データOLB=1と設定し、これを白オブジェクトとして扱っていたが、最小濃度値に近い低濃度のオブジェクトも白オブジェクトとして上記白オブジェクト補正処理を行うことが可能である。レンダラー25ではC、M、Y、Kの平均値又は最小値が所定値以下となるオブジェクトに属する画素についてOLB=1とする設定にすればよい。   In the above description, Y = M = C = K = 0, and the object having the minimum density value is set as white area data OLB = 1, and this is treated as a white object. It is possible to perform the above white object correction processing on the density object as a white object. The renderer 25 may set OLB = 1 for pixels belonging to an object whose average value or minimum value of C, M, Y, and K is a predetermined value or less.

白オブジェクトとして低濃度のオブジェクトも含むこととした場合、白オブジェクト判定部5において算出されるWH[ch]は正の値を持つ場合があり、白オブジェクト補正処理において算出されるWE[ch]に影響することとなる。すなわち、上記式(2)においてその低濃度オブジェクトが有する画素値WH[ch]分だけ、周辺画素の元の画素値S0が引き下げられる補正量(S0-WH[ch])が小さくなる。つまり、白オブジェクトの濃度が大きければ周辺画素の補正量は小さくなり、白オブジェクトの濃度が小さければ周辺画素の補正量が大きくなる。これにより、白オブジェクトとその周辺とのコントラストの安定化を図ることができ、原画像の再現性が高くなる。   When a low density object is also included as a white object, WH [ch] calculated by the white object determination unit 5 may have a positive value, and WE [ch] calculated in the white object correction process may be a positive value. Will be affected. That is, in the above equation (2), the correction amount (S0−WH [ch]) by which the original pixel value S0 of the peripheral pixels is reduced by the pixel value WH [ch] of the low density object. That is, if the density of the white object is large, the correction amount of the peripheral pixels is small, and if the density of the white object is small, the correction amount of the peripheral pixels is large. As a result, the contrast between the white object and its surroundings can be stabilized, and the reproducibility of the original image is enhanced.

また、補正制御部8では注目画素XS0について細線構造がある場合、α=v2に設定し、白オブジェクト補正処理の対象としてその補正の程度を小さくするよう制御していたが、α=0として白オブジェクト補正処理の対象外としてもよい。この場合、ドットゲインが発生することが考えられるが、細線構造の再現性は高くなる。   Further, when the target pixel XS0 has a thin line structure, the correction control unit 8 sets α = v2 and controls to reduce the degree of correction as a target of white object correction processing. The object may not be subjected to object correction processing. In this case, dot gain may be generated, but the reproducibility of the thin line structure is improved.

また、上述した説明では白オブジェクト判定部5において注目画素XS0が白オブジェクト領域に属さず、かつその周辺画素XS1〜XS8に白オブジェクト領域が属するか否かを判定することにより、注目画素XS0が白輪郭画素に隣接する周辺画素であるか否かを判断していたが、これに限らず、レンダラー25において予め白輪郭画素を検出しておくこととしてもよい。   In the above description, the white object determination unit 5 determines whether or not the target pixel XS0 does not belong to the white object area and the surrounding pixels XS1 to XS8 belong to the white object area. Although it has been determined whether or not the pixel is a peripheral pixel adjacent to the contour pixel, the present invention is not limited to this, and the white contour pixel may be detected in advance by the renderer 25.

この場合、レンダラー25はレンダリングの段階においてページメモリ上に全ての白オブジェクトの輪郭のみを描画し、描画した結果のデータを白輪郭データRLBとして、白領域データOLBの代わりに出力する。白輪郭データRLBは、白輪郭が存在する画素ではRLB=1であり、白輪郭が存在しない画素はRLB=0となる。白輪郭データRLBは白オブジェクト判定部5に出力される。白オブジェクト判定部5では、注目画素XS0の周辺画素XS1〜XS8の白輪郭データRLBを参照することにより、注目画素XS0の周辺に白オブジェクト領域が存在するか否かを容易に判断することが出来る。   In this case, the renderer 25 draws only the outlines of all white objects on the page memory at the rendering stage, and outputs the drawn data as white outline data RLB instead of the white area data OLB. In the white outline data RLB, RLB = 1 is set for a pixel having a white outline, and RLB = 0 is set for a pixel having no white outline. The white contour data RLB is output to the white object determination unit 5. The white object determination unit 5 can easily determine whether or not a white object region exists around the target pixel XS0 by referring to the white contour data RLB of the peripheral pixels XS1 to XS8 of the target pixel XS0. .

また、白輪郭データRLBを用いた場合、以下のような効果が得られると考えられる。
例えば、図9に示すように複数のオブジェクトの印刷位置が重なっている場合を考える。図9(a)は、上から白オブジェクトA、黒色のオブジェクトB、白オブジェクトC、赤色のオブジェクトDの順で、各オブジェクトが一部重なり合っているケースを示す図である。
Further, when the white contour data RLB is used, the following effects are considered to be obtained.
For example, consider a case where the print positions of a plurality of objects overlap as shown in FIG. FIG. 9A is a diagram showing a case where the objects partially overlap in the order of white object A, black object B, white object C, and red object D from the top.

このケースでは、1番目の白オブジェクトAは画像として可視化されるが、3番目の白オブジェクトCは2番目の黒オブジェクトBによって完全に上書きされてしまい、画像としては可視化されない。一方、白領域データOLBは図9(b)の上段に示すように、1番目の白オブジェクトAだけでなく、3番目の白オブジェクトCの領域についても示すこととなる。しかしながら白オブジェクトAとCが重なった部分における、白オブジェクトA、Cそれぞれの輪郭が分からなくなってしまっている。つまり、白領域データOLBを参照しただけでは最上層の白オブジェクトAの白輪郭を部分的にしか捉えることができない。その結果、白オブジェクトA、Cが重なった部分における、Aの輪郭に隣接する黒色の画素については、OLB=1であるためにPW=0となって白オブジェクト補正処理が無効とされてしまうこととなる。   In this case, the first white object A is visualized as an image, but the third white object C is completely overwritten by the second black object B and is not visualized as an image. On the other hand, the white area data OLB indicates not only the first white object A but also the area of the third white object C as shown in the upper part of FIG. 9B. However, the outlines of the white objects A and C in the part where the white objects A and C overlap each other are not understood. That is, the white outline of the uppermost white object A can only be partially captured only by referring to the white area data OLB. As a result, in the portion where the white objects A and C overlap, for the black pixel adjacent to the outline of A, OLB = 1, so PW = 0 and the white object correction processing is invalidated. It becomes.

しかしながら、白領域データOLBの代わりに白輪郭データRLBを参照することによってこの問題を改善することが出来る。図9(b)の下段はこのケースにおける白輪郭データRLBを示したものである。白輪郭データRLBは輪郭だけのデータであるため、それらが重なっても上書きされて輪郭が分からなくなってしまう部分はわずかで済むことになる。結果として、白オブジェクトA、Cが重なった部分においてもほぼ白オブジェクト補正処理が施されることになる。このように、白輪郭データRLBを併用したほうがより正確に当該処理がなされる場合がある。   However, this problem can be improved by referring to the white contour data RLB instead of the white area data OLB. The lower part of FIG. 9B shows the white contour data RLB in this case. Since the white contour data RLB is data of only the contour, even if they overlap, only a few portions are overwritten and the contour becomes unknown. As a result, the white object correction processing is almost performed even in the portion where the white objects A and C overlap. Thus, the processing may be performed more accurately when the white contour data RLB is used together.

印刷システムのシステム構成を示す図である。1 is a diagram illustrating a system configuration of a printing system. 図1の画像処理装置の内部構成を示す図である。It is a figure which shows the internal structure of the image processing apparatus of FIG. ディスプレイリスト例を示す図である。It is a figure which shows a display list example. 注目画素及び周辺画素を示す図である。It is a figure which shows an attention pixel and a surrounding pixel. (a)は白オブジェクトの例を示す図である。(b)は(a)に示す白オブジェクトの周辺画素を示す図である。(c)は(a)に示す白オブジェクトに細線構造検出用のテンプレートを適用した様子を示す図である。(A) is a figure which shows the example of a white object. (B) is a figure which shows the surrounding pixel of the white object shown to (a). (C) is a figure which shows a mode that the template for thin line structure detection was applied to the white object shown to (a). 細線構造検出用のテンプレート例を示す図である。It is a figure which shows the example of a template for a thin wire | line structure detection. 白オブジェクト補正処理を施した結果を示す図である。It is a figure which shows the result of having performed the white object correction process. 画像処理装置において白オブジェクトに対し白オブジェクト補正処理を施すまでの一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes until it performs a white object correction process with respect to a white object in an image processing apparatus. (a)は複数オブジェクトを重ねて出力する例を示す図である。(b)は(a)に示す白オブジェクトについての白領域データと白輪郭データを示す概念図である。(A) is a figure which shows the example which overlaps and outputs a several object. (B) is a conceptual diagram showing white area data and white outline data for the white object shown in (a). 従来の画像処理方法により生じる画質劣化について説明する図である。It is a figure explaining the image quality degradation which arises by the conventional image processing method.

符号の説明Explanation of symbols

10 PC
20 MFP
1 画像処理装置
2 コントローラ
22 CPU
23 RAM
25 レンダラー
26 ページメモリ
3 ラインバッファ
4 モノクロ変換部
5 白オブジェクト判定部
6 注目画素判定部
7 細線構造検出部
8 補正制御部
9 白オブジェクト補正部
13 プリンタ
10 PC
20 MFP
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Controller 22 CPU
23 RAM
25 renderer 26 page memory 3 line buffer 4 monochrome conversion unit 5 white object determination unit 6 target pixel determination unit 7 fine line structure detection unit 8 correction control unit 9 white object correction unit 13 printer

Claims (9)

印刷用の制御データを元に生成された中間データに基づいて画像データを生成する印刷用画像生成手段と、
前記印刷用の制御データに基づいて、前記印刷用画像生成手段により生成された画像データを構成する画素毎に白色でかつフォント又はベクトルデータの属性を有する白オブジェクト領域の画素であるか否かを判定し、その判定結果を示す白領域データを生成する白領域データ生成手段と、
前記画像データを構成する各画素に対して注目画素を順次設定し、この注目画素に隣接する周辺画素に前記白オブジェクト領域の画素が存在するか否かを前記白領域データに基づいて判定する第1判定手段と、
前記第1判定手段により前記周辺画素に前記白オブジェクト領域の画素が存在すると判定された場合に、前記注目画素の画素値が所定値以上であるか否かを判定する第2判定手段と、
前記第2判定手段により前記注目画素の画素値が所定値以上であると判定された場合に、前記白オブジェクト領域の画素値を元に当該注目画素の補正後の画素値を決定し、当該決定された画素値に基づいて当該注目画素の画素値を補正する補正手段と、
を備えることを特徴とする画像処理装置。
Printing image generation means for generating image data based on intermediate data generated based on printing control data;
Whether or not each pixel constituting the image data generated by the printing image generation unit is white and has a font or vector data attribute based on the printing control data. White area data generation means for determining and generating white area data indicating the determination result;
A target pixel is sequentially set for each pixel constituting the image data, and it is determined based on the white region data whether or not a pixel of the white object region exists in a peripheral pixel adjacent to the target pixel. 1 determination means;
Second determination means for determining whether or not a pixel value of the target pixel is a predetermined value or more when it is determined by the first determination means that a pixel of the white object region exists in the peripheral pixels;
When the second determination means determines that the pixel value of the target pixel is greater than or equal to a predetermined value, the corrected pixel value of the target pixel is determined based on the pixel value of the white object region, and the determination Correction means for correcting the pixel value of the pixel of interest based on the pixel value that has been
An image processing apparatus comprising:
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段と、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正の程度を制御する補正制御手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。
Fine line structure detecting means for detecting pixels constituting the fine line structure among the pixels adjacent to the white object region;
A correction control means for controlling the degree of correction of the pixel by the correction means when a pixel constituting the fine line structure is detected by the fine line structure detection means;
The image processing apparatus according to claim 1, further comprising:
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段と、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正を無効とする補正制御手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。
Fine line structure detecting means for detecting pixels constituting the fine line structure among the pixels adjacent to the white object region;
A correction control unit that invalidates correction of the pixel by the correction unit when a pixel constituting the thin line structure is detected by the thin line structure detection unit;
The image processing apparatus according to claim 1, further comprising:
印刷用の制御データを元に生成された中間データに基づいて画像データを生成する印刷用画像生成工程と、
前記印刷用の制御データに基づいて、前記印刷用画像生成工程により生成された画像データを構成する画素毎に白色でかつフォント又はベクトルデータの属性を有する白オブジェクト領域の画素であるか否かを判定し、その判定結果を示す白領域データを生成する白領域データ生成工程と、
前記画像データを構成する各画素に対して注目画素を順次設定し、この注目画素に隣接する周辺画素に前記白オブジェクト領域の画素が存在するか否かを前記白領域データに基づいて判定する第1判定工程と、
前記第1判定工程により前記周辺画素に前記白オブジェクト領域の画素が存在すると判定された場合に、前記注目画素の画素値が所定値以上であるか否かを判定する第2判定工程と、
前記第2判定工程により前記注目画素の画素値が所定値以上であると判定された場合に、前記白オブジェクト領域の画素値を元に当該注目画素の補正後の画素値を決定し、当該決定された画素値に基づいて当該注目画素の画素値を補正する補正工程と、
を含むことを特徴とする画像処理方法。
A printing image generation step for generating image data based on the intermediate data generated based on the printing control data;
Whether or not each pixel constituting the image data generated by the printing image generation step is white and has a font or vector data attribute based on the printing control data. A white area data generation step of determining and generating white area data indicating the determination result;
A target pixel is sequentially set for each pixel constituting the image data, and it is determined based on the white region data whether or not a pixel of the white object region exists in a peripheral pixel adjacent to the target pixel. 1 determination process;
A second determination step of determining whether a pixel value of the target pixel is equal to or greater than a predetermined value when it is determined in the first determination step that a pixel of the white object region exists in the peripheral pixels;
When it is determined in the second determination step that the pixel value of the target pixel is greater than or equal to a predetermined value, a corrected pixel value of the target pixel is determined based on the pixel value of the white object region, and the determination A correction step of correcting the pixel value of the target pixel based on the pixel value that has been performed ;
An image processing method comprising:
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出工程と、
前記細線構造検出工程において前記細線構造を構成する画素が検出された場合、前記補正工程における当該画素に対する補正の程度を制御する補正制御工程と、
をさらに含むことを特徴とする請求項に記載の画像処理方法。
A fine line structure detection step of detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
A correction control step for controlling the degree of correction of the pixel in the correction step when a pixel constituting the thin line structure is detected in the fine line structure detection step;
The image processing method according to claim 4 , further comprising:
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出工程と、
前記細線構造検出工程において前記細線構造を構成する画素が検出された場合、前記補正工程における当該画素に対する補正を無効とする補正制御工程と、
をさらに含むことを特徴とする請求項に記載の画像処理方法。
A fine line structure detection step of detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
When a pixel constituting the thin line structure is detected in the fine line structure detection step, a correction control step for invalidating the correction for the pixel in the correction step;
The image processing method according to claim 4 , further comprising:
コンピュータを、
印刷用の制御データを元に生成された中間データに基づいて画像データを生成する印刷用画像生成手段、
前記印刷用の制御データに基づいて、前記印刷用画像生成手段により生成された画像データを構成する画素毎に白色でかつフォント又はベクトルデータの属性を有する白オブジェクト領域の画素であるか否かを判定し、その判定結果を示す白領域データを生成する白領域データ生成手段、
前記画像データを構成する各画素に対して注目画素を順次設定し、この注目画素に隣接する周辺画素に前記白オブジェクト領域の画素が存在するか否かを前記白領域データに基づいて判定する第1判定手段、
前記第1判定手段により前記周辺画素に前記白オブジェクト領域の画素が存在すると判定された場合に、前記注目画素の画素値が所定値以上であるか否かを判定する第2判定手段、
前記第2判定手段により前記注目画素の画素値が所定値以上であると判定された場合に、前記白オブジェクト領域の画素値を元に当該注目画素の補正後の画素値を決定し、当該決定された画素値に基づいて当該注目画素の画素値を補正する補正手段、
として機能させるためのプログラム。
Computer
Printing image generation means for generating image data based on intermediate data generated based on printing control data;
Whether or not each pixel constituting the image data generated by the printing image generation unit is white and has a font or vector data attribute based on the printing control data. White area data generating means for determining and generating white area data indicating the determination result;
A target pixel is sequentially set for each pixel constituting the image data, and it is determined based on the white region data whether or not a pixel of the white object region exists in a peripheral pixel adjacent to the target pixel. 1 determination means,
Second determination means for determining whether a pixel value of the target pixel is equal to or greater than a predetermined value when the first determination means determines that the pixel of the white object region exists in the peripheral pixels;
When the second determination means determines that the pixel value of the target pixel is greater than or equal to a predetermined value, the corrected pixel value of the target pixel is determined based on the pixel value of the white object region, and the determination Correcting means for correcting the pixel value of the target pixel based on the pixel value that has been
Program to function as.
コンピュータをさらに、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正の程度を制御する補正制御手段、
として機能させるための請求項に記載のプログラム。
Computer
Fine line structure detecting means for detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
A correction control means for controlling the degree of correction of the pixel by the correction means when a pixel constituting the fine line structure is detected by the fine line structure detection means;
The program of Claim 7 for functioning as.
コンピュータをさらに、
前記白オブジェクト領域に隣接する画素のうち細線構造を構成する画素を検出する細線構造検出手段、
前記細線構造検出手段により前記細線構造を構成する画素が検出された場合、前記補正手段による当該画素に対する補正を無効とする補正制御手段、
として機能させるための請求項に記載のプログラム。
Computer
Fine line structure detecting means for detecting pixels constituting a fine line structure among pixels adjacent to the white object region;
A correction control unit that invalidates correction of the pixel by the correction unit when a pixel constituting the thin line structure is detected by the thin line structure detection unit;
The program of Claim 7 for functioning as.
JP2006137930A 2006-05-17 2006-05-17 Image processing apparatus, image processing method, and program Expired - Fee Related JP4640257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006137930A JP4640257B2 (en) 2006-05-17 2006-05-17 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006137930A JP4640257B2 (en) 2006-05-17 2006-05-17 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2007312010A JP2007312010A (en) 2007-11-29
JP4640257B2 true JP4640257B2 (en) 2011-03-02

Family

ID=38844468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006137930A Expired - Fee Related JP4640257B2 (en) 2006-05-17 2006-05-17 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4640257B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111203B2 (en) 2013-03-15 2015-08-18 Ricoh Company, Limited Image forming apparatus
US9466016B2 (en) 2014-07-14 2016-10-11 Ricoh Company, Ltd. Image forming apparatus which forms image data indicating whether a pixel is for a character or line
US9659243B2 (en) 2015-02-20 2017-05-23 Ricoh Company, Ltd. Image forming apparatus and method for driving light source
US9779334B2 (en) 2015-07-06 2017-10-03 Ricoh Company, Ltd. Light-source-driving control device, image forming apparatus, and light-source driving method
US9961227B2 (en) 2015-02-09 2018-05-01 Ricoh Company, Ltd. Light source drive control device, image forming apparatus, light source drive control method, and computer program product
US10298807B2 (en) 2014-03-13 2019-05-21 Ricoh Company, Limited Image forming apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5126288B2 (en) * 2010-06-02 2013-01-23 Necアクセステクニカ株式会社 Image processing apparatus and image processing method
JP5812678B2 (en) * 2011-05-11 2015-11-17 キヤノン株式会社 Image processing apparatus, image processing method, and computer program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11240206A (en) * 1998-02-26 1999-09-07 Nec Data Terminal Ltd System and method for setting pixel width of printer

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11240206A (en) * 1998-02-26 1999-09-07 Nec Data Terminal Ltd System and method for setting pixel width of printer

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9111203B2 (en) 2013-03-15 2015-08-18 Ricoh Company, Limited Image forming apparatus
US9760813B2 (en) 2013-03-15 2017-09-12 Ricoh Company, Ltd Image forming apparatus
US10298807B2 (en) 2014-03-13 2019-05-21 Ricoh Company, Limited Image forming apparatus
US9466016B2 (en) 2014-07-14 2016-10-11 Ricoh Company, Ltd. Image forming apparatus which forms image data indicating whether a pixel is for a character or line
US9961227B2 (en) 2015-02-09 2018-05-01 Ricoh Company, Ltd. Light source drive control device, image forming apparatus, light source drive control method, and computer program product
US9659243B2 (en) 2015-02-20 2017-05-23 Ricoh Company, Ltd. Image forming apparatus and method for driving light source
US10133971B2 (en) 2015-02-20 2018-11-20 Ricoh Company, Ltd. Image forming apparatus and method for driving light source
US9779334B2 (en) 2015-07-06 2017-10-03 Ricoh Company, Ltd. Light-source-driving control device, image forming apparatus, and light-source driving method

Also Published As

Publication number Publication date
JP2007312010A (en) 2007-11-29

Similar Documents

Publication Publication Date Title
JP4640257B2 (en) Image processing apparatus, image processing method, and program
JP5078480B2 (en) Image processing apparatus and method, and computer program and recording medium
JP4045015B2 (en) Raster image resolution improvement method
JP4779987B2 (en) Image processing apparatus and image processing method
JP2009070128A (en) Image processor and image processing method
JP6325847B2 (en) Image processing apparatus, image processing method, and program
JP5499981B2 (en) Image processing device
JP4386216B2 (en) Color printing system and control method thereof
JP4111190B2 (en) Image processing device
JP2006295624A (en) Image processor, method therefor, computer program, and recording medium
JP2008151878A (en) Image processing device and method
JP4894488B2 (en) Image processing apparatus and image processing method
JP2005316237A (en) Print control unit, print control method, and print control program
JP3604902B2 (en) Image processing device
US8059135B2 (en) Image output apparatus, image output method and image output program product
JP6452342B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program
US8565548B2 (en) Image processing apparatus which performs anti-aliasing on input image data and image processing method thereof
US7715051B2 (en) Image forming apparatus and method for forming an image according to image drawing data
US8390907B2 (en) Image-processing device, image-forming device, image-processing method, and computer readable medium
JP2009129342A (en) Image processing device and method
JP4492090B2 (en) Image forming apparatus and image forming method
JP2004334533A (en) Image processing device and method
JPH11129547A (en) Method for processing image information and information recording medium
JP4735212B2 (en) Image processing device
JP5790000B2 (en) Printing apparatus and printing method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100915

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

R150 Certificate of patent or registration of utility model

Ref document number: 4640257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees