JP2010252184A - Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium - Google Patents
Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium Download PDFInfo
- Publication number
- JP2010252184A JP2010252184A JP2009101250A JP2009101250A JP2010252184A JP 2010252184 A JP2010252184 A JP 2010252184A JP 2009101250 A JP2009101250 A JP 2009101250A JP 2009101250 A JP2009101250 A JP 2009101250A JP 2010252184 A JP2010252184 A JP 2010252184A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- pixel
- trapping
- color
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、複数の色成分の画素データを重ね合せる処理を行う画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体に関する。 The present invention relates to an image processing apparatus, an image forming apparatus, an image processing method, a computer program, and a recording medium that perform processing for superimposing pixel data of a plurality of color components.
コピー機又はプリンタ等の画像形成装置が紙媒体に形成する画像の画質劣化を防止するためにトラッピング処理等が行われている。トラッピング処理は、複数の色成分の画素データを重ね合せる処理であり、版ずれ時の白抜けを防止するための処理である。例えば、プリントジョブに含まれる画像情報を解析し、画像情報に含まれる画像要素の形式(サイズ)を判別し、判別結果に応じたトラッピング処理を、プリントジョブに含まれる画像情報に対して行う装置が提案されている(特許文献1参照)。 A trapping process or the like is performed to prevent image quality deterioration of an image formed on a paper medium by an image forming apparatus such as a copier or a printer. The trapping process is a process for overlapping pixel data of a plurality of color components, and is a process for preventing white spots at the time of misregistration. For example, an apparatus that analyzes image information included in a print job, determines a format (size) of an image element included in the image information, and performs a trapping process according to the determination result on the image information included in the print job Has been proposed (see Patent Document 1).
特許文献1の装置は、例えば、プリントジョブに含まれる文字のポイント数を基にトラッピング処理を行うか否かを判定している。具体的には、ポイント数に基づいて、プリントジョブに含まれる文字が小さいサイズであると判定した場合、トラッピング処理を行わず、大きいサイズであると判定した場合、トラッピングを行うようにしてある。このような画像形成装置によれば、カラー画像の印刷の際に版ずれが生じても、色抜けの発生が抑制される。
For example, the apparatus of
しかし、特許文献1の装置は、トラッピング処理を行うか否かの判定に、文字のサイズしか考慮していないので、トラッピング処理を行うか否かを誤判定する可能性を有するという問題がある。誤ってトラッピング処理を行った場合、画質の劣化を招く虞がある。
However, since the apparatus of
本発明はかかる事情に鑑みてなされたものであり、その目的とするところは、トラッピング処理を行うか否かをより精度よく判定することが可能な画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム、及び記録媒体を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing apparatus, an image forming apparatus, an image processing method, and an image processing apparatus capable of more accurately determining whether or not to perform trapping processing. A computer program and a recording medium are provided.
本発明に係る画像処理装置は、複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行う画像処理装置において、前記入力画像データに含まれる所定の文字領域を検出する文字検出部と、前記入力画像データの注目画素が、前記エッジであって、前記文字検出部が検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定部と、該処理判定部が重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理部とを備えることを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus that performs processing for superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components. A character detection unit that detects a character region, and whether or not the pixel of interest of the input image data is the edge and is included in the character region detected by the character detection unit. A process determination unit that determines whether or not to perform a process of superimposing pixels of color components, and a process of superimposing pixels of a plurality of color components on the target pixel when the process determination unit determines to perform the overlay process And an overlay processing unit for performing the above.
本発明に係る画像処理装置は、前記入力画像データを所定の閾値を基に2値データに変換する2値化処理部と、該2値化処理部によって変換された2値データについて、交差する2方向のそれぞれに連続する同一の画素値の画素数を計数する計数部とを備え、前記文字検出部は、前記計数部による計数結果に基づいて、前記所定の文字領域を検出するようにしてあることを特徴とする。 An image processing apparatus according to the present invention intersects a binarization processing unit that converts the input image data into binary data based on a predetermined threshold, and binary data converted by the binarization processing unit. A counting unit that counts the number of pixels having the same pixel value continuous in each of the two directions, and the character detection unit detects the predetermined character region based on a counting result by the counting unit. It is characterized by being.
本発明に係る画像処理装置は、前記入力画像データの注目画素及び該注目画素の周辺画素の画素値の平均値を算出する平均値算出部と、該平均値算出部が算出した平均値に基づいて閾値を算出する閾値算出部とを備え、前記2値化処理部は、前記閾値算出部が算出した閾値を基に前記入力画像データを2値データに変換するようにしてあることを特徴とする。 An image processing apparatus according to the present invention is based on an average value calculation unit that calculates an average value of pixel values of a target pixel of the input image data and peripheral pixels of the target pixel, and an average value calculated by the average value calculation unit A threshold value calculation unit that calculates a threshold value, and the binarization processing unit converts the input image data into binary data based on the threshold value calculated by the threshold value calculation unit. To do.
本発明に係る画像処理装置は、前記計数部は、前記2値化処理部によって変換された2値データについて、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数を計数するようにしてあることを特徴とする。 In the image processing apparatus according to the present invention, the counting unit is the same as the binary data converted by the binarization processing unit that is continuous in each of two intersecting directions and a direction obliquely intersecting the two directions. The number of pixels of the pixel value is counted.
本発明に係る画像処理装置は、前記文字検出部は、前記計数部による計数結果を、方向別に設定された閾値と比較し、比較結果に基づいて前記所定の文字領域であるか否かを判定するようにしてあることを特徴とする。 In the image processing apparatus according to the present invention, the character detection unit compares the count result of the count unit with a threshold set for each direction, and determines whether the character region is the predetermined character region based on the comparison result. It is made to do so.
本発明に係る画像形成装置は、上述したいずれかの画像処理装置と、該画像処理装置で処理された画像データに基づいて出力画像を形成する画像形成手段とを備えることを特徴とする。 An image forming apparatus according to the present invention includes any one of the above-described image processing apparatuses and an image forming unit that forms an output image based on image data processed by the image processing apparatus.
本発明に係る画像処理方法は、複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行う画像処理方法において、前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップとを含むことを特徴とする。 An image processing method according to the present invention is an image processing method for performing processing of superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components. A character detection step for detecting a character region; and a pixel of interest in the input image data based on whether the pixel of interest is included in the character region detected in the character detection step at the edge. A process determination step for determining whether or not to perform a process for superimposing pixels of color components, and a process for superimposing pixels of a plurality of color components on the target pixel when it is determined that the overlap process is performed in the process determination step And a superposition processing step.
本発明に係るコンピュータプログラムは、コンピュータに、複数の色成分を有する入力画像データから抽出したエッジに、複数の色成分の画素を重ね合せる処理を行わせるコンピュータプログラムにおいて、コンピュータに、前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップとを実行させることを特徴とする。 A computer program according to the present invention is a computer program for causing a computer to perform processing for superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components. A character detection step for detecting a predetermined character region included in the image, and based on whether the pixel of interest of the input image data is the edge and included in the character region detected in the character detection step, A process determination step for determining whether or not to perform a process for superimposing a pixel of a plurality of color components on a target pixel; and a determination process for performing a superimposition process in the process determination step; And a superimposing process step of performing a process of superimposing pixels.
本発明に係る記録媒体は、上述したコンピュータプログラムが記録されていることを特徴とする。 A recording medium according to the present invention stores the above-described computer program.
本発明においては、入力画像データに含まれる所定の文字領域を検出する。また、入力画像データの注目画素のそれぞれが、入力画像データから抽出したエッジであって、検出した前記所定の文字領域に含まれるか否かに基づいて、各注目画素に複数の色成分の画素を重ね合せる処理(トラッピング処理)を行うか否かを判定する。そして、判定結果に応じてトラッピング処理を行う。例えば、入力画像データから抽出したエッジのうちで、フォントサイズが所定サイズよりも小さい文字の領域に含まれるエッジに対してはトラッピング処理を行わない。これにより、フォントサイズが小さい文字の領域にトラッピング処理を行うことによって生じる画質の劣化を回避する。また、必要な領域にはトラッピング処理を適切に行うことにより、版ずれが生じた場合に発生する白抜けを防止する。 In the present invention, a predetermined character area included in the input image data is detected. Further, based on whether or not each of the target pixels of the input image data is an edge extracted from the input image data and is included in the detected predetermined character area, each target pixel has a plurality of color component pixels. It is determined whether or not to perform a process of overlapping (trapping process). Then, a trapping process is performed according to the determination result. For example, the trapping process is not performed on edges included in a character region having a font size smaller than a predetermined size among edges extracted from input image data. This avoids degradation of image quality caused by performing trapping processing on a character region having a small font size. Further, by appropriately performing a trapping process in a necessary area, white spots that occur when misregistration occurs are prevented.
本発明においては、入力画像データを所定の閾値を基に2値データに変換し、得られた2値データについて、交差する2方向のそれぞれに連続する同一の画素値の画素数を計数する。そして、計数結果に基づいて、入力画像データに含まれる所定の文字領域を検出する。よって、連続する同一の画素値の画素数に基づいて、各注目画素が、フォントサイズが小さい文字の領域、細線の領域、文字と文字との間の領域等に属するかを精度よく判別することが可能となる。 In the present invention, the input image data is converted into binary data based on a predetermined threshold value, and the number of pixels having the same pixel value continuous in each of the two intersecting directions is counted for the obtained binary data. Based on the counting result, a predetermined character area included in the input image data is detected. Therefore, based on the number of consecutive pixels with the same pixel value, it is possible to accurately determine whether each pixel of interest belongs to a character area with a small font size, a thin line area, an area between characters, or the like. Is possible.
本発明においては、入力画像データの注目画素及び注目画素の周辺画素の画素値の平均値に基づく閾値を基に前記入力画像データを2値データに変換する。そして、変換して得られた2値データにおいて、交差する2方向のそれぞれに連続する同一の画素値の画素数に基づいて所定の文字領域を検出する。よって、背景色の影響を抑えることにより、各注目画素がいずれの領域に属するかをより精度よく判別することが可能となる。 In the present invention, the input image data is converted into binary data based on a threshold value based on an average value of pixel values of the target pixel of the input image data and the peripheral pixels of the target pixel. Then, in the binary data obtained by the conversion, a predetermined character area is detected based on the number of pixels having the same pixel value that is continuous in each of the two intersecting directions. Therefore, by suppressing the influence of the background color, it is possible to more accurately determine which region each pixel of interest belongs to.
本発明においては、入力画像データから変換された2値データにおいて、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数を計数する。そして、計数結果に基づいて、入力画像データに含まれる所定の文字領域を検出する。よって、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数に基づいて、各注目画素がいずれの領域に属するかをより精度よく判別することが可能となる。 In the present invention, in the binary data converted from the input image data, the number of pixels having the same pixel value consecutive in each of the two intersecting directions and the direction obliquely intersecting the two directions is counted. Based on the counting result, a predetermined character area included in the input image data is detected. Therefore, it is possible to more accurately determine which region each pixel of interest belongs to based on the number of pixels having the same pixel value that is continuous in each of the two intersecting directions and the direction obliquely intersecting the two directions. Is possible.
本発明においては、交差する2方向、及び該2方向に斜めに交差する方向のそれぞれに連続する同一の画素値の画素数を、方向別に設定された閾値と比較した結果に基づいて前記所定の文字領域であるか否かを判定する。よって、各注目画素がいずれの領域に属するかをより精度よく判別することが可能となる。 In the present invention, the predetermined number of pixels is determined based on the result of comparing the number of pixels having the same pixel value in each of the two intersecting directions and the direction obliquely intersecting the two directions with a threshold value set for each direction. It is determined whether it is a character area. Therefore, it is possible to more accurately determine which region each pixel of interest belongs to.
本発明は、各注目画素が、フォントサイズが小さい文字の領域、細線の領域、文字と文字との間の領域等のいずれに属するかを精度よく判別できる。よって、この判別結果に基づいてトラッピング処理を行うか否かを精度よく判定できる。即ち、文字の線幅、文字間の間隔等を考慮してトラッピング処理を行うか否かを判定するので、トラッピング処理を行うか否かの誤判定を防止し、トラッピング処理を精度よく行うことができる。 The present invention can accurately determine whether each pixel of interest belongs to a character area having a small font size, a thin line area, a region between characters, or the like. Therefore, it is possible to accurately determine whether or not to perform the trapping process based on the determination result. That is, since it is determined whether or not the trapping process is performed in consideration of the line width of the character, the space between the characters, etc., it is possible to prevent an erroneous determination whether or not to perform the trapping process and to perform the trapping process with high accuracy. it can.
以下に、本発明に係る画像処理装置、画像形成装置、画像処理方法、コンピュータプログラム及び記録媒体について、その実施形態を示す図面に基づいて詳述する。 Hereinafter, an image processing apparatus, an image forming apparatus, an image processing method, a computer program, and a recording medium according to the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
(実施形態1)
以下に、実施形態1に係るカラー画像形成装置について説明する。図1は実施形態1に係るカラー画像形成装置の構成を示すブロック図である。本実施形態1のカラー画像形成装置は、入力された画像データ(以下、入力画像データと言う)に対して画像処理を施し、処理後の画像データに基づいて記録用紙などのシート上にカラー画像を形成する。入力画像データは、図示しないコンピュータ上で画像編集ソフトなどのアプリケーションソフトウェアを用いて作成される。作成された入力画像データは、プリンタドライバにてページ記述言語に変換され、ネットワーク等を介してコンピュータからカラー画像形成装置へ伝送される。
(Embodiment 1)
The color image forming apparatus according to
カラー画像形成装置は、図1に示すように、入力画像データを処理するカラー画像処理装置1、及びカラー画像処理装置1によって処理された画像データに基づく画像を形成するカラー画像出力装置(画像形成手段)2などを備えている。カラー画像出力装置2は、記録用紙又はOHPシート等のシート上に画像を形成する例えば電子写真方式又はインクジェット方式等のプリンタである。なお、カラー画像出力装置2は、ディスプレイのような表示装置としてもよい。
As shown in FIG. 1, the color image forming apparatus includes a color
カラー画像処理装置1は、ラスタデータ生成部11、色補正部12、黒生成下地除去部13、セレクタ14、トラッピング処理部15、出力階調補正部16及び階調再現処理部17などを備えている。
The color
ラスタデータ生成部11は、入力されたページ記述言語を解析し、RGB(R:赤、G:緑、B:青)又はCMYK(C:シアン、M:マゼンタ、Y:イエロー、K:黒)のラスタデータを生成する。RGBのラスタデータを生成した場合、ラスタデータ生成部11は、生成したラスタデータを色補正部12へ出力する。一方、CMYKのラスタデータを生成した場合、ラスタデータ生成部11は、生成したラスタデータをセレクタ14へ出力する。
The raster
また、ラスタデータ生成部11は、入力画像データの色空間情報を取得し、取得した色空間情報をセレクタ14へ出力する。さらに、ラスタデータ生成部11は、ラスタデータの各画素が文字領域、ベクター・グラフィックス領域、写真領域、又はそれ以外の何れのものであるかを示すタグ情報を生成し、黒生成下地除去部13及び階調再現処理部17へ出力する。
Further, the raster
色補正部12は、色再現の忠実化実現のために、不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行う。色補正部12は、色補正後の3色のCMY信号を黒生成下地除去部13へ出力する。
The
黒生成下地除去部13は、色補正後のCMY信号から黒(K)信号を生成する黒生成処理、元のCMY信号からK信号を差し引いて新たなCMY信号を生成する処理を行う。これにより、CMYの3色信号はCMYKの4色信号に変換される。黒生成下地除去部13は、生成したCMYK信号をセレクタ14へ出力する。
The black generation
なお、黒生成下地除去部13は、例えばスケルトンブラック処理により黒信号を生成する。この方法では、スケルトンカーブの入出力特性をy=f(x)、入力されるデータをC,M,Y、出力されるデータをC',M',Y',K'、UCR(Under Color Removal)率をα(0<α<1)とした場合、黒生成下色除去処理により出力されるデータ夫々は、K'=f{min(C、M、Y)}、C'=C−αK'、M'=M−αK'、Y'=Y−αK'で表される。
Note that the black generation
セレクタ14は、ラスタデータ生成部11及び黒生成下地除去部13からCMYK信号が入力されており、ラスタデータ生成部11から出力された色空間情報に基づいて、何れか一方の信号を出力する。色空間情報がRGBである場合、セレクタ14は、黒生成下地除去部13から入力されたCMYK信号をトラッピング処理部15へ出力する。色空間情報がCMYKである場合、セレクタ14は、ラスタデータ生成部11から直接入力されたCMYK信号をトラッピング処理部15へ出力する。従って、入力画像データの色空間情報がCMYKであった場合、トラッピング処理部15には、色補正部12及び黒生成下地除去部13で処理されていないCMYK信号が入力される。
The
トラッピング処理部15は、入力されたラスタデータに対して、版ずれ時の白抜けを防止するためのトラッピング処理を行う。そして、トラッピング処理部15は、処理後のCMYK信号を出力階調補正部16へ出力する。なお、トラッピング処理部15の構成及び処理内容については後述する。
The trapping
出力階調補正部16は、カラー画像出力装置2の特性に基づく出力階調補正処理を行い、階調再現処理部17は、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)を施す。階調再現処理部17は、ラスタデータ生成部11からのタグ情報に基づいて写真と判定されている領域に関しては、階調再現性を重視したスクリーンでの二値化又は多値化処理を行う。
The output tone correction unit 16 performs output tone correction processing based on the characteristics of the color
次に、トラッピング処理部15について説明する。図2はトラッピング処理部15の構成を示すブロック図である。トラッピング処理部15は、入力ラインバッファ部21、2値化処理部22、画素カウント部23、文字検出部24、トラッピング判定処理部25、トラッピング重ね合せ処理部26、閾値記憶部27などを備えている。なお、図2において、入力及び出力の信号線などは1本のみ描いているが、実際にはCMYKの4つの色成分毎に信号線があるものとする。セレクタ14から出力されてトラッピング処理部15に入力されたラスタデータ(CMYK信号)は、入力ラインバッファ部21及びトラッピング重ね合せ処理部26に入力される。
Next, the trapping
図3は入力ラインバッファ部21の構成を示すブロック図である。入力ラインバッファ部21は、プレーン(色成分)毎に、セレクタ14が出力した入力画像データ(CMYK信号)をライン単位で一時的に格納するラインバッファ212を複数備えている。また、入力ラインバッファ部21は、入力画像データをラインバッファ212に書き込むバッファ書込制御部211と、ラインバッファ212から画像データを読み出すバッファ読出制御部213とを備える。複数のラインバッファ212により、後段の2値化処理部22及びトラッピング判定処理部25は、マスク処理等を行う際に複数ラインのデータを参照できるようになっている。
FIG. 3 is a block diagram showing the configuration of the input
バッファ読出制御部213は、複数のラインバッファ212の所定領域に格納された画像データ(ラインデータ)を順次読み出して、後段の2値化処理部22及びトラッピング判定処理部25へ出力する。なお、ラインバッファ212の所定領域から順次読み出される画像データ(ラインデータ)は、後段の2値化処理部22及びトラッピング判定処理部25において、注目画素と所定のマスクサイズ内の周辺画素とを含む処理対象の画素データ群として取得される。
The buffer read
図4は2値化処理部22が行う2値化処理を説明するための模式図である。2値化処理部22には、閾値記憶部27に記憶されている閾値と、入力ラインバッファ部21から出力されるラインデータとが入力される。なお、本実施形態1では、入力ラインバッファ部21から出力されるラインデータを5×5のマスクサイズを1ブロックとしてブロック単位で処理するものとして説明する。しかし、マスクサイズはこれに限るものではなく、必要に応じて最適なサイズとすればよい。また、図4に示したブロックにおいては、横方向を画像データの主走査方向とし、縦方向を副走査方向とする。
FIG. 4 is a schematic diagram for explaining the binarization processing performed by the
2値化処理部22は比較器を備え、閾値記憶部27から入力される閾値と、入力ラインバッファ部21から入力されるラインデータに含まれるそれぞれの画素データ(画素値)とを比較する。そして、2値化処理部22は、比較結果に基づいて、入力されたラインデータを2値データに変換する。図4に示した例では、閾値が84h(16進数で84)としており、閾値以上の画素値が1に、閾値未満の画素値が0にそれぞれ変換される。
The
図5は画素カウント部23の構成を示すブロック図、図6は画素カウント部23が行う画素カウント処理を説明するための模式図である。画素カウント部23には、2値化処理部22によって2値データに変換されたラインデータが、5×5画素のブロック単位で入力される。画素カウント部23は、図6(a)に示すように、2値化処理部22から出力されてくる5×5画素のブロックの主走査方向及び副走査方向のそれぞれにおいて、連続する同一の画素値(1又は0)の画素数をカウントする。なお、本実施形態1では、画素値が1の画素が連続する画素数をカウントする。
FIG. 5 is a block diagram showing the configuration of the
画素カウント部23は、図5に示すように、主走査方向及び副走査方向のそれぞれに配列される5つの画素値について、それぞれ隣り合う画素値の論理積を算出する4つのAND回路231,231を有する。また、画素カウント部23は、AND回路231,231のそれぞれからの出力値について、それぞれ隣り合う出力値の論理積を算出する3つのAND回路232,232を有する。また、画素カウント部23は、AND回路232,232のそれぞれからの出力値について、それぞれ隣り合う出力値の論理積を算出する2つのAND回路233,233を有する。
As shown in FIG. 5, the
また、画素カウント部23は、AND回路233,233のそれぞれからの出力値の論理積を算出するAND回路234、AND回路233,233のそれぞれからの出力値の論理和を算出するOR回路235を有する。また、画素カウント部23は、3つのAND回路232,232からの出力値の論理和を算出するOR回路236、4つのAND回路231,231からの出力値の論理和を算出するOR回路237、入力された5つの画素値の論理和を算出するOR回路238を有する。そして、画素カウント部23は、AND回路234からの出力値A、OR回路235,236,237,238からの出力値B,C,D,Eに基づいて、主走査方向(又は副走査方向)において連続する同一の画素値(ここでは1)の画素数(カウント値)を特定して出力するカウント結果出力部239を有する。
In addition, the
図6(b)は、カウント結果出力部239に入力される入力値A,B,C,D,Eと、カウント結果出力部239から出力されるカウント値との対応関係を示している。図6(b)に示すように、例えば、入力値A,B,C,D,Eが全て1であれば、カウント結果出力部239は、画素値が1の画素が5画素連続していることを示すカウント値「5」を出力する。また、入力値Aが0で、入力値B,C,D,Eが1であれば、カウント結果出力部239は、画素値が1の画素が4画素連続していることを示すカウント値「4」を出力する。
FIG. 6B shows a correspondence relationship between the input values A, B, C, D, and E input to the count
このような構成により、画素カウント部23は、2値化処理部22から取得した5×5画素のブロックにおいて、主走査方向及び副走査方向のそれぞれについて、画素値が1の画素が連続する画素数(カウント値)をカウントする。なお、画素カウント部23は、主走査方向及び副走査方向のそれぞれについてカウントした10種類のカウント値を文字検出部24へ出力する。
With such a configuration, the
図7は文字検出部24の構成を示すブロック図である。文字検出部24は、第1比較器241、第2比較器242、小文字判定部243、文字検出用閾値記憶部244等を備える。文字検出部24には、画素カウント部23から出力された10種類のカウント値が入力され、主走査方向についての5つのカウント値が第1比較器241に入力され、副走査方向についての5つのカウント値が第2比較器242に入力される。
FIG. 7 is a block diagram showing a configuration of the
また、比較器241,242には、文字検出用閾値記憶部244に記憶されている閾値(例えば5)が入力されている。文字検出用閾値記憶部244に記憶されている閾値は、5×5画素のブロックの中央の画素(注目画素)が、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域等に含まれるか否かを判別するための閾値である。よって、判別精度を考慮した適切な値が設定される。
Further, the threshold values (for example, 5) stored in the character detection
比較器241,242は、画素カウント部23から入力されるカウント値のそれぞれと、文字検出用閾値記憶部244から入力される閾値とを比較し、比較結果を小文字判定部243へ出力する。なお、比較器241,242は、例えば、各カウント値が閾値以上であれば1を、閾値未満であれば0を出力する。
The
小文字判定部243は、比較器241,242からそれぞれ出力された比較結果に基づいて、5×5画素のブロックが小文字領域に属するか否かを判定する。例えば、小文字判定部243は、比較器241,242から出力された10種類の比較結果のいずれかが1ではない場合に、このブロックは小文字領域に属すると判定する。即ち、10種類の比較結果の全てが1である場合、このブロックは小文字領域に属さないと判定する。
The lowercase
この場合、5×5画素のブロックにおいて、主走査方向及び副走査方向のそれぞれについて連続する画素値が1の画素数が所定値(閾値)以上でなければ、小文字領域であると判定される。なお、このように判定した場合、各ブロックが、フォントサイズが所定サイズよりも小さい文字の領域に含まれる場合だけでなく、各ブロックが、細線の領域、文字と文字との間の領域に含まれるか否かも判別できる。なお、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域をまとめて小文字領域という。 In this case, in a 5 × 5 pixel block, if the number of pixels having a continuous pixel value of 1 in each of the main scanning direction and the sub-scanning direction is not equal to or greater than a predetermined value (threshold value), it is determined that the region is a lowercase area. In addition, when determined in this way, each block is included not only in the case where the font size is smaller than the predetermined size but also in the region between the thin lines and between the characters. It can also be determined whether or not. Note that a character area, a fine line area, and an area between characters that have a font size smaller than a predetermined size are collectively referred to as a lowercase area.
小文字判定部243は、処理対象のブロックが小文字領域に属すると判定した場合、このブロックの中央の画素(注目画素)が小文字領域に属すると判定し、この注目画素に対する小文字判定結果として「1」をトラッピング判定処理部25へ出力する。また、小文字判定部243は、処理対象のブロックが小文字領域に属さないと判定した場合、このブロックの注目画素が小文字領域に属さないと判定し、この注目画素に対する小文字判定結果として「0」をトラッピング判定処理部25へ出力する。なお、文字検出用閾値記憶部244に記憶されている閾値はこの値に限らず、トラッピング処理部15が入力画像データを処理する際のブロックのマスクサイズに応じて適宜変更すればよい。
When the
図8はトラッピング判定処理部25の構成を示すブロック図である。トラッピング判定処理部25は、入力画像データの各画素にトラッピング重ね合せ処理を行うかを判定(以下、トラップ判定と言う)し、さらに、重ね合せ処理を行う際に重ね合せる色(以下、トラップ色と言う)を決定する。
FIG. 8 is a block diagram illustrating a configuration of the trapping
図9は入力画像データの一例を模式的に示す図である。以下、図9に示す15×15画素の入力画像データに対して処理を行うものとして説明する。図9では、横方向を画像データの主走査方向、縦方向を副走査方向とし、斜線部分の画素がシアン(C)の純色、白抜部分の画素がマゼンダ(M)の純色を示している。従って、マゼンダ(M)のみの画素(例えば、主走査方向1、副走査方向1の画素)における画素値(M,C)は、(255,0)となる。また、シアン(C)のみの画素(例えば、主走査方向8、副走査方向8の画素)における画素値(M,C)は、(0,255)となる。なお、他の色成分(Y及びK)はないものとし、以下の説明では、シアン(C)及びマゼンダ(M)についてのみ説明する。
FIG. 9 is a diagram schematically illustrating an example of input image data. In the following description, it is assumed that processing is performed on the input image data of 15 × 15 pixels shown in FIG. In FIG. 9, the horizontal direction is the main scanning direction of the image data, the vertical direction is the sub-scanning direction, the shaded pixels are cyan (C) pure colors, and the white pixels are magenta (M) pure colors. . Therefore, the pixel value (M, C) in the pixel having only magenta (M) (for example, the pixel in the
トラッピング判定処理部25は、図8に示すように、主走査側及び副走査側エッジ量算出部251,252、主走査側及び副走査側類似色方向判定部253,254、トラップ判定・トラップ色算出部255、セレクタ256などを備える。
As shown in FIG. 8, the trapping
トラッピング判定処理部25には、入力ラインバッファ部21から出力されるラインデータ(入力画像データ)と、文字検出部24から出力される小文字判定結果とが入力される。ラインデータは、セレクタ256に入力され、小文字判定結果は、セレクタ256及びトラップ判定・トラップ色算出部255に入力される。
The trapping
セレクタ256は、文字検出部24から小文字判定結果として「1」が入力された場合、ラインデータをエッジ量算出部251,252へ転送しない。即ち、文字検出部24によって小文字領域に含まれると判定された注目画素については、トラッピング判定処理部25はトラップ判定を行わない。また、トラップ判定・トラップ色算出部255は、小文字判定結果として「1」が入力された場合、トラップ判定結果として、トラップ判定を無効とする「0」をトラッピング重ね合せ処理部26へ出力する。即ち、文字検出部24によって小文字領域に含まれると判定された注目画素について、後述するトラッピング重ね合せ処理部26はトラッピング重ね合せ処理を行わない。
The
一方、セレクタ256は、文字検出部24から小文字判定結果として「0」が入力された場合、入力されたラインデータを主走査側及び副走査側エッジ量算出部251,252へ転送する。即ち、文字検出部24によって小文字領域に含まれないと判定された注目画素については、トラッピング判定処理部25はトラップ判定を行う。また、トラップ判定・トラップ色算出部255は、小文字判定結果として「0」が入力された場合、後述するトラップ判定及びトラップ色の決定を行い、処理結果(トラップ判定結果、トラップ色)をトラッピング重ね合せ処理部26に対して出力する。
On the other hand, when “0” is input as the lowercase determination result from the
このように、文字検出部24から小文字判定結果として「1」が入力された場合、即ち、処理対象の注目画素が小文字領域に属する場合、トラッピング判定処理部25は、トラップ判定結果として、トラップ判定を無効とする「0」をトラッピング重ね合せ処理部26へ出力する。従って、小文字領域に属すると判定された注目画素に対してはトラッピング重ね合わせ処理を行わないことにより、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域に含まれる注目画素に対してトラッピング処理を行うことによって生じる画質の劣化を回避できる。一方、文字領域に属さないと判定された注目画素に対してはトラッピング重ね合わせ処理を行うことにより、必要な領域にはトラッピング処理を適切に行うことにより、版ずれが生じた場合に発生する白抜けを防止する。
As described above, when “1” is input as the lowercase determination result from the
主走査側及び副走査側エッジ量算出部251,252は、セレクタ256を介して入力された入力画像データの各プレーン(色成分毎の画像データ)に対して、微分フィルタを用いて主走査方向及び副走査方向それぞれのエッジ量を算出する。図10は微分フィルタの一例を模式的に示す図であり、(a)は主走査方向、(b)は副走査方向に対して用いる微分フィルタである。なお、図10では5×5のマスクサイズを示しているがこれに限るものではない。このような微分フィルタを用いることにより、色成分毎に、各画素と周囲の画素との主走査方向及び副走査方向における色差を示すエッジ量を算出する。
The main scanning side and sub scanning side edge
版の色境界(以下、トラッピング境界と言う)からどれくらいの幅までトラッピングを行うかを示すトラップ幅は、マスクサイズに依存する。従って、微分フィルタは、必要に応じて最適なマスクサイズを選択することができる。一般的に、トラップ幅を大きくした場合、色の重ね合せ領域が大きくなり、その領域が偽色として目立つため、画質としては悪くなる。一方、トラップ幅が小さい場合、版ずれの量が大きい場合に白抜けが目立つ結果となる。そのため、版ずれの量の大きさと偽色による画質低下のバランスにより、最適なトラップ幅、及びマスクサイズを決めることができる。 The trap width indicating how much the trapping is performed from the color boundary of the plate (hereinafter referred to as the trapping boundary) depends on the mask size. Therefore, the differential filter can select an optimal mask size as necessary. In general, when the trap width is increased, the color superposition region becomes large and the region is conspicuous as a false color, so that the image quality is deteriorated. On the other hand, when the trap width is small, white spots are conspicuous when the amount of misregistration is large. Therefore, the optimum trap width and mask size can be determined based on the balance between the amount of misregistration and the deterioration in image quality due to false colors.
図11は、図10の微分フィルタを用いて、図9の入力画像データに対してエッジ量を算出した結果の一部を示す図である。図11において、画素内の左側に表示されている数字は、シアン(C)に対して算出したエッジ量であり、上側が主走査方向、下側が副走査方向のエッジ量を示している。また、画素内の右側に表示されている数字は、マゼンダ(M)に対して算出したエッジ量であり、上側が主走査方向、下側が副走査方向のエッジ量を示している。 FIG. 11 is a diagram illustrating a part of the result of calculating the edge amount for the input image data of FIG. 9 using the differential filter of FIG. In FIG. 11, the numbers displayed on the left side of the pixels are the edge amounts calculated for cyan (C), with the upper side showing the edge amount in the main scanning direction and the lower side showing the edge amount in the sub-scanning direction. The number displayed on the right side in the pixel is the edge amount calculated for magenta (M), the upper side indicates the edge amount in the main scanning direction, and the lower side indicates the edge amount in the sub-scanning direction.
例えば、主走査方向8、副走査方向8の画素の場合、シアン(C)のエッジ量は、主走査方向及び副走査方向の何れも「765」となり、マゼンダ(M)は、「−765」となる。また、図11では省略しているが、エッジから離れた画素(例えば、主走査方向1、副走査方向1の画素)では、エッジ量は主走査側及び副走査側の何れも「0」となる。このように、入力画像データにおけるシアン(C)とマゼンダ(M)との境界(エッジ)付近では、エッジ量は0でない値を持つ。
For example, in the case of pixels in the
主走査側及び副走査側類似色方向判定部253,254は、エッジ量算出部251,252が算出したエッジ量に対して、主走査方向及び副走査方向それぞれについての類似色方向を判定する。類似色方向とは、注目画素の色と類似している画素がある方向である。まず、類似色方向判定部253,254は、CMYKのうち少なくとも2つのプレーン(本実施形態では、C及びM色成分)で、エッジ量の絶対値が閾値(例えば240)以上であり、エッジ量のそれぞれが正負の値となる画素が存在するか否かを判定する。なお、このような画素は、版ずれが生じた場合に白抜けが発生するエッジとなる。
The main scanning side and sub-scanning side similar color
このような画素が存在する場合、類似色方向判定部253,254は、この画素に対して、エッジが存在すると判定する。このような画素が存在しない場合、類似色方向判定部253,254は、類似色方向の判定結果として「0」をトラップ判定・トラップ色算出部255へ出力する。なお、閾値は、どの程度までエッジを検出するかなどによって適宜変更可能である。
When such a pixel exists, the similar color
図11の主走査方向4、副走査方向6の画素の場合、主走査方向のエッジ量は、シアン(C)が255、マゼンダ(M)が−255となっているため、かかる画素にはエッジが存在すると判定される。エッジが存在すると判定した場合、類似色方向判定部253,254は、エッジが存在すると判定した画素(注目画素)と、インクリメント方向領域・デクリメント方向領域内の画素の画素値の平均値とに基づいて色差(col_diff)を算出する。
In the case of a pixel in the
図12は、インクリメント方向領域及びデクリメント方向領域を説明するための模式図であり、(a)は主走査方向、(b)は副走査方向の場合を示している。主走査方向では、中央の注目画素Pより左側がデクリメント方向領域となり、右側がインクリメント方向領域となる。また、副走査方向の場合、中央の注目画素Pより上側がデクリメント方向領域となり、下側がインクリメント方向領域となる。 FIG. 12 is a schematic diagram for explaining the increment direction area and the decrement direction area, where (a) shows the case in the main scanning direction and (b) shows the case in the sub scanning direction. In the main scanning direction, the left side from the center pixel of interest P is a decrement direction area, and the right side is an increment direction area. In the case of the sub-scanning direction, the upper side from the central target pixel P is a decrement direction area, and the lower side is an increment direction area.
注目画素Pのシアン(C)、マゼンダ(M)、イエロー(Y)及びブラック(K)それぞれの画素値を、C1 、M1 、Y1 、K1とし、インクリメント方向領域又はデクリメント方向領域内の画素の画素値の平均値を、C2、M2、Y2、K2とした場合、注目画素と、インクリメント方向領域又はデクリメント方向領域との色差(col_diff)は、以下の式1により算出される。
The pixel values of cyan (C), magenta (M), yellow (Y), and black (K) of the target pixel P are set to C 1 , M 1 , Y 1 , and K 1 , respectively, in the increment direction area or the decrement direction area. When the average value of the pixel values of C 2 , C 2 , M 2 , Y 2 , and K 2 is used, the color difference (col_diff) between the pixel of interest and the increment direction area or the decrement direction area is calculated by the following
col_diff=|C1 −C2|+|M1 −M2|+|Y1 −Y2|+|K1 −K2| …(式1) col_diff = | C 1 −C 2 | + | M 1 −M 2 | + | Y 1 −Y 2 | + | K 1 −K 2 | (Formula 1)
類似色方向判定部253,254は、上記の式1により、インクリメント方向領域及びデクリメント方向領域との色差(col_diff)を算出した結果、色差の小さい方向を類似色方向とする。例えば、注目画素P及びインクリメント方向領域に基づいて算出した色差が、注目画素P及びデクリメント方向領域に基づいて算出した色差よりも小さい場合、インクリメント方向が類似色方向とされる。
The similar color
類似色方向判定部253,254は、インクリメント方向が類似色方向と判定した場合、判定結果として「1」をトラップ判定・トラップ色算出部255へ出力する。また、類似色方向判定部253,254は、デクリメント方向が類似色方向と判定した場合、判定結果として「−1」をトラップ判定・トラップ色算出部255へ出力する。なお、類似色方向判定部253,254は、エッジが存在しないと判定した場合、類似色方向は「なし」とし、判定結果として「0」をトラップ判定・トラップ色算出部255へ出力する。
When the increment direction is determined to be the similar color direction, the similar color
図13は、図9の入力画像データに対して、類似色方向判定を実行した結果の一部を示す図である。各画素内の数値は、類似色方向の判定結果を示しており、上側の数値が主走査方向、下側の数値が副走査方向を示している。例えば、主走査方向6、副走査方向7の画素の場合、主走査方向及び副走査方向における類似色方向は何れも−1、即ちデクリメント方向となり、注目画素は、デクリメント方向の画素と色が類似していることになる。
FIG. 13 is a diagram illustrating a part of the result of executing the similar color direction determination on the input image data in FIG. 9. The numerical value in each pixel indicates the determination result of the similar color direction, the upper numerical value indicates the main scanning direction, and the lower numerical value indicates the sub-scanning direction. For example, in the case of pixels in the
トラップ判定・トラップ色算出部255は、エッジ量算出部251,252、並びに類似色方向判定部253,254における処理結果に基づいて、トラップ判定及びトラップ色の決定を行う。まず、トラップ判定・トラップ色算出部255は、マスクサイズ内の画素に対して代表色を算出する。
The trap determination / trap
図14及び図15は、代表色を算出する際に参照する領域を説明するための模式図である。図14は、複数画素の画素値の平均値に基づいて代表色を算出する場合、図15は、1つの画素の画素値に基づいて代表色を算出する場合をそれぞれ示している。以下の説明では、図14に示す領域を用いて代表色を算出する方法を面積タイプと言い、図15の方法を点タイプと言う。 14 and 15 are schematic diagrams for explaining regions to be referred to when calculating representative colors. FIG. 14 shows a case where a representative color is calculated based on an average value of pixel values of a plurality of pixels, and FIG. 15 shows a case where a representative color is calculated based on the pixel value of one pixel. In the following description, the method of calculating the representative color using the region shown in FIG. 14 is referred to as an area type, and the method of FIG. 15 is referred to as a point type.
トラップ判定・トラップ色算出部255は、類似色方向判定部253,254による判定結果に対して、注目側及び反対側の代表色を色成分毎に算出する。例えば、図13において、主走査方向6、副走査方向7の画素は、主走査方向及び副走査方向における類似色方向は何れも「−1」である。そして、面積タイプに基づいて代表色を算出する場合、注目側の代表色(代表色画素値)は、図14(a)に示す(−1,−1)の領域内の画素値の平均値となる。このとき、反対側の代表色は、(1,1)の領域内の画素値の平均値となる。また、点タイプに基づいて代表色を算出する場合、注目側の代表色は、図15に示す(−1,−1)の画素値となり、反対側の代表色は、(1,1)の画素値となる。以下、代表色は、面積タイプに基づいて算出するものとして説明する。
The trap determination / trap
図16は、注目側及び反対側の代表色を算出した結果の一部を示す図である。各画素内の数値は、算出した代表色の画素値を示しており、画素内の右側に表示されている数字はマゼンダ(M)、左側の数字はシアン(C)に対して算出した代表色の画素値を示している。また、上側の数値が注目側の代表色の画素値、下側の数値が反対側の代表色の画素値を示している。例えば、主走査方向6、副走査方向7の画素の場合、注目側の代表色は、マゼンダ(M)、反対側の代表色は、シアン(C)となる。
FIG. 16 is a diagram illustrating a part of the result of calculating the representative color on the attention side and the opposite side. The numerical value in each pixel indicates the pixel value of the calculated representative color. The number displayed on the right side of the pixel is magenta (M), and the left number is the calculated representative color for cyan (C). The pixel value is shown. The upper numerical value indicates the pixel value of the representative color on the attention side, and the lower numerical value indicates the pixel value of the representative color on the opposite side. For example, in the case of pixels in the
トラップ判定・トラップ色算出部255は、注目側及び反対側の代表色を算出した後、以下の式2から式5に基づいて輝度値Lを算出する。式2から式4の(Crep,Mrep,Yrep,Krep)は、注目側及び反対側それぞれの代表色の画素値であり、これらの式は、CMYKをRGBに変換するための式である。式5は、変換したRGBを用いて輝度値Lを算出する式である。
The trap determination / trap
トラップ判定・トラップ色算出部255は、上記の式により算出した注目側及び反対側それぞれの輝度値を対比し、注目側の輝度値が反対側の輝度値より低い場合、輝度が明るい領域(色が薄い領域)を拡大させるために、トラップ判定を有効とする。輝度が明るい方の領域を広げることで、オブジェクトの形状が変形されることを防ぐことができる。トラップ判定を有効とした場合、トラップ判定・トラップ色算出部255は、反対側の領域、即ち、輝度が高い方の代表色をトラップ色(Ctrap ,Mtrap,Ytrap,Ktrap)に決定する。また、注目側の輝度値が反対側の輝度値より高い場合、トラップ判定・トラップ色算出部255は、トラップ判定を無効とする。
The trap determination / trap
図17は、注目側及び反対側の代表色に基づいて算出した輝度値及びトラップ判定の結果の一部を示す図である。各画素内の数値は、算出した注目側及び反対側の輝度値、及び、トラップ判定結果を示しており、トラップ判定結果は、「1」がトラップ判定を有効とした場合、「0」がトラップ判定を無効とした場合である。例えば、主走査方向6、副走査方向7の画素の場合、注目側の輝度値が反対側の輝度値より低いため、トラップ判定は有効となり、トラップ判定が1とされる。トラップ判定・トラップ色算出部255は、この画素に対して、決定されたトラップ色、即ち、シアン(C)をトラップ色(図16参照)として重ね合せの処理を行うよう決定する。
FIG. 17 is a diagram illustrating a part of the luminance value calculated based on the representative color on the attention side and the opposite side and the result of the trap determination. The numerical value in each pixel indicates the calculated luminance value on the opposite side and the opposite side, and the trap determination result. As for the trap determination result, when “1” enables trap determination, “0” indicates trapping. This is a case where the determination is invalid. For example, in the case of pixels in the
トラッピング判定処理部25は、トラップ判定・トラップ色算出部255による上述の処理結果を、トラッピング重ね合せ処理部26に対して出力する。なお、トラッピング重ね合せ処理部26には、入力画像データ(CMYK信号)が入力されている。
The trapping
トラッピング重ね合せ処理部26は、トラッピング判定処理部25から出力されるトラップ判定結果及びトラップ色(Ctrap,Mtrap,Ytrap,Ktrap)を用いて、入力画像データ(Cin,Min,Yin,Kin)に対してトラッピング重ね合せ処理を行う。トラッピング重ね合せ処理部26は、トラップ判定結果が1のとき、色成分毎に、入力画像データとトラップ色とにおいて大きい方の値を出力画素の画素値とする。即ち、出力画素をCout ,Mout ,Yout ,Kout とした場合に、Cout =MAX(Cin,Ctrap),Mout =MAX(Min,Mtrap),Yout =MAX(Yin,Ytrap),Kout =MAX(Kin,Ktrap)とする。なお、MAX(A,B)は、A,Bのうちの大きい方の値を示す。
The trapping
なお、ブラック(K)については、重ね合せたとき、重ねた画素値が目立ちやすい場合があるため、他の色成分と同様の処理を行う、又は、重ね合せ処理を行わないという選択をできるようにしてもよい。
トラップ判定結果が0のとき、トラッピング重ね合せ処理部26は、入力画像データの画素値を、出力画素の画素値とする。
For black (K), the superimposed pixel values may be noticeable when they are superimposed, so that the same processing as other color components can be performed, or it can be selected not to perform the overlapping processing. It may be.
When the trap determination result is 0, the trapping and
図18及び図19はトラッピング重ね合せ処理を行った結果の一部を示す図であり、図18は、図14に示すような面積タイプでトラップ色を算出した場合を、図19は、図15に示すような点タイプでトラップ色を算出した場合を示している。 18 and 19 are diagrams showing a part of the result of performing the trapping and superimposing process. FIG. 18 shows a case where the trap color is calculated with the area type as shown in FIG. 14, and FIG. The case where the trap color is calculated by the point type as shown in FIG.
面積タイプでトラップ色を算出した場合、図18に示すように、シアン(C)とマゼンダ(M)との境界付近では、マゼンダ(M)側にシアン(C)の値がトラッピングされた画像となる。また、面積タイプでトラップ色を算出した場合、境界から離れるに従って色が薄くなるが、これは、重ね合せた箇所(トラッピング箇所)を目立ちにくくする効果がある。
一方、点タイプでトラップ色を算出した場合、図19に示すように色が薄くならない。そのため、重ね合せた箇所が目立ちやすくなるが、版ずれ時の白ぬけの視認度合いは低くなる。
When the trap color is calculated for the area type, as shown in FIG. 18, in the vicinity of the boundary between cyan (C) and magenta (M), an image in which the value of cyan (C) is trapped on the magenta (M) side Become. Further, when the trap color is calculated by the area type, the color becomes lighter as the distance from the boundary increases. This has an effect of making the overlapped portion (trapping portion) inconspicuous.
On the other hand, when the trap color is calculated for the point type, the color does not lighten as shown in FIG. For this reason, the overlapped portion is easily noticeable, but the degree of visual recognition of whitening at the time of plate displacement is low.
従って、トラップ判定・トラップ色算出部255は、版ずれが少ないときの偽色による画質劣化、又は版ずれが大きい時の白抜けによる画質劣化など、どちらの問題を優先するかに応じて、面積タイプ及び点タイプの何れかに切り替えて、代表色を算出するようにしてもよい。
Therefore, the trap determination / trap
次に、本実施形態1のカラー画像処理装置1の動作について説明する。図20は、カラー画像処理装置1によるトラッピング処理を示すフローチャートである。なお、以下のトラッピング処理は、カラー画像処理装置1のトラッピング処理部15が行う処理である。
Next, the operation of the color
カラー画像処理装置1のトラッピング処理部15は、セレクタ14から入力された入力画像データを、入力ラインバッファ部21のラインバッファ212に順次書き込む(S1)。トラッピング処理部15は、ラインバッファ212の所定領域に入力画像データ(ラインデータ)が書き込まれたか否かを判断する(S2)。書き込みが完了していないと判断した場合(S2:NO)、トラッピング処理部15は、ステップS1に処理を戻し、入力画像データのラインバッファ212への書き込みを継続する。
The trapping
ラインバッファ212の所定領域への書き込みが完了したと判断した場合(S2:YES)、トラッピング処理部15は、ラインバッファ212のそれぞれに書き込まれたラインデータを順次読み出す(S3)。トラッピング処理部15は、ラインバッファ212から読み出したラインデータに対して2値化処理を行う(S4)。なお、トラッピング処理部15は、ラインバッファ212の所定領域から読み出したラインデータを、注目画素と所定のマスクサイズ内の周辺画素とを含む処理対象の画素データ群(例えば、5×5画素のブロック)として取得する。また、トラッピング処理部15は、閾値記憶部27に記憶してある閾値に基づいて、ラインデータを2値データに変換する。
When it is determined that the writing to the predetermined area of the
トラッピング処理部15は、2値データに変換したラインデータに対して、主走査方向及び副走査方向のそれぞれにおいて画素値が1の画素が連続する画素数をカウントする(S5)。トラッピング処理部15は、主走査方向及び副走査方向のそれぞれにおいてカウントした画素数に基づいて、ラインデータによって構成されるブロックの中央の画素(注目画素)が、小文字領域に属するか否かを判定する(S6)。
The trapping
トラッピング処理部15は、注目画素が小文字領域に属さないと判定した場合(S6:NO)、この注目画素に対してトラッピング判定処理を行う(S7)。なお、トラッピング判定処理の詳細については後述する。トラッピング処理部15は、ステップS7でのトラップ判定結果及び決定したトラップ色を用いて、注目画素に対してトラッピング重ね合せ処理を行う(S8)。
If the
なお、トラッピング処理部15は、注目画素が小文字領域に属すると判定した場合(S6:YES)、ステップS7,S8の処理をスキップする。即ち、注目画素が小文字領域に属する場合にはトラッピング重ね合せ処理を行わないことにより、小文字領域に対してトラッピング重ね合せ処理を行った場合に生じる画質の劣化を防止できる。また、注目画素が小文字領域に属さない場合にはトラッピング重ね合せ処理を行うことにより、版ずれが生じた場合に発生する白抜きを防止できる。
Note that when the trapping
トラッピング処理部15は、入力画像データに含まれる全ての画素に対して処理を行ったか否かを判断し(S9)、全ての画素に対する処理が完了していないと判断した場合(S9:NO)、ステップS1へ処理を戻す。全ての画素に対する処理が完了したと判断した場合(S9:YES)、トラッピング処理部15は本処理を終了する。
The trapping
次に、上述したトラッピング処理におけるトラッピング判定処理(図20中のステップS7)についてフローチャートに基づいて説明する。図21乃至23はトラッピング判定処理の手順を示すフローチャートである。なお、以下のトラッピング判定処理は、トラッピング処理部15のトラッピング判定処理部25が行う処理である。
Next, the trapping determination process (step S7 in FIG. 20) in the trapping process described above will be described based on a flowchart. 21 to 23 are flowcharts showing the procedure of the trapping determination process. The following trapping determination process is a process performed by the trapping
トラッピング処理部15は、入力画像データの各プレーンに対して、注目画素と所定のマスクサイズ内の周辺画素とを処理対象の画素としてそれぞれ取得する(S11)。なお、ラインバッファ212の所定領域から読み出されたラインデータは、注目画素と所定のマスクサイズ内の周辺画素とを含む処理対象の画素データ群となる。トラッピング処理部15は、各プレーンの処理対象の画素に対して、図10に示す微分フィルタを用いて主走査方向及び副走査方向それぞれのエッジ量を算出する(S12)。
The trapping
次に、トラッピング処理部15は、主走査方向及び副走査方向のそれぞれについて、4つのプレーンのうちの1つのプレーンに対するエッジ量を選択し(S13)、選択したエッジ量の絶対値が閾値(例えば240)以上であるか否かを判断する(S14)。選択したエッジ量の絶対値が閾値以上であると判断した場合(S14:YES)、トラッピング処理部15は、選択したエッジ量が正の数であるか否かを判断する(S15)。
Next, the trapping
トラッピング処理部15は、選択したエッジ量が正の数であると判断した場合(S15:YES)、ステップS13で選択したエッジ量のプレーンに対するエッジ判定を1とし(S16)、選択したエッジ量が負の数であると判断した場合(S15:NO)、ステップS13で選択したエッジ量のプレーンに対するエッジ判定を−1とする(S17)。なお、選択したエッジ量の絶対値が閾値未満であると判断した場合(S14:NO)、トラッピング処理部15は、ステップS13で選択したエッジ量のプレーンに対するエッジ判定を0とする(S18)。
When the trapping
トラッピング処理部15は、4つのプレーン全てに対するエッジ量について、ステップS14,S15の判定を行ったか否かを判断し(S19)、行っていないと判断した場合(S19:NO)、ステップS13に処理を戻し、まだ判定が行われていないプレーンに対するエッジ量を選択する(S13)。トラッピング処理部15は、選択したエッジ量に対してステップS14〜S18の処理を行い、全てのプレーンに対するエッジ量についてステップS14〜S18の処理を行う。
The trapping
トラッピング処理部15は、全てのプレーンに対するエッジ量について、ステップS14,S15の判定を行ったと判断した場合(S19:YES)、ステップS16〜S18で決定した各プレーンに対するエッジ判定に1及び−1が含まれているか否かを判断する(S20)。各プレーンに対するエッジ判定に1及び−1が含まれていないと判断した場合(S20:NO)、トラッピング処理部15は、類似色方向の判定結果を0とし(S21)、ステップS27へ処理を移行する。
When the trapping
各プレーンに対するエッジ判定に1及び−1が含まれていると判断した場合(S20:YES)、即ち、処理対象の注目画素にエッジが存在する場合、トラッピング処理部15は、この注目画素と、インクリメント方向領域との色差を算出する(S22)。また、トラッピング処理部15は、この注目画素と、デクリメント方向領域との色差を算出する(S23)。トラッピング処理部15は、インクリメント方向領域との色差と、デクリメント方向領域との色差とを比較し、インクリメント方向領域との色差の方が小さいか否かを判断する(S24)。
If it is determined that 1 and −1 are included in the edge determination for each plane (S20: YES), that is, if there is an edge in the target pixel to be processed, the trapping
トラッピング処理部15は、インクリメント方向領域との色差の方が小さいと判断した場合(S24:YES)、類似色方向の判定結果を1とし(S25)、インクリメント方向領域との色差の方が大きいと判断した場合(S24:NO)、類似色方向の判定結果を−1とする(S26)。なお、入力画像データの主走査方向及び副走査方向それぞれについて、上述したステップS12〜S26の各処理は、主走査側エッジ量算出部251及び主走査側類似色方向判定部253と、副走査側エッジ量算出部252及び副走査側類似色方向判定部254とによって、並列に行うことができる。
When the trapping
トラッピング処理部15は、ステップS21,S25又はS26において、主走査方向について決定した類似色方向の判定結果と副走査方向について決定した類似色方向の判定結果とが共に0であるか否かを判断する(S27)。類似色方向の判定結果が共に0であると判断した場合(S27:YES)、トラッピング処理部15は、ステップS35に処理を移行する。
In step S21, S25, or S26, the trapping
類似色方向の判定結果の少なくとも一方が0でないと判断した場合(S27:NO)、トラッピング処理部15は、注目側の代表色を算出する(S28)。例えば、図13において、主走査方向6、副走査方向7の画素は、主走査方向及び副走査方向における類似色方向は何れも「−1」(デクリメント方向領域)である。そして、図14に基づいて代表色を算出する場合、注目側の代表色は、図14(a)中に(−1,−1)で示した領域内の画素値の平均値となる。
When it is determined that at least one of the determination results of the similar color direction is not 0 (S27: NO), the trapping
また、トラッピング処理部15は、反対側の代表色を算出する(S29)。例えば、図13において、主走査方向6、副走査方向7の画素は、主走査方向及び副走査方向における類似色方向は何れも「−1」である。そして、図14に基づいて代表色を算出する場合、反対側の代表色は、図14(a)中に(1,1)で示した領域内の画素値の平均値となる。
Further, the trapping
トラッピング処理部15は、注目側及び反対側の代表色を算出した後、式2から式5に基づいて、注目側の輝度値及び反対側の輝度値をそれぞれ算出する(S30,S31)。なお、トラッピング処理部15は、ステップS28〜S32の処理において、処理順序を逆にしてもよいし、同時に行うようにしてもよい。
The trapping
トラッピング処理部15は、注目側の輝度値と反対側の輝度値とを比較し、注目側の輝度値が反対側の輝度値より低いか否かを判定する(S32)。注目側の輝度値が反対側の輝度値より低いと判定した場合(S32:YES)、トラッピング処理部15は、トラップ判定を有効としてトラップ判定結果を1とし(S33)、トラップ色を決定する(S34)。ここで、トラップ色は、反対側の領域の代表色である。
The trapping
なお、類似色方向の判定結果が共に0であると判断した場合(S27:YES)、又は、注目側の輝度値が反対側の輝度値より低くないと判定した場合(S32:NO)、トラッピング処理部15は、トラップ判定を無効としてトラップ判定結果を0とする(S35)。
Note that when it is determined that the determination results of the similar color directions are both 0 (S27: YES), or when it is determined that the luminance value on the attention side is not lower than the luminance value on the opposite side (S32: NO), trapping is performed. The
トラッピング処理部15は、ステップS33又はS35で決定したトラップ判定結果が1であるか否かを判断する(S36)。トラップ判定結果が1であると判断した場合(S36:YES)、トラッピング処理部15は、ステップS11で取得した注目画素に、ステップS34で決定したトラップ色を重ね合せた出力画素を生成し(S37)、出力する。トラップ判定結果が0であると判断した場合(S36:NO)、トラッピング処理部15は、ステップS11で取得した注目画素を出力画素とし(S38)、出力する。
The trapping
トラッピング処理部15は、入力画像データに含まれる全ての画素に対して処理を行ったか否かを判断し(S39)、全ての画素に対する処理が完了していないと判断した場合(S39:NO)、ステップS11へ処理を戻す。全ての画素に対する処理が完了したと判断した場合(S39:YES)、トラッピング処理部15は、本処理を終了する。
The trapping
(実施形態2)
以下に、実施形態2に係るカラー画像形成装置について説明する。なお、本実施形態2のカラー画像形成装置は、上述した実施形態1のカラー画像形成装置と同様の構成を有しており、同様の構成については同一の符号を付して説明を省略する。
(Embodiment 2)
The color image forming apparatus according to the second embodiment will be described below. Note that the color image forming apparatus according to the second embodiment has the same configuration as the color image forming apparatus according to the first embodiment described above, and the same reference numerals are given to the same configurations, and description thereof is omitted.
図24は実施形態2のトラッピング処理部15の構成を示すブロック図である。本実施形態2のトラッピング処理部15は、図2に示した実施形態1のトラッピング処理部15において、閾値記憶部27の代わりに閾値算出部28を備える。図25は閾値算出部28の構成を示すブロック図である。本実施形態2の入力ラインバッファ部21は、複数のラインバッファ212の所定領域に格納された画像データ(ラインデータ)を順次読み出して、後段の2値化処理部22及びトラッピング判定処理部25、並びに閾値算出部28へ出力する。
FIG. 24 is a block diagram illustrating a configuration of the trapping
閾値算出部28は、データ格納部281及び平均値算出部282等を備える。データ格納部281は、入力ラインバッファ部21から取得した画像データを、例えば5×5画素のブロック単位で格納する。平均値算出部282は、データ格納部281に格納されたブロック内の各画素値の平均値を算出する。閾値算出部28は、平均値算出部282によって算出されたブロック毎の画素値の平均値を閾値として2値化処理部22へ出力する。なお、閾値算出部28は、算出した平均値をそのまま閾値とせずに、算出した平均値に対して所定の演算を行うことにより閾値を算出してもよい。
The
本実施形態2の2値化処理部22には、閾値算出部28によって算出された閾値と、入力ラインバッファ部21から出力されるラインデータとが入力される。2値化処理部22は、閾値算出部28から入力される閾値と、入力ラインバッファ部21から入力されるラインデータに含まれるそれぞれの画素データ(画素値)とを比較し、比較結果に基づいて、入力されたラインデータを2値データに変換する。
The threshold value calculated by the threshold
上述したように、本実施形態2では、2値化処理部22が、入力画像データにおける所定領域内の画素値の平均値を閾値として、入力画像データを2値データに変換する。よって、入力画像データにおける背景色の影響を抑えた2値化処理を実行できるので、このような2値化処理によって得られた2値データに基づいて、各注目画素が小文字領域に属するか否かを精度よく判別できる。
As described above, in the second embodiment, the
次に、本実施形態2のカラー画像処理装置1の動作について説明する。図26は、カラー画像処理装置1によるトラッピング処理を示すフローチャートである。なお、以下のトラッピング処理は、カラー画像処理装置1のトラッピング処理部15が行う処理である。
Next, the operation of the color
カラー画像処理装置1のトラッピング処理部15は、セレクタ14から入力された入力画像データを、入力ラインバッファ部21のラインバッファ212に順次書き込む(S41)。トラッピング処理部15は、ラインバッファ212の所定領域に入力画像データ(ラインデータ)が書き込まれたか否かを判断する(S42)。書き込みが完了していないと判断した場合(S42:NO)、トラッピング処理部15は、ステップS41に処理を戻し、入力画像データのラインバッファ212への書き込みを継続する。
The trapping
ラインバッファ212の所定領域への書き込みが完了したと判断した場合(S42:YES)、トラッピング処理部15は、ラインバッファ212のそれぞれに書き込まれたラインデータを順次読み出す(S43)。トラッピング処理部15は、ラインバッファ212から読み出したラインデータに基づいて、2値化処理に用いるための閾値を算出する(S44)。なお、トラッピング処理部15は、ラインバッファ212から読み出したラインデータに含まれる画素データ(画素値)の平均値を算出して閾値とする。
When it is determined that the writing to the predetermined area of the
トラッピング処理部15は、算出した閾値に基づいて、ラインバッファ212から読み出したラインデータに対して2値化処理を行う(S45)。トラッピング処理部15は、2値データに変換したラインデータに対して、主走査方向及び副走査方向のそれぞれにおいて画素値が1の画素が連続する画素数をカウントする(S46)。トラッピング処理部15は、主走査方向及び副走査方向のそれぞれにおいてカウントした画素数に基づいて、ラインデータによって構成されるブロックの中央の画素(注目画素)が、小文字領域に属するか否かを判定する(S47)。
The trapping
トラッピング処理部15は、注目画素が小文字領域に属さないと判定した場合(S47:NO)、この注目画素に対してトラッピング判定処理を行う(S48)。なお、トラッピング判定処理は、上述の実施形態1で図21乃至図23に基づいて説明した処理と同一である。トラッピング処理部15は、ステップS48でのトラップ判定結果及び決定したトラップ色を用いて、注目画素に対してトラッピング重ね合せ処理を行う(S49)。
If the
なお、トラッピング処理部15は、注目画素が小文字領域に属すると判定した場合(S47:YES)、ステップS48,S49の処理をスキップする。即ち、注目画素が小文字領域に属する場合にはトラッピング重ね合せ処理を行わないことにより、小文字領域に対してトラッピング重ね合せ処理を行った場合に生じる画質の劣化を防止できる。また、注目画素が小文字領域に属さない場合にはトラッピング重ね合せ処理を行うことにより、版ずれが生じた場合に発生する白抜きを防止できる。
If the
トラッピング処理部15は、入力画像データに含まれる全ての画素に対して処理を行ったか否かを判断し(S50)、全ての画素に対する処理が完了していないと判断した場合(S50:NO)、ステップS41へ処理を戻す。全ての画素に対する処理が完了したと判断した場合(S50:YES)、トラッピング処理部15は本処理を終了する。
The trapping
(実施形態3)
以下に、実施形態3に係るカラー画像形成装置について説明する。なお、本実施形態3のカラー画像形成装置は、上述した実施形態1のカラー画像形成装置と同様の構成を有しており、同様の構成については同一の符号を付して説明を省略する。
(Embodiment 3)
The color image forming apparatus according to the third embodiment will be described below. Note that the color image forming apparatus according to the third embodiment has the same configuration as the color image forming apparatus according to the first embodiment described above, and the same components are denoted by the same reference numerals and description thereof is omitted.
図27は画素カウント部23が行う画素カウント処理を説明するための模式図である。本実施形態3の画素カウント部23は、図5に示す構成と同様の構成を有しており、図27に示すように、2値化処理部22から出力されてくる5×5画素のブロックの主走査方向及び副走査方向だけでなく、左斜め上方向及び右斜め上方向においても、連続する同一の画素値(1又は0)の画素数をカウントする。なお、本実施形態3も、画素値が1の画素が連続する画素数をカウントする。
FIG. 27 is a schematic diagram for explaining pixel count processing performed by the
従って、本実施形態3の画素カウント部23は、2値化処理部22から取得した5×5画素のブロックにおいて、主走査方向及び副走査方向、並びに左斜め上方向及び右斜め上方向のそれぞれについて、画素値が1の画素が連続する画素数(カウント値)をカウントする。よって、本実施形態3の画素カウント部23は、主走査方向、副走査方向、左斜め上方向及び右斜め上方向のそれぞれについてカウントした12種類のカウント値を文字検出部24へ出力する。
Therefore, the
図28は実施形態3の文字検出部24の構成を示すブロック図である。本実施形態3の文字検出部24は、図7に示した構成のほかに、第3比較器245及び第4比較器246等を備える。本実施形態3の文字検出部24では、画素カウント部23から出力された12種類のカウント値において、主走査方向についての5つのカウント値が第1比較器241に入力され、副走査方向についての5つのカウント値が第2比較器242に入力される。また、右斜め上方向についてのカウント値が第3比較器245に入力され、左斜め上方向についてのカウント値が第4比較器246に入力される。
FIG. 28 is a block diagram illustrating a configuration of the
また、比較器241,242,245,246には、文字検出用閾値記憶部244に記憶されている閾値(例えば5)が入力されており、比較器241,242,245,246は、入力されたカウント値のそれぞれと、入力された閾値とを比較し、比較結果を小文字判定部243へ出力する。なお、比較器241,242,245,246は、例えば、各カウント値が閾値以上であれば1を、閾値未満であれば0を出力する。
The
小文字判定部243は、比較器241,242,245,246からそれぞれ出力された比較結果に基づいて、5×5画素のブロックが小文字領域に属するか否かを判定する。例えば、小文字判定部243は、比較器241,242,245,246から出力された12種類の比較結果のいずれかが1ではない場合に、このブロックは小文字領域に属すると判定する。
The
小文字判定部243は、処理対象のブロックが小文字領域に属すると判定した場合、このブロックの中央の画素(注目画素)が小文字領域に属すると判定し、この注目画素に対する小文字判定結果として「1」をトラッピング判定処理部25へ出力する。また、小文字判定部243は、処理対象のブロックが小文字領域に属さないと判定した場合、このブロックの注目画素が小文字領域に属さないと判定し、この注目画素に対する小文字判定結果として「0」をトラッピング判定処理部25へ出力する。
When the
上述したように、本実施形態3では、処理対象のブロックにおいて、主走査方向及び副走査方向だけでなく、左斜め上方向及び右斜め上方向についても、同一の画素値が連続する画素数を算出する。そして、それぞれの方向について算出した画素数に基づいて、各注目画素が小文字領域に属するか否かを判定することにより、左斜め上方向及び右斜め上方向に連続する同一の画素値の画素数も考慮できる。よって、各注目画素が、フォントサイズが所定サイズよりも小さい文字の領域に含まれる場合だけでなく、各注目画素が、細線の領域、文字と文字との間の領域に含まれるか否かも精度よく判別できる。 As described above, in the third embodiment, the number of pixels in which the same pixel value continues in not only the main scanning direction and the sub-scanning direction but also the diagonally upper left direction and the diagonally upper right direction in the processing target block. calculate. Then, based on the number of pixels calculated for each direction, by determining whether each target pixel belongs to the lower case area, the number of pixels having the same pixel value that is continuous in the upper left diagonal direction and the upper right diagonal direction Can also be considered. Therefore, not only when each pixel of interest is included in a character area whose font size is smaller than a predetermined size, but also whether each pixel of interest is included in a thin line region, a region between characters and characters. Can be distinguished well.
なお、本実施形態3のカラー画像処理装置1において、トラッピング処理部15が行うトラッピング処理は、上述した実施形態1で図20に基づいて説明した処理と同様であるので説明を省略する。なお、本実施形態3のトラッピング処理部15は、図20中のステップS5において、2値データに変換したラインデータに対して、主走査方向及び副走査方向、並びに左斜め上方向及び右斜め上方向のそれぞれにおいて画素値が1の画素が連続する画素数をカウントする。また、本実施形態3のトラッピング処理部15は、図20中のステップS6において、主走査方向及び副走査方向、並びに左斜め上方向及び右斜め上方向のそれぞれにおいてカウントした画素数に基づいて、ラインデータによって構成されるブロックの中央の画素(注目画素)が、小文字領域に属するか否かを判定する。
In the color
(実施形態4)
以下に、実施形態4に係るカラー画像形成装置について説明する。なお、本実施形態4のカラー画像形成装置は、上述した実施形態3のカラー画像形成装置と同様の構成を有しており、同様の構成については同一の符号を付して説明を省略する。
(Embodiment 4)
The color image forming apparatus according to
図29は実施形態4の文字検出部24の構成を示すブロック図である。本実施形態4の文字検出部24は、図28に示した構成と同様の構成を有する。本実施形態4の文字検出部24では、文字検出用閾値記憶部244に、主走査方向、副走査方向、左斜め上方向及び右斜め上方向のそれぞれに対して個別に設定された文字検出用閾値が記憶されている。そして、本実施形態4の文字検出部24では、文字検出用閾値記憶部244に記憶されている主走査方向用閾値が第1比較器241に入力され、副走査方向用閾値が第2比較器242に入力され、右斜め上方向用閾値が第3比較器245に入力され、左斜め上方向用閾値が第4比較器246に入力される。
FIG. 29 is a block diagram illustrating a configuration of the
比較器241,242,245,246は、画素カウント部23から入力されたカウント値のそれぞれと、文字検出用閾値記憶部244からそれぞれ入力される閾値とを比較し、比較結果を小文字判定部243へ出力する。なお、比較器241,242,245,246は、例えば、各カウント値が閾値以上であれば1を、閾値未満であれば0を出力する。
小文字判定部243は、比較器241,242,245,246からそれぞれ出力された比較結果に基づいて、5×5画素のブロックが小文字領域に属するか否かを判定する。小文字判定部243は、処理対象のブロックが小文字領域に属すると判定した場合、このブロックの中央の画素(注目画素)が小文字領域に属すると判定し、この注目画素に対する小文字判定結果として「1」をトラッピング判定処理部25へ出力する。また、小文字判定部243は、処理対象のブロックが小文字領域に属さないと判定した場合、このブロックの注目画素が小文字領域に属さないと判定し、この注目画素に対する小文字判定結果として「0」をトラッピング判定処理部25へ出力する。
The
上述したように、本実施形態4では、処理対象のブロックにおいて、主走査方向、副走査方向、左斜め上方向及び右斜め上方向に連続する同一画素値の画素数に基づいて小文字領域であるか否かを判定するための閾値を個別に設定される。よって、各注目画素が、フォントサイズが所定サイズよりも小さい文字の領域、細線の領域、文字と文字との間の領域等に含まれるか否かをより精度よく判別できる。 As described above, in the fourth embodiment, the block to be processed is a lower-case area based on the number of pixels having the same pixel value in the main scanning direction, the sub-scanning direction, the upper left diagonal direction, and the upper right diagonal direction. Threshold values for determining whether or not are individually set. Therefore, it is possible to more accurately determine whether or not each pixel of interest is included in a character region, a fine line region, a region between characters and the like whose font size is smaller than a predetermined size.
上述した実施形態1〜4では、本発明に係る画像処理装置を、プリンタなどのカラー画像形成装置に備えた場合について説明したが、カラー複合機に備えるようにしてもよい。図30は本発明に係る画像処理装置を備えるデジタルカラー複合機の構成を示すブロック図である。 In the above-described first to fourth embodiments, the case where the image processing apparatus according to the present invention is provided in a color image forming apparatus such as a printer has been described. FIG. 30 is a block diagram showing a configuration of a digital color multi-function peripheral including the image processing apparatus according to the present invention.
カラー画像処理装置50は、A/D変換部51、シェーディング補正部52、入力階調補正部53、領域分離処理部54、色補正部55、黒生成下地除去部56、空間フィルタ処理部57、トラッピング処理部58、出力階調補正部59、及び階調再現処理部60などから構成されている。デジタルカラー複合機は、カラー画像処理装置50に、操作パネル50a、カラー画像入力装置40、カラー画像出力装置70及び送信装置71が接続されて構成されている。操作パネル50aは、デジタルカラー複合機の動作モードを設定する設定ボタン及びテンキー、並びに液晶ディスプレイなどで構成される表示部より構成される。
The color
カラー画像入力装置40は、例えばCCD(Charge Coupled Device )を備えたスキャナ部より構成され、原稿からの反射光像を、RGB(R:赤・G:緑・B:青)のアナログ信号としてCCDにて読み取って、カラー画像処理装置50に入力する。カラー画像入力装置40にて読み取られたアナログ信号は、カラー画像処理装置50内を、A/D変換部51、シェーディング補正部52、入力階調補正部53、領域分離処理部54、色補正部55、黒生成下地除去部56、空間フィルタ処理部57、トラッピング処理部58、出力階調補正部59、階調再現処理部60の順で送られ、ストリームとしてカラー画像出力装置70へ出力される。
The color
A/D変換部51は、RGBのアナログ信号をデジタル信号に変換する。シェーディング補正部52は、A/D変換部51より送られてきたデジタルのRGB信号に対して、カラー画像入力装置40の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施す。入力階調補正部53は、シェーディング補正部52から入力されたRGB信号(RGBの反射率信号)に対して、カラーバランスを整えると同時に、濃度信号などカラー画像処理装置50に採用されている画像処理システムの扱い易い信号に変換する処理を施す。また、入力階調補正部53は、下地濃度の除去やコントラストなどの画質調整処理を施す。
The A /
領域分離処理部54は、RGB信号より、入力画像中の各画素を文字領域、網点領域、写真領域の何れかに分離するものである。領域分離処理部54は、分離結果に基づき、画素がどの領域に属しているかを示す領域識別信号を、黒生成下地除去部56、空間フィルタ処理部57、及び階調再現処理部60へと出力すると共に、入力階調補正部53より出力された入力信号をそのまま後段の色補正部55に出力する。色補正部55、黒生成下地除去部56、及びトラッピング処理部58の処理内容は、上述の実施形態1〜4と同様である。
The region
空間フィルタ処理部57は、黒生成下地除去部56より入力されるCMYK信号の画像データに対して、領域識別信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって出力画像のぼやけ又は粒状性劣化を防ぐ処理を行う。階調再現処理部60は、空間フィルタ処理部57と同様に、CMYK信号の画像データに対して、領域識別信号を基に所定の処理を施す。例えば、領域分離処理部54にて文字に分離された領域は、特に黒文字或いは色文字の再現性を高めるために、空間フィルタ処理部57による空間フィルタ処理における鮮鋭強調処理で高周波数の強調量が大きくされる。同時に、階調再現処理部60においては、高域周波数の再現に適した高解像度のスクリーンでの二値化または多値化処理が選択される。
The spatial
また、領域分離処理部54にて網点に分離された領域に関しては、空間フィルタ処理部57において、入力網点成分を除去するためのローパス・フィルタ処理が施される。
Further, with respect to the region separated into halftone dots by the region
出力階調補正部59は、カラー画像出力装置70の特性に基づく出力階調補正処理を行った後、階調再現処理部60により、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理(中間調生成)が施される。領域分離処理部60にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化または多値化処理が行われる。
The output
送信装置71は、モデム又はネットワークカードを備えている。ファクシミリの送信を行うときは、モデムにて、相手先との送信手続きを行い送信可能な状態が確保された後、所定の形式で圧縮された画像データ(スキャナで読み込まれた画像データ)をメモリから読み出し、圧縮形式の変更など必要な処理を施して、相手先に通信回線を介して順次送信する。 The transmission device 71 includes a modem or a network card. When sending a facsimile, the modem sends the data to the other party and secures a state where transmission is possible, and then stores the image data compressed in a predetermined format (image data read by the scanner) in the memory. The data is read from the data, and the necessary processing such as changing the compression format is performed, and the data is sequentially transmitted to the other party via the communication line.
ファクシミリを受信する場合、通信手続きを行いながら相手先から送信されてくる画像データを受信してカラー画像処理装置50に入力し、カラー画像処理装置50では、受信した画像データを、圧縮/伸張処理部(図示せず)にて伸張処理を施す。伸張された画像データは、必要に応じて、回転処理や解像度変換処理が行われ、出力階調補正及び階調再現処理が施され、カラー画像出力装置70より出力される。
When a facsimile is received, image data transmitted from the other party is received while performing a communication procedure and input to the color
また、ネットワークカード、LANケーブルを介して、ネットワークに接続されたコンピュータや他のデジタル複合機とデータ通信を行う。なお、デジタルカラー複合機について説明したが、モノクロの複合機であっても構わない。 In addition, data communication is performed with a computer or other digital multi-function peripheral connected to the network via a network card or a LAN cable. Although the digital color multifunction peripheral has been described, it may be a monochrome multifunction peripheral.
さらに、本発明はコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体に、前記したトラッピング処理を行う方法を記録するものとすることもできる。この結果、前記処理を行うプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を記録した記録媒体を持ち運び自在に提供することができる。 Furthermore, the present invention may record the method for performing the trapping process on a computer-readable recording medium in which a program to be executed by a computer is recorded. As a result, it is possible to provide a portable recording medium on which the program code (execution format program, intermediate code program, source program) for performing the processing is recorded.
なお、この記録媒体としては、マイクロコンピュータで処理が行われるために図示していないメモリ、例えばROMのようなものそのものがプログラムメディアであってもよい。また、図示していない外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであってもよい。 As the recording medium, a memory (not shown) such as a ROM itself, which is processed by a microcomputer, may be a program medium. Further, a program reading device may be provided as an external storage device (not shown), and the program medium may be read by inserting a recording medium therein.
いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、いずれの場合もプログラムコードを読み出し、読み出されたプログラムコードは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。 In any case, the stored program may be configured to be accessed and executed by the microprocessor, or in any case, the program code is read and the read program code is stored in the microcomputer. It may be downloaded to a program storage area (not shown) and the program may be executed. It is assumed that this download program is stored in the main device in advance.
ここで、前記プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムコードを担持する媒体であっても良い。 Here, the program medium is a recording medium configured to be separable from the main body, a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a flexible disk or a hard disk, a CD-ROM / MO / MD / DVD, or the like. Semiconductors such as optical discs, IC cards (including memory cards) / optical cards, etc., or mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. It may be a medium that carries a fixed program code including a memory.
また、本実施の形態においては、インターネットを含む通信ネットワークを接続可能なシステム構成であることから、通信ネットワークからプログラムコードをダウンロードするように流動的にプログラムコードを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。なお、本発明は、前記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。 In the present embodiment, since the system configuration is such that a communication network including the Internet can be connected, a medium that dynamically carries the program code so as to download the program code from the communication network may be used. When the program is downloaded from the communication network as described above, the download program may be stored in the main device in advance, or may be installed from another recording medium. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
前記記録媒体は、デジタルカラー画像形成装置やコンピュータシステムに備えられるプログラム読み取り装置により読み取られることで上述した画像処理方法が実行される。 The recording medium is read by a program reading device provided in a digital color image forming apparatus or a computer system, whereby the above-described image processing method is executed.
以上、本発明の好適な実施の形態について具体的に説明したが、各構成及び動作等は適宜変更可能であって、上述の実施の形態に限定されることはない。 The preferred embodiments of the present invention have been specifically described above, but each configuration, operation, and the like can be changed as appropriate, and are not limited to the above-described embodiments.
15 トラッピング処理部
21 入力ラインバッファ部
22 2値化処理部
23 画素カウント部
24 文字検出部
25 トラッピング判定処理部
26 トラッピング重ね合せ処理部
DESCRIPTION OF
Claims (9)
前記入力画像データに含まれる所定の文字領域を検出する文字検出部と、
前記入力画像データの注目画素が、前記エッジであって、前記文字検出部が検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定部と、
該処理判定部が重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理部と
を備えることを特徴とする画像処理装置。 In an image processing apparatus that performs processing for superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components,
A character detection unit for detecting a predetermined character region included in the input image data;
Based on whether the target pixel of the input image data is the edge and is included in the character area detected by the character detection unit, a process of superimposing pixels of a plurality of color components on the target pixel is performed. A process determination unit for determining whether or not
An image processing apparatus comprising: an overlay processing unit that performs a process of superimposing pixels of a plurality of color components on the target pixel when the process determination unit determines to perform overlay processing.
該2値化処理部によって変換された2値データについて、交差する2方向のそれぞれに連続する同一の画素値の画素数を計数する計数部とを備え、
前記文字検出部は、前記計数部による計数結果に基づいて、前記所定の文字領域を検出するようにしてあることを特徴とする請求項1に記載の画像処理装置。 A binarization processing unit that converts the input image data into binary data based on a predetermined threshold;
A counting unit that counts the number of pixels having the same pixel value continuous in each of two intersecting directions with respect to the binary data converted by the binarization processing unit;
The image processing apparatus according to claim 1, wherein the character detection unit is configured to detect the predetermined character region based on a counting result obtained by the counting unit.
該平均値算出部が算出した平均値に基づいて閾値を算出する閾値算出部とを備え、
前記2値化処理部は、前記閾値算出部が算出した閾値を基に前記入力画像データを2値データに変換するようにしてあることを特徴とする請求項2に記載の画像処理装置。 An average value calculating unit that calculates an average value of pixel values of the target pixel of the input image data and the peripheral pixels of the target pixel;
A threshold value calculation unit that calculates a threshold value based on the average value calculated by the average value calculation unit,
The image processing apparatus according to claim 2, wherein the binarization processing unit converts the input image data into binary data based on the threshold value calculated by the threshold value calculation unit.
該画像処理装置で処理された画像データに基づいて出力画像を形成する画像形成手段と
を備えることを特徴とする画像形成装置。 An image processing apparatus according to any one of claims 1 to 5,
An image forming apparatus comprising: an image forming unit that forms an output image based on image data processed by the image processing apparatus.
前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、
前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、
該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップと
を含むことを特徴とする画像処理方法。 In an image processing method for performing processing of superimposing pixels of a plurality of color components on edges extracted from input image data having a plurality of color components,
A character detection step of detecting a predetermined character region included in the input image data;
Based on whether or not the target pixel of the input image data is the edge and is included in the character region detected in the character detection step, a process of superimposing pixels of a plurality of color components on the target pixel is performed. A process determination step for determining whether or not,
An image processing method comprising: a superposition processing step of performing a process of superposing pixels of a plurality of color components on the target pixel when it is determined that superposition processing is performed in the processing determination step.
コンピュータに、
前記入力画像データに含まれる所定の文字領域を検出する文字検出ステップと、
前記入力画像データの注目画素が、前記エッジであって、前記文字検出ステップで検出した文字領域に含まれるか否かに基づいて、前記注目画素に複数の色成分の画素を重ね合せる処理を行うか否かを判定する処理判定ステップと、
該処理判定ステップで重ね合せ処理を行うと判定した場合、前記注目画素に複数の色成分の画素を重ね合せる処理を行う重ね合せ処理ステップと
を実行させるためのコンピュータプログラム。 In a computer program for causing a computer to superimpose pixels of a plurality of color components on edges extracted from input image data having a plurality of color components,
On the computer,
A character detection step of detecting a predetermined character region included in the input image data;
Based on whether or not the target pixel of the input image data is the edge and is included in the character region detected in the character detection step, a process of superimposing pixels of a plurality of color components on the target pixel is performed. A process determination step for determining whether or not,
A computer program for executing, when it is determined in the processing determination step that superimposition processing is performed, a superposition processing step of performing processing for superimposing pixels of a plurality of color components on the target pixel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009101250A JP2010252184A (en) | 2009-04-17 | 2009-04-17 | Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009101250A JP2010252184A (en) | 2009-04-17 | 2009-04-17 | Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010252184A true JP2010252184A (en) | 2010-11-04 |
Family
ID=43313995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009101250A Pending JP2010252184A (en) | 2009-04-17 | 2009-04-17 | Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010252184A (en) |
-
2009
- 2009-04-17 JP JP2009101250A patent/JP2010252184A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4749477B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
JP4137890B2 (en) | Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium | |
JP4749476B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
JP4495197B2 (en) | Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program | |
JP4549418B2 (en) | Image processing apparatus, image processing method, image forming apparatus, program, and recording medium | |
JP4331159B2 (en) | Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor | |
JP4496239B2 (en) | Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium | |
JP2011147085A (en) | Image compression apparatus, compressed image outputting apparatus, image compression method, computer program, and recording medium | |
JP4115999B2 (en) | Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium | |
US8599456B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and computer-readable recording medium on which image processing program is recorded | |
JP4402090B2 (en) | Image forming apparatus, image forming method, program, and recording medium | |
JP4637054B2 (en) | Image processing apparatus, control method therefor, computer program, and computer-readable storage medium | |
JP2010016628A (en) | Image processing device and image processing method | |
JP2008305099A (en) | Image processing method, image processor, image forming device, computer program and recording medium | |
JP4549227B2 (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
JP4545167B2 (en) | Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium | |
JP4695472B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program, and storage medium | |
JP2006262215A (en) | Image processor, image processing method, image processing program and recording medium with the program recorded thereon | |
JP2010263313A (en) | Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium | |
JP4176053B2 (en) | Image processing method, image processing apparatus, image forming apparatus, and computer program | |
JP4176656B2 (en) | Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program | |
JP3944032B2 (en) | Image processing apparatus and method | |
JP5122507B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program, and recording medium | |
JP2010252184A (en) | Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium | |
JPH0541796A (en) | Copying machine |