JP5742198B2 - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP5742198B2
JP5742198B2 JP2010277790A JP2010277790A JP5742198B2 JP 5742198 B2 JP5742198 B2 JP 5742198B2 JP 2010277790 A JP2010277790 A JP 2010277790A JP 2010277790 A JP2010277790 A JP 2010277790A JP 5742198 B2 JP5742198 B2 JP 5742198B2
Authority
JP
Japan
Prior art keywords
color
pixel
image information
value
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010277790A
Other languages
Japanese (ja)
Other versions
JP2012129684A (en
Inventor
清 宇根
清 宇根
寄本 浩二
浩二 寄本
康男 小松
康男 小松
裕 鴻田
裕 鴻田
哲哉 本美
哲哉 本美
泰史 宇治川
泰史 宇治川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2010277790A priority Critical patent/JP5742198B2/en
Publication of JP2012129684A publication Critical patent/JP2012129684A/en
Application granted granted Critical
Publication of JP5742198B2 publication Critical patent/JP5742198B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program.

特許文献1には、2値画像情報用のバッファメモリと多値画像情報を描画する書き込み部とを有し、2値画像情報を必要に応じて多値画像情報に変換する画像処理装置が開示されている。   Patent Document 1 discloses an image processing apparatus that includes a buffer memory for binary image information and a writing unit that draws multi-value image information, and converts the binary image information into multi-value image information as necessary. Has been.

特開平05−061971号公報JP 05-061971 A

本発明は、多値画像情報から変換された2値画像情報を新たな多値画像情報に変換するときに、色または階調(エッジ)の境界部分の劣化を抑制することが可能な画像処理装置及びプログラムを提供することを主な目的とする。   The present invention provides an image processing capable of suppressing deterioration of a color or gradation (edge) boundary when converting binary image information converted from multi-value image information into new multi-value image information. The main purpose is to provide a device and a program.

上記課題を解決するため、請求項に記載の発明は、各画素が少なくとも1の色を含み、各色が3以上の階調で表された多値画像情報のうち、予め定められた値以上の階調差を有する2つの領域の境界に隣接する前記1の色の画素列の位置を表す位置情報を保持する保持部と、前記多値画像情報から変換された、各画素が1以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列の範囲内に変換処理を適用して、前記1の色の階調値を決定する変換部と、を備え、前記保持部は、前記境界に隣接する前記1の色の画素列には属さない前記1の色の画素群の位置を表す位置情報を更に保持し、前記変換部は、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の階調値を決定する、画像処理装置である。 In order to solve the above problem, the invention described in claim 1 is such that each pixel includes at least one color and each color is expressed by a predetermined value or more among multi-value image information represented by three or more gradations. A holding unit that holds position information indicating the position of the pixel row of the one color adjacent to the boundary between the two regions having the gradation difference, and each pixel converted from the multi-value image information has one or more A conversion unit that converts binary image information including colors and each color is expressed in two gradations into new multi-value image information, and performs conversion processing within a range of a pixel column specified by the position information. And a conversion unit that determines a gradation value of the one color, and the holding unit is a pixel group of the one color that does not belong to the pixel row of the one color adjacent to the boundary The position information indicating the position of the first color is further held, and the conversion unit converts the position information indicating the position of the pixel row of the one color Ri determines the range of the pixel columns specified, and the range of the pixel group identified by the position information indicating the position of the color pixel group of the 1, in the tone value of the first color individually, An image processing apparatus.

また、請求項に記載の発明は、前記多値画像情報から前記2値画像情報への変換では、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の画素の密度が決定される、請求項に記載の画像処理装置である。 According to a second aspect of the present invention, in the conversion from the multi-value image information to the binary image information, the range of the pixel column specified by the position information indicating the position of the pixel column of the one color is the a range of the pixel group identified by the position information indicating the position of the first color pixel group, in the density of the color of the pixels of the individual 1 is determined, the image processing apparatus according to claim 1 It is.

また、請求項に記載の発明は、各画素が少なくとも1の色を含み、各色が3以上の階調で表された多値画像情報のうち、予め定められた値以上の階調差を有する2つの領域の境界に隣接する前記1の色の画素列の階調値を高める境界強調処理を実行する処理部と、前記多値画像情報を、各画素が1以上の色を含み、各色が2階調で表された2値画像情報に変換する第1の変換部と、前記境界に隣接する前記1の色の画素列の位置を表す位置情報を生成する生成部と、前記位置情報を保持する保持部と、前記2値画像情報を新たな多値画像情報に変換する第2の変換部であって、前記位置情報により特定される画素列の範囲内に変換処理を適用して、前記1の色の階調値を決定する第2の変換部と、を備え、前記保持部は、前記境界に隣接する前記1の色の画素列には属さない前記1の色の画素群の位置を表す位置情報を更に保持し、前記第2の変換部は、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の階調値を決定する、画像処理装置である。 According to a third aspect of the invention, each pixel includes at least one color, and among the multi-value image information in which each color is represented by three or more gradations, a gradation difference of a predetermined value or more is obtained. A processing unit that executes a boundary emphasis process for increasing a gradation value of a pixel row of one color adjacent to a boundary between two regions, and the multi-value image information, each pixel including one or more colors, A first conversion unit that converts the image data into binary image information expressed in two gradations, a generation unit that generates position information indicating the position of the pixel row of the one color adjacent to the boundary, and the position information And a second conversion unit that converts the binary image information into new multi-value image information by applying a conversion process within a range of pixel columns specified by the position information. , and a second conversion unit for determining a gradation value of the color of the 1, wherein the holding portion to adjacent the boundary Position information representing the position of the pixel group of the first color that does not belong to the pixel array of the one color is further held, and the second conversion unit is position information representing the position of the pixel array of the first color The gradation value of the one color is determined individually in the range of the pixel row specified by the above and in the range of the pixel group specified by the position information indicating the position of the pixel group of the one color. An image processing apparatus.

また、請求項に記載の発明は、各画素が少なくとも1の色を含み、各色が3以上の階調で表された多値画像情報のうち、予め定められた値以上の階調差を有する2つの領域の境界に隣接する前記1の色の画素列の位置を表す位置情報を保持する保持部と、前記多値画像情報から変換された、各画素が1以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列の範囲内に変換処理を適用して、前記1の色の階調値を決定する変換部と、としてコンピュータを機能させ、前記保持部は、前記境界に隣接する前記1の色の画素列には属さない前記1の色の画素群の位置を表す位置情報を更に保持し、前記変換部は、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の階調値を決定する、プログラムである。 According to a fourth aspect of the present invention, each pixel includes at least one color, and among the multi-value image information in which each color is represented by three or more gradations, a gradation difference equal to or more than a predetermined value is obtained. A holding unit that holds position information indicating the position of the pixel row of the one color adjacent to the boundary between the two regions, and each pixel converted from the multivalued image information includes one or more colors, Is a conversion unit that converts binary image information expressed in two gradations into new multi-value image information, and applies a conversion process within a range of pixel columns specified by the position information, and A computer that functions as a conversion unit that determines a gradation value of one color, and the holding unit is a position of a pixel group of the one color that does not belong to the pixel column of the one color adjacent to the boundary The position information indicating the position of the pixel row of the one color is further stored. Determining a range of pixel columns specified, and the range of the pixel group identified by the position information indicating the position of the color pixel group of the 1, in the tone value of the first color individually by, It is a program.

請求項1,3,4に記載の発明によると、色または階調(エッジ)の境界とその内側とに個別の階調値を設定することが可能である。 According to the first, third, and fourth aspects of the present invention, it is possible to set individual gradation values at the boundary of color or gradation (edge) and the inside thereof.

請求項に記載の発明によると、色または階調(エッジ)の境界とその内側とに個別の階調値を設定することが可能である。 According to the second aspect of the present invention, it is possible to set individual gradation values for the boundary of color or gradation (edge) and the inside thereof.

本発明の一の実施形態に係る画像処理装置の構成例を表す図である。It is a figure showing the example of a structure of the image processing apparatus which concerns on one Embodiment of this invention. 同実施形態に係る画像処理装置の機能例を表す図である。It is a figure showing the example of a function of the image processing apparatus concerning the embodiment. 元の多値画像情報の例を表す図である。It is a figure showing the example of original multi-value image information. エッジエンハンス処理後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after an edge enhancement process. フラグ情報の例を表す図である。It is a figure showing the example of flag information. フラグ情報の例を表す図である。It is a figure showing the example of flag information. スクリーンパターン例を表す図である。It is a figure showing the example of a screen pattern. スクリーンパターン例を表す図である。It is a figure showing the example of a screen pattern. 多値−2値変換後の2値画像情報の例を表す図である。It is a figure showing the example of the binary image information after multi-value-binary conversion. 補正後の2値画像情報の例を表す図である。It is a figure showing the example of the binary image information after correction | amendment. 2値−多値変換後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after binary-multi-value conversion. 本発明の他の実施形態に係る画像処理装置の機能例を表す図である。It is a figure showing the function example of the image processing apparatus which concerns on other embodiment of this invention. 元の多値画像情報の例を表す図である。It is a figure showing the example of original multi-value image information. トラッピング処理後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after a trapping process. フラグ情報の例を表す図である。It is a figure showing the example of flag information. フラグ情報の例を表す図である。It is a figure showing the example of flag information. 多値−2値変換後の2値画像情報の例を表す図である。It is a figure showing the example of the binary image information after multi-value-binary conversion. 2値−多値変換後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after binary-multi-value conversion. 補正後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after correction | amendment.

本発明の画像処理装置及びプログラムの実施形態を、図面を参照しながら説明する。   Embodiments of an image processing apparatus and a program according to the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理装置1の構成例を表す図である。画像処理装置1は、制御部21、画像処理部22、操作部23、記憶部24、通信部25、表示部26、画像形成部27及び画像読取部28を備えている。   FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus 1 according to an embodiment of the present invention. The image processing apparatus 1 includes a control unit 21, an image processing unit 22, an operation unit 23, a storage unit 24, a communication unit 25, a display unit 26, an image forming unit 27, and an image reading unit 28.

制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えており、CPUがROMや記憶部24に記憶されたプログラムを実行することによって、画像処理装置1の各部を制御する。画像処理部22は、特定の画像処理を実行するASIC(Application Specific Integrated Circuit)を備えている。   The control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). When the CPU executes a program stored in the ROM or the storage unit 24, image processing is performed. Each part of the apparatus 1 is controlled. The image processing unit 22 includes an ASIC (Application Specific Integrated Circuit) that executes specific image processing.

操作部23は、複数のキーを備えており、使用者の操作を受け付けて、その操作に応じた信号を制御部21に出力する。記憶部24は、HDD(Hard Disk Drive)等の不揮発性の補助記憶装置であり、各種のプログラムやデータが記憶されている。通信部25は、通信インタフェースを備えており、LAN(Local Area Network)等の通信路を介して他の装置と通信を行う。表示部26は、液晶表示画面および液晶駆動回路を備えており、制御部21から供給される情報に基づいて処理の進行状況や使用者に操作を案内する情報などを表示する。   The operation unit 23 includes a plurality of keys, receives a user operation, and outputs a signal corresponding to the operation to the control unit 21. The storage unit 24 is a nonvolatile auxiliary storage device such as an HDD (Hard Disk Drive), and stores various programs and data. The communication unit 25 includes a communication interface and communicates with other devices via a communication path such as a LAN (Local Area Network). The display unit 26 includes a liquid crystal display screen and a liquid crystal drive circuit, and displays the progress of processing, information for guiding operations to the user, and the like based on information supplied from the control unit 21.

画像形成部27は、像を保持する感光体ドラム、画像情報に基づいて露光を行うことにより感光体ドラム上に静電潜像を形成する露光部、静電潜像を現像してトナー像を形成する現像部、トナー像を記録用紙へ転写する転写部、及び記録用紙に転写されたトナー像を記録用紙に定着させる定着部を備えている。画像読取部28は、CCD(Charge Coupled
Device)等の撮像素子を備えており、記録用紙に形成されている画像を撮像素子によって読み取り、読み取った画像を表す画像情報を生成する。
The image forming unit 27 is a photosensitive drum that holds an image, an exposure unit that forms an electrostatic latent image on the photosensitive drum by performing exposure based on image information, and develops the electrostatic latent image to form a toner image. A developing unit to be formed, a transfer unit for transferring the toner image to the recording paper, and a fixing unit for fixing the toner image transferred to the recording paper to the recording paper are provided. The image reading unit 28 is a CCD (Charge Coupled).
An image pickup device such as (Device) is provided, an image formed on a recording sheet is read by the image pickup device, and image information representing the read image is generated.

図2は、画像処理装置1の機能例を表す図である。画像処理装置1は、エッジエンハンス処理部31、フラグ生成部33、第1の変換部35、フラグ保持部37及び第2の変換部39を備えている。   FIG. 2 is a diagram illustrating an example of functions of the image processing apparatus 1. The image processing apparatus 1 includes an edge enhancement processing unit 31, a flag generation unit 33, a first conversion unit 35, a flag holding unit 37, and a second conversion unit 39.

上記各部は、制御部21に含まれるCPUがROMや記憶部24に記憶されたプログラムを実行することによって実現される。プログラムは、CD−ROM等のコンピュータ読み取り可能な情報記録媒体から提供されてもよいし、インターネット等の通信線を介して提供されてもよい。   Each of the above units is realized by the CPU included in the control unit 21 executing a program stored in the ROM or the storage unit 24. The program may be provided from a computer-readable information recording medium such as a CD-ROM, or may be provided via a communication line such as the Internet.

また、上記各部は、画像処理部22に含まれる回路として構成されてもよい。例えば、1つの望ましい態様では、制御部21がエッジエンハンス処理部31、フラグ生成部33及び第1の変換部35を実現し、画像処理部22がフラグ保持部37及び第2の変換部39を備える。   In addition, each of the above units may be configured as a circuit included in the image processing unit 22. For example, in one desirable mode, the control unit 21 realizes the edge enhancement processing unit 31, the flag generation unit 33, and the first conversion unit 35, and the image processing unit 22 sets the flag holding unit 37 and the second conversion unit 39. Prepare.

エッジエンハンス処理部31は、入力される多値画像情報にエッジエンハンス処理を施し、エッジエンハンス処理が施された多値画像情報をフラグ生成部33と第1の変換部35とに出力する。   The edge enhancement processing unit 31 performs edge enhancement processing on the input multi-value image information, and outputs the multi-value image information subjected to the edge enhancement processing to the flag generation unit 33 and the first conversion unit 35.

エッジエンハンス処理部31に入力される多値画像情報は、図3の例に示されるように、2次元的に配列する複数の画素を有しており、各画素は1種類以上の色を含んでいる。本例では、各画素は、C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)の4種類の色を含んでいる。また、各画素は、3以上の階調(例えば8階調)で表される。   The multi-value image information input to the edge enhancement processing unit 31 has a plurality of pixels arranged two-dimensionally as shown in the example of FIG. 3, and each pixel includes one or more colors. It is out. In this example, each pixel includes four types of colors, C (cyan), M (magenta), Y (yellow), and K (black). Each pixel is represented by three or more gradations (for example, eight gradations).

また、エッジエンハンス処理部31に入力される多値画像情報では、図3の例に示されるように、或る色を含む第1の領域とその色を含まない第2の領域とが隣接しており、エッジエンハンス処理は、こうした2つの領域の境界部分に施される。これに限られず、エッジエンハンス処理は、予め定められた値以上の階調差を有する2つの領域の境界部分に施されてもよい。   Further, in the multivalued image information input to the edge enhancement processing unit 31, as shown in the example of FIG. 3, a first area including a certain color and a second area not including the color are adjacent to each other. The edge enhancement process is applied to the boundary between these two areas. However, the present invention is not limited to this, and the edge enhancement processing may be performed on a boundary portion between two regions having a gradation difference equal to or greater than a predetermined value.

エッジエンハンス処理とは、或る色を含む第1の領域とその色を含まない第2の領域との境界の第1の領域側に隣接する画素列の階調値を高める境界強調処理である。例えば、図3の例に示されるように、多値画像情報において、或る色を含む、低階調で帯状の有色領域が、その色を含まない無色領域と隣接する場合、有色領域の視認性が劣るおそれがある。そこで、視認性を向上させるため、図4の例に示されるように、有色領域と無色領域との境界の有色領域側に隣接する画素列の色の階調値が高められる。なお、階調値が高められる画素列は、境界に隣接する2画素分以上の幅の画素列であってもよい。   The edge enhancement process is a boundary enhancement process for increasing the gradation value of a pixel row adjacent to the first area side of the boundary between the first area including a certain color and the second area not including the color. . For example, as shown in the example of FIG. 3, in a multi-valued image information, when a low gradation, band-like colored area including a certain color is adjacent to a colorless area not including the color, the colored area is visually recognized. May be inferior. Therefore, in order to improve the visibility, as shown in the example of FIG. 4, the gradation value of the color of the pixel row adjacent to the colored region side of the boundary between the colored region and the colorless region is increased. Note that the pixel column whose gradation value is increased may be a pixel column having a width of two pixels or more adjacent to the boundary.

図3及び図4の例では、K色の階調が25%の有色領域と、K色を含まない無色領域(すなわち、K色の階調が0の領域)との境界の有色領域側に隣接する画素列が、K色の階調が50%に高められている。なお、有色領域の色は、K色に限られない。CMYKの単色であってもよいし、これらの混合色であってもよい。   In the example of FIG. 3 and FIG. 4, on the colored region side of the boundary between the colored region where the gradation of K color is 25% and the colorless region not containing K color (that is, the region where the gradation of K color is 0). Adjacent pixel columns have a K color gradation increased to 50%. Note that the color of the colored region is not limited to the K color. A single color of CMYK may be used, or a mixed color of these may be used.

具体的には、エッジエンハンス処理部31は、次のようにエッジエンハンス処理を実行する。第1のステップでは、多値画像情報において各色の境界が検出される。例えば、多値画像情報に対して、3×3画素など、注目画素とそれを囲む周囲画素とを含むウィンドウが走査され、注目画素の階調と各周囲画素の階調とが比較され、一方が無色であって階調差が存在する場合に、該当する画素間が境界として判定される。第2のステップでは、上述したように、有色領域と無色領域との境界の有色領域側に隣接する画素列の階調値が高められる。なお、画素列の階調値が元から高い場合には、階調値を高めなくてよい。   Specifically, the edge enhancement processing unit 31 performs the edge enhancement processing as follows. In the first step, the boundary of each color is detected in the multi-value image information. For example, a window including a pixel of interest and surrounding pixels surrounding it, such as 3 × 3 pixels, is scanned for multi-value image information, and the gradation of the pixel of interest is compared with the gradation of each surrounding pixel. Is colorless and there is a gradation difference, the corresponding pixels are determined as a boundary. In the second step, as described above, the gradation value of the pixel column adjacent to the colored region side of the boundary between the colored region and the colorless region is increased. Note that when the gradation value of the pixel column is originally high, the gradation value does not need to be increased.

フラグ生成部33は、エッジエンハンス処理部31からエッジエンハンス処理が施された多値画像情報を受け付け、この多値画像情報に基づいてフラグ情報を生成する。具体的には、エッジエンハンス処理が施された多値画像情報の各画素は、有色領域に属する画素であって境界に隣接する画素列に含まれる画素(すなわち、階調値が高められた画素)と、有色領域に属する画素であって境界には隣接しない画素群に含まれる画素と、無色領域に属する画素と、という3種類の属性に分けられる。フラグ情報には、こうした各画素の属性情報が含まれている。   The flag generation unit 33 receives the multivalued image information subjected to the edge enhancement processing from the edge enhancement processing unit 31, and generates flag information based on the multivalued image information. Specifically, each pixel of the multivalued image information that has been subjected to the edge enhancement processing is a pixel that belongs to a colored region and is included in a pixel column adjacent to the boundary (that is, a pixel having an increased gradation value). ) And a pixel belonging to a colored region and not included in a pixel group adjacent to the boundary, and a pixel belonging to a colorless region. The flag information includes such attribute information of each pixel.

フラグ情報は、図5Aの例に示されるように、上記多値画像情報と同じ画素配列を有しており、各画素の位置が多値画像情報の各画素と対応している。フラグ情報では、各画素の値によって各画素の属性情報が表されている。各画素の値は、図5Bの例に示されるように、例えば数ビットの値で記述されている。なお、説明のため、図5Bの表の右端には、各値の意味を記述している。   As shown in the example of FIG. 5A, the flag information has the same pixel arrangement as that of the multi-value image information, and the position of each pixel corresponds to each pixel of the multi-value image information. In the flag information, attribute information of each pixel is represented by the value of each pixel. As shown in the example of FIG. 5B, the value of each pixel is described by a value of several bits, for example. For the sake of explanation, the meaning of each value is described at the right end of the table in FIG. 5B.

こうした各画素の値によって、フラグ情報には、有色領域に属する画素であって境界に隣接する画素列に含まれる画素(以下、「エッジ画素」という。)の位置を表す位置情報と、有色領域に属する画素であって境界には隣接しない画素群に含まれる画素(以下、「内側画素」という。)の位置を表す位置情報と、無色領域に属する画素(以下、「その他画素」という。)の位置を表す位置情報と、が含まれている。図5Aの例では、エッジ画素にクロスハッチングが付され、内側画素にハッチングが付され、その他画素は空白とされている。   Depending on the value of each pixel, the flag information includes position information indicating the position of a pixel (hereinafter referred to as an “edge pixel”) included in a pixel column that belongs to the colored area and is adjacent to the boundary, and the colored area. Position information indicating the position of a pixel (hereinafter referred to as “inner pixel”) included in a pixel group that belongs to a pixel that is not adjacent to the boundary, and a pixel that belongs to a colorless area (hereinafter referred to as “other pixel”). And position information representing the position of. In the example of FIG. 5A, the edge pixels are cross-hatched, the inner pixels are hatched, and the other pixels are blank.

第1の変換部35は、エッジエンハンス処理部31からエッジエンハンス処理が施された多値画像情報を受け付け、この多値画像情報を2値画像情報に変換する(いわゆる2値化)。2値化の手法は、特に限定されない。   The first conversion unit 35 receives the multivalued image information subjected to the edge enhancement processing from the edge enhancement processing unit 31 and converts the multivalued image information into binary image information (so-called binarization). The binarization method is not particularly limited.

多値画像情報の2値化には、例えば、図6A及び図6Bの例に示されるようなスクリーンパターンが利用される。スクリーンパターンでは有色画素が周期的に配列しており、多値画像情報の有色画素と、スクリーンパターンの有色画素との論理積が、2値画像情報の有色画素となる。図6Aは、K色50%の例であり、クロスハッチングが付された画素が有色画素を表している。図6Bは、K色25%の例であり、ハッチングが付された画素が有色画素を表している。   For binarization of multi-value image information, for example, a screen pattern as shown in the examples of FIGS. 6A and 6B is used. In the screen pattern, the colored pixels are periodically arranged, and the logical product of the colored pixels of the multi-valued image information and the colored pixels of the screen pattern becomes the colored pixels of the binary image information. FIG. 6A is an example of 50% K color, and pixels with cross-hatching represent colored pixels. FIG. 6B is an example of K color 25%, and hatched pixels represent colored pixels.

このような多値画像情報の2値化により、図7Aの例に示されるような2値画像情報が得られる。この2値画像情報は、上記多値画像情報と同じ画素配列を有しており、各画素の各色が2階調で表されている。   By binarizing such multi-valued image information, binary image information as shown in the example of FIG. 7A is obtained. The binary image information has the same pixel arrangement as the multi-value image information, and each color of each pixel is represented by two gradations.

また、第1の変換部35は、フラグ生成部33からフラグ情報を受け付け、このフラグ情報に基づいて2値画像情報を補正する。具体的には、第1の変換部35は、フラグ情報により特定されるエッジ画素の範囲内と、内側画素の範囲内と、その他画素の範囲内とで個別に有色画素の密度を調整する。各範囲の有色画素の密度は、上記エッジエンハンス処理が施された多値画像情報における各範囲の階調値に応じて決定される。これにより、後述する2値画像情報から多値画像情報への変換で、元の多値画像情報の再現性が高められる。   The first conversion unit 35 receives flag information from the flag generation unit 33 and corrects binary image information based on the flag information. Specifically, the first conversion unit 35 individually adjusts the density of the colored pixels in the range of the edge pixel specified by the flag information, the range of the inner pixel, and the range of the other pixels. The density of the colored pixels in each range is determined according to the gradation value in each range in the multivalued image information that has been subjected to the edge enhancement processing. Thereby, the reproducibility of the original multi-value image information is improved by conversion from binary image information to multi-value image information, which will be described later.

例えば、図7Bの例に示されるように、エッジ画素の範囲については、多値画像情報で階調値がK色50%であったので、有色画素の密度も範囲内の50%となるように調整される。本例では、エッジ画素の範囲で有色画素の密度が元々50%であったので、有色画素の密度に変化はない。また、内側画素の範囲については、多値画像情報で階調値が25%であったので、有色画素の密度も範囲内の25%となるように調整される。本例では、内側画素の範囲内で有色画素の密度が元々0%であったので、範囲内の25%を占めるように有色画素が追加される。また、その他画素の範囲については、多値画像情報で階調値が0%であったので、有色画素の密度も範囲内の0%となるように調整される。本例では、その他画素の範囲で有色画素の密度が元々0%であったので、有色画素の密度に変化はない。   For example, as shown in the example of FIG. 7B, in the range of edge pixels, the gradation value is 50% K color in the multi-value image information, so that the density of colored pixels is also 50% within the range. Adjusted to In this example, since the density of the colored pixels was originally 50% in the range of the edge pixels, there is no change in the density of the colored pixels. Further, since the gradation value of the inner pixel range is 25% in the multi-value image information, the density of the colored pixels is adjusted to be 25% within the range. In this example, since the density of the colored pixels is originally 0% within the range of the inner pixels, the colored pixels are added to occupy 25% within the range. In the other pixel range, since the gradation value is 0% in the multi-value image information, the density of the colored pixels is adjusted to be 0% within the range. In this example, since the density of the colored pixels was originally 0% in the range of other pixels, there is no change in the density of the colored pixels.

上記フラグ生成部33により生成されたフラグ情報と、上記第1の変換部35により生成された2値画像情報とは、フラグ保持部37及び第2の変換部39のそれぞれに直接出力されてもよいし、記憶部24に一旦格納され、操作部23からの入力等を契機に、フラグ保持部37及び第2の変換部39のそれぞれに読み出されるようにしてもよい。記憶部24に格納される場合、2値画像情報とフラグ情報は互いに対応付けられる。   The flag information generated by the flag generation unit 33 and the binary image information generated by the first conversion unit 35 may be directly output to the flag holding unit 37 and the second conversion unit 39, respectively. Alternatively, it may be stored once in the storage unit 24 and read out to each of the flag holding unit 37 and the second conversion unit 39 in response to an input from the operation unit 23 or the like. When stored in the storage unit 24, the binary image information and the flag information are associated with each other.

フラグ保持部37は、フラグ生成部33により生成されたフラグ情報を保持しており、このフラグ情報を第2の変換部39に出力する。フラグ情報には、上述したように、各属性の画素の位置情報が含まれている。   The flag holding unit 37 holds the flag information generated by the flag generating unit 33, and outputs this flag information to the second conversion unit 39. As described above, the flag information includes pixel position information of each attribute.

第2の変換部39は、第1の変換部35により生成された2値画像情報を多値画像情報に変換する(いわゆる多値化)。この際、第2の変換部39は、フラグ情報により特定されるエッジ画素の範囲内と、内側画素の範囲内と、その他画素の範囲内とに個別に変換処理を適用して、個別に階調値を決定する。各範囲の階調値は、上記2値画像情報における各範囲の有色画素の密度に応じて決定される。   The second conversion unit 39 converts the binary image information generated by the first conversion unit 35 into multi-value image information (so-called multi-value conversion). At this time, the second conversion unit 39 individually applies the conversion process to the edge pixel range, the inner pixel range, and the other pixel range specified by the flag information, and individually converts the levels. Determine the key value. The gradation value of each range is determined according to the density of colored pixels in each range in the binary image information.

例えば、図8の例に示されるように、エッジ画素の範囲については、2値画像情報で有色画素の密度が範囲内の50%であったので、階調値が50%とされる。また、内側画素の範囲については、2値画像情報で有色画素の密度が範囲内の25%であったので、階調値が25%とされる。また、その他画素の範囲については、2値画像情報で有色画素の密度が範囲内の0%であったので、階調値が0%とされる。   For example, as shown in the example of FIG. 8, in the range of edge pixels, since the density of colored pixels is 50% of the range in the binary image information, the gradation value is set to 50%. In the range of the inner pixel, since the density of colored pixels is 25% of the range in the binary image information, the gradation value is set to 25%. For the other pixel range, since the density of the colored pixels is 0% in the range in the binary image information, the gradation value is set to 0%.

以上のようにして得られる多値画像情報は、有色領域と無色領域との境界の有色領域側に隣接する画素列の色の階調値が高められている。すなわち、ここで得られる多値画像情報は、図4の例に示されるような、上記エッジエンハンス処理が施された多値画像情報と同様になる。   In the multi-value image information obtained as described above, the gradation value of the color of the pixel row adjacent to the colored region side of the boundary between the colored region and the colorless region is increased. That is, the multi-value image information obtained here is the same as the multi-value image information subjected to the edge enhancement processing as shown in the example of FIG.

なお、上述したように、フラグ生成部33により生成されたフラグ情報と、第1の変換部35により生成された2値画像情報と、を記憶部24に一旦格納する場合、多値画像情報を記憶部24に一旦格納する場合よりも、格納に必要な容量を抑制することが可能である。   As described above, when the flag information generated by the flag generation unit 33 and the binary image information generated by the first conversion unit 35 are temporarily stored in the storage unit 24, the multi-value image information is stored in the storage unit 24. The capacity required for storage can be reduced as compared with the case where data is temporarily stored in the storage unit 24.

以下、本発明の他の実施形態について説明する。   Hereinafter, other embodiments of the present invention will be described.

図9は、他の実施形態に係る画像処理装置1の機能例を表す図である。画像処理装置1は、トラッピング処理部41、フラグ生成部43、第1の変換部45、フラグ保持部47及び第2の変換部49を備えている。また、第2の変換部49は、多値化部49a及び補正部49bを備えている。   FIG. 9 is a diagram illustrating a functional example of the image processing apparatus 1 according to another embodiment. The image processing apparatus 1 includes a trapping processing unit 41, a flag generation unit 43, a first conversion unit 45, a flag holding unit 47, and a second conversion unit 49. The second conversion unit 49 includes a multilevel conversion unit 49a and a correction unit 49b.

上記各部は、制御部21に含まれるCPUがROMや記憶部24に記憶されたプログラムを実行することによって実現される。プログラムは、CD−ROM等のコンピュータ読み取り可能な情報記録媒体から提供されてもよいし、インターネット等の通信線を介して提供されてもよい。   Each of the above units is realized by the CPU included in the control unit 21 executing a program stored in the ROM or the storage unit 24. The program may be provided from a computer-readable information recording medium such as a CD-ROM, or may be provided via a communication line such as the Internet.

また、上記各部は、画像処理部22に含まれる回路として構成されてもよい。例えば、1つの望ましい態様では、制御部21がトラッピング処理部41、フラグ生成部43及び第1の変換部45を実現し、画像処理部22がフラグ保持部47及び第2の変換部49を備える。   In addition, each of the above units may be configured as a circuit included in the image processing unit 22. For example, in one desirable aspect, the control unit 21 implements a trapping processing unit 41, a flag generation unit 43, and a first conversion unit 45, and the image processing unit 22 includes a flag holding unit 47 and a second conversion unit 49. .

トラッピング処理部41は、入力される多値画像情報にトラッピング処理を施し、トラッピング処理が施された多値画像情報を第1の変換部45に出力する。また、トラッピング処理部41は、トラッピング処理に係る処理情報をフラグ生成部43に出力する。   The trapping processing unit 41 performs trapping processing on the input multivalued image information, and outputs the multivalued image information subjected to the trapping processing to the first conversion unit 45. Further, the trapping processing unit 41 outputs processing information related to the trapping process to the flag generation unit 43.

トラッピング処理部41に入力される多値画像情報は、図10の例に示されるように、2次元的に配列する複数の画素を有しており、各画素は2種類以上の色を含んでいる。本例では、各画素は、C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)の4種類の色を含んでいる。また、各画素の各色は、3以上の階調(例えば8階調)で表される。   As shown in the example of FIG. 10, the multi-value image information input to the trapping processing unit 41 has a plurality of pixels arranged two-dimensionally, and each pixel includes two or more types of colors. Yes. In this example, each pixel includes four types of colors, C (cyan), M (magenta), Y (yellow), and K (black). Each color of each pixel is represented by three or more gradations (for example, eight gradations).

また、トラッピング処理部41に入力される多値画像情報は、図10の例に示されるように、互いに色が異なる複数の領域を有しており、トラッピング処理は、こうした複数の領域の境界部分に施される。   Further, as shown in the example of FIG. 10, the multi-value image information input to the trapping processing unit 41 has a plurality of regions having different colors from each other, and the trapping processing is performed at a boundary portion between the plurality of regions. To be applied.

トラッピング処理とは、第1の色の領域と第2の色の領域との境界に隣接する画素列の色を、第1の色と第2の色とを合成した色にする境界色重処理である。例えば、図10の例に示されるように、多値画像情報において、第1の色の領域であって第2の色を含まない領域と、第2の色の領域であって第1の色を含まない領域と、が隣接する場合、画像形成時に版ずれを起こして、2つの領域の間に空白が生じるおそれがある。そこで、版ずれを抑制するため、図11の例に示されるように、2つの領域の境界に隣接する画素列の色が、2つの領域の色を合成したものとされる。なお、これに限られず、第1の色及び第2の色は、複数種類の色が混ざった色であってもよい。各種類の色について、2つの領域の間に予め定められた値以上の階調差があれば、それらの領域の境界部分をトラッピング処理の対象としてもよい。   The trapping process is a boundary color weighting process in which the color of the pixel column adjacent to the boundary between the first color area and the second color area is changed to a color obtained by combining the first color and the second color. It is. For example, as shown in the example of FIG. 10, in the multi-value image information, the first color region that does not include the second color, and the second color region that includes the first color. If an area that does not include is adjacent, there is a risk that plate misregistration will occur during image formation, resulting in a blank between the two areas. Therefore, in order to suppress misregistration, as shown in the example of FIG. 11, the color of the pixel column adjacent to the boundary between the two regions is a combination of the colors of the two regions. Note that the present invention is not limited to this, and the first color and the second color may be a color in which a plurality of types of colors are mixed. For each type of color, if there is a difference in gradation between two areas that is greater than or equal to a predetermined value, the boundary between these areas may be the target of the trapping process.

すなわち、トラッピング処理では、境界の幅方向の一方に隣接する画素列に、他方に隣接する領域の色が合成され、境界の幅方向の他方に隣接する画素列に、一方に隣接する領域の色が合成される。境界の幅方向とは、境界の延伸方向と直交する方向である。また、換言すると、トラッピング処理では、隣接する2つの領域の各々が境界の幅方向に拡大されて、色が重ねられる。なお、色が合成される画素列は、境界の両側に隣接する2本の画素列の一方であっても、両方であってもよい。また、色が合成される画素列は、境界に隣接する2画素分以上の幅の画素列であってもよい。   That is, in the trapping process, the color of the region adjacent to the other is combined with the pixel column adjacent to one side in the boundary width direction, and the color of the region adjacent to one side is combined with the pixel column adjacent to the other in the boundary width direction. Is synthesized. The width direction of the boundary is a direction orthogonal to the extending direction of the boundary. In other words, in the trapping process, each of the two adjacent regions is enlarged in the width direction of the boundary, and the colors are superimposed. In addition, the pixel row | line | column with which a color is synthesize | combined may be one or both of the two pixel row | line | columns adjacent to the both sides of a boundary. In addition, the pixel row in which the colors are combined may be a pixel row having a width of two pixels or more adjacent to the boundary.

図10及び図11の例では、K色の階調が50%(以下、「K色50%」という。)の領域と、M色の階調が50%(以下、「M色50%」という。)の領域との境界の両側に隣接する画素列の色の種類及び階調が、K色50%かつM色50%とされている。なお、色の組み合わせはこの態様に限られない。また、各領域は、CMYKの単色に限られず、これらの混合色であってもよい。   In the example of FIGS. 10 and 11, an area where the gradation of K color is 50% (hereinafter referred to as “K color 50%”) and an gradation of M color is 50% (hereinafter referred to as “M color 50%”). The color types and gradations of the pixel columns adjacent to both sides of the boundary with the area (2) are K color 50% and M color 50%. The color combination is not limited to this mode. Each region is not limited to a single color of CMYK, and may be a mixed color of these.

具体的には、トラッピング処理部41は、次のようにトラッピング処理を実行する。第1のステップでは、多値画像情報において各色の境界が検出される。ここで言う境界とは、注目する色を含む領域と、その色を含まない領域との境界である。例えば、多値画像情報に対して、3×3画素など、注目画素とそれを囲む周囲画素とを含むウィンドウが走査され、注目画素の階調と各周囲画素の階調とが比較され、階調差が閾値以上の場合に、該当する画素間が境界として判定される。これにより、境界に隣接する画素の位置と、その画素に対して境界が隣接する方向とが得られる。第2のステップでは、互いに異なる色の領域が隣接しているか、すなわち、互いに異なる色の境界が一致しているかが判定される。これにより、所定以上の階調の第1の色の領域と、所定以上の階調の第2の色の領域との境界が処理の対象とされる。第3のステップでは、上述したように、互いに異なる色の領域の境界に隣接する画素列の色を、2つの領域の色を合成したものとする。例えば、画素列に含まれる各画素の色を変更する際、境界を挟んで逆側に隣接する画素の色の種類及び階調が参照される。これに限られず、境界を挟んで2画素以上隣の画素の色の種類及び階調が参照されてもよい。   Specifically, the trapping processing unit 41 performs the trapping process as follows. In the first step, the boundary of each color is detected in the multi-value image information. The boundary mentioned here is a boundary between a region including the target color and a region not including the color. For example, a window including a pixel of interest and surrounding pixels surrounding it, such as 3 × 3 pixels, is scanned for multi-value image information, and the gradation of the pixel of interest is compared with the gradation of each surrounding pixel. When the difference is greater than or equal to the threshold value, the corresponding pixel is determined as a boundary. Thereby, the position of the pixel adjacent to the boundary and the direction in which the boundary is adjacent to the pixel are obtained. In the second step, it is determined whether different color regions are adjacent to each other, that is, whether different color boundaries coincide with each other. As a result, the boundary between the first color area having a predetermined gradation or more and the second color area having a predetermined gradation or more is set as a processing target. In the third step, as described above, it is assumed that the colors of the pixel columns adjacent to the boundary between the different color areas are combined with the colors of the two areas. For example, when changing the color of each pixel included in the pixel column, the color type and gradation of the pixel adjacent on the opposite side across the boundary are referred to. However, the present invention is not limited to this, and the color type and gradation of two or more adjacent pixels across the boundary may be referred to.

フラグ生成部43は、トラッピング処理部41からトラッピング処理に係る処理情報を受け付け、この処理情報に基づいてフラグ情報を生成する。例えば、処理情報には、上記第1及び第2ステップにおいて判定された境界の情報が含まれている。具体的には、処理情報に、境界に隣接する画素の位置の情報や、画素に対して境界が隣接する方向の情報、境界に隣接する画素の色の情報などが含まれている。   The flag generation unit 43 receives processing information related to the trapping process from the trapping processing unit 41, and generates flag information based on the processing information. For example, the processing information includes boundary information determined in the first and second steps. Specifically, the processing information includes information on the position of the pixel adjacent to the boundary, information on the direction in which the boundary is adjacent to the pixel, information on the color of the pixel adjacent to the boundary, and the like.

フラグ情報は、図12Aの例に示されるように、上記多値画像情報と同じ画素配列を有しており、各画素の位置が多値画像情報の各画素と対応している。フラグ情報では、各画素の値によって境界の情報が表されている。各画素の値は、図12Bの例に示されるように、例えば数ビットの値で記述されている。なお、説明のため、図12Bの表の右端には、各値の意味を記述している。また、図12Bの表には、K色と他色との組み合わせが記述されているが、色の組み合わせはこれらに限られない。   As shown in the example of FIG. 12A, the flag information has the same pixel arrangement as that of the multi-value image information, and the position of each pixel corresponds to each pixel of the multi-value image information. In the flag information, boundary information is represented by the value of each pixel. The value of each pixel is described by a value of several bits, for example, as shown in the example of FIG. 12B. For the sake of explanation, the meaning of each value is described at the right end of the table in FIG. 12B. In the table of FIG. 12B, combinations of K color and other colors are described, but the combination of colors is not limited to these.

フラグ情報には、境界に隣接する画素列に属する各画素の位置を表す位置情報が含まれている。具体的には、各画素の値は、大きく分けると、境界に隣接する画素(図12Aの例では、ハッチングが付された画素)を表す値と、それ以外の画素(図12Aの例では、空白の画素)を表す値と、に分けられる。このため、こうした値によって、境界に隣接する各画素の位置が特定される。図12Bの例では、少なくとも1つのビットが1である場合に、境界に隣接する画素が表され、全てのビットが0である場合に、それ以外の画素が表される。ここで、位置情報により特定される位置は、上記トラッピング処理において、色の合成が行われる、境界に隣接する画素の位置に対応している。   The flag information includes position information indicating the position of each pixel belonging to the pixel column adjacent to the boundary. Specifically, the value of each pixel can be broadly divided into a value representing a pixel adjacent to the boundary (in the example of FIG. 12A, a hatched pixel) and another pixel (in the example of FIG. 12A, And a value representing a blank pixel). For this reason, such a value specifies the position of each pixel adjacent to the boundary. In the example of FIG. 12B, when at least one bit is 1, a pixel adjacent to the boundary is represented, and when all bits are 0, other pixels are represented. Here, the position specified by the position information corresponds to the position of the pixel adjacent to the boundary where color synthesis is performed in the trapping process.

また、フラグ情報には、境界に隣接する画素列に属する各画素に対して境界が隣接する方向を表す方向情報が含まれている。図12Aの例では、境界を挟んで左右に並んだ2つの画素列のうち、左側の画素列では右方向に境界が隣接しており、右側の画素列では左方向に境界が隣接している。図12Bの例に示されるように、各画素の値には、上下左右等の方向を表すビットが含まれている。なお、境界に隣接する画素ではない場合、方向を表すビットが全て0とされる。ここで、方向情報により特定される方向は、上記トラッピング処理において、対象となる画素を基準として合成に利用する色を参照する画素の方向に対応している。   Further, the flag information includes direction information indicating the direction in which the boundary is adjacent to each pixel belonging to the pixel column adjacent to the boundary. In the example of FIG. 12A, of the two pixel columns arranged on the left and right with the boundary interposed therebetween, the left pixel column has a right boundary adjacent thereto, and the right pixel column has a boundary adjacent leftward. . As shown in the example of FIG. 12B, the value of each pixel includes bits representing directions such as up, down, left, and right. If the pixel is not adjacent to the boundary, all the bits indicating the direction are set to 0. Here, the direction specified by the direction information corresponds to the direction of the pixel that refers to the color used for the synthesis based on the target pixel in the trapping process.

また、フラグ情報には、境界に隣接する画素列に属する各画素とは境界を挟んで逆側に隣接する画素の色の種類を表す色情報が含まれている。すなわち、図12Aの例では、境界を挟んで左右に並んだ2つの画素列のうち、左側の画素列は右側の画素列の色の種類を表す色情報を持ち、右側の画素列は左側の画素列の色の種類を表す色情報を持つことになる。図12Bの例に示されるように、各画素の値には、YMC等の色を表すビットが含まれている。なお、境界に隣接する画素ではない場合、色の種類を表すビットが全て0とされる。ここで、色情報により特定される色は、上記トラッピング処理において、対象となる画素と境界を挟んで隣接する画素から参照した、合成に利用する色に対応している。   Further, the flag information includes color information indicating the type of color of the pixel adjacent to the opposite side of the boundary with respect to each pixel belonging to the pixel column adjacent to the boundary. That is, in the example of FIG. 12A, the left pixel column has color information indicating the color type of the right pixel column, and the right pixel column is the left pixel column among the two pixel columns arranged on the left and right sides with the boundary. It has color information indicating the color type of the pixel column. As shown in the example of FIG. 12B, each pixel value includes a bit representing a color such as YMC. If the pixel is not adjacent to the boundary, all the bits indicating the color type are set to 0. Here, the color specified by the color information corresponds to the color used for composition, which is referred to from the pixel adjacent to the target pixel and the boundary in the trapping process.

第1の変換部45は、トラッピング処理部41からトラッピング処理が施された多値画像情報を受け付け、この多値画像情報を2値画像情報に変換する(いわゆる2値化)。2値化の手法は、特に限定されない。   The first conversion unit 45 receives the multi-valued image information subjected to the trapping process from the trapping processing unit 41, and converts the multi-valued image information into binary image information (so-called binarization). The binarization method is not particularly limited.

第1の変換部45により変換される2値画像情報は、図13の例に示されるように、上記多値画像情報と同じ画素配列を有しており、各画素は2種類以上の色を含んでいる。本例では、各画素は、C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)の4種類の色を含んでいる。また、各画素の各色は、2階調で表されている。   As shown in the example of FIG. 13, the binary image information converted by the first conversion unit 45 has the same pixel arrangement as the multi-value image information, and each pixel has two or more kinds of colors. Contains. In this example, each pixel includes four types of colors, C (cyan), M (magenta), Y (yellow), and K (black). Each color of each pixel is represented by two gradations.

また、第1の変換部45により変換される2値画像情報は、図13の例に示されるように、上記多値画像情報に含まれていた複数の領域に対応する、互いに色が異なる複数の領域を有している。各領域では、領域中に占める有色画素の割合、すなわち有色画素の密度によって、領域の色の濃度が表されている。   Further, as shown in the example of FIG. 13, the binary image information converted by the first conversion unit 45 is a plurality of different colors corresponding to a plurality of regions included in the multi-value image information. It has the area of. In each region, the color density of the region is represented by the ratio of the colored pixels in the region, that is, the density of the colored pixels.

ここで、トラッピング処理が施された多値画像情報では、第1の色の領域と第2の色の領域との境界に隣接する画素列の色が、第1の色と第2の色とを合成した色となっているため、この多値画像情報から変換された2値画像情報では、境界に隣接する画素列に含まれる画素の一部が、境界を挟んで逆側の領域の色になっている。   Here, in the multi-value image information subjected to the trapping process, the colors of the pixel columns adjacent to the boundary between the first color area and the second color area are the first color and the second color. In the binary image information converted from the multi-value image information, a part of the pixels included in the pixel column adjacent to the boundary is the color of the region on the opposite side across the boundary. It has become.

具体的には、第1の変換部45は、次のようにして多値画像情報を2値画像情報に変換する。多値画像情報の各領域の色の階調に応じて、2値画像情報の各領域の有色画素の密度が決定される。これにより、図13の例に示されるような2値画像情報が得られる。   Specifically, the first conversion unit 45 converts the multi-value image information into binary image information as follows. The density of the colored pixels in each area of the binary image information is determined according to the color gradation of each area of the multi-value image information. Thereby, binary image information as shown in the example of FIG. 13 is obtained.

なお、本実施形態では、トラッピング処理が施された多値画像情報が第1の変換部45に入力されていたが、これに限られず、トラッピング処理が施されていない多値画像情報が第1の変換部45に入力されてもよい。   In this embodiment, the multi-value image information that has been subjected to the trapping process is input to the first conversion unit 45. However, the present invention is not limited to this, and the multi-value image information that has not been subjected to the trapping process is the first. The conversion unit 45 may be input.

上記フラグ生成部43により生成されたフラグ情報と、上記第1の変換部45により生成された2値画像情報とは、フラグ保持部47及び第2の変換部49のそれぞれに直接出力されてもよいし、記憶部24に一旦格納され、操作部23からの入力等を契機に、フラグ保持部47及び第2の変換部49のそれぞれに読み出されるようにしてもよい。記憶部24に格納される場合、2値画像情報とフラグ情報は互いに対応付けられる。   The flag information generated by the flag generation unit 43 and the binary image information generated by the first conversion unit 45 may be directly output to the flag holding unit 47 and the second conversion unit 49, respectively. Alternatively, it may be stored once in the storage unit 24 and read out to each of the flag holding unit 47 and the second conversion unit 49 in response to an input from the operation unit 23 or the like. When stored in the storage unit 24, the binary image information and the flag information are associated with each other.

フラグ保持部47は、フラグ生成部43により生成されたフラグ情報を保持しており、このフラグ情報を第2の変換部49に含まれる多値化部49a及び補正部49bに出力する。フラグ情報には、上述したように、位置情報、方向情報及び色情報が含まれている。   The flag holding unit 47 holds the flag information generated by the flag generating unit 43, and outputs the flag information to the multi-value quantization unit 49a and the correction unit 49b included in the second conversion unit 49. As described above, the flag information includes position information, direction information, and color information.

第2の変換部49に含まれる多値化部49aは、第1の変換部45により生成された2値画像情報を多値画像情報に変換し(いわゆる多値化)、この多値画像情報を補正部49bに出力する。なお、多値化の手法は、特に限定されない。   The multi-value conversion unit 49a included in the second conversion unit 49 converts the binary image information generated by the first conversion unit 45 into multi-value image information (so-called multi-value conversion), and this multi-value image information. Is output to the correction unit 49b. Note that the multi-value method is not particularly limited.

この多値化部49aは、図13の例に示されるように、2値画像情報に含まれる第1の色の領域及び第2の色の領域のうち、一方の領域の境界に隣接する画素列に、他方の領域の色の画素が含まれる場合、多値化に際して当該画素の色を利用しない。ここで、境界に隣接する画素列の位置は、フラグ情報に含まれる位置情報により特定され、他方の領域の色の画素であるか否かは、フラグ情報に含まれる色情報により判断される。すなわち、多値化部49aは、位置情報により特定される画素列に、色情報により特定される色の種類の画素が含まれている場合、多値化に際して当該画素の色を利用しない。   As shown in the example of FIG. 13, the multi-value quantization unit 49 a is a pixel adjacent to the boundary of one of the first color area and the second color area included in the binary image information. When a column includes a pixel of the color of the other region, the color of the pixel is not used for multilevel conversion. Here, the position of the pixel row adjacent to the boundary is specified by the position information included in the flag information, and whether or not the pixel is a color pixel in the other region is determined by the color information included in the flag information. That is, when the pixel column specified by the position information includes a pixel of the color type specified by the color information, the multi-value conversion unit 49a does not use the color of the pixel for multi-value conversion.

多値化に際して当該画素の色を利用しないとは、多値化のための計算を行う際に、当該画素の色の存在を考慮しないことである。例えば、2値画像情報の各領域中の有色画素の密度を求める際に、当該画素は有色画素としてカウントされず、無色画素としてカウントされる。このようにして決定された、2値画像情報の各領域中の有色画素の密度に基づいて、多値画像情報の各領域の色の階調が決定される。これにより、多値画像情報の各領域の全体に、隣接する領域の色が混ざることが抑制される。   The fact that the color of the pixel is not used at the time of multi-leveling means that the existence of the color of the pixel is not considered when performing calculation for multi-leveling. For example, when obtaining the density of colored pixels in each area of the binary image information, the pixels are not counted as colored pixels but counted as colorless pixels. Based on the density of the colored pixels in each area of the binary image information thus determined, the color gradation of each area of the multivalued image information is determined. Thereby, it is suppressed that the color of an adjacent area | region is mixed with each whole area | region of multi-value image information.

図13の例では、K色の領域のうち、M色の領域との境界に隣接する画素列にM色の画素が含まれており、K色の領域中の有色画素の密度を求める際に、このM色の画素は無色画素としてカウントされる。他方、M色の領域のうち、K色の領域との境界に隣接する画素列にK色の画素が含まれており、M色の領域中の有色画素の密度を求める際に、このK色の画素は無色画素としてカウントされる。   In the example of FIG. 13, an M color pixel is included in a pixel column adjacent to the boundary with the M color region in the K color region, and the density of the colored pixels in the K color region is obtained. The M color pixel is counted as a colorless pixel. On the other hand, a pixel row adjacent to the boundary with the K color region in the M color region includes K color pixels, and this K color is obtained when obtaining the density of the colored pixels in the M color region. The pixels are counted as colorless pixels.

なお、こうした態様に限られず、色情報が、境界に隣接する画素列に属する各画素の色の種類を表すようにして、位置情報により特定される画素列に、色情報により特定される色以外の色の画素が含まれている場合に、多値化に際して当該画素の色を利用しないようにしてもよい。   The color information is not limited to the color specified by the color information in the pixel column specified by the position information so that the color information represents the color type of each pixel belonging to the pixel column adjacent to the boundary. If a pixel of the color is included, the color of the pixel may not be used for multi-value conversion.

多値化部49aにより変換される多値画像情報は、図14の例に示されるように、上記トラッピング処理部41に入力される多値画像情報と同じ画素構成を有している。この多値画像情報は、上記2値画像情報に含まれていた複数の領域に対応する、互いに色が異なる複数の領域を有している。   The multi-value image information converted by the multi-value conversion unit 49a has the same pixel configuration as the multi-value image information input to the trapping processing unit 41, as shown in the example of FIG. The multi-value image information has a plurality of regions having different colors corresponding to the plurality of regions included in the binary image information.

この多値画像情報では、上記トラッピング処理部41に入力される多値画像情報と同様に、第1の色の領域と第2の色の領域とが隣接している。このように、トラッピング処理が施された多値画像情報を2値画像情報に変換し、その2値画像情報を多値画像情報に変換すると、得られる多値画像情報は、トラッピング処理が施されていない多値画像情報と同様になる。すなわち、得られる多値画像情報では、境界に隣接する画素列の色が、第1の色と第2の色とを合成した色にならない。   In this multi-value image information, the first color region and the second color region are adjacent to each other, as in the multi-value image information input to the trapping processing unit 41. As described above, when the trapped multivalued image information is converted into binary image information, and the binary image information is converted into multivalued image information, the obtained multilevel image information is subjected to the trapping process. It becomes the same as the multi-value image information that is not. That is, in the obtained multi-value image information, the color of the pixel column adjacent to the boundary is not a color obtained by combining the first color and the second color.

第2の変換部49に含まれる補正部49bは、図14の例に示されるように、多値化部49aから入力される多値画像情報のうち、境界に隣接する画素列に属する各画素の色を、各画素と境界を挟んで隣接する画素の色に基づいて補正する。ここで、境界に隣接する画素列の位置は、フラグ情報に含まれる位置情報により特定され、各画素と境界を挟んで隣接する画素の方向は、フラグ情報に含まれる方向情報により特定される。すなわち、補正部49bは、位置情報により特定される画素列に属する各画素の色を、方向情報により特定される方向の画素の色に基づいて補正する。   As shown in the example of FIG. 14, the correction unit 49b included in the second conversion unit 49 includes each pixel belonging to the pixel column adjacent to the boundary in the multi-value image information input from the multi-value conversion unit 49a. Is corrected based on the color of the pixel adjacent to each pixel across the boundary. Here, the position of the pixel row adjacent to the boundary is specified by position information included in the flag information, and the direction of the pixel adjacent to each pixel across the boundary is specified by the direction information included in the flag information. That is, the correction unit 49b corrects the color of each pixel belonging to the pixel column specified by the position information based on the color of the pixel in the direction specified by the direction information.

具体的には、画素の色の補正は、位置情報により特定される画素列に属する各画素の色の種類及び階調値と、方向情報により特定される方向の画素の色の種類及び階調値と、を合成することによって行われる。なお、方向情報により特定される方向の画素は、対象となる画素に隣接する画素に限られず、2画素以上隣の画素であってもよい。   Specifically, the correction of the pixel color includes the color type and gradation value of each pixel belonging to the pixel column specified by the position information, and the color type and gradation of the pixel in the direction specified by the direction information. This is done by combining the values. Note that the pixel in the direction specified by the direction information is not limited to the pixel adjacent to the target pixel, and may be two or more adjacent pixels.

例えば、図14の例に示されるように、境界の左側に隣接する画素列に属する各画素には、方向情報により特定される右方向の画素のM色50%が合成され、境界の右側に隣接する画素列に属する各画素には、方向情報により特定される左方向の画素のK色50%が合成される。これにより、図15の例に示されるように、境界の両側に隣接する画素列は、K色50%かつM色50%とされる。   For example, as shown in the example of FIG. 14, 50% of the M color of the pixel in the right direction specified by the direction information is combined with each pixel belonging to the pixel column adjacent to the left side of the boundary, and on the right side of the boundary. For each pixel belonging to the adjacent pixel column, 50% of the K color of the pixel in the left direction specified by the direction information is synthesized. As a result, as shown in the example of FIG. 15, the pixel columns adjacent to both sides of the boundary are set to 50% K color and 50% M color.

以上のようにして得られる、補正後の多値画像情報は、第1の色の領域と第2の色の領域との境界に隣接する画素列が、第1の色と第2の色とを合成した色となる。すなわち、補正後の多値画像情報は、図11の例に示されるような、上記トラッピング処理が施された多値画像情報と同様になる。   The corrected multi-valued image information obtained as described above includes the pixel row adjacent to the boundary between the first color region and the second color region as the first color and the second color. The color is a composite of That is, the corrected multi-value image information is the same as the multi-value image information subjected to the trapping process as shown in the example of FIG.

なお、上述したように、フラグ生成部43により生成されたフラグ情報と、第1の変換部45により生成された2値画像情報と、を記憶部24に一旦格納する場合、多値画像情報を記憶部24に一旦格納する場合よりも、格納に必要な容量を抑制することが可能である。   As described above, when the flag information generated by the flag generation unit 43 and the binary image information generated by the first conversion unit 45 are temporarily stored in the storage unit 24, the multi-value image information is stored in the storage unit 24. The capacity required for storage can be reduced as compared with the case where data is temporarily stored in the storage unit 24.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、種々の変形実施が当業者にとって可能であるのはもちろんである。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made by those skilled in the art.

1 画像処理装置、21 制御部、22 画像処理部、23 操作部、24 記憶部、25 通信部、26 表示部、27 画像形成部、28 画像読取部、31 エッジエンハンス処理部、33 フラグ生成部、35 第1の変換部、37 フラグ保持部、39 第2の変換部、41 トラッピング処理部、43 フラグ生成部、45 第1の変換部、47 フラグ保持部、49 第2の変換部、49a 多値化部、49b 補正部。   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 21 Control part, 22 Image processing part, 23 Operation part, 24 Storage part, 25 Communication part, 26 Display part, 27 Image formation part, 28 Image reading part, 31 Edge enhancement processing part, 33 Flag generation part 35 First conversion unit 37 Flag holding unit 39 Second conversion unit 41 Trapping processing unit 43 Flag generation unit 45 First conversion unit 47 Flag holding unit 49 Second conversion unit 49a Multi-value conversion unit, 49b correction unit.

Claims (4)

各画素が少なくとも1の色を含み、各色が3以上の階調で表された多値画像情報のうち、予め定められた値以上の階調差を有する2つの領域の境界に隣接する前記1の色の画素列の位置を表す位置情報を保持する保持部と、
前記多値画像情報から変換された、各画素が1以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列の範囲内に変換処理を適用して、前記1の色の階調値を決定する変換部と、
を備え
前記保持部は、前記境界に隣接する前記1の色の画素列には属さない前記1の色の画素群の位置を表す位置情報を更に保持し、
前記変換部は、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の階調値を決定する、
画像処理装置。
The multi-value image information in which each pixel includes at least one color and each color is expressed by three or more gradations is adjacent to the boundary between two regions having a gradation difference of a predetermined value or more. A holding unit for holding position information indicating the position of the pixel row of the color;
A conversion unit for converting binary image information converted from the multi-value image information, each pixel including one or more colors and each color represented by two gradations into new multi-value image information, A conversion unit that determines a gradation value of the one color by applying a conversion process within a range of a pixel column specified by the position information;
Equipped with a,
The holding unit further holds position information indicating a position of the pixel group of the one color that does not belong to the pixel row of the one color adjacent to the boundary;
The conversion unit includes a pixel group range specified by position information indicating the position of the one color pixel group and a pixel group range specified by position information indicating the position of the one color pixel group. The tone value of the one color is determined individually in and
Image processing device.
前記多値画像情報から前記2値画像情報への変換では、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の画素の密度が決定される、
請求項に記載の画像処理装置。
In the conversion from the multi-value image information to the binary image information, the range of the pixel row specified by the position information indicating the position of the pixel row of the one color and the position of the pixel group of the one color are changed. The density of the pixels of the one color is determined individually within the range of the pixel group specified by the position information to be represented,
The image processing apparatus according to claim 1 .
各画素が少なくとも1の色を含み、各色が3以上の階調で表された多値画像情報のうち、予め定められた値以上の階調差を有する2つの領域の境界に隣接する前記1の色の画素列の階調値を高める境界強調処理を実行する処理部と、
前記多値画像情報を、各画素が1以上の色を含み、各色が2階調で表された2値画像情報に変換する第1の変換部と、
前記境界に隣接する前記1の色の画素列の位置を表す位置情報を生成する生成部と、
前記位置情報を保持する保持部と、
前記2値画像情報を新たな多値画像情報に変換する第2の変換部であって、前記位置情報により特定される画素列の範囲内に変換処理を適用して、前記1の色の階調値を決定する第2の変換部と、
を備え
前記保持部は、前記境界に隣接する前記1の色の画素列には属さない前記1の色の画素群の位置を表す位置情報を更に保持し、
前記第2の変換部は、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の階調値を決定する、
画像処理装置。
The multi-value image information in which each pixel includes at least one color and each color is expressed by three or more gradations is adjacent to the boundary between two regions having a gradation difference of a predetermined value or more. A processing unit that executes boundary enhancement processing for increasing the gradation value of the pixel row of the color;
A first conversion unit that converts the multi-value image information into binary image information in which each pixel includes one or more colors and each color is represented by two gradations;
A generating unit that generates position information indicating the position of the pixel row of the one color adjacent to the boundary;
A holding unit for holding the position information;
A second conversion unit configured to convert the binary image information into new multi-value image information, wherein a conversion process is applied to a range of a pixel column specified by the position information, and A second conversion unit for determining a key value;
Equipped with a,
The holding unit further holds position information indicating a position of the pixel group of the one color that does not belong to the pixel row of the one color adjacent to the boundary;
The second conversion unit includes a pixel specified by position information indicating the position of the pixel group within the range of the pixel column specified by the position information indicating the position of the pixel row of the first color and the position of the pixel group of the first color. In the range of the group, the gradation value of the one color is determined individually.
Image processing device.
各画素が少なくとも1の色を含み、各色が3以上の階調で表された多値画像情報のうち、予め定められた値以上の階調差を有する2つの領域の境界に隣接する前記1の色の画素列の位置を表す位置情報を保持する保持部と、
前記多値画像情報から変換された、各画素が1以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列の範囲内に変換処理を適用して、前記1の色の階調値を決定する変換部と、
としてコンピュータを機能させ
前記保持部は、前記境界に隣接する前記1の色の画素列には属さない前記1の色の画素群の位置を表す位置情報を更に保持し、
前記変換部は、前記1の色の画素列の位置を表す位置情報により特定される画素列の範囲内と、前記1の色の画素群の位置を表す位置情報により特定される画素群の範囲内と、で個別に前記1の色の階調値を決定する、
プログラム。
The multi-value image information in which each pixel includes at least one color and each color is expressed by three or more gradations is adjacent to the boundary between two regions having a gradation difference of a predetermined value or more. A holding unit for holding position information indicating the position of the pixel row of the color;
A conversion unit for converting binary image information converted from the multi-value image information, each pixel including one or more colors and each color represented by two gradations into new multi-value image information, A conversion unit that determines a gradation value of the one color by applying a conversion process within a range of a pixel column specified by the position information;
Cause the computer to function as,
The holding unit further holds position information indicating a position of the pixel group of the one color that does not belong to the pixel row of the one color adjacent to the boundary;
The conversion unit includes a pixel group range specified by position information indicating the position of the one color pixel group and a pixel group range specified by position information indicating the position of the one color pixel group. The tone value of the one color is determined individually in and
program.
JP2010277790A 2010-12-14 2010-12-14 Image processing apparatus and program Expired - Fee Related JP5742198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010277790A JP5742198B2 (en) 2010-12-14 2010-12-14 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010277790A JP5742198B2 (en) 2010-12-14 2010-12-14 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2012129684A JP2012129684A (en) 2012-07-05
JP5742198B2 true JP5742198B2 (en) 2015-07-01

Family

ID=46646282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010277790A Expired - Fee Related JP5742198B2 (en) 2010-12-14 2010-12-14 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5742198B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2964931B2 (en) * 1995-04-25 1999-10-18 富士ゼロックス株式会社 Image processing apparatus and image forming apparatus
JPH09163127A (en) * 1995-12-12 1997-06-20 Canon Inc Image processor and method therefor
JPH11103388A (en) * 1997-09-26 1999-04-13 Ricoh Co Ltd Image output device
JP4735806B2 (en) * 2005-03-22 2011-07-27 富士ゼロックス株式会社 Encoding device, decoding device, and programs thereof
JP2006324721A (en) * 2005-05-17 2006-11-30 Seiko Epson Corp Image processor, image processing method, image processing program and medium recording the program

Also Published As

Publication number Publication date
JP2012129684A (en) 2012-07-05

Similar Documents

Publication Publication Date Title
JP4544109B2 (en) Image processing apparatus and program
JP4596473B2 (en) Dither matrix creation method, apparatus, image forming apparatus, program, and recording medium
US9967429B2 (en) Image processing apparatus, image processing method, and storage medium
JP2012231401A (en) Image processing apparatus, image processing method, and computer program
JP5055418B2 (en) Image processing apparatus and image processing method
JP5476874B2 (en) Color processing apparatus, image forming apparatus, and program
US9147140B2 (en) Image processing apparatus, method, and product for converting image data into fewer gradations based on total value of pixels in a group except for a detected pixel having a specific value
JP5854066B2 (en) Color processing apparatus, image forming apparatus, and program
JP4342560B2 (en) Image processing method, image processing apparatus, computer program, and recording medium
JP5267954B2 (en) Image processing apparatus, image forming apparatus, and program
JP5742198B2 (en) Image processing apparatus and program
JP4169054B2 (en) Image processing apparatus, image processing method, and program
US8565548B2 (en) Image processing apparatus which performs anti-aliasing on input image data and image processing method thereof
JP2010118760A (en) Image processing apparatus
JP2012129685A (en) Image processing device and program
JP5115203B2 (en) Image processing apparatus, encoding method, and decoding method
US9396418B2 (en) Information processing apparatus, information processing method, and storage medium for processing an image and a pattern included in an XOR-and-XOR rendering command set
JP4274102B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
JP2006261764A (en) Image processing method and apparatus, and image forming apparatus
EP2469833B1 (en) Image processing apparatus using threshold matrix of resolution higher than resolution of input image
JP2021114662A (en) Image processing apparatus, image forming apparatus, and image processing program
JP2020195004A (en) Image forming apparatus and control method for the same, and program
JP6431727B2 (en) Image forming apparatus
JP2006033643A (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP4158652B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150420

R150 Certificate of patent or registration of utility model

Ref document number: 5742198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees