JP2012129685A - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP2012129685A
JP2012129685A JP2010277791A JP2010277791A JP2012129685A JP 2012129685 A JP2012129685 A JP 2012129685A JP 2010277791 A JP2010277791 A JP 2010277791A JP 2010277791 A JP2010277791 A JP 2010277791A JP 2012129685 A JP2012129685 A JP 2012129685A
Authority
JP
Japan
Prior art keywords
color
pixel
boundary
image information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010277791A
Other languages
Japanese (ja)
Inventor
Kiyoshi Une
清 宇根
Koji Yorimoto
浩二 寄本
Yasuo Komatsu
康男 小松
Yutaka Koda
裕 鴻田
Tetsuya Motomi
哲哉 本美
Yasushi Ujigawa
泰史 宇治川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2010277791A priority Critical patent/JP2012129685A/en
Publication of JP2012129685A publication Critical patent/JP2012129685A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device and a program capable of suppressing deterioration of a color boundary part when converting binary image information converted from multivalued image information, to new multivalued image information.SOLUTION: An image processing device 1 is provided with: a flag holding part 47 which holds positional information expressing the position of the pixel column adjacent to the boundary between the area of a first color and the area of a second color in the multivalued image information and holds reference information which expresses the positions of pixels where colors to be used for composition are referred to, in boundary color overprint processing which sets the color of the pixel column adjacent to the boundary to be a color obtained by composing the first color and the second color; and a second converter 49 which converts the binary image information converted from the multivalued image information to new multivalued image information, the second converter 49 determining the color of the pixel column identified with the positional information on the basis of the colors of the pixels identified with the reference information.

Description

本発明は、画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program.

特許文献1には、2値画像情報用のバッファメモリと多値画像情報を描画する書き込み部とを有し、2値画像情報を必要に応じて多値画像情報に変換する画像処理装置が開示されている。   Patent Document 1 discloses an image processing apparatus that includes a buffer memory for binary image information and a writing unit that draws multi-value image information, and converts the binary image information into multi-value image information as necessary. Has been.

特開平05−061971号公報JP 05-061971 A

本発明は、多値画像情報から変換された2値画像情報を新たな多値画像情報に変換するときに、色の境界部分の劣化を抑制することが可能な画像処理装置及びプログラムを提供することを主な目的とする。   The present invention provides an image processing apparatus and a program capable of suppressing deterioration of a color boundary portion when binary image information converted from multi-value image information is converted into new multi-value image information. The main purpose.

上記課題を解決するため、請求項1に記載の発明は、各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を保持する保持部と、前記多値画像情報から変換された、各画素が2以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列に含まれる各画素の色を、前記方向情報により特定される方向の画素の色に基づいて決定する変換部と、を備えることを特徴とする画像処理装置である。   In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that each pixel includes two or more colors, and the first color region of the multi-value image information in which each color is represented by three or more gradations. A holding unit that holds position information indicating a position of a pixel column adjacent to the boundary between the first color region and the second color region; and direction information indicating a direction in which the boundary is adjacent to the pixel column; A conversion unit that converts binary image information converted from value image information, each pixel including two or more colors, and each color represented by two gradations into new multi-value image information, the position An image processing apparatus comprising: a conversion unit that determines a color of each pixel included in a pixel row specified by information based on a color of a pixel in a direction specified by the direction information.

また、請求項2に記載の発明は、前記保持部は、前記境界に隣接する画素列とは前記境界の逆側に隣接する画素列の色を表す色情報を更に保持し、前記変換部は、前記2値画像情報の前記位置情報により特定される画素列に、前記逆側に隣接する画素列の色の画素が含まれる場合、前記2値画像情報の多値化に当該画素の色を利用しない、請求項1に記載の画像処理装置である。   In the invention according to claim 2, the holding unit further holds color information indicating a color of a pixel column adjacent to the opposite side of the boundary from the pixel column adjacent to the boundary. When the pixel column specified by the position information of the binary image information includes a pixel of the color of the pixel column adjacent to the opposite side, the color of the pixel is used for multi-leveling of the binary image information. The image processing apparatus according to claim 1, which is not used.

また、請求項3に記載の発明は、各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を生成する生成部、を備えることを特徴とする画像処理装置である。   According to a third aspect of the present invention, the first color region and the second color are included in the multi-value image information in which each pixel includes two or more colors and each color is represented by three or more gradations. And a generation unit that generates position information indicating a position of a pixel column adjacent to the boundary with the region and direction information indicating a direction in which the boundary is adjacent to the pixel column. It is a processing device.

また、請求項4に記載の発明は、各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の色を、前記第1の色と前記第2の色とを合成した色にする境界色重処理を実行する処理部と、前記多値画像情報を、各画素が2以上の色を含み、各色が2階調で表された2値画像情報に変換する第1の変換部と、前記境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を生成する生成部と、前記位置情報及び前記方向情報を保持する保持部と、前記2値画像情報を新たな多値画像情報に変換する第2の変換部であって、前記位置情報により特定される画素列に含まれる各画素の色を、前記方向情報により特定される方向の画素の色に基づいて決定する第2の変換部と、を備えることを特徴とする画像処理装置である。   According to a fourth aspect of the present invention, the first color region and the second color are included in the multivalued image information in which each pixel includes two or more colors and each color is represented by three or more gradations. A multi-value image information, a processing unit that executes a boundary color weighting process for changing the color of a pixel column adjacent to the boundary with the region to a color obtained by combining the first color and the second color, A first conversion unit that converts each pixel to binary image information in which each pixel includes two or more colors and each color is expressed in two gradations; position information that indicates a position of a pixel column adjacent to the boundary; and the pixel Direction information indicating a direction in which the boundary is adjacent to a column; a generation unit that generates a direction; a holding unit that holds the position information and the direction information; and the binary image information as new multi-value image information. A second conversion unit for converting the color of each pixel included in the pixel row specified by the position information according to the direction information; An image processing apparatus characterized by comprising, a second conversion unit for determining on the basis of the color of the direction of the pixel specified.

また、請求項5に記載の発明は、各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を保持する保持部と、前記多値画像情報から変換された、各画素が2以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列に含まれる各画素の色を、前記方向情報により特定される方向の画素の色に基づいて決定する変換部と、としてコンピュータを機能させるプログラムである。   According to a fifth aspect of the present invention, the first color region and the second color are included in the multivalued image information in which each pixel includes two or more colors and each color is represented by three or more gradations. A holding unit that holds position information indicating the position of the pixel column adjacent to the boundary with the region and direction information indicating the direction in which the boundary is adjacent to the pixel column, and conversion from the multi-value image information A conversion unit that converts binary image information in which each pixel includes two or more colors and each color is expressed by two gradations into new multi-value image information, and is specified by the position information A program that causes a computer to function as a conversion unit that determines the color of each pixel included in a pixel column based on the color of a pixel in a direction specified by the direction information.

また、請求項6に記載の発明は、各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を生成する生成部、としてコンピュータを機能させるプログラムである。   According to a sixth aspect of the present invention, the first color region and the second color are included in the multi-value image information in which each pixel includes two or more colors and each color is represented by three or more gradations. Is a program that causes a computer to function as a generation unit that generates position information indicating the position of a pixel column adjacent to the boundary with the region and direction information indicating the direction in which the boundary is adjacent to the pixel column. .

請求項1,4,5に記載の発明によると、第1の色の領域と第2の色の領域との境界に隣接する画素列の、第1の色と第2の色とを合成した色の劣化を抑制することが可能である。   According to the first, fourth, and fifth aspects of the invention, the first color and the second color of the pixel row adjacent to the boundary between the first color region and the second color region are synthesized. It is possible to suppress color deterioration.

請求項2に記載の発明によると、第1の色の領域及び第2の色の領域に他方の色が混ざることを抑制することが可能である。   According to the second aspect of the present invention, it is possible to prevent the other color from being mixed in the first color region and the second color region.

請求項3,6に記載の発明によると、第1の色の領域と第2の色の領域との境界に隣接する画素列の、第1の色と第2の色とを合成した色の劣化を抑制するための情報を提供することが可能である。   According to the third and sixth aspects of the present invention, the first color and the second color of the pixel row adjacent to the boundary between the first color region and the second color region are combined. Information for suppressing deterioration can be provided.

本発明の一実施形態に係る画像処理装置の構成例を表す図である。It is a figure showing the example of a structure of the image processing apparatus which concerns on one Embodiment of this invention. 同実施形態に係る画像処理装置の機能例を表す図である。It is a figure showing the example of a function of the image processing apparatus concerning the embodiment. 元の多値画像情報の例を表す図である。It is a figure showing the example of original multi-value image information. トラッピング処理後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after a trapping process. フラグ情報の例を表す図である。It is a figure showing the example of flag information. フラグ情報の例を表す図である。It is a figure showing the example of flag information. 多値−2値変換後の2値画像情報の例を表す図である。It is a figure showing the example of the binary image information after multi-value-binary conversion. 2値−多値変換後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after binary-multi-value conversion. 補正後の多値画像情報の例を表す図である。It is a figure showing the example of the multi-value image information after correction | amendment.

本発明の画像処理装置及びプログラムの実施形態を、図面を参照しながら説明する。   Embodiments of an image processing apparatus and a program according to the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理装置1の構成例を表す図である。画像処理装置1は、制御部21、画像処理部22、操作部23、記憶部24、通信部25、表示部26、画像形成部27及び画像読取部28を備えている。   FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus 1 according to an embodiment of the present invention. The image processing apparatus 1 includes a control unit 21, an image processing unit 22, an operation unit 23, a storage unit 24, a communication unit 25, a display unit 26, an image forming unit 27, and an image reading unit 28.

制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備えており、CPUがROMや記憶部24に記憶されたプログラムを実行することによって、画像処理装置1の各部を制御する。画像処理部22は、特定の画像処理を実行するASIC(Application Specific Integrated Circuit)を備えている。   The control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). When the CPU executes a program stored in the ROM or the storage unit 24, image processing is performed. Each part of the apparatus 1 is controlled. The image processing unit 22 includes an ASIC (Application Specific Integrated Circuit) that executes specific image processing.

操作部23は、複数のキーを備えており、使用者の操作を受け付けて、その操作に応じた信号を制御部21に出力する。記憶部24は、HDD(Hard Disk Drive)等の不揮発性の補助記憶装置であり、各種のプログラムやデータが記憶されている。通信部25は、通信インタフェースを備えており、LAN(Local Area Network)等の通信路を介して他の装置と通信を行う。表示部26は、液晶表示画面および液晶駆動回路を備えており、制御部21から供給される情報に基づいて処理の進行状況や使用者に操作を案内する情報などを表示する。   The operation unit 23 includes a plurality of keys, receives a user operation, and outputs a signal corresponding to the operation to the control unit 21. The storage unit 24 is a nonvolatile auxiliary storage device such as an HDD (Hard Disk Drive), and stores various programs and data. The communication unit 25 includes a communication interface and communicates with other devices via a communication path such as a LAN (Local Area Network). The display unit 26 includes a liquid crystal display screen and a liquid crystal drive circuit, and displays the progress of processing, information for guiding operations to the user, and the like based on information supplied from the control unit 21.

画像形成部27は、像を保持する感光体ドラム、画像情報に基づいて露光を行うことにより感光体ドラム上に静電潜像を形成する露光部、静電潜像を現像してトナー像を形成する現像部、トナー像を記録用紙へ転写する転写部、及び記録用紙に転写されたトナー像を記録用紙に定着させる定着部を備えている。画像読取部28は、CCD(Charge Coupled Device)等の撮像素子を備えており、記録用紙に形成されている画像を撮像素子によって読み取り、読み取った画像を表す画像情報を生成する。   The image forming unit 27 is a photosensitive drum that holds an image, an exposure unit that forms an electrostatic latent image on the photosensitive drum by performing exposure based on image information, and develops the electrostatic latent image to form a toner image. A developing unit to be formed, a transfer unit for transferring the toner image to the recording paper, and a fixing unit for fixing the toner image transferred to the recording paper to the recording paper are provided. The image reading unit 28 includes an image sensor such as a CCD (Charge Coupled Device), reads an image formed on a recording sheet by the image sensor, and generates image information representing the read image.

図2は、画像処理装置1の機能例を表す図である。画像処理装置1は、トラッピング処理部41、フラグ生成部43、第1の変換部45、フラグ保持部47及び第2の変換部49を備えている。また、第2の変換部49は、多値化部49a及び補正部49bを備えている。   FIG. 2 is a diagram illustrating an example of functions of the image processing apparatus 1. The image processing apparatus 1 includes a trapping processing unit 41, a flag generation unit 43, a first conversion unit 45, a flag holding unit 47, and a second conversion unit 49. The second conversion unit 49 includes a multilevel conversion unit 49a and a correction unit 49b.

上記各部は、制御部21に含まれるCPUがROMや記憶部24に記憶されたプログラムを実行することによって実現される。プログラムは、CD−ROM等のコンピュータ読み取り可能な情報記録媒体から提供されてもよいし、インターネット等の通信線を介して提供されてもよい。   Each of the above units is realized by the CPU included in the control unit 21 executing a program stored in the ROM or the storage unit 24. The program may be provided from a computer-readable information recording medium such as a CD-ROM, or may be provided via a communication line such as the Internet.

また、上記各部は、画像処理部22に含まれる回路として構成されてもよい。例えば、1つの望ましい態様では、制御部21がトラッピング処理部41、フラグ生成部43及び第1の変換部45を実現し、画像処理部22がフラグ保持部47及び第2の変換部49を備える。   In addition, each of the above units may be configured as a circuit included in the image processing unit 22. For example, in one desirable aspect, the control unit 21 implements a trapping processing unit 41, a flag generation unit 43, and a first conversion unit 45, and the image processing unit 22 includes a flag holding unit 47 and a second conversion unit 49. .

トラッピング処理部41は、入力される多値画像情報にトラッピング処理を施し、トラッピング処理が施された多値画像情報を第1の変換部45に出力する。また、トラッピング処理部41は、トラッピング処理に係る処理情報をフラグ生成部43に出力する。   The trapping processing unit 41 performs trapping processing on the input multivalued image information, and outputs the multivalued image information subjected to the trapping processing to the first conversion unit 45. Further, the trapping processing unit 41 outputs processing information related to the trapping process to the flag generation unit 43.

トラッピング処理部41に入力される多値画像情報は、図3の例に示されるように、2次元的に配列する複数の画素を有しており、各画素は2種類以上の色を含んでいる。本例では、各画素は、C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)の4種類の色を含んでいる。また、各画素の各色は、3以上の階調(例えば8階調)で表される。   As shown in the example of FIG. 3, the multi-value image information input to the trapping processing unit 41 has a plurality of pixels arranged two-dimensionally, and each pixel includes two or more types of colors. Yes. In this example, each pixel includes four types of colors, C (cyan), M (magenta), Y (yellow), and K (black). Each color of each pixel is represented by three or more gradations (for example, eight gradations).

また、トラッピング処理部41に入力される多値画像情報は、図3の例に示されるように、互いに色が異なる複数の領域を有しており、トラッピング処理は、こうした複数の領域の境界部分に施される。   Further, as shown in the example of FIG. 3, the multi-value image information input to the trapping processing unit 41 has a plurality of regions having different colors, and the trapping process is performed at a boundary portion between the plurality of regions. To be applied.

トラッピング処理とは、第1の色の領域と第2の色の領域との境界に隣接する画素列の色を、第1の色と第2の色とを合成した色にする境界色重処理である。例えば、図3の例に示されるように、多値画像情報において、第1の色の領域であって第2の色を含まない領域と、第2の色の領域であって第1の色を含まない領域と、が隣接する場合、画像形成時に版ずれを起こして、2つの領域の間に空白が生じるおそれがある。そこで、版ずれを抑制するため、図4の例に示されるように、2つの領域の境界に隣接する画素列の色が、2つの領域の色を合成したものとされる。なお、これに限られず、第1の色及び第2の色は、複数種類の色が混ざった色であってもよい。各種類の色について、2つの領域の間に予め定められた値以上の階調差があれば、それらの領域の境界部分をトラッピング処理の対象としてもよい。   The trapping process is a boundary color weighting process in which the color of the pixel column adjacent to the boundary between the first color area and the second color area is changed to a color obtained by combining the first color and the second color. It is. For example, as shown in the example of FIG. 3, in the multi-value image information, the first color region that does not include the second color, and the second color region that includes the first color. If an area that does not include is adjacent, there is a risk that plate misregistration will occur during image formation, resulting in a blank between the two areas. Therefore, in order to suppress misregistration, as shown in the example of FIG. 4, the color of the pixel column adjacent to the boundary between the two regions is a combination of the colors of the two regions. Note that the present invention is not limited to this, and the first color and the second color may be a color in which a plurality of types of colors are mixed. For each type of color, if there is a difference in gradation between two areas that is greater than or equal to a predetermined value, the boundary between these areas may be the target of the trapping process.

すなわち、トラッピング処理では、境界の幅方向の一方に隣接する画素列に、他方に隣接する領域の色が合成され、境界の幅方向の他方に隣接する画素列に、一方に隣接する領域の色が合成される。境界の幅方向とは、境界の延伸方向と直交する方向である。また、換言すると、トラッピング処理では、隣接する2つの領域の各々が境界の幅方向に拡大されて、色が重ねられる。なお、色が合成される画素列は、境界の両側に隣接する2本の画素列の一方であっても、両方であってもよい。また、色が合成される画素列は、境界に隣接する2画素分以上の幅の画素列であってもよい。   That is, in the trapping process, the color of the region adjacent to the other is combined with the pixel column adjacent to one side in the boundary width direction, and the color of the region adjacent to one side is combined with the pixel column adjacent to the other in the boundary width direction. Is synthesized. The width direction of the boundary is a direction orthogonal to the extending direction of the boundary. In other words, in the trapping process, each of the two adjacent regions is enlarged in the width direction of the boundary, and the colors are superimposed. In addition, the pixel row | line | column with which a color is synthesize | combined may be one or both of the two pixel row | line | columns adjacent to the both sides of a boundary. In addition, the pixel row in which the colors are combined may be a pixel row having a width of two pixels or more adjacent to the boundary.

図3及び図4の例では、K色の階調が50%(以下、「K色50%」という。)の領域と、M色の階調が50%(以下、「M色50%」という。)の領域との境界の両側に隣接する画素列の色の種類及び階調が、K色50%かつM色50%とされている。なお、色の組み合わせはこの態様に限られない。また、各領域は、CMYKの単色に限られず、これらの混合色であってもよい。   In the example of FIGS. 3 and 4, an area where the gradation of K color is 50% (hereinafter referred to as “K color 50%”) and an gradation of M color is 50% (hereinafter referred to as “M color 50%”). The color types and gradations of the pixel columns adjacent to both sides of the boundary with the area (2) are K color 50% and M color 50%. The color combination is not limited to this mode. Each region is not limited to a single color of CMYK, and may be a mixed color of these.

具体的には、トラッピング処理部41は、次のようにトラッピング処理を実行する。第1のステップでは、多値画像情報において各色の境界が検出される。ここで言う境界とは、注目する色を含む領域と、その色を含まない領域との境界である。例えば、多値画像情報に対して、3×3画素など、注目画素とそれを囲む周囲画素とを含むウィンドウが走査され、注目画素の階調と各周囲画素の階調とが比較され、階調差が閾値以上の場合に、該当する画素間が境界として判定される。これにより、境界に隣接する画素の位置と、その画素に対して境界が隣接する方向とが得られる。第2のステップでは、互いに異なる色の領域が隣接しているか、すなわち、互いに異なる色の境界が一致しているかが判定される。これにより、所定以上の階調の第1の色の領域と、所定以上の階調の第2の色の領域との境界が処理の対象とされる。第3のステップでは、上述したように、互いに異なる色の領域の境界に隣接する画素列の色を、2つの領域の色を合成したものとする。例えば、画素列に含まれる各画素の色を変更する際、境界を挟んで逆側に隣接する画素の色の種類及び階調が参照される。これに限られず、境界を挟んで2画素以上隣の画素の色の種類及び階調が参照されてもよい。   Specifically, the trapping processing unit 41 performs the trapping process as follows. In the first step, the boundary of each color is detected in the multi-value image information. The boundary mentioned here is a boundary between a region including the target color and a region not including the color. For example, a window including a pixel of interest and surrounding pixels surrounding it, such as 3 × 3 pixels, is scanned for multi-value image information, and the gradation of the pixel of interest is compared with the gradation of each surrounding pixel. When the difference is greater than or equal to the threshold value, the corresponding pixel is determined as a boundary. Thereby, the position of the pixel adjacent to the boundary and the direction in which the boundary is adjacent to the pixel are obtained. In the second step, it is determined whether different color regions are adjacent to each other, that is, whether different color boundaries coincide with each other. As a result, the boundary between the first color area having a predetermined gradation or more and the second color area having a predetermined gradation or more is set as a processing target. In the third step, as described above, it is assumed that the colors of the pixel columns adjacent to the boundary between the different color areas are combined with the colors of the two areas. For example, when changing the color of each pixel included in the pixel column, the color type and gradation of the pixel adjacent on the opposite side across the boundary are referred to. However, the present invention is not limited to this, and the color type and gradation of two or more adjacent pixels across the boundary may be referred to.

フラグ生成部43は、トラッピング処理部41からトラッピング処理に係る処理情報を受け付け、この処理情報に基づいてフラグ情報を生成する。例えば、処理情報には、上記第1及び第2ステップにおいて判定された境界の情報が含まれている。具体的には、処理情報に、境界に隣接する画素の位置の情報や、画素に対して境界が隣接する方向の情報、境界に隣接する画素の色の情報などが含まれている。   The flag generation unit 43 receives processing information related to the trapping process from the trapping processing unit 41, and generates flag information based on the processing information. For example, the processing information includes boundary information determined in the first and second steps. Specifically, the processing information includes information on the position of the pixel adjacent to the boundary, information on the direction in which the boundary is adjacent to the pixel, information on the color of the pixel adjacent to the boundary, and the like.

フラグ情報は、図5Aの例に示されるように、上記多値画像情報と同じ画素配列を有しており、各画素の位置が多値画像情報の各画素と対応している。フラグ情報では、各画素の値によって境界の情報が表されている。各画素の値は、図5Bの例に示されるように、例えば数ビットの値で記述されている。なお、説明のため、図5Bの表の右端には、各値の意味を記述している。また、図5Bの表には、K色と他色との組み合わせが記述されているが、色の組み合わせはこれらに限られない。   As shown in the example of FIG. 5A, the flag information has the same pixel arrangement as that of the multi-value image information, and the position of each pixel corresponds to each pixel of the multi-value image information. In the flag information, boundary information is represented by the value of each pixel. As shown in the example of FIG. 5B, the value of each pixel is described by a value of several bits, for example. For the sake of explanation, the meaning of each value is described at the right end of the table in FIG. 5B. In the table of FIG. 5B, combinations of K color and other colors are described, but the combination of colors is not limited to these.

フラグ情報には、境界に隣接する画素列に属する各画素の位置を表す位置情報が含まれている。具体的には、各画素の値は、大きく分けると、境界に隣接する画素(図5Aの例では、ハッチングが付された画素)を表す値と、それ以外の画素(図5Aの例では、空白の画素)を表す値と、に分けられる。このため、こうした値によって、境界に隣接する各画素の位置が特定される。図5Bの例では、少なくとも1つのビットが1である場合に、境界に隣接する画素が表され、全てのビットが0である場合に、それ以外の画素が表される。ここで、位置情報により特定される位置は、上記トラッピング処理において、色の合成が行われる、境界に隣接する画素の位置に対応している。   The flag information includes position information indicating the position of each pixel belonging to the pixel column adjacent to the boundary. Specifically, the value of each pixel can be roughly divided into a value indicating a pixel adjacent to the boundary (in the example of FIG. 5A, a hatched pixel) and another pixel (in the example of FIG. 5A, And a value representing a blank pixel). For this reason, such a value specifies the position of each pixel adjacent to the boundary. In the example of FIG. 5B, when at least one bit is 1, a pixel adjacent to the boundary is represented, and when all bits are 0, other pixels are represented. Here, the position specified by the position information corresponds to the position of the pixel adjacent to the boundary where color synthesis is performed in the trapping process.

また、フラグ情報には、境界に隣接する画素列に属する各画素に対して境界が隣接する方向を表す方向情報が含まれている。図5Aの例では、境界を挟んで左右に並んだ2つの画素列のうち、左側の画素列では右方向に境界が隣接しており、右側の画素列では左方向に境界が隣接している。図5Bの例に示されるように、各画素の値には、上下左右等の方向を表すビットが含まれている。なお、境界に隣接する画素ではない場合、方向を表すビットが全て0とされる。ここで、方向情報により特定される方向は、上記トラッピング処理において、対象となる画素を基準として合成に利用する色を参照する画素の方向に対応している。   Further, the flag information includes direction information indicating the direction in which the boundary is adjacent to each pixel belonging to the pixel column adjacent to the boundary. In the example of FIG. 5A, of the two pixel columns arranged on the left and right with the boundary between them, the left pixel column has a boundary adjacent in the right direction, and the right pixel column has a boundary adjacent in the left direction. . As shown in the example of FIG. 5B, the value of each pixel includes a bit indicating a direction such as up, down, left, and right. If the pixel is not adjacent to the boundary, all the bits indicating the direction are set to 0. Here, the direction specified by the direction information corresponds to the direction of the pixel that refers to the color used for the synthesis based on the target pixel in the trapping process.

また、フラグ情報には、境界に隣接する画素列に属する各画素とは境界を挟んで逆側に隣接する画素の色の種類を表す色情報が含まれている。すなわち、図5Aの例では、境界を挟んで左右に並んだ2つの画素列のうち、左側の画素列は右側の画素列の色の種類を表す色情報を持ち、右側の画素列は左側の画素列の色の種類を表す色情報を持つことになる。図5Bの例に示されるように、各画素の値には、YMC等の色を表すビットが含まれている。なお、境界に隣接する画素ではない場合、色の種類を表すビットが全て0とされる。ここで、色情報により特定される色は、上記トラッピング処理において、対象となる画素と境界を挟んで隣接する画素から参照した、合成に利用する色に対応している。   Further, the flag information includes color information indicating the type of color of the pixel adjacent to the opposite side of the boundary with respect to each pixel belonging to the pixel column adjacent to the boundary. That is, in the example of FIG. 5A, of the two pixel columns arranged on the left and right with the boundary between them, the left pixel column has color information indicating the color type of the right pixel column, and the right pixel column is the left pixel column. It has color information indicating the color type of the pixel column. As shown in the example of FIG. 5B, each pixel value includes a bit representing a color such as YMC. If the pixel is not adjacent to the boundary, all the bits indicating the color type are set to 0. Here, the color specified by the color information corresponds to the color used for composition, which is referred to from the pixel adjacent to the target pixel and the boundary in the trapping process.

第1の変換部45は、トラッピング処理部41からトラッピング処理が施された多値画像情報を受け付け、この多値画像情報を2値画像情報に変換する(いわゆる2値化)。2値化の手法は、特に限定されない。   The first conversion unit 45 receives the multi-valued image information subjected to the trapping process from the trapping processing unit 41, and converts the multi-valued image information into binary image information (so-called binarization). The binarization method is not particularly limited.

第1の変換部45により変換される2値画像情報は、図6の例に示されるように、上記多値画像情報と同じ画素配列を有しており、各画素は2種類以上の色を含んでいる。本例では、各画素は、C(シアン)、M(マゼンタ)、Y(イエロー)、K(ブラック)の4種類の色を含んでいる。また、各画素の各色は、2階調で表されている。   As shown in the example of FIG. 6, the binary image information converted by the first conversion unit 45 has the same pixel arrangement as the multi-value image information, and each pixel has two or more kinds of colors. Contains. In this example, each pixel includes four types of colors, C (cyan), M (magenta), Y (yellow), and K (black). Each color of each pixel is represented by two gradations.

また、第1の変換部45により変換される2値画像情報は、図6の例に示されるように、上記多値画像情報に含まれていた複数の領域に対応する、互いに色が異なる複数の領域を有している。各領域では、領域中に占める有色画素の割合、すなわち有色画素の密度によって、領域の色の濃度が表されている。   Further, as illustrated in the example of FIG. 6, the binary image information converted by the first conversion unit 45 is a plurality of different colors corresponding to a plurality of regions included in the multi-value image information. It has the area of. In each region, the color density of the region is represented by the ratio of the colored pixels in the region, that is, the density of the colored pixels.

ここで、トラッピング処理が施された多値画像情報では、第1の色の領域と第2の色の領域との境界に隣接する画素列の色が、第1の色と第2の色とを合成した色となっているため、この多値画像情報から変換された2値画像情報では、境界に隣接する画素列に含まれる画素の一部が、境界を挟んで逆側の領域の色になっている。   Here, in the multi-value image information subjected to the trapping process, the colors of the pixel columns adjacent to the boundary between the first color area and the second color area are the first color and the second color. In the binary image information converted from the multi-value image information, a part of the pixels included in the pixel column adjacent to the boundary is the color of the region on the opposite side across the boundary. It has become.

具体的には、第1の変換部45は、次のようにして多値画像情報を2値画像情報に変換する。多値画像情報の各領域の色の階調に応じて、2値画像情報の各領域の有色画素の密度が決定される。これにより、図6の例に示されるような2値画像情報が得られる。   Specifically, the first conversion unit 45 converts the multi-value image information into binary image information as follows. The density of the colored pixels in each area of the binary image information is determined according to the color gradation of each area of the multi-value image information. Thereby, binary image information as shown in the example of FIG. 6 is obtained.

なお、本実施形態では、トラッピング処理が施された多値画像情報が第1の変換部45に入力されていたが、これに限られず、トラッピング処理が施されていない多値画像情報が第1の変換部45に入力されてもよい。   In this embodiment, the multi-value image information that has been subjected to the trapping process is input to the first conversion unit 45. However, the present invention is not limited to this, and the multi-value image information that has not been subjected to the trapping process is the first. The conversion unit 45 may be input.

上記フラグ生成部43により生成されたフラグ情報と、上記第1の変換部45により生成された2値画像情報とは、フラグ保持部47及び第2の変換部49のそれぞれに直接出力されてもよいし、記憶部24に一旦格納され、操作部23からの入力等を契機に、フラグ保持部47及び第2の変換部49のそれぞれに読み出されるようにしてもよい。記憶部24に格納される場合、2値画像情報とフラグ情報は互いに対応付けられる。   The flag information generated by the flag generation unit 43 and the binary image information generated by the first conversion unit 45 may be directly output to the flag holding unit 47 and the second conversion unit 49, respectively. Alternatively, it may be stored once in the storage unit 24 and read out to each of the flag holding unit 47 and the second conversion unit 49 in response to an input from the operation unit 23 or the like. When stored in the storage unit 24, the binary image information and the flag information are associated with each other.

フラグ保持部47は、フラグ生成部43により生成されたフラグ情報を保持しており、このフラグ情報を第2の変換部49に含まれる多値化部49a及び補正部49bに出力する。フラグ情報には、上述したように、位置情報、方向情報及び色情報が含まれている。   The flag holding unit 47 holds the flag information generated by the flag generating unit 43, and outputs the flag information to the multi-value quantization unit 49a and the correction unit 49b included in the second conversion unit 49. As described above, the flag information includes position information, direction information, and color information.

第2の変換部49に含まれる多値化部49aは、第1の変換部45により生成された2値画像情報を多値画像情報に変換し(いわゆる多値化)、この多値画像情報を補正部49bに出力する。なお、多値化の手法は、特に限定されない。   The multi-value conversion unit 49a included in the second conversion unit 49 converts the binary image information generated by the first conversion unit 45 into multi-value image information (so-called multi-value conversion), and this multi-value image information. Is output to the correction unit 49b. Note that the multi-value method is not particularly limited.

この多値化部49aは、図6の例に示されるように、2値画像情報に含まれる第1の色の領域及び第2の色の領域のうち、一方の領域の境界に隣接する画素列に、他方の領域の色の画素が含まれる場合、多値化に際して当該画素の色を利用しない。ここで、境界に隣接する画素列の位置は、フラグ情報に含まれる位置情報により特定され、他方の領域の色の画素であるか否かは、フラグ情報に含まれる色情報により判断される。すなわち、多値化部49aは、位置情報により特定される画素列に、色情報により特定される色の種類の画素が含まれている場合、多値化に際して当該画素の色を利用しない。   As shown in the example of FIG. 6, the multi-value quantization unit 49 a is a pixel adjacent to the boundary of one of the first color area and the second color area included in the binary image information. When a column includes a pixel of the color of the other region, the color of the pixel is not used for multilevel conversion. Here, the position of the pixel row adjacent to the boundary is specified by the position information included in the flag information, and whether or not the pixel is a color pixel in the other region is determined by the color information included in the flag information. That is, when the pixel column specified by the position information includes a pixel of the color type specified by the color information, the multi-value conversion unit 49a does not use the color of the pixel for multi-value conversion.

多値化に際して当該画素の色を利用しないとは、多値化のための計算を行う際に、当該画素の色の存在を考慮しないことである。例えば、2値画像情報の各領域中の有色画素の密度を求める際に、当該画素は有色画素としてカウントされず、無色画素としてカウントされる。このようにして決定された、2値画像情報の各領域中の有色画素の密度に基づいて、多値画像情報の各領域の色の階調が決定される。これにより、多値画像情報の各領域の全体に、隣接する領域の色が混ざることが抑制される。   The fact that the color of the pixel is not used at the time of multi-leveling means that the existence of the color of the pixel is not considered when performing calculation for multi-leveling. For example, when obtaining the density of colored pixels in each area of the binary image information, the pixels are not counted as colored pixels but counted as colorless pixels. Based on the density of the colored pixels in each area of the binary image information thus determined, the color gradation of each area of the multivalued image information is determined. Thereby, it is suppressed that the color of an adjacent area | region is mixed with each whole area | region of multi-value image information.

図6の例では、K色の領域のうち、M色の領域との境界に隣接する画素列にM色の画素が含まれており、K色の領域中の有色画素の密度を求める際に、このM色の画素は無色画素としてカウントされる。他方、M色の領域のうち、K色の領域との境界に隣接する画素列にK色の画素が含まれており、M色の領域中の有色画素の密度を求める際に、このK色の画素は無色画素としてカウントされる。   In the example of FIG. 6, the M pixel is included in the pixel column adjacent to the boundary with the M color region in the K color region, and the density of the colored pixels in the K color region is obtained. The M color pixel is counted as a colorless pixel. On the other hand, a pixel row adjacent to the boundary with the K color region in the M color region includes K color pixels, and this K color is obtained when obtaining the density of the colored pixels in the M color region. The pixels are counted as colorless pixels.

なお、こうした態様に限られず、色情報が、境界に隣接する画素列に属する各画素の色の種類を表すようにして、位置情報により特定される画素列に、色情報により特定される色以外の色の画素が含まれている場合に、多値化に際して当該画素の色を利用しないようにしてもよい。   The color information is not limited to the color specified by the color information in the pixel column specified by the position information so that the color information represents the color type of each pixel belonging to the pixel column adjacent to the boundary. If a pixel of the color is included, the color of the pixel may not be used for multi-value conversion.

多値化部49aにより変換される多値画像情報は、図7の例に示されるように、上記トラッピング処理部41に入力される多値画像情報と同じ画素構成を有している。この多値画像情報は、上記2値画像情報に含まれていた複数の領域に対応する、互いに色が異なる複数の領域を有している。   The multi-value image information converted by the multi-value conversion unit 49a has the same pixel configuration as the multi-value image information input to the trapping processing unit 41, as shown in the example of FIG. The multi-value image information has a plurality of regions having different colors corresponding to the plurality of regions included in the binary image information.

この多値画像情報では、上記トラッピング処理部41に入力される多値画像情報と同様に、第1の色の領域と第2の色の領域とが隣接している。このように、トラッピング処理が施された多値画像情報を2値画像情報に変換し、その2値画像情報を多値画像情報に変換すると、得られる多値画像情報は、トラッピング処理が施されていない多値画像情報と同様になる。すなわち、得られる多値画像情報では、境界に隣接する画素列の色が、第1の色と第2の色とを合成した色にならない。   In this multi-value image information, the first color region and the second color region are adjacent to each other, as in the multi-value image information input to the trapping processing unit 41. As described above, when the trapped multivalued image information is converted into binary image information, and the binary image information is converted into multivalued image information, the obtained multilevel image information is subjected to the trapping process. It becomes the same as the multi-value image information that is not. That is, in the obtained multi-value image information, the color of the pixel column adjacent to the boundary is not a color obtained by combining the first color and the second color.

第2の変換部49に含まれる補正部49bは、図7の例に示されるように、多値化部49aから入力される多値画像情報のうち、境界に隣接する画素列に属する各画素の色を、各画素と境界を挟んで隣接する画素の色に基づいて補正する。ここで、境界に隣接する画素列の位置は、フラグ情報に含まれる位置情報により特定され、各画素と境界を挟んで隣接する画素の方向は、フラグ情報に含まれる方向情報により特定される。すなわち、補正部49bは、位置情報により特定される画素列に属する各画素の色を、方向情報により特定される方向の画素の色に基づいて補正する。   As shown in the example of FIG. 7, the correction unit 49b included in the second conversion unit 49 includes each pixel belonging to the pixel column adjacent to the boundary in the multi-value image information input from the multi-value conversion unit 49a. Is corrected based on the color of the pixel adjacent to each pixel across the boundary. Here, the position of the pixel row adjacent to the boundary is specified by position information included in the flag information, and the direction of the pixel adjacent to each pixel across the boundary is specified by the direction information included in the flag information. That is, the correction unit 49b corrects the color of each pixel belonging to the pixel column specified by the position information based on the color of the pixel in the direction specified by the direction information.

具体的には、画素の色の補正は、位置情報により特定される画素列に属する各画素の色の種類及び階調値と、方向情報により特定される方向の画素の色の種類及び階調値と、を合成することによって行われる。なお、方向情報により特定される方向の画素は、対象となる画素に隣接する画素に限られず、2画素以上隣の画素であってもよい。   Specifically, the correction of the pixel color includes the color type and gradation value of each pixel belonging to the pixel column specified by the position information, and the color type and gradation of the pixel in the direction specified by the direction information. This is done by combining the values. Note that the pixel in the direction specified by the direction information is not limited to the pixel adjacent to the target pixel, and may be two or more adjacent pixels.

例えば、図7の例に示されるように、境界の左側に隣接する画素列に属する各画素には、方向情報により特定される右方向の画素のM色50%が合成され、境界の右側に隣接する画素列に属する各画素には、方向情報により特定される左方向の画素のK色50%が合成される。これにより、図8の例に示されるように、境界の両側に隣接する画素列は、K色50%かつM色50%とされる。   For example, as shown in the example of FIG. 7, 50% of the M color of the pixel in the right direction specified by the direction information is combined with each pixel belonging to the pixel column adjacent to the left side of the boundary, and on the right side of the boundary. For each pixel belonging to the adjacent pixel column, 50% of the K color of the pixel in the left direction specified by the direction information is synthesized. As a result, as shown in the example of FIG. 8, the pixel columns adjacent to both sides of the boundary are set to 50% K color and 50% M color.

以上のようにして得られる、補正後の多値画像情報は、第1の色の領域と第2の色の領域との境界に隣接する画素列が、第1の色と第2の色とを合成した色となる。すなわち、補正後の多値画像情報は、図4の例に示されるような、上記トラッピング処理が施された多値画像情報と同様になる。   The corrected multi-valued image information obtained as described above includes the pixel row adjacent to the boundary between the first color region and the second color region as the first color and the second color. The color is a composite of In other words, the corrected multi-value image information is the same as the multi-value image information subjected to the trapping process as shown in the example of FIG.

なお、上述したように、フラグ生成部43により生成されたフラグ情報と、第1の変換部45により生成された2値画像情報と、を記憶部24に一旦格納する場合、多値画像情報を記憶部24に一旦格納する場合よりも、格納に必要な容量を抑制することが可能である。   As described above, when the flag information generated by the flag generation unit 43 and the binary image information generated by the first conversion unit 45 are temporarily stored in the storage unit 24, the multi-value image information is stored in the storage unit 24. The capacity required for storage can be reduced as compared with the case where data is temporarily stored in the storage unit 24.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、種々の変形実施が当業者にとって可能であるのはもちろんである。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made by those skilled in the art.

1 画像処理装置、21 制御部、22 画像処理部、23 操作部、24 記憶部、25 通信部、26 表示部、27 画像形成部、28 画像読取部、41 トラッピング処理部、43 フラグ生成部、45 第1の変換部、47 フラグ保持部、49 第2の変換部、49a 多値化部、49b 補正部。   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 21 Control part, 22 Image processing part, 23 Operation part, 24 Storage part, 25 Communication part, 26 Display part, 27 Image formation part, 28 Image reading part, 41 Trapping process part, 43 Flag generation part, 45 1st conversion part, 47 Flag holding part, 49 2nd conversion part, 49a Multi-value quantization part, 49b Correction part.

Claims (6)

各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を保持する保持部と、
前記多値画像情報から変換された、各画素が2以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列に含まれる各画素の色を、前記方向情報により特定される方向の画素の色に基づいて決定する変換部と、
を備えることを特徴とする画像処理装置。
Of the multi-value image information in which each pixel includes two or more colors and each color is represented by three or more gradations, the pixel column adjacent to the boundary between the first color region and the second color region A holding unit that holds position information representing a position, and direction information representing a direction in which the boundary is adjacent to the pixel row;
A conversion unit for converting binary image information converted from the multi-value image information, each pixel including two or more colors and each color represented by two gradations into new multi-value image information, A conversion unit that determines the color of each pixel included in the pixel column specified by the position information based on the color of the pixel in the direction specified by the direction information;
An image processing apparatus comprising:
前記保持部は、前記境界に隣接する画素列とは前記境界の逆側に隣接する画素列の色を表す色情報を更に保持し、
前記変換部は、前記2値画像情報の前記位置情報により特定される画素列に、前記逆側に隣接する画素列の色の画素が含まれる場合、前記2値画像情報の多値化に当該画素の色を利用しない、
請求項1に記載の画像処理装置。
The holding unit further holds color information representing the color of a pixel column adjacent to the pixel column adjacent to the boundary on the opposite side of the boundary;
When the pixel column specified by the position information of the binary image information includes a pixel of a color of the pixel column adjacent to the opposite side, the conversion unit performs multi-leveling of the binary image information. Do not use pixel color,
The image processing apparatus according to claim 1.
各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を生成する生成部、
を備えることを特徴とする画像処理装置。
Of the multi-value image information in which each pixel includes two or more colors and each color is represented by three or more gradations, the pixel column adjacent to the boundary between the first color region and the second color region A generating unit that generates position information representing a position and direction information representing a direction in which the boundary is adjacent to the pixel column;
An image processing apparatus comprising:
各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の色を、前記第1の色と前記第2の色とを合成した色にする境界色重処理を実行する処理部と、
前記多値画像情報を、各画素が2以上の色を含み、各色が2階調で表された2値画像情報に変換する第1の変換部と、
前記境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を生成する生成部と、
前記位置情報及び前記方向情報を保持する保持部と、
前記2値画像情報を新たな多値画像情報に変換する第2の変換部であって、前記位置情報により特定される画素列に含まれる各画素の色を、前記方向情報により特定される方向の画素の色に基づいて決定する第2の変換部と、
を備えることを特徴とする画像処理装置。
Of the multi-value image information in which each pixel includes two or more colors and each color is represented by three or more gradations, the pixel column adjacent to the boundary between the first color region and the second color region A processing unit that executes a boundary color weighting process for making a color a color obtained by combining the first color and the second color;
A first conversion unit that converts the multi-value image information into binary image information in which each pixel includes two or more colors and each color is represented by two gradations;
A generating unit that generates position information indicating a position of a pixel column adjacent to the boundary and direction information indicating a direction in which the boundary is adjacent to the pixel column;
A holding unit for holding the position information and the direction information;
A second conversion unit that converts the binary image information into new multi-value image information, wherein the color of each pixel included in the pixel column specified by the position information is specified by the direction information. A second conversion unit that is determined based on the color of the pixel of
An image processing apparatus comprising:
各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を保持する保持部と、
前記多値画像情報から変換された、各画素が2以上の色を含み、各色が2階調で表された2値画像情報を、新たな多値画像情報に変換する変換部であって、前記位置情報により特定される画素列に含まれる各画素の色を、前記方向情報により特定される方向の画素の色に基づいて決定する変換部と、
としてコンピュータを機能させるプログラム。
Of the multi-value image information in which each pixel includes two or more colors and each color is represented by three or more gradations, the pixel column adjacent to the boundary between the first color region and the second color region A holding unit that holds position information representing a position, and direction information representing a direction in which the boundary is adjacent to the pixel row;
A conversion unit for converting binary image information converted from the multi-value image information, each pixel including two or more colors and each color represented by two gradations into new multi-value image information, A conversion unit that determines the color of each pixel included in the pixel column specified by the position information based on the color of the pixel in the direction specified by the direction information;
As a program that allows the computer to function.
各画素が2以上の色を含み、各色が3以上の階調で表された多値画像情報のうち、第1の色の領域と第2の色の領域との境界に隣接する画素列の位置を表す位置情報と、当該画素列に対して前記境界が隣接する方向を表す方向情報と、を生成する生成部、
としてコンピュータを機能させるプログラム。
Of the multi-value image information in which each pixel includes two or more colors and each color is represented by three or more gradations, the pixel column adjacent to the boundary between the first color region and the second color region A generating unit that generates position information representing a position and direction information representing a direction in which the boundary is adjacent to the pixel column;
As a program that allows the computer to function.
JP2010277791A 2010-12-14 2010-12-14 Image processing device and program Pending JP2012129685A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010277791A JP2012129685A (en) 2010-12-14 2010-12-14 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010277791A JP2012129685A (en) 2010-12-14 2010-12-14 Image processing device and program

Publications (1)

Publication Number Publication Date
JP2012129685A true JP2012129685A (en) 2012-07-05

Family

ID=46646283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010277791A Pending JP2012129685A (en) 2010-12-14 2010-12-14 Image processing device and program

Country Status (1)

Country Link
JP (1) JP2012129685A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016100016A (en) * 2014-11-18 2016-05-30 ダッソー システムズDassault Systemes Partitioning image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016100016A (en) * 2014-11-18 2016-05-30 ダッソー システムズDassault Systemes Partitioning image

Similar Documents

Publication Publication Date Title
JP4634292B2 (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
JP4596473B2 (en) Dither matrix creation method, apparatus, image forming apparatus, program, and recording medium
KR101223865B1 (en) Image processing apparatus and control method of image processing apparatus
US9967429B2 (en) Image processing apparatus, image processing method, and storage medium
JP2007082123A (en) Image processing device and program
JP6403490B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program.
US8610957B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP5254739B2 (en) Image forming apparatus and control method thereof
JP5476874B2 (en) Color processing apparatus, image forming apparatus, and program
JP5854066B2 (en) Color processing apparatus, image forming apparatus, and program
JP2009094786A (en) Image forming apparatus and image forming method
JP4342560B2 (en) Image processing method, image processing apparatus, computer program, and recording medium
JP5267954B2 (en) Image processing apparatus, image forming apparatus, and program
JP2012129685A (en) Image processing device and program
JP2010118760A (en) Image processing apparatus
JP5742198B2 (en) Image processing apparatus and program
JP2010074627A (en) Image processor and method of processing image
JP4868016B2 (en) Image processing apparatus, image forming apparatus, and program
JP5115203B2 (en) Image processing apparatus, encoding method, and decoding method
JP4426486B2 (en) Image processing apparatus and program
EP2469833B1 (en) Image processing apparatus using threshold matrix of resolution higher than resolution of input image
JP2006261764A (en) Image processing method and apparatus, and image forming apparatus
JP2020195004A (en) Image forming apparatus and control method for the same, and program
JP2016225724A (en) Image processing apparatus and image forming system
JP2011139292A (en) Image processor