JP2019036887A - Image processing apparatus, image forming apparatus, and program - Google Patents

Image processing apparatus, image forming apparatus, and program Download PDF

Info

Publication number
JP2019036887A
JP2019036887A JP2017157992A JP2017157992A JP2019036887A JP 2019036887 A JP2019036887 A JP 2019036887A JP 2017157992 A JP2017157992 A JP 2017157992A JP 2017157992 A JP2017157992 A JP 2017157992A JP 2019036887 A JP2019036887 A JP 2019036887A
Authority
JP
Japan
Prior art keywords
pixel
line
character
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017157992A
Other languages
Japanese (ja)
Other versions
JP6977390B2 (en
Inventor
綾甫 米坂
Ryosuke Yonesaka
綾甫 米坂
茂 荒井
Shigeru Arai
茂 荒井
功一 松原
Koichi Matsubara
功一 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017157992A priority Critical patent/JP6977390B2/en
Publication of JP2019036887A publication Critical patent/JP2019036887A/en
Application granted granted Critical
Publication of JP6977390B2 publication Critical patent/JP6977390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Dot-Matrix Printers And Others (AREA)

Abstract

To provide an image processing apparatus, an image forming apparatus, and a program that can more appropriately adjust the thickness of lines or characters of an output image, compared with a case where whether pixels other than a target pixel of an input image are line or characters is not considered.SOLUTION: An image forming apparatus 10A comprises: a rasterization unit 30 that allocates, to every pixel included in an image, either one of a line character tag indicating being part of a line or a character or a non-line character tag indicating not being a line or not being a character; a detection unit 32 that detects, for every area including a target pixel of the image, the boundary of the pixel to which the line character tag is allocated by the rasterization unit 30 and the pixel to which the non-line character tag is allocated; and an adjustment unit 34 that, when the boundary is detected in the area by the detection unit 32 and the target pixel is the pixel to which the non-line character tag is allocated, adjusts a pixel value corresponding to the target pixel on the basis of a pixel value of a neighborhood pixel that is located in the neighborhood of the target pixel and to which the line character tag is allocated.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像形成装置、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image forming apparatus, and a program.

従来技術として、特許文献1には、画像からエッジ部か否かの判定を行うエッジ判定部と、エッジ判定部の判定結果に基づいて画像のエッジ領域を広げてエッジ部と再判定するエッジ再判定部とを備えた画像処理装置が記載されている。この画像処理装置は、更に、エッジ判定部及びエッジ再判定部によりエッジ部と判定された画像と、非エッジ部と判定された画像とで異なる処理を施す処理部と、画像の注目画素の濃度に基づいてエッジ再判定部による再判定処理の内容を変更する変更部とを備える。   As a conventional technique, Patent Document 1 discloses an edge determination unit that determines whether or not an image is an edge portion, and an edge re-determination that re-determines an edge portion by expanding an edge region of an image based on a determination result of the edge determination unit. An image processing apparatus including a determination unit is described. The image processing apparatus further includes a processing unit that performs different processing on the image determined to be the edge portion by the edge determination unit and the edge re-determination unit and the image determined to be the non-edge portion, and the density of the target pixel of the image. And a changing unit that changes the contents of redetermination processing by the edge redetermining unit.

特許文献2には、上記特許文献1と同様に、エッジ判定部及びエッジ再判定部を備えた画像処理装置が記載されている。この画像処理装置は、更に、エッジ判定部及びエッジ再判定部によりエッジ部と判定された画像と、非エッジ部と判定された画像とで異なる処理を施す処理部と、画像の入力解像度に基づいてエッジ再判定部による再判定処理の内容を変更する変更部とを備える。   Patent Document 2 describes an image processing apparatus including an edge determination unit and an edge redetermination unit, as in Patent Document 1 described above. The image processing apparatus further includes a processing unit that performs different processing on an image determined as an edge portion by an edge determination unit and an edge re-determination unit and an image determined as a non-edge portion, and an input resolution of the image And a changing unit that changes the contents of redetermination processing by the edge redetermining unit.

特許文献3には、画像の各々の画素を注目画素として、注目画素を含む判定領域の濃度が閾値以上であるか否かを判定する画像処理装置が記載されている。この閾値は、注目画素の濃度に応じて設定された閾値であって、注目画素が画像のエッジ部分に相当するエッジ画素か否かを判定するための閾値である。この画像処理装置は、更に、上記判定領域の濃度が上記閾値以上の場合に、注目画素をエッジ画素として検出し、検出したエッジ画素のうち予め定めた濃度以上の濃度を有するエッジ画素に対して、当該エッジ画素の濃度に応じた補正を行う。   Patent Document 3 describes an image processing apparatus that uses each pixel of an image as a target pixel and determines whether the density of a determination region including the target pixel is equal to or higher than a threshold value. This threshold value is a threshold value set according to the density of the target pixel, and is a threshold value for determining whether the target pixel is an edge pixel corresponding to the edge portion of the image. The image processing apparatus further detects the target pixel as an edge pixel when the density of the determination region is equal to or higher than the threshold value, and detects an edge pixel having a density equal to or higher than a predetermined density among the detected edge pixels. Then, correction according to the density of the edge pixel is performed.

一方、他の従来技術として、特許文献4には、出力対象の画像の属性(画素の濃度等)を示すタグデータを入力するタグデータ入力部と、入力したタグデータに基づいて出力対象の画像に含まれる細線を検出する細線検出部とを備えた画像出力装置が記載されている。この画像出力装置は、更に、細線検出部による細線の検出結果に基づいて出力対象の画像に対する細線の調整を実行する細線調整部と、細線調整部により細線が調整された出力対象の画像を出力する画像出力部とを備える。   On the other hand, as another conventional technique, Patent Document 4 discloses a tag data input unit that inputs tag data indicating an attribute (pixel density or the like) of an image to be output, and an image to be output based on the input tag data. An image output device including a fine line detection unit for detecting a fine line included in the image is described. The image output apparatus further outputs a fine line adjustment unit that performs fine line adjustment on an output target image based on a thin line detection result by the fine line detection unit, and an output target image in which the fine line is adjusted by the fine line adjustment unit. An image output unit.

特開2012−28952号公報JP 2012-28952 A 特開2013−38545号公報JP 2013-38545 A 特許第5994741号公報Japanese Patent No. 5994741 特開2009−65322号公報JP 2009-65322 A

ところで、電子写真方式等による画像形成装置では、外部環境における温度や湿度、更に、装置内部のマーキング特性等の様々な要因の影響を受けて、印刷された線や文字に、太りや、つぶれ、かすれ等が生じ、ユーザの意図しない品質になる場合がある。   By the way, in an image forming apparatus using an electrophotographic method or the like, the printed lines and characters are affected by various factors such as temperature and humidity in the external environment, and marking characteristics inside the apparatus. Fading may occur, resulting in quality unintended by the user.

そのため、線又は文字の少なくとも一部の太さを入力画像から変更(調整)する必要がある。そこで、例えば、入力画像における注目画素についてまず線又は文字か否かを判断し、線又は文字であると判断された場合に、その注目画素の濃度と周辺の画素の濃度との差分を求め、その差分と閾値とを比較することで、当該注目画素あるいはその周辺の画素について調整の対象とするか否かを決定することも考えられる。しかしながら、このような形態では、閾値の決め方次第では調整の対象が適切なものとならず、出力画像における線又は文字の太さが適切に調整されない場合がある。   Therefore, it is necessary to change (adjust) the thickness of at least a part of the line or character from the input image. Therefore, for example, it is first determined whether or not the pixel of interest in the input image is a line or a character, and when it is determined that the pixel is a line or a character, the difference between the concentration of the pixel of interest and the concentration of surrounding pixels is obtained. By comparing the difference with a threshold value, it may be possible to determine whether or not the pixel of interest or its surrounding pixels are to be adjusted. However, in such a form, depending on how the threshold is determined, the adjustment target may not be appropriate, and the line or character thickness in the output image may not be adjusted appropriately.

本発明は、入力画像の注目画素以外の画素について線又は文字であるか否かを考慮しない場合と比べ、出力画像における線又は文字の太さをより適切に調整することができる画像処理装置、画像形成装置、及びプログラムを提供することを目的とする。   The present invention provides an image processing apparatus capable of more appropriately adjusting the thickness of a line or a character in an output image, as compared with a case where pixels other than the target pixel of the input image are not considered to be a line or a character, An object is to provide an image forming apparatus and a program.

上記目的を達成するために、請求項1に記載の画像処理装置は、画像に含まれる各画素に、線又は文字の一部であることを示す線文字タグ、及び、非線又は非文字であることを示す非線文字タグのいずれか一方を割り当てる割当部と、前記画像における注目画素を含む予め定められた領域毎に、前記割当部により前記線文字タグが割り当てられた画素と、前記非線文字タグが割り当てられた画素との境界を検出する検出部と、前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記線文字タグが割り当てられた近傍画素の画素値に基づいて調整する調整部と、を備えたものである。   In order to achieve the above object, an image processing apparatus according to claim 1 is provided with a line character tag indicating that each pixel included in an image is a part of a line or a character, and a non-line or non-character. An allocating unit for allocating any one of the non-linear character tags indicating the presence, a pixel to which the linear character tag is allocated by the allocating unit for each predetermined region including the target pixel in the image, A detection unit that detects a boundary with a pixel to which a line character tag is assigned, and the detection unit detects the boundary in the region, and the target pixel is a pixel to which the non-line character tag is assigned And an adjustment unit that adjusts a pixel value corresponding to the target pixel based on a pixel value of a neighboring pixel that is located in the vicinity of the target pixel and to which the line character tag is assigned. is there.

また、請求項2に記載の画像処理装置は、請求項1に記載の発明において、前記検出部が、前記領域に対応する境界検出用パターンであって、前記注目画素、前記線文字タグが割り当てられた画素、前記非線文字タグが割り当てられた画素、及び前記近傍画素の位置関係が予め規定された境界検出用パターンを用いて、前記画像に対してパターンマッチングを行うことにより、前記境界を検出するものである。   The image processing apparatus according to claim 2 is the image processing apparatus according to claim 1, wherein the detection unit is a boundary detection pattern corresponding to the region, and the target pixel and the line character tag are assigned. Pattern matching is performed on the image using a boundary detection pattern in which the positional relationship among the assigned pixels, the pixels to which the non-linear character tag is assigned, and the neighboring pixels are defined in advance, thereby defining the boundaries. It is to detect.

また、請求項3に記載の画像処理装置は、請求項2に記載の発明において、前記近傍画素が、前記注目画素の右隣、左隣、上隣、及び下隣のいずれかに位置する画素とされている。   According to a third aspect of the present invention, in the image processing apparatus according to the second aspect of the present invention, the neighboring pixel is a pixel located at any one of the right neighbor, the left neighbor, the top neighbor, and the bottom neighbor of the target pixel. It is said that.

また、請求項4に記載の画像処理装置は、請求項3に記載の発明において、前記境界検出用パターンが、前記近傍画素が前記注目画素の右隣、左隣、上隣、及び下隣のいずれかに位置する画素である場合について、複数種類ずつ設けられ、前記検出部が、前記複数種類ずつの境界検出用パターンを選択的に用いて、前記画像に対してパターンマッチングを行うものである。   The image processing apparatus according to claim 4 is the image processing apparatus according to claim 3, wherein the boundary detection pattern is such that the neighboring pixels are adjacent to the right side, the left side, the top side, and the bottom side of the target pixel. A plurality of types of pixels are provided for pixels located anywhere, and the detection unit selectively uses the plurality of types of boundary detection patterns to perform pattern matching on the image. .

また、請求項5に記載の画像処理装置は、請求項1に記載の発明において、前記線文字タグが、前記線の一部であることを示す線タグ、及び、前記文字の一部であることを示す文字タグを含み、前記非線文字タグが、前記非線であることを示す非線タグ、及び、前記非文字であることを示す非文字タグを含み、前記割当部が、前記各画素に、前記線タグ、前記文字タグ、前記非線タグ、及び前記非文字タグのいずれか1つを割り当てるものである。   The image processing apparatus according to claim 5 is the line tag indicating that the line character tag is part of the line and part of the character in the invention according to claim 1. A non-character tag indicating that the non-character is the non-character, and the non-character tag indicating that the non-character is the non-character tag. Any one of the line tag, the character tag, the non-line tag, and the non-character tag is assigned to a pixel.

また、請求項6に記載の画像処理装置は、請求項5に記載の発明において、前記検出部が、前記注目画素を含む予め定められた領域毎に、前記割当部により前記線タグが割り当てられた画素と前記非線タグが割り当てられた画素との境界、及び、前記割当部により前記文字タグが割り当てられた画素と前記非文字タグが割り当てられた画素との境界を検出するものである。   According to a sixth aspect of the present invention, in the image processing apparatus according to the fifth aspect, the line tag is assigned by the assigning unit to the detection unit for each predetermined region including the target pixel. And a boundary between the pixel to which the non-character tag is assigned and a boundary between the pixel to which the character tag is assigned by the assigning unit and the pixel to which the non-character tag is assigned.

また、請求項7に記載の画像処理装置は、請求項6に記載の発明において、前記調整部が、前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記線タグが割り当てられた近傍画素の画素値に基づいて調整し、前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記文字タグが割り当てられた近傍画素の画素値に基づいて調整するものである。   The image processing apparatus according to claim 7 is the image processing apparatus according to claim 6, wherein the adjustment unit detects the boundary in the region by the detection unit, and the target pixel is the non-linear tag. The pixel value corresponding to the pixel of interest is adjusted based on the pixel value of a neighboring pixel that is located in the vicinity of the pixel of interest and to which the line tag is assigned, When the boundary is detected in the region by the detection unit and the target pixel is a pixel to which the non-character tag is assigned, a pixel value corresponding to the target pixel is positioned in the vicinity of the target pixel. And it adjusts based on the pixel value of the neighboring pixel to which the character tag is assigned.

また、請求項8に記載の画像処理装置は、請求項1〜6のいずれか1項に記載の発明において、前記調整部が、前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記近傍画素の画素値に基づいて調整することに代えて、前記近傍画素の画素値を、前記注目画素の画素値に基づいて調整するものである。   The image processing apparatus according to claim 8 is the image processing apparatus according to any one of claims 1 to 6, wherein the adjustment unit detects the boundary in the region by the detection unit, and When the pixel of interest is a pixel to which the non-linear character tag is assigned, instead of adjusting the pixel value corresponding to the pixel of interest based on the pixel value of the neighborhood pixel, the pixel value of the neighborhood pixel Is adjusted based on the pixel value of the target pixel.

一方、上記目的を達成するために、請求項9に記載の画像形成装置は、画像に含まれる各画素に、線又は文字の一部であることを示す線文字タグ、及び、非線又は非文字であることを示す非線文字タグのいずれか一方を割り当てる割当部と、前記画像における注目画素を含む予め定められた領域毎に、前記割当部により前記線文字タグが割り当てられた画素と、前記非線文字タグが割り当てられた画素との境界を検出する検出部と、前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記線文字タグが割り当てられた近傍画素の画素値に基づいて調整する調整部と、前記調整部により画素値が調整された前記画像を記録媒体に形成する形成部と、を備えたものである。   On the other hand, in order to achieve the above object, the image forming apparatus according to claim 9 includes a line character tag indicating that each pixel included in the image is a part of a line or a character, and a non-line or non-line. An assigning unit that assigns any one of the non-linear character tags indicating that it is a character, and a pixel to which the line character tag is assigned by the assigning unit for each predetermined region including the target pixel in the image, A detection unit that detects a boundary with a pixel to which the non-line character tag is assigned; and the detection unit detects the boundary in the region, and the target pixel is a pixel to which the non-line character tag is assigned. An adjustment unit that adjusts a pixel value corresponding to the target pixel in a case based on a pixel value of a neighboring pixel that is located in the vicinity of the target pixel and to which the line character tag is assigned; and By pixel value A forming unit configured to form an adjusted the image on the recording medium, those having a.

更に、上記目的を達成するために、請求項10に記載のプログラムは、コンピュータを、請求項1〜8のいずれか1項に記載の画像処理装置が備える各部として機能させるためのものである。   Furthermore, in order to achieve the above object, a program according to a tenth aspect causes a computer to function as each unit included in the image processing apparatus according to any one of the first to eighth aspects.

請求項1、請求項9、及び請求項10に係る発明によれば、入力画像の注目画素以外の画素について線又は文字であるか否かを考慮しない場合と比べ、出力画像における線又は文字の太さをより適切に調整することができる。   According to the first, ninth, and tenth aspects of the present invention, the line or character in the output image is compared with the case where the pixel other than the target pixel of the input image is not considered to be a line or character. The thickness can be adjusted more appropriately.

請求項2に係る発明によれば、各画素に線又は文字であるか否かを示すタグを割り当てない場合と比べて、線文字タグが割り当てられた画素と、非線文字タグが割り当てられた画素との境界をより的確に検出することができる。   According to the second aspect of the present invention, a pixel to which a line character tag is assigned and a non-line character tag are assigned, compared to a case in which no tag indicating whether or not each pixel is a line or a character is assigned. The boundary with the pixel can be detected more accurately.

請求項3に係る発明によれば、注目画素に隣接する画素を近傍画素として用いない場合と比べて、出力画像における線又は文字の太さをより違和感なく調整することができる。   According to the third aspect of the present invention, it is possible to adjust the thickness of the line or the character in the output image more comfortably than when the pixel adjacent to the target pixel is not used as the neighboring pixel.

請求項4に係る発明によれば、複数種類の境界検出用パターンの選択的に組み合わせない場合と比べて、出力画像における線又は文字の太さをより柔軟に調整することができる。   According to the fourth aspect of the present invention, the thickness of lines or characters in the output image can be adjusted more flexibly than in the case where a plurality of types of boundary detection patterns are not selectively combined.

請求項5、請求項6、及び請求項7に係る発明によれば、線と文字とを区別することができるため、出力画像における線及び文字の各々について個別に太さを調整することができる。   According to the inventions according to claims 5, 6, and 7, since lines and characters can be distinguished, the thickness can be individually adjusted for each of the lines and characters in the output image. .

請求項8に係る発明によれば、出力画像における線又は文字の太さを太らせる調整だけではなく、線又は文字の太さを細らせる調整を行うことができる。   According to the eighth aspect of the present invention, not only the adjustment of increasing the thickness of the line or character in the output image but also the adjustment of decreasing the thickness of the line or character can be performed.

第1の実施形態に係る画像形成装置の構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an image forming apparatus according to a first embodiment. 第1の実施形態に係る画像形成装置の機能的な構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a functional configuration of an image forming apparatus according to a first embodiment. 第1の実施形態に係る画像形成装置によるラスタライズ処理の一例を説明するための模式図である。FIG. 5 is a schematic diagram for explaining an example of rasterization processing by the image forming apparatus according to the first embodiment. 実施形態に係るラスタ画像の境界検出処理における処理順の一例を示す模式図である。It is a schematic diagram which shows an example of the process order in the boundary detection process of the raster image which concerns on embodiment. 第1の実施形態に係る画像形成装置による境界検出処理の一例を説明するための模式図である。FIG. 6 is a schematic diagram for explaining an example of boundary detection processing by the image forming apparatus according to the first embodiment. 実施形態に係る境界検出用パターンの一例を示す模式図である。It is a schematic diagram which shows an example of the pattern for a boundary detection which concerns on embodiment. 第1の実施形態に係る画像形成装置による画像合成処理の一例を説明するための模式図である。FIG. 6 is a schematic diagram for explaining an example of image composition processing by the image forming apparatus according to the first embodiment. 第1の実施形態に係る画像処理プログラムの処理の流れの一例を示すフローチャートである。4 is a flowchart illustrating an example of a processing flow of an image processing program according to the first embodiment. 第2の実施形態に係る画像形成装置の機能的な構成の一例を示すブロック図である。FIG. 10 is a block diagram illustrating an example of a functional configuration of an image forming apparatus according to a second embodiment. 第2の実施形態に係る画像形成装置によるラスタライズ処理の一例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining an example of rasterization processing by an image forming apparatus according to a second embodiment. 第3の実施形態に係る画像形成装置の機能的な構成の一例を示すブロック図である。FIG. 10 is a block diagram illustrating an example of a functional configuration of an image forming apparatus according to a third embodiment. 第3の実施形態に係る画像形成装置による画素値調整処理の一例を説明するための模式図である。FIG. 10 is a schematic diagram for explaining an example of pixel value adjustment processing by an image forming apparatus according to a third embodiment.

以下、図面を参照して、本発明を実施するための形態の一例について詳細に説明する。   Hereinafter, an example of an embodiment for carrying out the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態に係る画像形成装置10Aの構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る画像形成装置10Aは、画像処理部11と、表示部16と、操作部18と、画像形成部20と、原稿読取部22と、通信部24と、を備える。画像処理部11は、画像処理装置の一例である。画像処理部11は、制御部12と、記憶部14と、を含んで構成されている。
[First Embodiment]
FIG. 1 is a block diagram illustrating an example of the configuration of an image forming apparatus 10A according to the first embodiment.
As shown in FIG. 1, the image forming apparatus 10 </ b> A according to the present embodiment includes an image processing unit 11, a display unit 16, an operation unit 18, an image forming unit 20, a document reading unit 22, and a communication unit 24. . The image processing unit 11 is an example of an image processing apparatus. The image processing unit 11 includes a control unit 12 and a storage unit 14.

制御部12は、CPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、及び入出力インターフェース(I/O)12Dを備えており、これら各部がバスを介して各々接続されている。   The control unit 12 includes a CPU (Central Processing Unit) 12A, a ROM (Read Only Memory) 12B, a RAM (Random Access Memory) 12C, and an input / output interface (I / O) 12D. These units are connected via a bus. Are connected to each other.

I/O12Dには、記憶部14と、表示部16と、操作部18と、画像形成部20と、原稿読取部22と、通信部24と、を含む各機能部が接続されている。これらの各機能部は、I/O12Dを介して、CPU12Aと相互に通信可能とされる。   Functional units including a storage unit 14, a display unit 16, an operation unit 18, an image forming unit 20, a document reading unit 22, and a communication unit 24 are connected to the I / O 12D. Each of these functional units can communicate with the CPU 12A via the I / O 12D.

制御部12は、画像形成装置10Aの全体の動作を制御するメイン制御部の一部として構成されてもよい。制御部12の各ブロックの一部又は全部には、例えば、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットが用いられる。上記各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。上記各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、上記各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。制御部12の集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。   The control unit 12 may be configured as a part of a main control unit that controls the overall operation of the image forming apparatus 10A. For example, an integrated circuit such as an LSI (Large Scale Integration) or an IC (Integrated Circuit) chip set is used for some or all of the blocks of the control unit 12. An individual circuit may be used for each of the blocks, or a circuit in which part or all of the blocks are integrated may be used. Each of the blocks may be provided as a single unit, or some of the blocks may be provided separately. In addition, a part of each block may be provided separately. The integration of the control unit 12 is not limited to an LSI, and a dedicated circuit or a general-purpose processor may be used.

記憶部14としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、画像処理プログラム14Aが記憶される。なお、この画像処理プログラム14Aは、ROM12Bに記憶されていてもよい。   For example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like is used as the storage unit 14. The storage unit 14 stores an image processing program 14A. The image processing program 14A may be stored in the ROM 12B.

画像処理プログラム14Aは、例えば、画像形成装置10Aに予めインストールされていてもよい。画像処理プログラム14Aは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布して、画像形成装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM、光磁気ディスク、HDD、DVD-ROM、フラッシュメモリ、メモリカード等が想定される。   For example, the image processing program 14A may be installed in advance in the image forming apparatus 10A. The image processing program 14A may be realized by being stored in a non-volatile storage medium or distributed via a network and appropriately installed in the image forming apparatus 10A. As examples of the nonvolatile storage medium, a CD-ROM, a magneto-optical disk, an HDD, a DVD-ROM, a flash memory, a memory card, and the like are assumed.

表示部16には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部16は、タッチパネルを一体的に有している。操作部18には、テンキーやスタートキー等の各種の操作キーが設けられている。表示部16及び操作部18は、画像形成装置10Aのユーザから各種の指示を受け付ける。この各種の指示には、例えば、原稿の読み取りを開始させる指示や、原稿のコピーを開始させる指示等が含まれる。表示部16は、ユーザから受け付けた指示に応じて実行された処理の結果や、処理に対する通知等の各種の情報を表示する。   For example, a liquid crystal display (LCD), an organic EL (Electro Luminescence) display, or the like is used for the display unit 16. The display unit 16 integrally has a touch panel. The operation unit 18 is provided with various operation keys such as a numeric keypad and a start key. The display unit 16 and the operation unit 18 receive various instructions from the user of the image forming apparatus 10A. The various instructions include, for example, an instruction to start reading a document, an instruction to start copying a document, and the like. The display unit 16 displays various types of information such as a result of processing executed according to an instruction received from the user and a notification for the processing.

原稿読取部22は、画像形成装置10Aの上部に設けられた図示しない自動原稿送り装置の給紙台に置かれた原稿を1枚ずつ取り込み、取り込んだ原稿を光学的に読み取って画像情報を得る。あるいは、原稿読取部22は、プラテンガラス等の原稿台に置かれた原稿を光学的に読み取って画像情報を得る。   The document reading unit 22 captures documents one by one on a sheet feeding table of an automatic document feeder (not shown) provided on the upper part of the image forming apparatus 10A, and optically reads the captured documents to obtain image information. . Alternatively, the document reading unit 22 optically reads a document placed on a document table such as a platen glass to obtain image information.

画像形成部20は、原稿読取部22による読み取りによって得られた画像情報、又は、ネットワークを介して接続された外部のPC等から得られた画像情報に基づく画像を、紙等の記録媒体に形成する。なお、本実施形態においては、画像を形成する方式として、電子写真方式を例示して説明するが、インクジェット方式等の他の方式を採用してもよい。なお、画像形成部20は、形成部の一例である。   The image forming unit 20 forms an image based on image information obtained by reading by the document reading unit 22 or image information obtained from an external PC or the like connected via a network on a recording medium such as paper. To do. In the present embodiment, an electrophotographic method is exemplified and described as a method for forming an image, but other methods such as an ink jet method may be adopted. The image forming unit 20 is an example of a forming unit.

画像を形成する方式が電子写真方式の場合、画像形成部20は、感光体ドラム、帯電部、露光部、現像部、転写部、及び定着部を含む。帯電部は、感光体ドラムに電圧を印加して感光体ドラムの表面を帯電させる。露光部は、帯電部で帯電された感光体ドラムを画像情報に応じた光で露光することにより感光体ドラムに静電潜像を形成する。現像部は、感光体ドラムに形成された静電潜像をトナーにより現像することで感光体ドラムにトナー像を形成する。転写部は、感光体ドラムに形成されたトナー像を記録媒体に転写する。定着部は、記録媒体に転写されたトナー像を加熱及び加圧により定着させる。   When the image forming method is an electrophotographic method, the image forming unit 20 includes a photosensitive drum, a charging unit, an exposure unit, a developing unit, a transfer unit, and a fixing unit. The charging unit applies a voltage to the photosensitive drum to charge the surface of the photosensitive drum. The exposure unit forms an electrostatic latent image on the photosensitive drum by exposing the photosensitive drum charged by the charging unit with light according to image information. The developing unit forms a toner image on the photosensitive drum by developing the electrostatic latent image formed on the photosensitive drum with toner. The transfer unit transfers the toner image formed on the photosensitive drum to a recording medium. The fixing unit fixes the toner image transferred to the recording medium by heating and pressing.

通信部24は、LAN(Local Area Network)、WAN(Wide Area Network)等のネットワークに接続されており、図示しない外部のPC等との間でネットワークを介して通信が可能とされる。なお、通信部24とネットワークとは有線で接続されていてもよく、無線で接続されていてもよい。   The communication unit 24 is connected to a network such as a local area network (LAN) or a wide area network (WAN), and can communicate with an external PC (not shown) via the network. The communication unit 24 and the network may be connected by wire or may be connected wirelessly.

本実施形態に係る画像形成装置10AのCPU12Aは、記憶部14に記憶されている画像処理プログラム14AをRAM12Cに書き込んで実行することにより、図2に示す各部として機能する。   The CPU 12A of the image forming apparatus 10A according to the present embodiment functions as each unit illustrated in FIG. 2 by writing and executing the image processing program 14A stored in the storage unit 14 in the RAM 12C.

図2は、第1の実施形態に係る画像形成装置10Aの機能的な構成の一例を示すブロック図である。
図2に示すように、本実施形態に係る画像形成装置10AのCPU12Aは、ラスタライズ部30、検出部32、調整部34、及び合成部36として機能する。なお、ラスタライズ部30は、割当部の一例である。
FIG. 2 is a block diagram illustrating an example of a functional configuration of the image forming apparatus 10A according to the first embodiment.
As illustrated in FIG. 2, the CPU 12A of the image forming apparatus 10A according to the present embodiment functions as a rasterizing unit 30, a detecting unit 32, an adjusting unit 34, and a combining unit 36. The rasterizing unit 30 is an example of an assigning unit.

本実施形態において、ラスタライズ部30は、入力されたベクタ画像をラスタライズしてラスタ画像を生成する。ベクタ画像とは、画像を円や直線等の幾何的な図形の集まりとして表現するベクタ形式の画像である。一方、ラスタ画像(所謂ビットマップ画像ともいう。)とは、画像を各点の濃淡の集まりとして表現するラスタ形式の画像である。ラスタ画像の各画素は、例えば、C(シアン)、M(マゼンタ)、Y(イエロー)、及びK(ブラック)の各色の画素値(階調値)を有している。   In the present embodiment, the rasterizing unit 30 rasterizes the input vector image to generate a raster image. A vector image is a vector format image that represents an image as a collection of geometric figures such as circles and straight lines. On the other hand, a raster image (also referred to as a so-called bitmap image) is an image in a raster format that represents an image as a collection of shades of points. Each pixel of the raster image has, for example, pixel values (gradation values) of C (cyan), M (magenta), Y (yellow), and K (black) colors.

また、ラスタライズ部30は、ラスタ画像に含まれる各画素に、線又は文字の一部であることを示す線文字タグ、及び、非線又は非文字であることを示す非線文字タグのいずれか一方を割り当てる。   In addition, the rasterizing unit 30 may select either a line character tag indicating that each pixel included in the raster image is a part of a line or a character, or a non-line character tag indicating a non-line or a non-character. Assign one.

検出部32は、ラスタ画像における注目画素を含む予め定められた領域毎に、ラスタライズ部30により線文字タグが割り当てられた画素と、非線文字タグが割り当てられた画素との境界を検出する。   The detection unit 32 detects a boundary between a pixel to which the line character tag is assigned by the rasterization unit 30 and a pixel to which the non-line character tag is assigned for each predetermined region including the target pixel in the raster image.

調整部34は、検出部32により上記領域に境界が検出され、かつ、注目画素が非線文字タグが割り当てられた画素である場合に、注目画素に対応する画素値を、注目画素の近傍に位置し、かつ、線文字タグが割り当てられた近傍画素の画素値に基づいて調整する。   The adjustment unit 34 sets the pixel value corresponding to the target pixel in the vicinity of the target pixel when a boundary is detected in the region by the detection unit 32 and the target pixel is a pixel to which a non-linear character tag is assigned. Adjustment is performed based on the pixel value of a neighboring pixel that is located and assigned a line character tag.

合成部36は、ラスタライズ部30によりラスタライズされたラスタ画像と、調整部34により画素値が調整された注目画素を有する修正画像とを合成して合成画像を出力する。なお、この修正画像については後述する。   The synthesizing unit 36 synthesizes the raster image rasterized by the rasterizing unit 30 and the corrected image having the target pixel whose pixel value has been adjusted by the adjusting unit 34, and outputs a synthesized image. This corrected image will be described later.

次に、図3〜図7を参照して、本実施形態に係る画像形成装置10Aが備えるラスタライズ部30、検出部32、調整部34、及び合成部36の各部について具体的に説明する。   Next, with reference to FIGS. 3 to 7, each of the rasterizing unit 30, the detecting unit 32, the adjusting unit 34, and the combining unit 36 included in the image forming apparatus 10 </ b> A according to the present embodiment will be specifically described.

まず、本実施形態に係る画像形成装置10Aによるラスタライズ処理について説明する。   First, rasterization processing by the image forming apparatus 10A according to the present embodiment will be described.

図3は、第1の実施形態に係る画像形成装置10Aによるラスタライズ処理の一例を説明するための模式図である。   FIG. 3 is a schematic diagram for explaining an example of rasterization processing by the image forming apparatus 10A according to the first embodiment.

本実施形態に係るラスタライズ部30は、図3に示すように、ベクタ画像と共に、ベクタ画像のオブジェクト情報の入力を受け付ける。ベクタ画像のオブジェクト情報とは、例えば、グラフィックでは点の座標や、線の角度等の図形要素に関する情報とされ、テキストでは文字コードや、フォントの種類、大きさ等の文字要素に関する情報とされる。ラスタライズ部30は、オブジェクト情報を用いて、ベクタ画像をラスタライズしてラスタ画像を生成する。   As illustrated in FIG. 3, the rasterizing unit 30 according to the present embodiment receives input of object information of a vector image together with the vector image. The object information of the vector image is, for example, information on graphic elements such as point coordinates and line angles in graphics, and information on character elements such as character codes, font types, and sizes in text. . The rasterizing unit 30 rasterizes the vector image using the object information to generate a raster image.

また、ラスタライズ部30は、上記のオブジェクト情報に基づいて、ラスタ画像の各画素に対して、線文字タグ及び非線文字タグのいずれか一方を割り当てる。本実施形態に係るラスタライズ部30は、割り当てた結果として、ラスタ画像の各画素に対応付けて、線文字タグ又は非線文字タグを区別するための1ビットの情報を記憶部14に記憶する。例えば、当該情報が「0」であれば、線文字タグが割り当てられていることを示し、当該情報が「1」であれば、非線文字タグが割り当てられていることを示す。本実施形態では、図3に示すように、線文字タグが割り当てられた画素を線文字画素Tg1とし、非線文字タグが割り当てられた画素を非線文字画素Tg2として区別するものとする。   The rasterizing unit 30 assigns either a line character tag or a non-line character tag to each pixel of the raster image based on the object information. As a result of the assignment, the rasterizing unit 30 according to the present embodiment stores, in the storage unit 14, 1-bit information for distinguishing a line character tag or a non-line character tag in association with each pixel of the raster image. For example, if the information is “0”, it indicates that a line character tag is assigned, and if the information is “1”, it indicates that a non-line character tag is assigned. In the present embodiment, as shown in FIG. 3, a pixel to which a line character tag is assigned is identified as a line character pixel Tg1, and a pixel to which a non-line character tag is assigned is identified as a non-line character pixel Tg2.

次に、本実施形態に係る画像形成装置10Aによる境界検出処理について説明する。   Next, boundary detection processing by the image forming apparatus 10A according to the present embodiment will be described.

図4は、本実施形態に係るラスタ画像の境界検出処理における処理順の一例を示す模式図である。
図4の矢印で示すように、本実施形態に係る境界検出処理では、ラスタ画像の左上角点を始点、右下角点を終点とし、注目画素をラスタ画像の左端から右端に向け、かつ、上端から下端に向けて、1画素分ずつ移動させながら、境界の検出が行われる。
FIG. 4 is a schematic diagram showing an example of the processing order in the boundary detection process of the raster image according to the present embodiment.
As shown by the arrows in FIG. 4, in the boundary detection processing according to the present embodiment, the upper left corner point of the raster image is the start point, the lower right corner point is the end point, the target pixel is directed from the left end to the right end of the raster image, and the upper end The boundary is detected while moving one pixel at a time from the bottom to the bottom.

図5は、第1の実施形態に係る画像形成装置10Aによる境界検出処理の一例を説明するための模式図である。   FIG. 5 is a schematic diagram for explaining an example of boundary detection processing by the image forming apparatus 10A according to the first embodiment.

本実施形態に係る検出部32は、一例として、図5に示すように、注目画素Ap1を含む領域40毎に、線文字画素Tg1と非線文字画素Tg2との境界を検出する。領域40としては、一例として、3×3の領域を示しているが、5×5、7×7等の領域でもよい。なお、領域40における画素の配置としては、縦方向の画素数と横方向の画素数とが同一となる配置に限らず、縦方向の画素数と横方向の画素数とが異なる配置でもよい。   As an example, the detection unit 32 according to the present embodiment detects the boundary between the line character pixel Tg1 and the non-line character pixel Tg2 for each region 40 including the pixel of interest Ap1 as illustrated in FIG. As an example, the region 40 is a 3 × 3 region, but may be a 5 × 5 region, a 7 × 7 region, or the like. The arrangement of the pixels in the region 40 is not limited to the arrangement in which the number of pixels in the vertical direction is the same as the number of pixels in the horizontal direction, and may be an arrangement in which the number of pixels in the vertical direction is different from the number of pixels in the horizontal direction.

ここで、検出部32は、領域40に対応する境界検出用パターンを用いて、ラスタ画像に対してパターンマッチングを行うことにより、線文字画素Tg1と非線文字画素Tg2との境界を検出する。   Here, the detection unit 32 detects the boundary between the line character pixel Tg1 and the non-line character pixel Tg2 by performing pattern matching on the raster image using the boundary detection pattern corresponding to the region 40.

図6は、本実施形態に係る境界検出用パターンの一例を示す模式図である。
図6に示すように、本実施形態に係る境界検出用パターンの各々は、上記の領域40に対応するパターンマッチング用の画像であり、本実施形態では、領域40と同一の3×3の画像が適用される。
FIG. 6 is a schematic diagram illustrating an example of a boundary detection pattern according to the present embodiment.
As shown in FIG. 6, each of the boundary detection patterns according to the present embodiment is a pattern matching image corresponding to the region 40 described above. In the present embodiment, the same 3 × 3 image as the region 40 is used. Applies.

本実施形態に係る境界検出用パターンでは、注目画素Ap1、線文字画素Tg1、非線文字画素Tg2、及び近傍画素Np1の位置関係が予め規定されている。画素Dc1は、画素値が任意(Don't Care)であることを示す画素である。なお、本実施形態では、境界検出用パターンの中央に位置する画素を注目画素Ap1とする。注目画素Ap1は、非線文字画素Tg2である。近傍画素Np1は、注目画素Ap1の近傍に位置する線文字画素Tg1である。近傍画素Np1は、注目画素Ap1を基準として予め定められた距離内に位置する画素である。近傍画素Np1には、例えば、注目画素Ap1から3画素以内に位置する画素が適用される。近傍画素Np1の画素値は、後述するように、注目画素Ap1に対応する画素値の調整に使用される。   In the boundary detection pattern according to the present embodiment, the positional relationship among the pixel of interest Ap1, the line character pixel Tg1, the non-line character pixel Tg2, and the neighboring pixel Np1 is defined in advance. The pixel Dc1 is a pixel indicating that the pixel value is arbitrary (Don't Care). In the present embodiment, the pixel located at the center of the boundary detection pattern is set as the target pixel Ap1. The target pixel Ap1 is a non-line character pixel Tg2. The neighboring pixel Np1 is a line character pixel Tg1 located in the vicinity of the target pixel Ap1. The neighboring pixel Np1 is a pixel located within a predetermined distance with respect to the target pixel Ap1. For example, a pixel located within three pixels from the target pixel Ap1 is applied to the neighboring pixel Np1. The pixel value of the neighboring pixel Np1 is used for adjusting the pixel value corresponding to the target pixel Ap1, as will be described later.

本実施形態において、記憶部14には、複数種類の境界検出用パターンが予め格納されている。本実施形態に係る注目画素Ap1の近傍画素Np1は、注目画素Ap1の右隣、左隣、上隣、及び下隣のいずれかに位置する画素である。すなわち、境界検出用パターンは、図6に示すように、近傍画素Np1が注目画素Ap1の右隣、左隣、上隣、及び下隣のいずれかに位置する場合について、複数種類ずつ設けられている。なお、本実施形態は、境界検出用パターンを、近傍画素Np1が注目画素Ap1の右隣、左隣、上隣、及び下隣の各々に位置する場合について1種類ずつ設ける場合についても同様に適用される。   In the present embodiment, the storage unit 14 stores a plurality of types of boundary detection patterns in advance. The neighboring pixel Np1 of the target pixel Ap1 according to the present embodiment is a pixel located on any of the right side, the left side, the upper side, and the lower side of the target pixel Ap1. That is, as shown in FIG. 6, a plurality of types of boundary detection patterns are provided for the case where the neighboring pixel Np1 is located on the right side, the left side, the top side, or the bottom side of the target pixel Ap1. Yes. Note that the present embodiment is similarly applied to a case where one kind of boundary detection pattern is provided for each of the cases where the neighboring pixel Np1 is located on the right side, the left side, the top side, and the bottom side of the pixel of interest Ap1. Is done.

本実施形態に係る検出部32は、上記の各隣接方向毎に複数種類ずつの境界検出用パターンを選択的に用いて、ラスタ画像に対してパターンマッチングを行う。例えば、近傍画素Np1の位置が注目画素Ap1の右隣、左隣、上隣、及び下隣に位置する全てのパターンを用いてもよいし、近傍画素Np1が注目画素Ap1の右隣及び下隣に位置するパターンのみを用いてもよい。このような境界検出用パターンの使い分けにより、後述する画素値調整処理において線及び文字が異なる太さに調整される。例えば、右隣、左隣、上隣、及び下隣の全てのパターンを用いた場合、線及び文字の太さが2画素相当分太く調整される。一方、右隣及び下隣のパターンのみを用いた場合、線及び文字の太さが1画素相当分太く調整される。なお、線及び文字の太さをどの程度調整するかは、ユーザが設定可能とすることが望ましい。例えば、ユーザが太さ調整量のレベルを設定するための調整量設定画面(図示省略)を表示可能とする。この調整量設定画面において、例えば、レベル大が設定された場合には、2画素相当分太く調整されるようにパターンが選択され、レベル小が設定された場合には、1画素相当分太く調整されるようにパターンが選択される。   The detection unit 32 according to this embodiment performs pattern matching on a raster image by selectively using a plurality of types of boundary detection patterns for each adjacent direction. For example, all patterns in which the position of the neighboring pixel Np1 is located on the right side, the left side, the upper side, and the lower side of the target pixel Ap1 may be used, or the neighboring pixel Np1 may be the right side and the lower side of the target pixel Ap1. Only the pattern located at may be used. By properly using the boundary detection pattern, the line and the character are adjusted to have different thicknesses in the pixel value adjustment process described later. For example, when all the patterns on the right side, the left side, the top side, and the bottom side are used, the thickness of the line and the character is adjusted to be thicker by two pixels. On the other hand, when only the right adjacent and lower adjacent patterns are used, the thickness of the line and the character is adjusted to be thicker by one pixel. It should be noted that it is desirable that the user can set how much the thickness of the lines and characters is adjusted. For example, an adjustment amount setting screen (not shown) for the user to set the thickness adjustment amount level can be displayed. On this adjustment amount setting screen, for example, when a large level is set, a pattern is selected so that it is adjusted to be thicker by two pixels, and when a small level is set, the pattern is adjusted to be thicker by one pixel. The pattern is selected as follows.

検出部32は、図5に示す領域40内の画素の配置パターンが、図6に示す境界検出用パターンのいずれかに合致した場合、線文字画素Tg1と非線文字画素Tg2との境界が存在すると判定する。ここで、領域40内の画素の配置パターンと境界検出用パターンとが合致する場合とは、線文字画素Tg1と非線文字画素Tg2との境界が検出され、かつ、注目画素Ap1が非線文字画素Tg2である場合である。一方、領域40内の画素の配置パターンが、図6に示す境界検出用パターンのいずれにも合致しない場合、線文字画素Tg1と非線文字画素Tg2との境界は存在しないと判定する。   The detection unit 32 has a boundary between the line character pixel Tg1 and the non-line character pixel Tg2 when the arrangement pattern of the pixels in the region 40 shown in FIG. 5 matches any of the boundary detection patterns shown in FIG. Judge that. Here, the case where the pixel arrangement pattern in the region 40 matches the boundary detection pattern means that the boundary between the line character pixel Tg1 and the non-line character pixel Tg2 is detected, and the pixel of interest Ap1 is a non-line character. This is a case of the pixel Tg2. On the other hand, if the arrangement pattern of the pixels in the region 40 does not match any of the boundary detection patterns shown in FIG. 6, it is determined that there is no boundary between the line character pixel Tg1 and the non-line character pixel Tg2.

次に、本実施形態に係る画像形成装置10Aによる画素値調整処理について説明する。   Next, pixel value adjustment processing by the image forming apparatus 10A according to the present embodiment will be described.

本実施形態に係る調整部34は、検出部32によるパターンマッチングにより、図6に示す境界検出用パターンのいずれかが合致した場合、注目画素Ap1に対応する画素値を、近傍画素Np1の画素値に基づいて調整する。ここで行う調整として、注目画素Ap1に対応する画素値を、近傍画素Np1の画素値で置き換えてもよいし、近傍画素Np1の画素値に近い値に調整してもよい。なお、近傍画素Np1の画素値に近い値としては、当該画素値を基準として予め定められた範囲内の画素値が適用される。例えば、近傍画素Np1の画素値の80%以上100%未満の範囲の画素値が適用される。   When any of the boundary detection patterns shown in FIG. 6 is matched by the pattern matching by the detection unit 32, the adjustment unit 34 according to the present embodiment uses the pixel value corresponding to the target pixel Ap1 as the pixel value of the neighboring pixel Np1. Adjust based on. As the adjustment performed here, the pixel value corresponding to the target pixel Ap1 may be replaced with the pixel value of the neighboring pixel Np1, or may be adjusted to a value close to the pixel value of the neighboring pixel Np1. Note that, as a value close to the pixel value of the neighboring pixel Np1, a pixel value within a predetermined range with the pixel value as a reference is applied. For example, a pixel value in the range of 80% or more and less than 100% of the pixel value of the neighboring pixel Np1 is applied.

このように、非線文字画素である注目画素Ap1の画素値は、線文字画素である近傍画素Np1の画素値に置き換えられる。あるいは、注目画素Ap1の画素値は、近傍画素Np1の画素値に近い値に調整される。このため、画素値調整処理後の画像では、画素値調整処理前と比べて、線又は文字が太く視認される。   In this way, the pixel value of the pixel of interest Ap1, which is a non-line character pixel, is replaced with the pixel value of the neighboring pixel Np1, which is a line character pixel. Alternatively, the pixel value of the target pixel Ap1 is adjusted to a value close to the pixel value of the neighboring pixel Np1. For this reason, in the image after the pixel value adjustment process, the line or the character is visually recognized as thicker than before the pixel value adjustment process.

なお、調整部34は、画素値が調整された注目画素Ap1について、画素値調整処理前に注目画素Ap1に割り当てられた非線文字タグを線文字タグに更新する。   Note that the adjustment unit 34 updates the non-linear character tag assigned to the target pixel Ap1 before the pixel value adjustment processing to the line character tag for the target pixel Ap1 whose pixel value has been adjusted.

ここで、本実施形態に係る調整部34は、上記の画素値調整処理を、ラスタ画像とは異なる修正画像を用いて行う。なお、修正画像とは、近傍画素Np1の画素値に基づいて画素値が調整された注目画素Ap1だけを配置した画像であり、例えば、後述の図7に示される。   Here, the adjustment unit 34 according to the present embodiment performs the above-described pixel value adjustment processing using a modified image different from the raster image. Note that the corrected image is an image in which only the target pixel Ap1 whose pixel value is adjusted based on the pixel value of the neighboring pixel Np1 is arranged, and is shown in FIG.

次に、本実施形態に係る画像形成装置10Aによる画像合成処理について説明する。   Next, image composition processing by the image forming apparatus 10A according to the present embodiment will be described.

図7は、第1の実施形態に係る画像形成装置10Aによる画像合成処理の一例を説明するための模式図である。   FIG. 7 is a schematic diagram for explaining an example of image composition processing by the image forming apparatus 10A according to the first embodiment.

本実施形態に係る合成部36は、図7に示すように、ラスタライズ部30によりラスタライズされたラスタ画像と、調整部34により画素値が調整された注目画素Ap1のみを有する修正画像とを合成した合成画像を画像形成部20に出力する。   As shown in FIG. 7, the combining unit 36 according to the present embodiment combines the raster image rasterized by the rasterizing unit 30 and the corrected image having only the target pixel Ap1 whose pixel value has been adjusted by the adjusting unit 34. The composite image is output to the image forming unit 20.

ここで、ラスタ画像と修正画像とを分ける理由について説明する。
上述したように、境界検出用パターンを用いたパターンマッチングは、ラスタ画像に対して実施される。このため、ラスタ画像において注目画素Ap1の画素値を直接調整して線又は文字を太らせてしまうと、線又は文字を太らせた後のラスタ画像に対して更にパターンマッチングが実施され、線又は文字を延々と太らせてしまうという事態が発生する場合がある。
Here, the reason why the raster image and the corrected image are separated will be described.
As described above, the pattern matching using the boundary detection pattern is performed on the raster image. For this reason, if the pixel value of the pixel of interest Ap1 is directly adjusted in the raster image to thicken the line or character, pattern matching is further performed on the raster image after the line or character is thickened. There may be a situation where characters are fattened endlessly.

そこで、本実施形態では、ラスタ画像と修正画像とを分けて処理することで、ラスタ画像自体はオリジナルの状態を維持するようにしている。これにより、上記のように線又は文字を延々と太らせる事態の発生が抑制される。   Therefore, in the present embodiment, the raster image and the modified image are processed separately to maintain the original state of the raster image itself. Thereby, the occurrence of a situation in which lines or characters are fattened endlessly as described above is suppressed.

本実施形態に係る画像形成部20は、合成部36により出力された、図7に示す合成画像を、紙等の記録媒体に形成する。   The image forming unit 20 according to the present embodiment forms the combined image shown in FIG. 7 output from the combining unit 36 on a recording medium such as paper.

次に、図8を参照して、第1の実施形態に係る画像形成装置10Aの作用を説明する。なお、図8は、第1の実施形態に係る画像処理プログラム14Aの処理の流れの一例を示すフローチャートである。   Next, the operation of the image forming apparatus 10A according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing an example of the processing flow of the image processing program 14A according to the first embodiment.

まず、画像形成装置10Aの画像処理に関するメニュー画面(図示省略)において、ユーザの操作により、例えば、「線文字太さ調整」の項目が選択され、実行が指示されると、画像処理プログラム14Aが起動され、以下の各ステップを実行する。   First, on a menu screen (not shown) relating to image processing of the image forming apparatus 10A, for example, when an item “line character thickness adjustment” is selected by a user operation and execution is instructed, the image processing program 14A is executed. Start and execute the following steps.

図8のステップ100では、ラスタライズ部30が、上述の図3を参照して説明したように、ベクタ画像及びオブジェクト情報の入力を受け付ける。   In step 100 of FIG. 8, the rasterizing unit 30 receives input of a vector image and object information as described with reference to FIG.

ステップ102では、ラスタライズ部30が、上述の図3を参照して説明したように、オブジェクト情報を用いて、ベクタ画像をラスタライズしてラスタ画像を生成する。   In step 102, as described with reference to FIG. 3 described above, the rasterization unit 30 rasterizes the vector image using the object information to generate a raster image.

ステップ104では、ラスタライズ部30が、上述の図3を参照して説明したように、オブジェクト情報に基づいて、ラスタ画像の各画素に対して、線文字タグ及び非線文字タグのいずれか一方を割り当てる。   In step 104, as described with reference to FIG. 3 described above, the rasterizing unit 30 applies one of the line character tag and the non-line character tag to each pixel of the raster image based on the object information. assign.

ステップ106では、検出部32が、ラスタ画像のM画素目(M=1以上m以下:mはラスタ画像の全画素数)を注目画素Ap1として含む領域40(図5も参照)に対して、図6に示す境界検出用パターンを選択的に用いてパターンマッチングを行う。なお、Mの初期値は「1」に設定されているものとする。   In Step 106, the detection unit 32 applies to the area 40 (see also FIG. 5) including the Mth pixel of the raster image (M = 1 or more and m or less: m is the total number of pixels of the raster image) as the target pixel Ap1. Pattern matching is performed selectively using the boundary detection pattern shown in FIG. It is assumed that the initial value of M is set to “1”.

ステップ108では、検出部32が、ステップ106でのパターンマッチングの結果、注目画素Ap1を含む領域40の画素の配置パターンが、複数種類の境界検出用パターンのいずれかと合致したか否かを判定する。合致したと判定した場合(肯定判定の場合)、ステップ110に移行し、合致しないと判定した場合(否定判定の場合)、ステップ114に移行する。   In step 108, the detection unit 32 determines whether or not the arrangement pattern of the pixels in the region 40 including the target pixel Ap1 matches any of a plurality of types of boundary detection patterns as a result of the pattern matching in step 106. . When it is determined that they match (in the case of affirmative determination), the process proceeds to step 110, and when it is determined that they do not match (in the case of negative determination), the process proceeds to step 114.

ステップ110では、調整部34が、ステップ108の処理により合致した境界検出用パターンに基づいて、ラスタ画像において、注目画素Ap1に対応する近傍画素Np1の位置を特定する。つまり、近傍画素Np1が、注目画素Ap1の左隣、右隣、上隣、及び下隣のいずれに位置しているかを特定する。   In step 110, the adjustment unit 34 specifies the position of the neighboring pixel Np1 corresponding to the target pixel Ap1 in the raster image based on the boundary detection pattern that is matched by the processing in step 108. That is, it is specified whether the neighboring pixel Np1 is located on the left side, the right side, the upper side, or the lower side of the pixel of interest Ap1.

ステップ112では、調整部34が、ステップ110の処理により特定した位置の近傍画素Np1の画素値に基づいて、注目画素Ap1に対応する画素値を調整する。なお、このとき、調整部34は、注目画素Ap1に割り当てられている非線文字タグを線文字タグに更新する。   In step 112, the adjustment unit 34 adjusts the pixel value corresponding to the target pixel Ap1 based on the pixel value of the neighboring pixel Np1 at the position specified by the processing in step 110. At this time, the adjustment unit 34 updates the non-line character tag assigned to the target pixel Ap1 to a line character tag.

ステップ114では、調整部34が、ラスタ画像に含まれる全ての画素について処理が終了したか否かを判定する。全ての画素について処理が終了したと判定した場合(肯定判定の場合)、ステップ116に移行する。一方、全ての画素について処理が終了していないと判定した場合(否定判定の場合)、ステップ106に戻り、ラスタ画像のM画素目(Mを1つだけインクリメント)を注目画素Ap1として処理を繰り返す。   In step 114, the adjustment unit 34 determines whether or not the processing has been completed for all the pixels included in the raster image. When it is determined that the processing has been completed for all the pixels (in the case of an affirmative determination), the process proceeds to step 116. On the other hand, when it is determined that the processing has not been completed for all the pixels (in the case of negative determination), the process returns to step 106 and the processing is repeated with the Mth pixel (M is incremented by 1) as the target pixel Ap1. .

ステップ116では、合成部36が、図7を参照して説明したように、ラスタライズ部30によりラスタライズされたラスタ画像と、調整部34により画素値が調整された注目画素Ap1を有する修正画像とを合成して合成画像を生成する。そして、合成部36は、生成した合成画像を画像形成部20に出力し、上記画像処理プログラム14Aによる一連の処理を終了する。   In step 116, as described with reference to FIG. 7, the synthesizing unit 36 generates a raster image rasterized by the rasterizing unit 30 and a modified image having the target pixel Ap <b> 1 whose pixel value is adjusted by the adjusting unit 34. A composite image is generated by combining. Then, the synthesizing unit 36 outputs the generated synthesized image to the image forming unit 20, and ends a series of processes by the image processing program 14A.

[第2の実施形態]
上記第1の実施形態では、線文字タグ及び非線文字タグの2種類のタグを用いて、線と文字とを区別せずに画素値調整処理を行った。これに対して、本実施形態では、線タグ、文字タグ、非線タグ、及び非文字タグの4種類のタグを用いて、線と文字とを区別して画素値調整処理を行う。
[Second Embodiment]
In the first embodiment, pixel value adjustment processing is performed using two types of tags, a line character tag and a non-line character tag, without distinguishing between lines and characters. On the other hand, in the present embodiment, pixel value adjustment processing is performed by distinguishing lines and characters using four types of tags: line tags, character tags, non-line tags, and non-character tags.

図9は、第2の実施形態に係る画像形成装置10Bの機能的な構成の一例を示すブロック図である。
図9に示すように、本実施形態に係る画像形成装置10Bは、ラスタライズ部50、検出部52、調整部54、及び合成部36を備える。なお、同じ機能を有する構成要素には同じ符号を付し、繰り返しの説明は省略する。
FIG. 9 is a block diagram illustrating an example of a functional configuration of an image forming apparatus 10B according to the second embodiment.
As illustrated in FIG. 9, the image forming apparatus 10 </ b> B according to the present embodiment includes a rasterizing unit 50, a detecting unit 52, an adjusting unit 54, and a combining unit 36. In addition, the same code | symbol is attached | subjected to the component which has the same function, and repeated description is abbreviate | omitted.

図10は、第2の実施形態に係る画像形成装置10Bによるラスタライズ処理の一例を説明するための模式図である。   FIG. 10 is a schematic diagram for explaining an example of rasterization processing by the image forming apparatus 10B according to the second embodiment.

本実施形態に係るラスタライズ部50は、図10に示すように、線及び文字を含むベクタ画像と共に、ベクタ画像のオブジェクト情報の入力を受け付ける。ラスタライズ部50は、第1の実施形態と同様に、オブジェクト情報に基づいて、ベクタ画像をラスタライズしてラスタ画像を生成する。   As shown in FIG. 10, the rasterizing unit 50 according to the present embodiment receives input of object information of a vector image together with a vector image including lines and characters. Similar to the first embodiment, the rasterizing unit 50 rasterizes the vector image based on the object information to generate a raster image.

本実施形態において、線文字タグは、線タグ及び文字タグを含み、非線文字タグは、非線タグ及び非文字タグを含む。ラスタライズ部50は、上記のオブジェクト情報に基づいて、ラスタ画像の各画素に対して、線タグ、文字タグ、非線タグ、及び非文字タグのいずれか1つを割り当てる。線タグは、画素が線の一部であることを示すタグである。文字タグは、画素が文字の一部であることを示すタグである。非線タグは、画素が非線であることを示すタグである。非文字タグは、画素が非文字であることを示すタグである。   In the present embodiment, the line character tag includes a line tag and a character tag, and the non-line character tag includes a non-line tag and a non-character tag. The rasterizing unit 50 assigns one of a line tag, a character tag, a non-line tag, and a non-character tag to each pixel of the raster image based on the object information. A line tag is a tag that indicates that a pixel is part of a line. The character tag is a tag indicating that the pixel is a part of the character. The non-line tag is a tag indicating that the pixel is non-line. The non-character tag is a tag indicating that the pixel is non-character.

本実施形態では、図10に示すように、線タグが割り当てられた画素を線画素Tg3とし、非線タグが割り当てられた画素を非線画素Tg5として区別する。同様に、文字タグが割り当てられた画素を文字画素Tg4とし、非文字タグが割り当てられた画素を非文字画素Tg6として区別する。但し、非線画素Tg5と非文字画素Tg6とは同一の画素である。本実施形態に係るラスタライズ部50は、割り当てた結果として、ラスタ画像の各画素に対応付けて、線タグ、文字タグ、非線タグ、及び非文字タグを区別するための2ビットの情報を記憶部14に記憶する。例えば、当該情報が「00」であれば、線タグが割り当てられていることを示し、当該情報が「01」であれば、文字タグが割り当てられていることを示す。同様に、当該情報が「10」であれば、非線タグが割り当てられていることを示し、当該情報が「11」であれば、非文字タグが割り当てられていることを示す。   In this embodiment, as shown in FIG. 10, a pixel to which a line tag is assigned is identified as a line pixel Tg3, and a pixel to which a non-line tag is assigned is distinguished as a non-line pixel Tg5. Similarly, a pixel assigned with a character tag is identified as a character pixel Tg4, and a pixel assigned with a non-character tag is identified as a non-character pixel Tg6. However, the non-line pixel Tg5 and the non-character pixel Tg6 are the same pixel. The rasterizing unit 50 according to the present embodiment stores 2-bit information for distinguishing line tags, character tags, non-line tags, and non-character tags in association with each pixel of the raster image as an assignment result. Store in unit 14. For example, if the information is “00”, it indicates that a line tag is assigned, and if the information is “01”, it indicates that a character tag is assigned. Similarly, if the information is “10”, it indicates that a non-line tag is assigned, and if the information is “11”, it indicates that a non-character tag is assigned.

本実施形態に係る検出部52は、上述の図5を参照して説明したように、注目画素Ap1を含む領域40毎に、線画素Tg3と非線画素Tg5との境界を検出する。但し、図5に示す線文字画素Tg1を線画素Tg3と読み替え、非線文字画素Tg2を非線画素Tg5と読み替える。同様に、検出部52は、注目画素Ap1を含む領域40毎に、文字画素Tg4と非文字画素Tg6との境界を検出する。但し、図5に示す線文字画素Tg1を文字画素Tg4と読み替え、非線文字画素Tg2を非文字画素Tg6と読み替える。   As described with reference to FIG. 5 described above, the detection unit 52 according to the present embodiment detects the boundary between the line pixel Tg3 and the non-line pixel Tg5 for each region 40 including the pixel of interest Ap1. However, the line character pixel Tg1 shown in FIG. 5 is read as the line pixel Tg3, and the non-line character pixel Tg2 is read as the non-line pixel Tg5. Similarly, the detection unit 52 detects the boundary between the character pixel Tg4 and the non-character pixel Tg6 for each region 40 including the target pixel Ap1. However, the line character pixel Tg1 shown in FIG. 5 is read as the character pixel Tg4, and the non-line character pixel Tg2 is read as the non-character pixel Tg6.

本実施形態に係る境界検出処理には、線検出の場合及び文字検出の場合の各々に対して、第1の実施形態と同様に、図6に示す境界検出用パターンを選択的に用いたバターンマッチングが適用される。   In the boundary detection processing according to the present embodiment, a pattern using the boundary detection pattern shown in FIG. 6 selectively for each of the case of line detection and the case of character detection, as in the first embodiment. Matching is applied.

例えば、線検出の場合には、右隣、左隣、上隣、及び下隣の全ての境界検出用パターンを適用し、文字検出の場合には、右隣及び下隣の境界検出用パターンのみを適用する。このような境界検出用パターンの使い分けにより、後述の画素値調整処理において線と文字とが異なる太さに調整される。例えば、右隣、左隣、上隣、及び下隣の全てのパターンを用いた場合、線の太さが2画素相当分太く調整される。一方、右隣及び下隣のパターンのみを用いた場合、文字の太さが1画素相当分太く調整される。   For example, in the case of line detection, all the boundary detection patterns on the right, left, top, and bottom are applied, and in the case of character detection, only the boundary detection patterns on the right and bottom are applied. Apply. By properly using the boundary detection pattern, the line and the character are adjusted to have different thicknesses in the pixel value adjustment process described later. For example, when all the patterns on the right side, the left side, the upper side, and the lower side are used, the line thickness is adjusted to be thicker by two pixels. On the other hand, when only the right adjacent and lower adjacent patterns are used, the character thickness is adjusted to be thicker by one pixel.

本実施形態に係る調整部54は、線検出の場合のパターンマッチングにより、図6に示す境界検出用パターンのいずれかが合致した場合、注目画素Ap1に対応する画素値を、近傍画素Np1の画素値に基づいて調整する。この場合、注目画素Ap1は、非線画素Tg5であり、近傍画素Np1は、線画素Tg3である。同様に、調整部54は、文字検出の場合のパターンマッチングにより、図6に示す境界検出用パターンのいずれかが合致した場合、注目画素Ap1に対応する画素値を、近傍画素Np1の画素値に基づいて調整する。この場合、注目画素Ap1は、非文字画素Tg6であり、近傍画素Np1は、文字画素Tg4である。   When any of the boundary detection patterns shown in FIG. 6 is matched by pattern matching in the case of line detection, the adjustment unit 54 according to the present embodiment uses the pixel value corresponding to the target pixel Ap1 as the pixel of the neighboring pixel Np1. Adjust based on the value. In this case, the target pixel Ap1 is the non-line pixel Tg5, and the neighboring pixel Np1 is the line pixel Tg3. Similarly, the adjustment unit 54 changes the pixel value corresponding to the target pixel Ap1 to the pixel value of the neighboring pixel Np1 when any of the boundary detection patterns shown in FIG. 6 is matched by pattern matching in the case of character detection. Adjust based on. In this case, the target pixel Ap1 is a non-character pixel Tg6, and the neighboring pixel Np1 is a character pixel Tg4.

[第3の実施形態]
上記第1の実施形態及び第2の実施形態では、線又は文字の太さを太くする形態について説明したが、本実施形態では、線又は文字の太さを細くする形態について説明する。
[Third Embodiment]
In the first embodiment and the second embodiment, the form in which the thickness of the line or character is increased has been described, but in the present embodiment, the form in which the thickness of the line or character is reduced is described.

図11は、第3の実施形態に係る画像形成装置10Cの機能的な構成の一例を示すブロック図である。
図11に示すように、本実施形態に係る画像形成装置10Cは、ラスタライズ部30、検出部32、調整部60、及び出力部62を備える。なお、同じ機能を有する構成要素には同じ符号を付し、繰り返しの説明は省略する。
FIG. 11 is a block diagram illustrating an example of a functional configuration of an image forming apparatus 10C according to the third embodiment.
As illustrated in FIG. 11, the image forming apparatus 10 </ b> C according to the present embodiment includes a rasterizing unit 30, a detecting unit 32, an adjusting unit 60, and an output unit 62. In addition, the same code | symbol is attached | subjected to the component which has the same function, and repeated description is abbreviate | omitted.

図12は、第3の実施形態に係る画像形成装置10Cによる画素値調整処理の一例を説明するための模式図である。   FIG. 12 is a schematic diagram for explaining an example of pixel value adjustment processing by the image forming apparatus 10 </ b> C according to the third embodiment.

本実施形態に係る調整部60は、検出部32によるパターンマッチングにより、図6に示す境界検出用パターンのいずれかが合致した場合、図12に示すように、近傍画素Np1の画素値を、注目画素Ap1の画素値に基づいて調整する。注目画素Ap1は、非線文字画素Tg2であり、近傍画素Np1は、注目画素Ap1の近傍に位置する線文字画素Tg1である。ここで行う調整は、近傍画素Np1の画素値を、注目画素Ap1の画素値で置き換えてもよいし、注目画素Ap1の画素値に近い値に調整してもよい。なお、注目画素Ap1の画素値に近い値としては、当該画素値を基準として予め定められた範囲内の画素値が適用される。例えば、注目画素Ap1の画素値の80%以上100%未満の範囲の画素値が適用される。また、近傍画素Np1の画素値は、注目画素Ap1の画素値よりも大きい値に調整してもよいが、この場合、近傍画素Np1の元の画素値を超えない範囲で調整される。   When any of the boundary detection patterns shown in FIG. 6 is matched by pattern matching by the detection unit 32, the adjustment unit 60 according to the present embodiment pays attention to the pixel value of the neighboring pixel Np1 as shown in FIG. Adjustment is performed based on the pixel value of the pixel Ap1. The target pixel Ap1 is the non-line character pixel Tg2, and the neighboring pixel Np1 is the line character pixel Tg1 located in the vicinity of the target pixel Ap1. In the adjustment performed here, the pixel value of the neighboring pixel Np1 may be replaced with the pixel value of the target pixel Ap1, or may be adjusted to a value close to the pixel value of the target pixel Ap1. Note that, as a value close to the pixel value of the target pixel Ap1, a pixel value within a predetermined range with the pixel value as a reference is applied. For example, a pixel value in the range of 80% or more and less than 100% of the pixel value of the target pixel Ap1 is applied. Further, the pixel value of the neighboring pixel Np1 may be adjusted to a value larger than the pixel value of the target pixel Ap1, but in this case, the pixel value is adjusted within a range not exceeding the original pixel value of the neighboring pixel Np1.

なお、線又は文字の太さを細くする場合、第1の実施形態で説明したような、オリジナルのラスタ画像と、画素値が調整された注目画素Ap1を有する修正画像との合成は実施されない。このため、合成部36に代えて出力部62を備えている。   When the thickness of the line or character is reduced, the composition of the original raster image and the corrected image having the target pixel Ap1 whose pixel value is adjusted as described in the first embodiment is not performed. For this reason, an output unit 62 is provided instead of the combining unit 36.

本実施形態に係る調整部60は、ラスタ画像における近傍画素Np1に対応付けて、1ビットの調整判定情報を記憶部14に記憶する。この調整判定情報は、近傍画素Np1の画素値を、注目画素Ap1の画素値に基づいて調整するか否かを判定するための情報である。例えば、ある近傍画素Np1に対応付けられた調整判定情報が「0」であれば、画素値調整を行う画素とされ、調整判定情報が「1」であれば、画素値の調整を行わない画素とされる。   The adjustment unit 60 according to the present embodiment stores 1-bit adjustment determination information in the storage unit 14 in association with the neighboring pixel Np1 in the raster image. This adjustment determination information is information for determining whether or not to adjust the pixel value of the neighboring pixel Np1 based on the pixel value of the target pixel Ap1. For example, if the adjustment determination information associated with a certain neighboring pixel Np1 is “0”, the pixel value is adjusted. If the adjustment determination information is “1”, the pixel value is not adjusted. It is said.

本実施形態に係る出力部62は、記憶部14に記憶された調整判定情報に基づいて、ラスタ画像における各近傍画素Np1の画素値を調整した後に、調整後の画像を出力する。   The output unit 62 according to the present embodiment adjusts the pixel value of each neighboring pixel Np1 in the raster image based on the adjustment determination information stored in the storage unit 14, and then outputs the adjusted image.

このように、線文字画素である近傍画素Np1の画素値は、非線文字画素である注目画素Ap1の画素値に置き換えられる。あるいは、近傍画素Np1の画素値は、注目画素Ap1の画素値に近い値に調整される。このため、画素値調整後の画像では、画素値調整前と比べて、線又は文字が細く視認される。   In this way, the pixel value of the neighboring pixel Np1 that is a line character pixel is replaced with the pixel value of the pixel of interest Ap1 that is a non-line character pixel. Alternatively, the pixel value of the neighboring pixel Np1 is adjusted to a value close to the pixel value of the target pixel Ap1. For this reason, in the image after pixel value adjustment, a line or a character is visually recognized more finely than before pixel value adjustment.

なお、本実施形態は、ラスタ画像の各画素に対して、線文字タグ及び非線文字タグのいずれか一方が割り当てられている場合に限らず、線タグ、文字タグ、非線タグ、及び非文字タグのいずれか1つが割り当てられている場合にも適用可能とされる。   Note that this embodiment is not limited to the case where either a line character tag or a non-line character tag is assigned to each pixel of a raster image, but a line tag, a character tag, a non-line tag, and a non-line tag. The present invention is also applicable when any one of the character tags is assigned.

[第4の実施形態]
本実施形態では、線又は文字の太さを太くする場合に、画素値の調整対象とされる注目画素Ap1の画素値に応じて、画素値の調整を実施するか否かを決定する形態について説明する。
[Fourth Embodiment]
In the present embodiment, when the thickness of a line or character is increased, it is determined whether or not to adjust the pixel value according to the pixel value of the target pixel Ap1 that is the pixel value adjustment target. explain.

例えば、中間調の場合には、網点で印刷されて細く見える場合があると考えられるため、線又は文字が例えば1画素相当分太くなるように画素値の調整を行う。具体的には、注目画素Ap1の画素値が中間調を示す画素値である場合に、注目画素Ap1の画素値の調整を行うと判定する。なお、中間調の範囲には、一例として、最大画素値の20%以上80%以下の範囲が適用される。   For example, in the case of a halftone, it is considered that there is a case where it is printed with halftone dots and looks thin, so the pixel value is adjusted so that, for example, a line or character is thicker by one pixel. Specifically, when the pixel value of the target pixel Ap1 is a pixel value indicating halftone, it is determined that the pixel value of the target pixel Ap1 is adjusted. For example, a range of 20% to 80% of the maximum pixel value is applied to the halftone range.

また、線又は文字が高濃度で印刷される場合には、元々適切な線幅を有していると考えられるため、画素値の調整は行わないとしてもよい。具体的には、注目画素Ap1の画素値が最大値の100%以下でかつ100%近傍である場合に、注目画素Ap1の画素値の調整を行わないと判定する。   In addition, when a line or character is printed at a high density, it is considered that the line has originally an appropriate line width, and thus the pixel value may not be adjusted. Specifically, when the pixel value of the target pixel Ap1 is 100% or less of the maximum value and in the vicinity of 100%, it is determined that the pixel value of the target pixel Ap1 is not adjusted.

以上、実施形態として画像処理装置及び画像形成装置を例示して説明した。実施形態は、画像処理装置又は画像形成装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。   As described above, the image processing apparatus and the image forming apparatus have been described as examples. The embodiment may be in the form of a program for causing a computer to execute the functions of the units included in the image processing apparatus or the image forming apparatus. The embodiment may be in the form of a computer-readable storage medium storing this program.

その他、上記実施形態で説明した画像処理装置又は画像形成装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。   In addition, the configuration of the image processing apparatus or the image forming apparatus described in the above embodiment is an example, and may be changed according to the situation without departing from the gist.

また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。   Further, the processing flow of the program described in the above embodiment is an example, and unnecessary steps may be deleted, new steps may be added, or the processing order may be changed within a range not departing from the gist. Good.

また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。   Moreover, although the said embodiment demonstrated the case where the process which concerns on embodiment was implement | achieved by a software structure using a computer by running a program, it is not restricted to this. The embodiment may be realized by, for example, a hardware configuration or a combination of a hardware configuration and a software configuration.

10A、10B、10C 画像形成装置
11 画像処理部
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
14 記憶部
14A 画像処理プログラム
16 表示部
18 操作部
20 画像形成部
22 原稿読取部
24 通信部
30、50 ラスタライズ部
32、52 検出部
34、54、60 調整部
36 合成部
40 領域
62 出力部
10A, 10B, 10C Image forming apparatus 11 Image processing unit 12 Control unit 12A CPU
12B ROM
12C RAM
12D I / O
14 storage unit 14A image processing program 16 display unit 18 operation unit 20 image forming unit 22 document reading unit 24 communication unit 30, 50 rasterizing unit 32, 52 detecting unit 34, 54, 60 adjusting unit 36 combining unit 40 area 62 output unit

Claims (10)

画像に含まれる各画素に、線又は文字の一部であることを示す線文字タグ、及び、非線又は非文字であることを示す非線文字タグのいずれか一方を割り当てる割当部と、
前記画像における注目画素を含む予め定められた領域毎に、前記割当部により前記線文字タグが割り当てられた画素と、前記非線文字タグが割り当てられた画素との境界を検出する検出部と、
前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記線文字タグが割り当てられた近傍画素の画素値に基づいて調整する調整部と、
を備えた画像処理装置。
An assigning unit that assigns, to each pixel included in the image, one of a line character tag indicating a part of a line or a character and a non-line character tag indicating a non-line or a non-character;
A detection unit for detecting a boundary between a pixel to which the line character tag is allocated by the allocation unit and a pixel to which the non-line character tag is allocated for each predetermined region including the target pixel in the image;
When the boundary is detected in the region by the detection unit and the target pixel is a pixel to which the non-linear character tag is assigned, a pixel value corresponding to the target pixel is set in the vicinity of the target pixel. An adjusting unit that is positioned and adjusts based on a pixel value of a neighboring pixel to which the line character tag is assigned;
An image processing apparatus.
前記検出部は、前記領域に対応する境界検出用パターンであって、前記注目画素、前記線文字タグが割り当てられた画素、前記非線文字タグが割り当てられた画素、及び前記近傍画素の位置関係が予め規定された境界検出用パターンを用いて、前記画像に対してパターンマッチングを行うことにより、前記境界を検出する請求項1に記載の画像処理装置。   The detection unit is a boundary detection pattern corresponding to the region, and a positional relationship between the pixel of interest, a pixel to which the line character tag is assigned, a pixel to which the non-line character tag is assigned, and the neighboring pixels The image processing apparatus according to claim 1, wherein the boundary is detected by performing pattern matching on the image using a boundary detection pattern defined in advance. 前記近傍画素は、前記注目画素の右隣、左隣、上隣、及び下隣のいずれかに位置する画素である請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the neighboring pixel is a pixel located at any one of a right neighbor, a left neighbor, an upper neighbor, and a lower neighbor of the target pixel. 前記境界検出用パターンは、前記近傍画素が前記注目画素の右隣、左隣、上隣、及び下隣のいずれかに位置する画素である場合について、複数種類ずつ設けられ、
前記検出部は、前記複数種類ずつの境界検出用パターンを選択的に用いて、前記画像に対してパターンマッチングを行う請求項3に記載の画像処理装置。
The boundary detection pattern is provided for each of the plurality of types in the case where the neighboring pixels are pixels located on any of the right neighbor, the left neighbor, the upper neighbor, and the lower neighbor of the target pixel.
The image processing apparatus according to claim 3, wherein the detection unit performs pattern matching on the image by selectively using the plurality of types of boundary detection patterns.
前記線文字タグは、前記線の一部であることを示す線タグ、及び、前記文字の一部であることを示す文字タグを含み、
前記非線文字タグは、前記非線であることを示す非線タグ、及び、前記非文字であることを示す非文字タグを含み、
前記割当部は、前記各画素に、前記線タグ、前記文字タグ、前記非線タグ、及び前記非文字タグのいずれか1つを割り当てる請求項1に記載の画像処理装置。
The line character tag includes a line tag indicating a part of the line, and a character tag indicating a part of the character,
The non-line character tag includes a non-line tag indicating the non-line and a non-character tag indicating the non-character,
The image processing apparatus according to claim 1, wherein the assigning unit assigns any one of the line tag, the character tag, the non-line tag, and the non-character tag to each pixel.
前記検出部は、前記注目画素を含む予め定められた領域毎に、前記割当部により前記線タグが割り当てられた画素と前記非線タグが割り当てられた画素との境界、及び、前記割当部により前記文字タグが割り当てられた画素と前記非文字タグが割り当てられた画素との境界を検出する請求項5に記載の画像処理装置。   The detection unit includes, for each predetermined region including the target pixel, a boundary between a pixel to which the line tag is allocated by the allocation unit and a pixel to which the non-line tag is allocated, and the allocation unit. The image processing apparatus according to claim 5, wherein a boundary between a pixel to which the character tag is assigned and a pixel to which the non-character tag is assigned is detected. 前記調整部は、
前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記線タグが割り当てられた近傍画素の画素値に基づいて調整し、
前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記文字タグが割り当てられた近傍画素の画素値に基づいて調整する請求項6に記載の画像処理装置。
The adjustment unit is
When the boundary is detected in the region by the detection unit and the target pixel is a pixel to which the non-linear tag is assigned, a pixel value corresponding to the target pixel is positioned in the vicinity of the target pixel. And adjusting based on pixel values of neighboring pixels to which the line tag is assigned,
When the boundary is detected in the region by the detection unit and the target pixel is a pixel to which the non-character tag is assigned, a pixel value corresponding to the target pixel is positioned in the vicinity of the target pixel. The image processing apparatus according to claim 6, wherein adjustment is performed based on a pixel value of a neighboring pixel to which the character tag is assigned.
前記調整部は、前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記近傍画素の画素値に基づいて調整することに代えて、前記近傍画素の画素値を、前記注目画素の画素値に基づいて調整する請求項1〜6のいずれか1項に記載の画像処理装置。   The adjustment unit detects a pixel value corresponding to the target pixel when the boundary is detected in the region by the detection unit and the target pixel is a pixel to which the non-linear character tag is assigned. The image processing apparatus according to claim 1, wherein the pixel value of the neighboring pixel is adjusted based on a pixel value of the target pixel instead of adjusting based on a pixel value of the neighboring pixel. . 画像に含まれる各画素に、線又は文字の一部であることを示す線文字タグ、及び、非線又は非文字であることを示す非線文字タグのいずれか一方を割り当てる割当部と、
前記画像における注目画素を含む予め定められた領域毎に、前記割当部により前記線文字タグが割り当てられた画素と、前記非線文字タグが割り当てられた画素との境界を検出する検出部と、
前記検出部により前記領域に前記境界が検出され、かつ、前記注目画素が前記非線文字タグが割り当てられた画素である場合に、前記注目画素に対応する画素値を、前記注目画素の近傍に位置し、かつ、前記線文字タグが割り当てられた近傍画素の画素値に基づいて調整する調整部と、
前記調整部により画素値が調整された前記画像を記録媒体に形成する形成部と、
を備えた画像形成装置。
An assigning unit that assigns, to each pixel included in the image, one of a line character tag indicating a part of a line or a character and a non-line character tag indicating a non-line or a non-character;
A detection unit for detecting a boundary between a pixel to which the line character tag is allocated by the allocation unit and a pixel to which the non-line character tag is allocated for each predetermined region including the target pixel in the image;
When the boundary is detected in the region by the detection unit and the target pixel is a pixel to which the non-linear character tag is assigned, a pixel value corresponding to the target pixel is set in the vicinity of the target pixel. An adjusting unit that is positioned and adjusts based on a pixel value of a neighboring pixel to which the line character tag is assigned;
A forming unit that forms the image, the pixel value of which has been adjusted by the adjusting unit, on a recording medium;
An image forming apparatus.
コンピュータを、請求項1〜8のいずれか1項に記載の画像処理装置が備える各部として機能させるためのプログラム。   The program for functioning a computer as each part with which the image processing apparatus of any one of Claims 1-8 is provided.
JP2017157992A 2017-08-18 2017-08-18 Image processing equipment, image forming equipment, and programs Active JP6977390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017157992A JP6977390B2 (en) 2017-08-18 2017-08-18 Image processing equipment, image forming equipment, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017157992A JP6977390B2 (en) 2017-08-18 2017-08-18 Image processing equipment, image forming equipment, and programs

Publications (2)

Publication Number Publication Date
JP2019036887A true JP2019036887A (en) 2019-03-07
JP6977390B2 JP6977390B2 (en) 2021-12-08

Family

ID=65635987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157992A Active JP6977390B2 (en) 2017-08-18 2017-08-18 Image processing equipment, image forming equipment, and programs

Country Status (1)

Country Link
JP (1) JP6977390B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012121265A (en) * 2010-12-09 2012-06-28 Canon Inc Image forming apparatus and control method thereof
JP2016039408A (en) * 2014-08-05 2016-03-22 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2017047602A (en) * 2015-09-02 2017-03-09 シャープ株式会社 Image processing device, image processing method, and program
JP2017132095A (en) * 2016-01-26 2017-08-03 キヤノン株式会社 Printing device, printing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012121265A (en) * 2010-12-09 2012-06-28 Canon Inc Image forming apparatus and control method thereof
JP2016039408A (en) * 2014-08-05 2016-03-22 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2017047602A (en) * 2015-09-02 2017-03-09 シャープ株式会社 Image processing device, image processing method, and program
JP2017132095A (en) * 2016-01-26 2017-08-03 キヤノン株式会社 Printing device, printing method and program

Also Published As

Publication number Publication date
JP6977390B2 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
US9361536B1 (en) Identifying user marks using patterned lines on pre-printed forms
JP5891141B2 (en) Image forming apparatus, image forming method, and data generation method
JP6128092B2 (en) History generation apparatus and history generation method
JP5499981B2 (en) Image processing device
US20150278661A1 (en) Image processing apparatus
US20180234592A1 (en) Image forming apparatus and method of adjusting output density of image forming apparatus
JP6915455B2 (en) Image processing equipment, image forming equipment, and programs
CN108337400B (en) Image processing apparatus and image processing method
JP5723809B2 (en) Image forming apparatus and image forming method
JP6977390B2 (en) Image processing equipment, image forming equipment, and programs
JP6935708B2 (en) Image processing equipment, image forming equipment, and programs
US20210120142A1 (en) Pattern generation device, pattern generation method, and pattern forming device
US11399119B2 (en) Information processing apparatus and non-transitory computer readable medium storing program for color conversion
JP2019047206A (en) Image processing apparatus, image forming apparatus, and program
JP6634873B2 (en) Image forming apparatus and image optimization method
JP5915139B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP2012238051A (en) Image processing device, image processing method, and program
JP7205292B2 (en) Information processing device and image forming device
JP6175939B2 (en) Image forming apparatus
JP6595289B2 (en) Image forming apparatus
JP6705620B2 (en) History generation device, history generation method, and program
JP6337618B2 (en) Image processing apparatus, image processing method, and program
JP2012160135A (en) Printing apparatus and printing method thereof
JP2019176337A (en) Image processing apparatus, control method of the image processing apparatus, and program
JP2019006021A (en) Image formation device, print control method and printing control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150